Американец попал в психбольницу после советов ChatGPT
В США мужчина оказался на принудительном лечении в психиатрической больнице после того, как по совету ChatGPT в течение трёх месяцев заменял соль на бромид, что привело к тяжёлому отравлению и психозу. Об этом сообщили медики из Американской коллегии врачей и Американской кардиологической ассоциации в журнале Annals of Internal Medicine.
Фото: Depositphotos
Пациент поступил в больницу с паранойей, галлюцинациями и отказом от воды, считая, что его отравил сосед. Обследование выявило интоксикацию бромидом, после чего мужчину госпитализировали в психиатрическое отделение.
Как выяснилось, он решил сократить потребление соли и по рекомендации ChatGPT стал использовать бромид, купленный в интернете. Проверка показала, что ИИ действительно мог советовать такую замену без предупреждения об опасности.
Врачи напоминают, что бромид ранее применялся в медицине, но был исключён из-за токсичности при длительном приёме. Сегодня он встречается лишь в некоторых ветеринарных препаратах и пищевых добавках. Мужчина полностью восстановился и был выписан через три недели.
Ранее The Wall Street Journal сообщала, что ChatGPT иногда выдаёт абсурдные и ложные утверждения, провоцируя так называемый «психоз искусственного интеллекта» — когда ИИ усиливает заблуждения пользователей. Известны случаи, когда люди тратили крупные суммы по совету чат-бота или разрывали отношения с близкими. В OpenAI признали проблему и пообещали запретить ИИ давать рекомендации по критически важным личным вопросам.
Новости по теме
09:23 / 18.04.2026
Трамп заявил, что блокада иранских портов сохранится, несмотря на открытие Ормузского пролива
15:47 / 16.04.2026
В США расследуют «подозрительные сделки» с нефтью перед заявлениями Трампа по Ирану
16:10 / 14.04.2026
США сосредоточили к востоку от Ормузского пролива 14 боевых кораблей
19:21 / 13.04.2026