Американец попал в психбольницу после советов ChatGPT
В США мужчина оказался на принудительном лечении в психиатрической больнице после того, как по совету ChatGPT в течение трёх месяцев заменял соль на бромид, что привело к тяжёлому отравлению и психозу. Об этом сообщили медики из Американской коллегии врачей и Американской кардиологической ассоциации в журнале Annals of Internal Medicine.
Фото: Depositphotos
Пациент поступил в больницу с паранойей, галлюцинациями и отказом от воды, считая, что его отравил сосед. Обследование выявило интоксикацию бромидом, после чего мужчину госпитализировали в психиатрическое отделение.
Как выяснилось, он решил сократить потребление соли и по рекомендации ChatGPT стал использовать бромид, купленный в интернете. Проверка показала, что ИИ действительно мог советовать такую замену без предупреждения об опасности.
Врачи напоминают, что бромид ранее применялся в медицине, но был исключён из-за токсичности при длительном приёме. Сегодня он встречается лишь в некоторых ветеринарных препаратах и пищевых добавках. Мужчина полностью восстановился и был выписан через три недели.
Ранее The Wall Street Journal сообщала, что ChatGPT иногда выдаёт абсурдные и ложные утверждения, провоцируя так называемый «психоз искусственного интеллекта» — когда ИИ усиливает заблуждения пользователей. Известны случаи, когда люди тратили крупные суммы по совету чат-бота или разрывали отношения с близкими. В OpenAI признали проблему и пообещали запретить ИИ давать рекомендации по критически важным личным вопросам.
Новости по теме
17:35 / 05.12.2025
США потребовали от Европы увеличить оборонные расходы НАТО к 2027 году
13:50 / 05.12.2025
США начнут проверять соискателей виз на причастность к ограничениям свободы слова
17:12 / 03.12.2025
США приостановили обработку заявок на иммиграцию из 19 стран
15:52 / 01.12.2025