Американец попал в психбольницу после советов ChatGPT
В США мужчина оказался на принудительном лечении в психиатрической больнице после того, как по совету ChatGPT в течение трёх месяцев заменял соль на бромид, что привело к тяжёлому отравлению и психозу. Об этом сообщили медики из Американской коллегии врачей и Американской кардиологической ассоциации в журнале Annals of Internal Medicine.
Фото: Depositphotos
Пациент поступил в больницу с паранойей, галлюцинациями и отказом от воды, считая, что его отравил сосед. Обследование выявило интоксикацию бромидом, после чего мужчину госпитализировали в психиатрическое отделение.
Как выяснилось, он решил сократить потребление соли и по рекомендации ChatGPT стал использовать бромид, купленный в интернете. Проверка показала, что ИИ действительно мог советовать такую замену без предупреждения об опасности.
Врачи напоминают, что бромид ранее применялся в медицине, но был исключён из-за токсичности при длительном приёме. Сегодня он встречается лишь в некоторых ветеринарных препаратах и пищевых добавках. Мужчина полностью восстановился и был выписан через три недели.
Ранее The Wall Street Journal сообщала, что ChatGPT иногда выдаёт абсурдные и ложные утверждения, провоцируя так называемый «психоз искусственного интеллекта» — когда ИИ усиливает заблуждения пользователей. Известны случаи, когда люди тратили крупные суммы по совету чат-бота или разрывали отношения с близкими. В OpenAI признали проблему и пообещали запретить ИИ давать рекомендации по критически важным личным вопросам.
Новости по теме
10:46
Трамп допустил отправку дополнительных военных кораблей на Ближний Восток
14:55 / 10.02.2026
Куба осталась без топлива для самолетов из-за нефтяной блокады США
12:23 / 10.02.2026
Мексика приостановила поставки нефти на Кубу из-за угроз санкций со стороны США
10:47 / 10.02.2026