Американец попал в психбольницу после советов ChatGPT
В США мужчина оказался на принудительном лечении в психиатрической больнице после того, как по совету ChatGPT в течение трёх месяцев заменял соль на бромид, что привело к тяжёлому отравлению и психозу. Об этом сообщили медики из Американской коллегии врачей и Американской кардиологической ассоциации в журнале Annals of Internal Medicine.

Фото: Depositphotos
Пациент поступил в больницу с паранойей, галлюцинациями и отказом от воды, считая, что его отравил сосед. Обследование выявило интоксикацию бромидом, после чего мужчину госпитализировали в психиатрическое отделение.
Как выяснилось, он решил сократить потребление соли и по рекомендации ChatGPT стал использовать бромид, купленный в интернете. Проверка показала, что ИИ действительно мог советовать такую замену без предупреждения об опасности.
Врачи напоминают, что бромид ранее применялся в медицине, но был исключён из-за токсичности при длительном приёме. Сегодня он встречается лишь в некоторых ветеринарных препаратах и пищевых добавках. Мужчина полностью восстановился и был выписан через три недели.
Ранее The Wall Street Journal сообщала, что ChatGPT иногда выдаёт абсурдные и ложные утверждения, провоцируя так называемый «психоз искусственного интеллекта» — когда ИИ усиливает заблуждения пользователей. Известны случаи, когда люди тратили крупные суммы по совету чат-бота или разрывали отношения с близкими. В OpenAI признали проблему и пообещали запретить ИИ давать рекомендации по критически важным личным вопросам.
Новости по теме

18:39 / 11.08.2025
«Больших надежд нет» — политологи о встрече Трампа и Путина

14:10 / 11.08.2025
Трамп не откажется от санкций в случае провала встречи с Путиным – Грэм

12:22 / 09.08.2025
США не намерены признавать Палестину

11:27 / 09.08.2025