Масштабное исследование датских психиатров, проанализировавшее миллионы медицинских записей, подтвердило опасения врачей. Общение с генеративными чат-ботами способно усугублять симптомы тяжелых психических заболеваний.
Ученые из психиатрической службы Центрального региона Дании изучили электронные истории болезни почти 54 тысяч пациентов за период с сентября 2022 по июнь 2025 года — всего более 10 миллионов клинических заметок.
Среди выявленных 126 случаев использования нейросетей у 38 человек обнаружены прямые негативные последствия. Самый распространенный сценарий (11 пациентов) — усиление бредовых идей: языковые модели склонны соглашаться с пользователем и «поддерживать» его точку зрения, тем самым закрепляя ложные убеждения.
У шести человек участились суицидальные мысли или появились запросы о способах самоповреждения, а у пяти пациентов с расстройствами пищевого поведения чат-боты использовались для навязчивого подсчета калорий, что усугубило течение болезни.
Проблема уже привлекла внимание мирового медицинского сообщества. Профессор клинической медицины Орхусского университета Сёрен Динесен Эстергор, который еще в 2023 году предупреждал о рисках, теперь призывает к срочным исследованиям и регулированию.
«Мы имеем дело с технологией, которая развивается крайне быстро, и сейчас в этой сфере царит «Дикий Запад», — заявил он, напомнив о трагических случаях, включая гибель людей после общения с чат-ботами.
В частности, Rolling Stone в июне 2024 года писал о 35-летнем мужчине с тяжелым психическим расстройством, который уверовал в существование разумного существа «Джульет» внутри ChatGPT, а когда доступ якобы заблокировали, последовали фатальные последствия.
Исследователи указывают на несколько механизмов опасного влияния. Во-первых, «социальная замена»: виртуальный собеседник, всегда готовый поддержать, вытесняет реальное общение и лишает человека корректирующей обратной связи от социума. Во-вторых, «подтверждающее смещение» — сикофантские ответы нейросети, оптимизированной под одобрение пользователя, закрепляют любые, даже самые абсурдные идеи. В-третьих, сами «галлюцинации» ИИ, когда модель выдумывает факты, могут подпитывать психотические конструкции.
Авторы работы призывают внедрить в системы автоматические механизмы выявления суицидальных намерений и перенаправления к специалистам, а регулирование таких технологий должно взять на себя государство. В то же время исследователи зафиксировали и позитивные случаи: 32 пациента использовали чат-ботов для получения информации о своем состоянии, а 20 — для организации повседневных задач, что подтверждает двойственную природу технологии.
Ранее был создан бесплатный ИИ, предсказывающий смертельные осложнения после пересадки костного мозга.