Представитель OpenAI, создателя ChatGPT, выразил соболезнования и обратился в правоохранительные органы. Компания заявила о скором выпуске обновления чат-бота, направленного на оказание помощи пользователям с неустойчивой психикой.
Бывший служащий Yahoo Стайн-Эрик Сольберг, страдавший от паранойи, убил свою мать, после чего совершил самоубийство. Это первый зафиксированный случай, когда человек с психическими проблемами совершил убийство, находясь под влиянием искусственного интеллекта.
По данным газеты The Wall Street Journal, этому предшествовало общение Сольберга с чат-ботом ChatGPT. В статье утверждается, что чат-бот систематически усиливал подозрения Сольберга по отношению к окружающим, включая его мать. Сольберг даже дал ИИ имя "Бобби" и задавал ему вопросы о совместной жизни после смерти, на которые, как сообщается, получал положительные ответы.
Газета приводит примеры диалогов, которые могли способствовать трагической развязке. В частности, на замечание матери по поводу отключенного принтера, ChatGPT предположил, что женщина могла защищать "устройство слежки".
В другом случае, Сольберг заявил чат-боту о предполагаемой попытке отравления через систему вентиляции автомобиля. Нейросеть ответила, что "верит" ему и обвинила мать в предательстве. Анализируя чек из китайского ресторана, ИИ обнаружил намеки на мать Сольберга и символ, якобы используемый для вызова демонов, предупреждая об опасности отравления со стороны окружающих, включая курьера.