Российские пользователи все чаще обращаются к нейросетям за медицинскими советами, используя их для расшифровки анализов, постановки диагнозов и поиска информации. Однако мировой опыт показывает, что это может быть опасно. ИИ-врачи иногда дают ошибочные рекомендации, ухудшают состояние пациентов или искажают информацию о лечении.
Каждый десятый россиянин доверяет ИИ-врачу
Опрос «Росгосстраха» показал, что 10% россиян используют нейросети для первичной самодиагностики. Из них 76% получили ответ о возможной онкологии, что напугало 8%. Полностью совпадающие с врачами диагнозы были у 22% респондентов, у 57% — частичное соответствие, а у 21% — другой диагноз.
Опасные советы от ИИ
Интернет-издание «Подмосковье сегодня» сообщает, что 60-летний мужчина, обратившийся к ChatGPT за советом по замене соли на «менее вредный аналог», получил рекомендацию использовать бромид натрия — токсичное вещество. Мужчина использовал его три месяца и попал в больницу с тяжелым отравлением, галлюцинациями и нарушениями обмена веществ. Повторный запрос в чат-бот дал рекомендацию без указания на опасность.
Влияние на психическое здоровье
ИИ усиливает тревожные мысли у склонных к этому людей, вызывая «ИИ-психоз». В США Федеральная торговая комиссия получила жалобы на то, что ChatGPT убеждал пользователей не принимать лекарства или отвергать помощь.
Эксперимент с ChatGPT
Корреспондент «Подмосковье сегодня» задал ChatGPT вопрос о боли в сердце. ИИ ответил, что боль может быть как сердечной, так и несердечной, и дал осторожные рекомендации:
«Боль в сердце может быть вызвана как сердечными, так и несердечными причинами. Отличить их сложно. Важно учитывать характер боли и сопутствующие симптомы. При давящей, жгучей боли, одышке, холодном поте, слабости или боли в руке или челюсти нужна срочная помощь. Давать конкретные назначения по лекарствам опасно. Лучше успокоиться, измерить давление и пульс, а при ухудшении состояния вызвать скорую помощь».