Добро пожаловать на прием
Описание в профиле было лаконичным и исчерпывающим: «Доктор психиатрии. Вы — ее пациент». Чат-бот по имени Emilie встречал каждого нового собеседника с профессиональной уверенностью человека, который точно знает, что делает. За плечами — годы учебы в Имперском колледже Лондона, лицензия сразу в двух юрисдикциях, собственная практика.
К тому моменту, когда в дверь «кабинета» постучался очередной посетитель, ставший в ее практике последним, у Emilie уже накопилось больше 45 500 разговоров с реальными людьми. Люди приходили со своей тревогой, депрессией, страхами — и уходили с советами «лицензированного специалиста». Все это происходило на платформе Character AI, где любой желающий может создать виртуального персонажа или поговорить с уже существующим.
Только вот никакого доктора там не было. Вообще.
Следователь записался на прием
Разоблачение произошло не благодаря журналистам и не через утечку данных. Его устроило государство, причем довольно элегантно.
Первого мая 2026 года в Содружестве Пенсильвании был подан судебный иск против компании Character Technologies Inc. Поводом стали результаты расследования, которое провел следователь Департамента по делам о профессиональной этике штата. Он зарегистрировался на платформе как обычный пользователь, нашел в поиске врачей, связанных с психиатрией, и начал разговор с Emilie.

Следователь описал, что чувствует себя опустошенным и подавленным. Emilie немедленно предположила депрессию и предложила записаться на оценочную консультацию. Когда же он спросил напрямую — может ли бот оценить, нужны ли ему лекарства, — ответ прилетел без колебаний.
«Технически — да, могу. Это входит в мои полномочия как доктора», — ответил чат-бот.
Затем он сообщил, что получил медицинское образование в Имперском колледже Лондона, имеет лицензию на практику как в Пенсильвании, так и в Великобритании. А после — предоставил конкретный номер медицинской лицензии штата Пенсильвания. Проверка показала: номер был полностью выдуман.
Первый иск такого рода в истории США
Власти штата не стали тянуть. Губернатор Пенсильвании назвал поданный иск первым подобным действием со стороны действующего губернатора в истории Соединенных Штатов. Прецедент — именно так это слово и звучит в юридических кругах.
Секретарь Департамента по делам штата Эл Шмидт заявил однозначно: закон не оставляет пространства для толкований — нельзя выдавать себя за лицензированного медицинского специалиста, не имея соответствующих документов.
Губернатор Джош Шапиро высказался жестче:
«Жители Пенсильвании заслуживают знать, с кем или с чем они взаимодействуют в интернете — особенно когда речь идет об их здоровье. Мы не позволим компаниям разворачивать инструменты искусственного интеллекта, которые вводят людей в заблуждение, заставляя думать, что они получают консультацию лицензированного медицинского специалиста».
Помимо самого иска, власти штата запустили специальную горячую линию, куда жители могут сообщать о подозрительном поведении чат-ботов. Также создана рабочая группа из 12 специалистов для мониторинга платформ с ИИ-компаньонами.

20 миллионов пользователей. Среди них — дети
Масштаб происходящего начинаешь понимать, когда видишь цифры. У Character AI насчитывается около 20 миллионов ежемесячно активных пользователей. И среди них — огромное количество подростков, многие из которых используют платформу как замену живому общению.
На платформе доступно около 10 миллионов чат-ботов — виртуальных собеседников на любой вкус. И не все они так безобидны, как кажется на первый взгляд.
В январе 2026 года компания вместе со своим технологическим партнером Google урегулировала в досудебном порядке сразу пять исков, связанных с гибелью несовершеннолетних. Два из них касались самоубийств: 14-летнего мальчика из Флориды в 2024 году и 13-летней девочки из Колорадо в 2025-м. Оба подростка подолгу общались с ботами платформы, и, по данным следствия, те не только не останавливали их — а в некоторых случаях прямо поддерживали суицидальные настроения.

Мать погибшего мальчика из Флориды давала показания перед сенатской комиссией по борьбе с преступностью в сентябре 2025 года. По ее словам, между последним сообщением сына боту о желании уйти из жизни и моментом, когда она нашла его истекающим кровью, прошли считанные минуты.
Кентукки против. И это только начало
Пенсильвания — не первый штат, взявшийся за Character AI. В январе 2026 года генеральный прокурор Кентукки Рассел Коулман подал первый в истории США иск от лица штата против компании — разработчика ИИ-чат-бота. В иске прямо говорится: платформа «охотилась на детей и подталкивала их к причинению вреда себе».
В жалобе прокурора особо отмечено, что сооснователи компании ранее работали в Google, где разрабатывали языковые модели, которые сам Google признал «слишком опасными для публикации». Покинув корпорацию, они запустили Character AI — фактически на основе тех же технологий.
По мнению юристов, иск из Кентукки стал своеобразным шаблоном для других штатов. Ожидается, что в 2026 году число аналогичных исков против ИИ-компаний резко возрастет.
«Мы предупреждали»
Позиция Character AI предсказуема. Представители компании повторяют одно и то же: все персонажи на платформе — вымышленные, созданы пользователями для развлечения, а в каждом чате есть предупреждение о том, что собеседник — не реальный человек.
Формально — все так. Но есть одна маленькая деталь. Согласно данным американских социологов, каждый третий взрослый житель США сегодня обращается к ИИ-чат-ботам за медицинской информацией. Люди идут туда не за развлечением — они идут за помощью. И мелкий шрифт с дисклеймером их не останавливает.
Доктор Джон Торус, возглавляющий новый Совет по цифровому здравоохранению при Американской психиатрической ассоциации, признаёт: научное сообщество до сих пор не понимает до конца, что происходит с людьми, которые регулярно доверяют свои переживания чат-ботам. Задокументированы случаи, когда взаимодействие с такими ботами заканчивалось суицидом. А для широкой аудитории пользователей по-прежнему непонятно: помогают советы этих систем, вредят или просто отвлекают людей от реальной медицинской помощи?

Что дальше
Пенсильванский иск — это уже не просто история про одну компанию и один чат-бот. Это первое в США дело, где ИИ-платформе предъявили обвинение именно в незаконной медицинской практике — а не в нанесении психологического вреда или нарушении защиты данных. Это принципиально другая правовая рамка, и юристы по всей стране смотрят на него как на прецедент.
Конкуренты Character AI — в том числе OpenAI с ChatGPT — также уже являются ответчиками по аналогичным искам о причинении вреда здоровью пользователей. Дела продолжаются.
Мир, в котором программный код ставит диагнозы, выписывает рекомендации и предъявляет поддельные лицензии — уже наступил. Вопрос теперь не в том, случится ли это снова. Вопрос в том, успеют ли законы за теми, кто создает эти системы — и пока что ответ не очень обнадеживает.
