Общество16.04.2026 - 14:05

358 сбоев, 39 миллионов утечек и ноль ответственности: когда ИИ в госсекторе перестанет быть экспериментом над живыми людьми?

ИИ понимает данные, но не людей: амстердамский алгоритм считал подозрительным сокрытие личной информации там, где это — признак достоинства, а австралийская программа Robodebt, приведшая к самоубийствам, оказалась «грубым и несправедливым механизмом». Как западные скандалы с автоматизированными соцвыплатами помогают России избежать собственных ошибок, и почему в СПЧ уже требуют законодательно закрепить решающую роль человека?

Фото: Коллаж RuNews24.ru

По словам эксперта по социально-экономической политике Якова Якубовича, внедрение искусственного интеллекта в государственном секторе сулит эффективность и скорость, но игнорировать риски — значит подвергать опасности доверие граждан и их право на справедливость. В комментарии RuNews24.ru он отметил, что мировой опыт показывает, что ошибки алгоритмов в социальной сфере — это не абстрактные сбои, а разрушенные судьбы и многомиллионные компенсации.

Ключевая проблема автоматизированных решений — их непрозрачность. Если система отказывает в выплате, но не может объяснить почему, перед гражданином возникает «чёрный ящик», где исчезает субъект ответственности. Кому апеллировать, если ошибку допустила машина?

Как пояснил эксперт, международная статистика фиксирует рост числа ИИ-сбоев в госсекторе. В открытой базе данных инцидентов задокументировано 358 случаев по всему миру. Почти половина — ошибки точности, ведущие к несправедливым решениям, 39 процентов — дискриминация групп населения. Швеция в 2025 году приостановила использование ИИ-модели, которая непропорционально помечала для расследований женщин, людей с иностранным происхождением и лиц с низкими доходами. Амстердамский проект Smart Check AI, названный самым прозрачным алгоритмическим проектом европейского правительства, был закрыт, поскольку система непропорционально выделяла уязвимые группы, особенно иммигрантов и одиноких матерей. ИИ воспринимал недостающие данные как подозрительные, но во многих культурах сокрытие личных данных — признак достоинства, а не обмана. Система понимала данные, но не людей.

В ЮАР автоматизированный алгоритм оценки доходов исключил из социальных выплат около 10 миллионов граждан, имеющих на это право. Программа ошибочно классифицировала случайные переводы от родственников как регулярный доход. Одна из пострадавших заявила: «Мы не хотим говорить с компьютером. Это как кричать в пустую комнату».

«И даже если рассматривать эти случаи лишь как «плач Ярославны» от тех, кто очень хотел получить пособие, хотя не особо в нём нуждался, появление даже отдельных несправедливых случаев заставляет насторожиться».

Самый показательный пример — австралийская программа Robodebt, действовавшая с 2015 по 2019 год. Алгоритм на основе усреднённых данных незаконно взыскал более 750 миллионов долларов с почти 400 тысяч человек. Королевская комиссия назвала схему грубым и несправедливым механизмом, установив, что она привела к нескольким самоубийствам. В сентябре 2025 года правительство Австралии согласилось выплатить дополнительно 475 миллионов долларов компенсации, доведя общие выплаты до 2,4 миллиарда. При этом в конце 2025 года в парламенте обсуждался законопроект, позволяющий использовать ИИ для автоматического выставления долгов, что было названо «Robodebt 2.0». В парламентских дебатах прозвучало предупреждение: фундаментальная проблема — сопоставление данных из несовместимых систем — никуда не делась.

«Проблема не только в ошибках. Когда человек, переживающий кризис, сталкивается с безликим алгоритмом, барьер становится непреодолимым. Исследования показывают, что получатели пособий значительно чаще отвергают решения, поддержанные ИИ. При этом с начала 2025 года в России зафиксировано 35 крупных утечек персональных данных, затронувших более 39 миллионов пользователей. Алгоритмы, обрабатывающие данные граждан, становятся одновременно инструментом управления и объектом повышенного риска. Все усилия упростить и ускорить предоставление соцподдержки могут свестись на нет из-за непроработанности алгоритмов».

Эксперт подчёркивает, что правительство России уже осознаёт проблему. В феврале 2026 года были обнародованы предложения законодательно закрепить обязательное сохранение решающей роли человека при применении ИИ в социально значимых сферах. Евросоюз со 2 февраля 2025 года ввёл в действие первую часть требований «Закона об ИИ», запрещающую системы социального скоринга и сбор биометрических данных в реальном времени. Нарушителям грозит штраф до 35 миллионов евро. В СПЧ раскритиковали российскую концепцию регулирования ИИ за слабый контроль над алгоритмами, настаивая на запрете принятия ИИ решений, напрямую влияющих на человека.

ИИ в социальной политике — мощный аналитический инструмент, но не замена человеку. Ключевой принцип должен быть закреплён законодательно: алгоритм готовит проект решения, но окончательный вердикт выносит живой специалист. Без этого мы рискуем получить мир, где машина отказывает в пособии, а человеку некуда обратиться.

Реклама