Главное преимущество искусственного интеллекта — способность мгновенно анализировать огромные массивы информации из государственных баз, сопоставляя десятки параметров жизни человека: доходы, имущество, родственные и социальные связи. Более того, ИИ способен выходить за рамки формальных критериев нуждаемости, оценивая индивидуализированные социальные риски. По словам эксперта по социально-экономической политике Якова Якубовича, это предиктивная аналитика, которая позволяет перейти от реактивной поддержки к профилактике кризисов. При этом в комментарии RuNews24.ru он отметил, что каким бы совершенным ни был анализ, окончательное решение должно оставаться за человеком. ИИ — это ассистент, который снижает нагрузку на чиновников, но не подменяет их ответственность.
Некоторые могут усмотреть в этом подобие цифрового концлагеря. Действительно, без должных этических и правовых рамок внедрение ИИ несет серьезные риски. Если алгоритм отказывает в выплате, но не может объяснить почему, перед гражданином возникает чёрный ящик, где исчезает субъект ответственности. Алгоритмы ошибаются: в Петербурге мать пятерых детей получила 15 отказов подряд из-за того, что ИИ Социального фонда перестал распознавать её родственную связь с ребёнком после обновления программного обеспечения. Чиновники разводили руками — исправить ситуацию они не могли.
Самый коварный риск, по словам эксперта, заключается в алгоритмической дискриминации. ИИ обучается на исторических данных, которые могут содержать скрытую предвзятость. Это может привести к скандалам: система может непропорционально обвинить в мошенничестве мигрантов, женщин и людей с низким доходом, как это уже случалось в Швеции. Система может выявить подозрительных получателей пособий по признаку пола и этноса, как было в Нидерландах, или ошибочно начислить долги сотням тысяч граждан, как в Австралии.
«ИИ оперирует персональными данными, включая самые чувствительные. Только с начала 2025 года в России зафиксировано 35 крупных утечек, затронувших более 39 миллионов пользователей. Создание гигантских «цифровых концлагерей», где хранится вся подноготная о каждом, — кажется метафорой. Но на самом деле является реальной угрозой, которую нельзя игнорировать».
Как подчеркнул эксперт, чтобы ИИ в социальной сфере приносил пользу, а не вред, необходимо соблюдать несколько принципов, которые уже отчасти заложены в Указе Президента о развитии искусственного интеллекта. Автоматизированные решения должны быть запрещены: ИИ может готовить проекты решений и выявлять риски, но окончательный вердикт всегда выносит человек. Гражданин имеет право знать, почему алгоритм принял то или иное решение, и может обжаловать его в стандартном порядке. Алгоритмы должны проходить обязательный аудит на отсутствие дискриминации перед внедрением и регулярно перепроверяться. Хранилища данных должны быть надежно защищены, а контроль за их использованием — строгим.
«Ярослав Нилов обозначил правильный вектор, но путь, который предстоит пройти, потребует не только технологических решений, но и создания надежной системы правовых и этических сдержек. Только так ИИ из потенциальной угрозы превратится в реального союзника государства и гражданина».
