Инцидент, вызвавший широкий резонанс в правозащитных кругах, произошел в прошлом году, но подробности стали достоянием общественности только 26 марта. Анджела Липпс находилась у себя дома, занимаясь домашними делами и присматривая за внуками, когда в дверь постучали полицейские.
Стражи порядка действовали по наводке высокотехнологичной системы: искусственный интеллект проанализировал записи с камер видеонаблюдения в городе Фарго (Северная Дакота) и «опознал» в женщине подозреваемую по делу о крупном банковском мошенничестве.
Несмотря на искреннее недоумение задержанной, которая объясняла, что никогда не была в Северной Дакоте и не имеет к произошедшему никакого отношения, механизм правосудия был запущен. Поскольку предполагаемое преступление и место задержания разделяли тысячи километров, американку автоматически наделили статусом беглой преступницы, скрывающейся от закона. Это процессуальное решение лишило Липпс возможности быстро доказать свою невиновность, и она была помещена под стражу, где провела следующие четыре месяца.
Позже в ходе следствия выяснилось, что правоохранительные органы искали совершенно другую женщину. Реальная преступница использовала поддельное военное удостоверение личности, чтобы обналичить крупную сумму в банке.
Система распознавания лиц, алгоритм которой часто допускает ошибки при сопоставлении снимков низкого качества или при наличии схожих антропометрических данных, дала ложное совпадение. Адвокат пострадавшей подчеркнул, что полиция фактически возложила всю ответственность за идентификацию на искусственный интеллект, пренебрегши базовой проверкой алиби и другими доказательствами.
После того как судебная ошибка вскрылась, начальник полиции Фарго Дэвид Зибольски принес Липпс официальные извинения, признав серьезные просчеты в расследовании. Однако инцидент вновь поднял острую дискуссию об этичности использования ИИ-технологий в правоприменительной практике. Юристы отмечают, что подобные случаи не единичны, и слепая вера в «непогрешимость» алгоритмов без должного контроля со стороны человека приводит к разрушению жизней ни в чем не повинных граждан.
В прошлом году в США впервые зафиксировали случай убийства под влиянием ChatGPT. Россиянок предупредили, что мошенники используют дипфейки «успешных мужчин» для обмана.
