Общество02.02.2024 - 01:30

Эксперт Алексей Ермаков объяснил, чем привлекательна система биометрии

Искусственный интеллект (ИИ) - разработка учёных, которая часто подвергается критике. Совершенствование системы ИИ может приводить к неоднозначным инцидентам. Известны случаи, когда цифровой разум принимал решения, последствия которых были весьма печальны.

Фото: triptonkosti

Алексей Ермаков, эксперт кафедры киберспорта университета «Синергия», в беседе с корреспондентом RuNews24.ru рассказал, какая система биометрии используется в нашей стране, чем она привлекательна, а также указал на ряд случаев, когда искусственный интеллект «шёл» против человека.

«В нашей стране система стандартизации биометрии (в соответствии с международными стандартами) работает уже давно и её ГОСТ Р ИСО/МЭК19795-1-2007 «Автоматическая идентификация. Идентификация биометрическая». Биометрия, конечно, очень привлекательна, биометрические идентификаторы привязаны к человеку и их нельзя украсть или потерять, исключая, конечно, совершенно ужасные случаи травмирования, когда мы говорим о распознавании значительно поврежденной лицевой части черепа. Создать двойника настолько сложно, что можно не задумываться об этом. Остаётся только ошибка» делится специалист.

Алексей Ермаков подчеркнул, что с распознаванием лиц больших скандалов не было, однако с другими областями компьютерного зрения распознаванием объектов и движения — такие случаи были.

«Некоторые из них, например, убийство 4 роботами, контролируемых ИИ, 29 учёных в Японии или Корее не подтверждены однозначно. Подробности других, например, нападение на сотрудника на заводе тесла в США, скрываются компаниями. Другие известны с подробностями, например, убийство рабочего в Корее, когда ИИ идентифицировал его как коробку. В нашей стране также можно привести пример некорректной работы ИИ, когда робот шахматист травмировал ребёнка. Но наиболее резонансным случаем стало применение турецкого боевого робота, который сам принял решение атаковать без подтверждения оператора и уничтожил бойцов противника в Ливии. Здесь не произошло ошибки, но сам факт того, что ИИ самостоятельно принял решение и убил людей, стало очень резонансным. Ведь в случае сбоя или ошибки боевое оружие может причинить гораздо больше вреда», пояснил собеседник издания.

Реклама