По его словам, массовое использование нейросетей несет значительные риски. Увеличивается вероятность кибератак. Современные модели ИИ расширяют возможности мошенников для создания фишинговых сообщений, вредоносного ПО и захвата устройств, что может привести к утечке данных, вымогательству и мошенничеству.
Еще одной угрозой являются атаки с целью отравления данных. Злоумышленники вмешиваются в массивы данных, на которых обучаются модели, чтобы изменить их поведение и нарушить работу, сообщают «Известия».
Кочергин отметил, что важной проблемой является предвзятость алгоритмов. ИИ способен воспроизводить и усиливать искажения в данных, что приводит к дискриминации при страховании и кредитовании, ограничивает доступ уязвимых групп к финансовым услугам.
Также существуют риски, которые связаны с зависимостью рынка от ограниченного числа поставщиков моделей. Многие банки используют одни и те же технологии и данные, поэтому алгоритмы работают схожим образом. В итоге различные участники рынка автоматически принимают схожие решения, одновременно покупая или продавая активы, что ведет к синхронному движению цен. Хотя сговора нет, это создает эффект повышения волатильности и риска манипуляций.
Это может привести к обесцениванию рабочей силы, росту числа дефолтов, ускорению инфляции и подрыву финансовой стабильности.
Напомним, что сенатор Глушкова рассказала о распространенных банковских уловках. Число ПВЗ в 2025 году выросло почти на 45%.
