В рамках форума «ИИ. Режим доверия» эксперты обсудили внедрение регламентов для работы искусственного интеллекта и ограничение запросов к нейросетям. Специалисты предлагают перейти от идеи цензуры программного кода к созданию четких стандартов верификации технологий.
На отраслевой конференции участники затронули вопрос введения правил «входа и выхода» для нейросетей. Глава Совета Фонда развития цифровой экономики Герман Клименко в эфире «Радио 1» пояснил, что использование термина «цензура» в данном контексте не совсем корректно. По его мнению, речь должна идти о разработке технического регламента и стандартов взаимодействия, которые станут аналогом правил дорожного движения в цифровой среде.
Специалист подчеркнул необходимость создания национальных ГОСТов и цифрового кодекса перед тем, как передавать алгоритмам важные задачи в медицине или оборонном секторе. Клименко отметил, что верификация систем должна строиться на конкретных государственных стандартах, исключая излишнюю панику вокруг регулирования отрасли.
В качестве механизма контроля эксперт видит два основных направления: формирование законодательной базы и появление независимого общественного арбитра. Клименко предположил, что на первом этапе контролирующие подразделения возникнут внутри силовых структур и органов власти. Однако в дальнейшем для эффективного решения проблем отрасли потребуется создание профессиональной организации, объединяющей независимых технических специалистов.
