Статьи25.05.2023 - 15:32

Первый в мире закон с правилами для искусственного интеллекта: когда будет принят и что запрещает

Искусственный интеллект ― неотъемлемая часть нашего будущего, и это факт. Его возможности вдохновляют одних и пугают других, но в 2023 году тенденция его использования стала трендовой и массовой. В начале мая Европарламент сделал первый шаг к тому, что можно назвать безопасностью в области использования искусственного интеллекта ― опубликовал законопроект AI Act, который летом этого года будут обсуждать и согласовывать до окончательной редакции. Этим документом в Европе планируется регулировать правила и требования для разработчиков ИИ, отделяя опасные для человека системы от безопасных.

Фото: Getty Images

Основные моменты законопроекта на май 2023 года

Если раньше формулировка «Искусственный интеллект» подразумевала системы ПО, которые развиваются за счет определенных подходов и технологий, то в законопроекте трактовка ИИ стала более обобщенной. Теперь ИИ по закону определяется, как система, основанная на машинном обучении. Она способна функционировать на разных уровнях автономии, генерировать аналитику, решения, и рекомендации, имеющие физическое и виртуальное влияние на человека.

Законопроект основан на риск-ориентированном подходе к ИИ, которым выделяются три уровня систем:

  • запрещенные с неприемлемым риском;

  • высокорисковые;

  • средне- и минимально рисковые.

Под риском понимается понимается потенциальная опасность для человека при использовании искусственного интеллекта. И на сегодня такая мера регулирования ИИ беспрецедентна.

Что планируется запретить

Некоторые эксперты уже назвали законопроект слишком жестким. Другие ― например, комитеты по внутреннему рынку и гражданским свободам в ЕС ― уже поддержали проект закона. Так что же предлагается запретить?

В первую очередь, к запрещенным системам документ относит те ИИ, что так или иначе используют манипулятивные методы или эксплуатируют уязвимые состояния человека. К примеру, если система классифицирует людей по их поведению, личностным характеристикам или социально-экономическому статусу, то ее обязательно нужно запретить.

Также под запрет попадут те системы, которые могут влиять на самую незащищенную группу общества ― детей.

В документе также указан список практик, которые ИИ не имеет права использовать:

  • биометрическая идентификация по удаленным системам без судебного разрешения и участия надзорных органов;

  • классификация людей по характеристикам на основе пола и расы, религии и политической принадлежности;

  • распознавание эмоций в органах исполнительной власти, в учебных заведениях и на рабочих местах;

  • неизбирательное извлечение личной информации о человеке из соцсетей, с камер видеонаблюдения или видеозаписей с целью создать базу распознавания лиц.

К высокорисковым системам в законопроекте отнесли те ИИ, которые потенциально способны навредить здоровью человека или окружающей среде, влияют на мнение избирателей.

Если документ будет принят, то каждый разработчик искусственного интеллекта в Европе будет обязан занести свое изобретение в специальную базу, обеспечить его прозрачность для других и предусмотреть возможность в любой момент вмешаться в работу системы. 

Для низкорисковых ИИ пока есть только одно условие: предупреждать человека о том, что он работает с искусственным интеллектом, а не с другим человеком.

Что произойдет с нейросетями 

Как минимум половина населения планеты уже хотя бы раз попробовала поработать с генераторами Midjourney, ChatGPT, а россияне полюбили отечественные нейросети ― Kandinsky 2.1, GigaChat. Какое будущее их ждет, если законопроект будет одобрен?

К счастью, если отталкиваться от нынешней редакции документа, то эти системы не относятся к категориям запрещенных или высокорисковых. Но если закон будет принят, то и на операторов этих систем будут возложены обязанности гарантировать прозрачность работы, безопасность для окружающей среды, а также прав, свобод и здоровья человека. Кроме этого, операторы должны будут разработать и гарантировать основы соблюдения авторских прав при генерации контента.

Резюме

Множество экспертов, в том числе Илон Маск, уже неоднократно высказывали свои мнения о том, что в ИИ скрыты не только колоссальные возможности, но такие же потенциальные опасности для человека. И что беспечный подход к таким системам может обернуться катастрофой планетарного масштаба. ИИ учатся с нашей помощью, и когда-то могут стать сверхразумом, который превосходит человека в знаниях и умениях. И если прямо сейчас не начать регулировать и контролировать эти системы, то кто знает ― может, «Терминатор» окажется не фантастическим, а пророческим фильмом?

Реклама