Искусственный интеллект ― неотъемлемая часть нашего будущего, и это факт. Его возможности вдохновляют одних и пугают других, но в 2023 году тенденция его использования стала трендовой и массовой. В начале мая Европарламент сделал первый шаг к тому, что можно назвать безопасностью в области использования искусственного интеллекта ― опубликовал законопроект AI Act, который летом этого года будут обсуждать и согласовывать до окончательной редакции. Этим документом в Европе планируется регулировать правила и требования для разработчиков ИИ, отделяя опасные для человека системы от безопасных.
Если раньше формулировка «Искусственный интеллект» подразумевала системы ПО, которые развиваются за счет определенных подходов и технологий, то в законопроекте трактовка ИИ стала более обобщенной. Теперь ИИ по закону определяется, как система, основанная на машинном обучении. Она способна функционировать на разных уровнях автономии, генерировать аналитику, решения, и рекомендации, имеющие физическое и виртуальное влияние на человека.
Законопроект основан на риск-ориентированном подходе к ИИ, которым выделяются три уровня систем:
запрещенные с неприемлемым риском;
высокорисковые;
средне- и минимально рисковые.
Под риском понимается понимается потенциальная опасность для человека при использовании искусственного интеллекта. И на сегодня такая мера регулирования ИИ беспрецедентна.
Некоторые эксперты уже назвали законопроект слишком жестким. Другие ― например, комитеты по внутреннему рынку и гражданским свободам в ЕС ― уже поддержали проект закона. Так что же предлагается запретить?
В первую очередь, к запрещенным системам документ относит те ИИ, что так или иначе используют манипулятивные методы или эксплуатируют уязвимые состояния человека. К примеру, если система классифицирует людей по их поведению, личностным характеристикам или социально-экономическому статусу, то ее обязательно нужно запретить.
Также под запрет попадут те системы, которые могут влиять на самую незащищенную группу общества ― детей.
В документе также указан список практик, которые ИИ не имеет права использовать:
биометрическая идентификация по удаленным системам без судебного разрешения и участия надзорных органов;
классификация людей по характеристикам на основе пола и расы, религии и политической принадлежности;
распознавание эмоций в органах исполнительной власти, в учебных заведениях и на рабочих местах;
неизбирательное извлечение личной информации о человеке из соцсетей, с камер видеонаблюдения или видеозаписей с целью создать базу распознавания лиц.
К высокорисковым системам в законопроекте отнесли те ИИ, которые потенциально способны навредить здоровью человека или окружающей среде, влияют на мнение избирателей.
Если документ будет принят, то каждый разработчик искусственного интеллекта в Европе будет обязан занести свое изобретение в специальную базу, обеспечить его прозрачность для других и предусмотреть возможность в любой момент вмешаться в работу системы.
Для низкорисковых ИИ пока есть только одно условие: предупреждать человека о том, что он работает с искусственным интеллектом, а не с другим человеком.
Как минимум половина населения планеты уже хотя бы раз попробовала поработать с генераторами Midjourney, ChatGPT, а россияне полюбили отечественные нейросети ― Kandinsky 2.1, GigaChat. Какое будущее их ждет, если законопроект будет одобрен?
К счастью, если отталкиваться от нынешней редакции документа, то эти системы не относятся к категориям запрещенных или высокорисковых. Но если закон будет принят, то и на операторов этих систем будут возложены обязанности гарантировать прозрачность работы, безопасность для окружающей среды, а также прав, свобод и здоровья человека. Кроме этого, операторы должны будут разработать и гарантировать основы соблюдения авторских прав при генерации контента.
Множество экспертов, в том числе Илон Маск, уже неоднократно высказывали свои мнения о том, что в ИИ скрыты не только колоссальные возможности, но такие же потенциальные опасности для человека. И что беспечный подход к таким системам может обернуться катастрофой планетарного масштаба. ИИ учатся с нашей помощью, и когда-то могут стать сверхразумом, который превосходит человека в знаниях и умениях. И если прямо сейчас не начать регулировать и контролировать эти системы, то кто знает ― может, «Терминатор» окажется не фантастическим, а пророческим фильмом?