Европарламент и Совет ЕС предварительно согласовали основные положения готовящегося к принятию закона AI Act об искусственном интеллекте (ИИ), сообщила в субботу Еврокомиссия.
Документ устанавливает требования по безопасности к разработчикам ИИ-моделей, вводит крупные штрафы для нарушителей.
ИИ-системы отнесены к нескольким группам риска:
- минимальный риск — в эту категорию попадает бо́льшая часть ИИ-систем (рекомендательные системы, спам-фильтры на основе ИИ) — эти системы признаются либо полностью безопасными, либо представляющими минимальную угрозу для пользователей;
- высокий риск – к таким системам отнесены, например, определённая критическая инфраструктура в сфере водоснабжения, поставок газа и электричества, медицинские устройства, а также системы, задействованные в охране границ, соблюдении общественного порядка, отправлении правосудия, «демократических процессах», биометрической идентификации, категоризации, распознавании эмоций — подобные ИИ-системы обязаны соблюдать жёсткие требования в таких вопросах, как система минимизации рисков, «массивы данных высокого качества», регистрация операций, подробная документация, чёткая пользовательская информация, надзор со стороны человека, высокая эксплуатационная надёжность, точность, кибербезопасность;
- неприемлемый риск — сюда включены ИИ-системы или приложения, которые манипулируют поведением человека с целью ограничить свободный выбор пользователей, например, игрушки с голосовым помощником, «поощряющие опасное поведение детей», или системы, которые допускают составление социальных рейтингов правительствами или компаниями, а также определённые виды прогностической деятельности полиции — такие системы подлежат полному запрету (за некоторыми исключениями);
- риск для открытости — в данный список включены в том числе чат-боты; в документе указано, что пользователи должны быть информированы о том, что взаимодействуют с машиной, дипфейки и другой сгенерированный ИИ контент следует маркировать соответствующим образом, граждан необходимо информировать в случае задействования систем биометрической категоризации или распознавания эмоций, вдобавок разработчики ИИ-систем должны будут создавать их таким образом, чтобы «синтетический текстовый, графический, аудио- и видеоконтент содержал маркировку в машиночитаемом формате, а также распознавался в качестве искусственно сгенерированного или манипулятивного».
Документ вводит специальные правила для ИИ-моделей общего назначения (General Purpose AI Models). Для каждой высокопроизводительной модели, способной нести системный риск, предусматриваются дополнительные юридические обязательства, относящиеся к сфере управления рисками, мониторинга значимых инцидентов, анализа модели, состязательного тестирования (более детальной информации не приведено — ред.).
Вместе с тем AI Act не будет применяться в случае, если он негативно повлияет «на компетенции какой-либо страны ЕС в области национальной безопасности или уполномоченной в этом вопросе организации». Из-под действия закона также выведены системы, которые используются только в военных и оборонных целях, в научной деятельности, а также людьми в непрофессиональной деятельности.
Для нарушителей AI Act предусмотрены оборотные штрафы 7,5-35 миллионов евро. За имплементацию положений закона на национальных уровнях будут отвечать надзорные органы стран-членов ЕС, координировать их усилия станет специально создаваемый при Еврокомиссии орган — Управление по ИИ (AI Office).
Теперь соглашение предстоит оформить Европарламенту и Совету ЕС формально. Закон вступит в силу через 20 дней после публикации текста в официальном журнале Евросоюза. Положения AI Act начнут применяться через два года после вступления закона в силу. При этом прописанные запреты начнут действовать уже через шесть месяцев, а нормы в отношении ИИ-моделей общего назначения — через год.
1 евро = 98,84 рубля
См. также:
- Стратегия Совета Европы в отношении искусственного интеллекта >>>
- Развитие искусственного интеллекта в мире: ЕС, Франция, Германия, Израиль >>>
- Развитие искусственного интеллекта в странах мира: США, Китай, Великобритания >>>