Европейский акт об искусственном интеллекте вступает в силу — printnews.biz
107023, г. Москва, Барабанный переулок, дом 4, стр 6, БЦ «На Барабанном»

Европейский акт об искусственном интеллекте вступает в силу

45-07
30.10.2024 Новости зарубежных компаний

www.therecycler.com

01 августа 2024 года Европейский акт об искусственном интеллекте вступает в силу (ИИ акт). Это первое в мире подробное законодательство, касающееся искусственного интеллекта и вступившее в силу.

ИИ акт разработан, чтобы гарантировать, что ИИ, разработанный и использующийся в ЕС, заслуживает доверия и безопасен в плане защиты фундаментальных прав людей. Законодательство нацелено на установление гармоничного внутреннего рынка для ИИ в ЕС, что должно подстегнуть освоение этой технологии и создать поддерживающую среду для инноваций и инвестиций.

Акт ИИ создаёт определение ИИ в перспективе его развития, основанное на безопасности товара и подходе по степени риска, в ЕС:

  • Минимальный риск: Большинство систем ИИ, такие как системы рекомендаций на ИИ-основе и спам-фильтры, попадают в данную категорию. Данные системы не подпадают под обязательства по ИИ акту из-за минимального риска в плане прав и безопасности граждан. Компании могут добровольно применять дополнительные правила обращения.
  • Специфические риски в плане прозрачности: Системы ИИ, такие как чат-боты, должны чётко сообщать пользователям, что те взаимодействуют с машиной. Определенный, созданный ИИ контент, такой как дип-фейк, должен быть обозначен как таковой, и пользователей нужно информировать, когда используются системы биометрической категоризации или распознавания эмоций. Кроме того, провайдеры должны разрабатывать системы таким образом, чтобы синтетический аудио, видео, текстовый контент, а также контент изображенний были промаркированы в формате машинного чтения и распознавались как искусственно созданные или обработанные.
  • Высокий риск: ИИ-системы, которые определяются как системы с высокой степенью риска, должны соответствовать строгим требованиям, включая системы снижения риска, высокое качество наборов данных, фиксация действий, детальная документация, четкая пользовательская информация, а также высокий уровень мощности, точности и кибербезопасности. Регуляторные «песочницы» облегчат процесс ответственной реновации и разработки систем ИИ, отвечающих нормам закона. Такие системы ИИ с высоким риском включают примеры ИИ систем, используемых для найма или для оценки того, имеет ли кто-то право на получение займа, или же для управления автономными роботами.
  • Неприемлемый риск: Системы ИИ, представляющие чёткую угрозу для фундаментальных людских прав, будут запрещены. К таким системам относятся ИИ-системы и приложения, которые манипулируют человеческим поведением, чтобы обойти свободную волю пользователей, например, игрушки, использующие голосового помощника, чтобы инициировать опасное поведение малолетних, системы, которые позволяют получать «социальные очки» правительствам и компаниям, и определенные приложения с предиктивной политикой. Кроме того некоторые варианты использования биометрических систем будут запрещены, например, система распознавания эмоций на рабочем месте и некоторые системы для категоризации людей или удалённая биометрическая идентификация людей в реальном времени в публичных местах в целях исполнения закона (за редкими исключениями).

Для дополнения данной системы, ИИ акт вводит правила для так-называемых моделей ИИ общего назначения, которые являются моделями ИИ с высокими способностями, разработанными для осуществления различных задач, вроде генерации текста, похожего на созданный человеком. Модели ИИ общего назначения всё чаще используются в качестве компонентов ИИ-приложений. ИИ акт будет гарантировать прозрачность в рамках ценовой цепочки и реагирование на возможные системные риски наиболее продвинутых моделей.

Страны-участницы должны до 2 августа 2025 года назначить национальных компетентных чиновников, которые будут контролировать применение нового законодательства для систем ИИ и вести деятельность по контролю за рынком. Офис комиссии по вопросам ИИ (Офис ИИ) будет ключевым исполнительным органом для выполнения ИИ акта на уровне ЕС, а также для выполнения законодательства для ИИ-моделей общего назначения.

Три рекомендательных органа будут поддерживать исполнение принятых правил. Европейский совет по искусственному интеллекту (European Artificial Intelligence Board) будет гарантировать единое применение ИИ акта в странах-участницах ЕС и выступит в качестве основного органа сотрудничества между комиссией и странами-участницами. Научная панель из независимых экспертов будет предлагать технические рекомендации и вносить свой вклад в исполнение законов. В частности, данная панель может выпускать предупреждения для Офиса ИИ относительно рисков, связанных с ИИ- моделями общего назначения. Офис ИИ может также получать указания от рекомендательного форума, состоящего из разнообразного набора акционеров.

Компании, не соответствующие принятым правилам будут оштрафованы. Штрафы могут доходить до 7% от общего мирового оборота за нарушения, связанные с запрещенными ИИ-приложениями, до 3% за нарушения других обязательств и до 1,5% за предоставление неточных данных.

Большинство правил ИИ акта начнут применяться со 2 августа 2026 года. Однако запреты ИИ-систем, которые представляют неприемлемый риск, будут применяться сразу по истечении шести месяцев, а правила, касающиеся так называемых ИИ-моделей общего назначения, будут применяться после 12 месяцев после принятия Акта.

Чтобы заполнить переходный период перед полным внедрением, Комиссия выпустила ИИ пакт. Данная инициатива предлагает всем ИИ-разработчикам добровольно принять ключевые обязательства ИИ акта ещё до крайних сроков начала его действия.

Комиссия также разрабатывает указания для уточнения и детализации того, как ИИ акт должен быть внедрен, а также для облегчения ко-регуляционного инструментария, вроде стандартов и кодекса действий. Комиссия призвала заинтересованные стороны принять участие в создании первого кодекса действий по ИИ общего назначения, а также создать консультирующий орган из множества акционеров, чтобы дать возможность всем акционерам высказаться по первому кодексу действий в рамках ИИ акта.

Подробности:  https://sforp.ru/news/_mostInterest/34.htm#1532