
В ЕС вступил в силу закон об искусственном интеллекте (ИИ). В заявлении Еврокомиссии говорится, что закон об ИИ призван гарантировать, что ИИ, разработанный и используемый в ЕС, заслуживает доверия, с гарантиями защиты основных прав людей. Регламент направлен на создание гармонизированного внутреннего рынка ИИ в ЕС, поощряя внедрение этой технологии и создавая благоприятную среду для инноваций и инвестиций.
Закон об ИИ вводит такие определения ИИ:
➤ Минимальный риск: большинство систем ИИ, таких как рекомендательные системы с поддержкой ИИ и спам-фильтры, попадают в эту категорию. Эти системы не несут никаких обязательств в соответствии с Законом об ИИ из-за их минимального риска для прав и безопасности граждан. Компании могут добровольно принимать дополнительные кодексы поведения .
➤ Конкретный риск прозрачности: системы ИИ, такие как чат-боты , должны четко сообщать пользователям, что они взаимодействуют с машиной . Определенный контент, сгенерированный ИИ, включая глубокие фейки, должен быть помечен как таковой, и пользователи должны быть проинформированы, когда используются системы биометрической категоризации или распознавания эмоций. Кроме того, провайдеры должны будут проектировать системы таким образом, чтобы синтетический аудио-, видео-, текстовый и графический контент был помечен в машиночитаемом формате и мог быть обнаружен как искусственно сгенерированный или манипулированный.
➤ Высокий риск: системы ИИ, определенные как высокорисковые, должны будут соответствовать строгим требованиям , включая системы снижения рисков, высокое качество наборов данных, регистрацию активности, подробную документацию, четкую информацию о пользователе, человеческий надзор и высокий уровень надежности, точности и кибербезопасности. Нормативные песочницы будут способствовать ответственным инновациям и разработке соответствующих систем ИИ. Такие высокорисковые системы ИИ включают, например, системы ИИ, используемые для набора персонала или для оценки того, имеет ли кто-либо право на получение кредита или для управления автономными роботами.
➤ Неприемлемый риск: системы ИИ, которые считаются явной угрозой основным правам людей, будут запрещены . Сюда входят системы ИИ или приложения, которые манипулируют поведением человека, чтобы обойти свободу воли пользователей, например, игрушки, использующие голосовую помощь, поощряющую опасное поведение несовершеннолетних, системы, которые позволяют правительствам или компаниям проводить «социальную оценку», и некоторые приложения предиктивной полиции.
Кроме того, некоторые виды использования биометрических систем будут запрещены, например, системы распознавания эмоций, используемые на рабочем месте, и некоторые системы для категоризации людей или удаленной биометрической идентификации в реальном времени для целей обеспечения правопорядка в общедоступных пространствах (за небольшими исключениями).
➤ Чтобы дополнить эту систему, Закон об ИИ также вводит правила для так называемых универсальных моделей ИИ, которые являются высокоэффективными моделями ИИ, разработанными для выполнения широкого спектра задач, таких как создание текста, похожего на человеческий. Универсальные модели ИИ все чаще используются в качестве компонентов приложений ИИ. Закон об ИИ обеспечит прозрачность по всей цепочке создания стоимости и устранит возможные системные риски наиболее эффективных моделей.
Кто все эти правила будет контролировать?
➤ Государства-члены должны до 2 августа 2025 года назначить национальные компетентные органы, которые будут контролировать применение правил для систем ИИ и осуществлять деятельность по надзору за рынком.
➤ Управление по ИИ Комиссии станет ключевым органом по реализации Закона об ИИ на уровне ЕС, а также исполнителем правил для моделей ИИ общего назначения.
➤ Три консультативных органа будут поддерживать реализацию правил. Европейский совет по искусственному интеллекту обеспечит единообразное применение Закона об ИИ во всех государствах-членах ЕС и будет выступать в качестве основного органа для сотрудничества между Комиссией и государствами-членами. Научная группа независимых экспертов будет предлагать технические консультации и вклад в обеспечение соблюдения. В частности, эта группа может направлять предупреждения в Управление по ИИ о рисках, связанных с моделями ИИ общего назначения. Управление по ИИ также может получать указания от консультативного форума , состоящего из различных заинтересованных сторон.
Что будет, если не соблюдать новые правила?
Компании, не соблюдающие правила, будут оштрафованы. Штрафы могут составить до 7% от общего годового оборота за нарушения запрещенных приложений ИИ, до 3% за нарушения других обязательств и до 1,5% за предоставление неверной информации.
Пакт ИИ
Большинство правил Закона об ИИ начнут применяться 2 августа 2026 года. Однако запреты на системы ИИ, которые считаются представляющими неприемлемый риск, вступят в силу уже через шесть месяцев, тогда как правила для так называемых моделей ИИ общего назначения начнут применяться через 12 месяцев.
Чтобы преодолеть переходный период перед полной реализацией, Комиссия запустила Пакт ИИ . Эта инициатива призывает разработчиков ИИ добровольно принять ключевые обязательства Закона об ИИ до наступления установленных законом сроков.
Комиссия также разрабатывает руководящие принципы для определения и детализации того, как должен быть реализован Закон об ИИ, и содействует инструментам совместного регулирования, таким как стандарты и кодексы практики. Комиссия открыла призыв к выражению заинтересованности для участия в разработке первого Кодекса практики общего назначения в области ИИ, а также многостороннюю консультацию , дающую возможность всем заинтересованным сторонам высказать свое мнение по первому Кодексу практики в соответствии с Законом об ИИ.