Европейский регламент по искусственному интеллекту вступил в силу

С 1 августа вступил в силу первый в мире всеобъемлющий нормативно-правовой акт, регулирующий применение искусственного интеллекта (ИИ). Цель постановления – обеспечить надежность решений искусственного интеллекта, разработанных и используемых в ЕС, а также обеспечить защиту основных прав человека.

Постановление призвано создать единый внутренний рынок искусственного интеллекта в Евросоюзе, который будет способствовать внедрению ИИ и поможет создать среду, поддерживающую инновации и инвестиции, сообщила пресс-служба представительства Европейской комиссии в Эстонии.

Новый регламент устанавливает перспективное определение ИИ, основанное на безопасности продукции и подходе, основанном на оценке рисков.

Большинство систем искусственного интеллекта, таких как системы рекомендаций на основе ИИ и спам-фильтры, попадают в эту категорию. В постановлении нет отдельных обязательств для этих систем, поскольку возникающий риск для прав и безопасности граждан здесь минимален. Однако компании могут добровольно вводить дополнительные руководства к действию.

Системы ИИ, такие как чат-боты, должны чётко сообщать пользователю, что он взаимодействует с машиной. Определённый контент, созданный ИИ, включая дипфейки, должен быть помечен, а пользователи должны быть проинформированы об использовании систем биометрической категоризации или распознавания эмоций. Кроме того, поставщики услуг должны разрабатывать системы таким образом, чтобы синтетический аудио-, видео-, текстовый или графический контент маркировался в машиночитаемом формате и мог идентифицироваться как искусственно созданный или обработанный.

Системы ИИ с высоким уровнем риска должны соответствовать строгим требованиям, включая системы снижения риска, высокое качество наборов данных, ведение журнала активности, подробную документацию, чёткую информацию о пользователях, человеческий контроль и особенно высокую надежность, точность и кибербезопасность. Например, высокому риску подвергаются системы ИИ, используемые при подборе работников, оценке ходатайств о кредитах и управлении автономными роботами.

Системы искусственного интеллекта, которые явно угрожают основным правам людей, будут запрещены. Это системы или приложения, которые влияют на поведение людей и подавляют их свободную волю – например, говорящие игрушки, которые побуждают несовершеннолетних к опасному поведению, системы социальных баллов и определенные системы упреждающего наблюдения. Кроме того, запрещены некоторые виды использования биометрических систем, такие как системы распознавания эмоций на рабочем месте и некоторые приложения для классификации людей, а также биометрическая идентификация в реальном времени для правоохранительных целей в общественных местах (за строго ограниченными исключениями).

Страны ЕС должны до 2 августа 2025 года назначить национальные компетентные органы, которые будут контролировать применение правовых норм, касающихся систем искусственного интеллекта, и осуществлять надзор за рынком. На уровне ЕС основным таким органом является Европейское управление по искусственному интеллекту, задача которого – обеспечивать соблюдение правовых положений о моделях ИИ общего назначения.

Штрафы за нарушение правил о запрещённых приложениях ИИ могут достигать 7% мирового годового дохода компании. Меньшие штрафы предусмотрены за нарушение иных обязательств (до 3%) и за предоставление недостоверной информации (до 1,5%).

Читайте по теме:

Жители Эстонии поддерживают использование ИИ при оказании государственных услуг — отчёт

Искусственный интеллект мог бы увеличить ВВП Эстонии на три миллиарда евро

Постановление ЕС об искусственном интеллекте: грозят миллионные штрафы

Европейский союззаконискусственный интеллектнейросетитоп