Постановление призвано создать единый внутренний рынок искусственного интеллекта в Евросоюзе, который будет способствовать внедрению ИИ и поможет создать среду, поддерживающую инновации и инвестиции, сообщила пресс-служба представительства Европейской комиссии в Эстонии.
Новый регламент устанавливает перспективное определение ИИ, основанное на безопасности продукции и подходе, основанном на оценке рисков.
Большинство систем искусственного интеллекта, таких как системы рекомендаций на основе ИИ и спам-фильтры, попадают в эту категорию. В постановлении нет отдельных обязательств для этих систем, поскольку возникающий риск для прав и безопасности граждан здесь минимален. Однако компании могут добровольно вводить дополнительные руководства к действию.
Системы ИИ, такие как чат-боты, должны чётко сообщать пользователю, что он взаимодействует с машиной. Определённый контент, созданный ИИ, включая дипфейки, должен быть помечен, а пользователи должны быть проинформированы об использовании систем биометрической категоризации или распознавания эмоций. Кроме того, поставщики услуг должны разрабатывать системы таким образом, чтобы синтетический аудио-, видео-, текстовый или графический контент маркировался в машиночитаемом формате и мог идентифицироваться как искусственно созданный или обработанный.
Системы ИИ с высоким уровнем риска должны соответствовать строгим требованиям, включая системы снижения риска, высокое качество наборов данных, ведение журнала активности, подробную документацию, чёткую информацию о пользователях, человеческий контроль и особенно высокую надежность, точность и кибербезопасность. Например, высокому риску подвергаются системы ИИ, используемые при подборе работников, оценке ходатайств о кредитах и управлении автономными роботами.
Системы искусственного интеллекта, которые явно угрожают основным правам людей, будут запрещены. Это системы или приложения, которые влияют на поведение людей и подавляют их свободную волю – например, говорящие игрушки, которые побуждают несовершеннолетних к опасному поведению, системы социальных баллов и определенные системы упреждающего наблюдения. Кроме того, запрещены некоторые виды использования биометрических систем, такие как системы распознавания эмоций на рабочем месте и некоторые приложения для классификации людей, а также биометрическая идентификация в реальном времени для правоохранительных целей в общественных местах (за строго ограниченными исключениями).
Страны ЕС должны до 2 августа 2025 года назначить национальные компетентные органы, которые будут контролировать применение правовых норм, касающихся систем искусственного интеллекта, и осуществлять надзор за рынком. На уровне ЕС основным таким органом является Европейское управление по искусственному интеллекту, задача которого – обеспечивать соблюдение правовых положений о моделях ИИ общего назначения.
Штрафы за нарушение правил о запрещённых приложениях ИИ могут достигать 7% мирового годового дохода компании. Меньшие штрафы предусмотрены за нарушение иных обязательств (до 3%) и за предоставление недостоверной информации (до 1,5%).
Читайте по теме:
Жители Эстонии поддерживают использование ИИ при оказании государственных услуг — отчёт
Искусственный интеллект мог бы увеличить ВВП Эстонии на три миллиарда евро
Постановление ЕС об искусственном интеллекте: грозят миллионные штрафы