Эстонским предприятиям помогут безопасно применять искусственный интеллект

В связи со всё более широким распространением систем искусственного интеллекта (ИИ), по оценке Департамента государственной инфосистемы (RIA), необходимо уделить особое внимание их кибербезопасности. Чтобы поддержать планы развития эстонских компаний и учреждений, предприятие Cybernetica AS подготовило по запросу RIA анализ рисков технологии ИИ и возможностей их снижения, который должен прочитать каждый, кто планирует использовать ИИ.

«Использование искусственного интеллекта — это не просто спросить у чат-бота совета о том, как написать код, и не создание милых видеороликов о щенках. Компании по всему миру изучают способы применения решений ИИ и машинного обучения в промышленности и цифровых разработках, чтобы сделать производство и услуги более персонализированными и быстрыми, — сказал Лаури Танклер, руководитель области исследований и разработок центра кибербезопасности RIA. — Наш интерес в RIA заключается в том, чтобы за внедрением новых технологий не следовало ненужных рисков для данных, денег или, того хуже, жизни и здоровья людей».

Лаури Танклер на Фестивале мнений в Пайде (2021 год). Фото: Sillerkiil / Wikimedia Commons

 

Анализ Cybernetica AS описывает текущее состояние и модели распространения систем искусственного интеллекта, а также сопутствующие киберриски и меры по их снижению. Помимо прочего, анализ также предоставляет компаниям обзор правового пространства в области искусственного интеллекта, действующего в 2024 году, включая инициативы и предложения Европейского союза.

«Безопасность систем искусственного интеллекта означает, с одной стороны, технические меры (например, чтобы посторонний человек или конкурирующая компания не получили доступ к данным), но также и то, что разработчик должен думать о социальных эффектах, таких как предотвращение дискриминации или экологический след вычислительной мощности ИИ, — пояснил один из авторов исследования, учёный и член Академии наук, директор института информационной безопасности Cybernetica AS Дан Богданов. — Исследования, разработки и формирование политики должны стремиться к тому, чтобы использование систем искусственного интеллекта способствовало общему благополучию, инклюзивности и устойчивому развитию общества».

Дан Богданов. Фото: akadeemia.ee

 

Одна часть анализа представляет собой краткое руководство для того, кто собирается внедрять систему искусственного интеллекта. Руководство помогает компаниям продумать, на каком этапе системы им следует задуматься о том или ином риске. Оно также включает в себя таблицу, которая поможет понять модель распространения системы, чтобы более точно оценить риски и потребности.

«Каждому предприятию нет необходимости самостоятельно заказывать подобный анализ, чтобы сохранить в безопасности данные своих клиентов или свою коммерческую тайну, — пояснил Танклер. — Если мы со стороны RIA сможем предложить эстонским предпринимателям рекомендации и инструкции на их родном языке, которые помогут обеспечить кибербезопасность в обществе, то мы с радостью будем способствовать таким решениям».

Исследование финансировалось совместно Европейским cоюзом и Европейским центром компетенций в области кибербезопасности.

С анализом (в формате PDF) можно ознакомиться тут.

Читайте по теме:

Эксперты ООН: Искусственный интеллект нужно регулировать, не препятствуя инновациям

Кая Каллас: Искусственный интеллект пришёл, чтобы остаться

Эксперты ООН: Искусственный интеллект нужно регулировать, не препятствуя инновациям

Дан БогдановДепартамент государственной инфосистемыискусственный интеллекткибербезопасностьЛаури ТанклертопЭстония