Эстонским предприятиям помогут безопасно применять искусственный интеллект
В связи со всё более широким распространением систем искусственного интеллекта (ИИ), по оценке Департамента государственной инфосистемы (RIA), необходимо уделить особое внимание их кибербезопасности. Чтобы поддержать планы развития эстонских компаний и учреждений, предприятие Cybernetica AS подготовило по запросу RIA анализ рисков технологии ИИ и возможностей их снижения, который должен прочитать каждый, кто планирует использовать ИИ.
«Использование искусственного интеллекта — это не просто спросить у чат-бота совета о том, как написать код, и не создание милых видеороликов о щенках. Компании по всему миру изучают способы применения решений ИИ и машинного обучения в промышленности и цифровых разработках, чтобы сделать производство и услуги более персонализированными и быстрыми, — сказал Лаури Танклер, руководитель области исследований и разработок центра кибербезопасности RIA. — Наш интерес в RIA заключается в том, чтобы за внедрением новых технологий не следовало ненужных рисков для данных, денег или, того хуже, жизни и здоровья людей».
Анализ Cybernetica AS описывает текущее состояние и модели распространения систем искусственного интеллекта, а также сопутствующие киберриски и меры по их снижению. Помимо прочего, анализ также предоставляет компаниям обзор правового пространства в области искусственного интеллекта, действующего в 2024 году, включая инициативы и предложения Европейского союза.
«Безопасность систем искусственного интеллекта означает, с одной стороны, технические меры (например, чтобы посторонний человек или конкурирующая компания не получили доступ к данным), но также и то, что разработчик должен думать о социальных эффектах, таких как предотвращение дискриминации или экологический след вычислительной мощности ИИ, — пояснил один из авторов исследования, учёный и член Академии наук, директор института информационной безопасности Cybernetica AS Дан Богданов. — Исследования, разработки и формирование политики должны стремиться к тому, чтобы использование систем искусственного интеллекта способствовало общему благополучию, инклюзивности и устойчивому развитию общества».
Одна часть анализа представляет собой краткое руководство для того, кто собирается внедрять систему искусственного интеллекта. Руководство помогает компаниям продумать, на каком этапе системы им следует задуматься о том или ином риске. Оно также включает в себя таблицу, которая поможет понять модель распространения системы, чтобы более точно оценить риски и потребности.
«Каждому предприятию нет необходимости самостоятельно заказывать подобный анализ, чтобы сохранить в безопасности данные своих клиентов или свою коммерческую тайну, — пояснил Танклер. — Если мы со стороны RIA сможем предложить эстонским предпринимателям рекомендации и инструкции на их родном языке, которые помогут обеспечить кибербезопасность в обществе, то мы с радостью будем способствовать таким решениям».
Исследование финансировалось совместно Европейским cоюзом и Европейским центром компетенций в области кибербезопасности.
С анализом (в формате PDF) можно ознакомиться тут.
Читайте по теме:
Эксперты ООН: Искусственный интеллект нужно регулировать, не препятствуя инновациям
Кая Каллас: Искусственный интеллект пришёл, чтобы остаться
Эксперты ООН: Искусственный интеллект нужно регулировать, не препятствуя инновациям
Комментарии закрыты.