Ru En

2023 Кибербезопасность искусственного интеллекта и стандартизация/Cybersecurity of AI and Standardisation, ENISA

Cybersecurity of AI and Standardisation

2023
английский
The European Union Agency for Cybersecurity
Скачать документ

Цель настоящего документа состоит в том, чтобы дать обзор стандартов, связанных с кибербезопасностью искусственного интеллекта, оценить их охват и выявить пробелы.

2023 Кибербезопасность искусственного интеллекта и стандартизация/Cybersecurity of AI and Standardisation, ENISA
Основное содержание:

  • Стандарты общего назначения для информационной безопасности и управления качеством (в частности, ISO/IEC 27001, ISO/IEC 27002 и ISO/IEC 9001) могут частично снизить риски кибербезопасности, связанные с конфиденциальностью, целостностью и доступностью систем искусственного интеллекта. Этот вывод основан на предположении, что ИИ по своей сути является программным обеспечением, и поэтому то, что применимо к программному обеспечению, может быть применено и к ИИ, если будет предоставлено адекватное руководство.
  • Такого подхода может быть достаточно на общем уровне, но его необходимо дополнить системным анализом (например, опираясь на ISO/IEC 15408-1:2009), поскольку определение стандартизированных методов, поддерживающих цели безопасности, часто зависит от предметной области. 


Тем не менее, были выявлены некоторые пробелы в стандартизации:
  • отслеживаемость процессов регулируется несколькими стандартами, но отслеживаемость данных и компонентов ИИ на протяжении всего их жизненного цикла остается проблемой, которая затрагивает большинство угроз и остается в значительной степени нерешенной на практике, несмотря на то, что она хорошо освещена в различных стандартах или проектах (например, ISO/IEC DIS 42001 о системах управления искусственным интеллектом и серия ISO/IEC CD 5259 по качеству данных для аналитики и ML);
  • присущие ML особенности не в полной мере отражены в существующих стандартах, особенно с точки зрения показателей и процедур тестирования;
  • в некоторых областях существующие стандарты не могут быть адаптированы или новые стандарты еще не могут быть полностью определены, поскольку соответствующие технологии все еще находятся в стадии разработки.
Рекомендации:

Рекомендация 1: Используйте стандартизированную и гармонизированную терминологию искусственного интеллекта для кибербезопасности, включая характеристики надежности и таксономию различных типов атак, специфичных для ИИ.
Рекомендация 2: Разработать конкретное/техническое руководство о том, как следует применять существующие стандарты, связанные с
кибербезопасностью программного обеспечения, к искусственному интеллекту. 
Рекомендация 3: Неотъемлемые особенности ОД должны быть отражены в стандартах.
Рекомендация 4: Обеспечьте установление связей между техническими комитетами по кибербезопасности и искусственному интеллекту, чтобы стандарты ИИ по характеристикам надежности
(надзор, надежность, точность, объяснимость, прозрачность и т.д.) и качеству данных учитывали потенциальные проблемы кибербезопасности.

Документы