Цель этого отчета - исследовать угрозу безопасности кибератак с использованием искусственного интеллекта путем обобщения текущих знаний по этой теме.

Сбои в результате кибератак с использованием искусственного интеллекта происходят по трем направлениям:
- Во-первых, методы искусственного интеллекта могут быть использованы для лучшей автоматизации задач ручной атаки.
- Во-вторых, ИИ улучшает базовые инструменты злоумышленников.
- В-третьих, он предоставляет совершенно новые возможности, которых раньше не было у злоумышленников.
Общие характеристики ИИ-кибератак:
- Атаки с использованием искусственного интеллекта могут выполняться быстрее, нацеливаться на большее количество жертв и находить больше векторов, чем обычные атаки, благодаря природе интеллектуальной автоматизации и тому факту, что они заменяют обычно ручные задачи.
- Атаки с использованием искусственного интеллекта также более изощренные - они более персонализированы для своей цели и могут адаптироваться в режиме реального времени, что затрудняет их обнаружение.
Способы нивелирования вреда ИИ-кибератак:
- Для смягчения последствий атак с использованием искусственного интеллекта организациям потребуется сначала внедрить технические решения для их обнаружения.
- Необходимо обеспечить наличие средств для сбора соответствующей информации об угрозах. Отчеты об атаках с использованием искусственного интеллекта можно было бы собирать в общем хранилище и каталогизировать аналогично тому, как информация об уязвимостях хранится в базах данных CVE.
- Борьба с атаками с поддержкой искусственного интеллекта потребует использования большего количества систем искусственного интеллекта для защиты. Аналогичные технологии и достижения потребуются для обеспечения нивелирования вреда от будущих атак и общей защиты от них.