В исследовании проведен анализ алгоритмов машинного обучения и выделены основные функции и критические этапы разработки. В отчете также представлен подробный анализ угроз, нацеленных на системы машинного обучения.

Основное содержание:
- Обычные средства контроля безопасности, хотя и очень эффективные для информационных систем, должны быть дополнены средствами контроля безопасности, адаптированными к функциям машинного обучения.
- Общее состояние кибербезопасности организаций, использующих алгоритмы машинного обучения, может быть улучшено путем тщательного выбора элементов управления, разработанных для этих алгоритмов. Поскольку эти средства контроля не проверены досконально и не стандартизированы в том, как они должны внедряться, дальнейшие исследования должны быть сосредоточены на создании критериев их эффективности.
- Контекст, в котором применяются средства контроля, имеет решающее значение, и следующие шаги должны быть сосредоточены на рассмотрении конкретных вариантов использования и проведении целенаправленной оценки рисков, чтобы лучше понять эти компромиссы.
- Наконец, учитывая сложность обеспечения безопасности систем машинного обучения, правительства и связанные с ними учреждения несут новые обязанности по повышению осведомленности о влиянии угроз на машинное обучение. Важно обучить специалистов по обработке данных опасностям угроз и разработке средств контроля безопасности до того, как алгоритмы машинного обучения будут использоваться в среде организаций. Привлекая экспертов в области машинного обучения к решению вопросов кибербезопасности, мы можем создать возможность для разработки инновационных решений в области безопасности и смягчения возникающих угроз в системах.