Это руководство, выпущенное правительством Германии, знакомит разработчиков с наиболее актуальными атаками на системы машинного обучения и потенциальными дополнительными средствами защиты.

Виды атак:
- В рамках evasion attack злоумышленник стремится вызвать неправильную классификацию на этапе вывода модели машинного обучения. Злоумышленник создает вредоносный ввод, который обычно близок к образцу, чтобы скрыть атаку.
- Information extraction attacks, которые также называются атаками на конфиденциальность, направлены на восстановление модели или информации по ее обучающим данным. Они включают атаки на кражу модели, атаки на вывод атрибутов, атаки на вывод членства и атаки на инверсию модели.
- Целями Poisoning attacks, являются сбои в работе или снижение производительности моделей машинного обучения. Таким образом, злоумышленник манипулирует обучающим набором данных, используемым моделью машинного обучения.
Способы защиты:
- Состязательная переподготовка состоит из итеративного генерирования состязательных примеров и многократного обучения модели на них. В результате повышается устойчивость модели к выбранным методам атаки.
- Использование разнообразного и качественного набора обучающих данных - хороший способ снизить восприимчивость модели к определенным состязательным примерам.
- Успех враждебных атак, перенесенных с модели учителя на модель ученика, может быть снижен за счет уменьшения сходства между моделью учителя и моделью ученика.