2024 Злоупотребления генеративным ИИ/Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data, Google

Первая часть документа содержит классификацию тактик злонамеренного использования ГИИ, опирающуюся на анализ научных статей и других публикаций по теме. Во второй части представлен анализ массива из 200 сообщений СМИ о таких случаях за период с января 2023 года по март 2024 года. Авторы отмечают, что в прессу могли не попасть сведения о действиях, в которых применение ГИИ неочевидно или последствия которых были незначительными, по оценкам журналистов.
Ключевые выводы:
- наиболее распространенные тактики злонамеренного использования ИИ — это манипуляции с человеческим сходством (например, генерация речи или облика общественных деятелей) и фальсификация доказательств (например, фотографии вымышленных событий). Явная цель большинства из них — повлиять на общественное мнение, реализовать жульническую или мошенническую схему, получить прибыль;
- в большинстве зафиксированных случаев злоупотребления не применяются технологически сложные системы или атаки с ГИИ. Речь преимущественно идет об использовании легкодоступных возможностей, не требующих особых технических навыков;
- растущая сложность и доступность инструментов ГИИ, вероятно, породят новые и более простые формы злоупотреблений, которые не являются в явной форме злонамеренными и формально не нарушают условия использования таких инструментов, но все же имеют этические последствия. Аналитики относят к ним новые формы коммуникаций для политической деятельности, саморекламы и пропаганды, которые размывают границу между подлинностью и обманом;
- атаки на сами модели ГИИ рассматривались авторами как одно из направлений злоупотреблений с искусственным интеллектом. Анализ показал, что на них приходится лишь около 10% задокументированных случаев и чаще всего они проводились с целью найти и продемонстрировать уязвимости систем.