Невидимый кандидат: как страны используют ИИ в период предвыборных кампаний
Искусственный интеллект — инструмент, который стал частью нашей жизни. Он применяется и для проведения предвыборных кампаний по всему миру. ИИ облегчает взаимодействие кандидатов с избирателями и анализирует предпочтения людей, повышая эффективность политической агитации: анализирует предвыборную кампанию, прогнозирует результаты выборов, мониторит социальные сети. В то же время нейросети могут использоваться и для распространения фейковой информации, дипфейков, дискредитации кандидатов. Рассказываем, как нейросети могут изменить общественное мнение, помочь в подсчете голосов и с какими рисками связано применение нейросетей во время предвыборных кампаний.
Помогает или обманывает?
Нейросети в предвыборных кампаниях могут быть полезны: они обеспечивают персонализированное взаимодействие с избирателями, создавая контент, который соответствует их интересам и повышает имидж кандидата. Однако также они могут быть использованы недобросовестными кандидатами для дискредитации оппонентов и манипуляции общественным мнением.
Вадим Глущенко, директор АНО «Центр компетенций по глобальной ИТ-кооперации», рассказал, что политтехнологии «любят» инновационные и нестандартные подходы. Дело в том, что группы избирателей постепенно перестают обращать внимание на привычные способы информационного воздействия. Искусственный интеллект же позволяет создавать разные методики агитационного воздействия: с помощью дипфейков, аналитики социальных сетей и других методик.
«По запросу пользователя ChatGPT и его аналоги способны поставить на конвейер создание эффективных ботов, до определенной степени неотличимых от людей, с целью манипуляционного воздействия на избирателей через массовую генерацию публикаций, якобы созданных человеком. Такое применение языковых моделей существенно усиливает любой пропагандистский потенциал по агитации или дискредитации политических деятелей за счет встроенного в ИИ-систему функционала по быстрому генерированию разнообразных текстов с общим смыслом (на один и тот же контекстный запрос система каждый раз будет выдавать уникальный текст на базе требуемой идеи или тезиса)», — рассказал Вадим Глущенко.
Чтобы дискредитировать оппонента, недобросовестные политики могут использовать дипфейки — очень реалистичные цифровые копии людей, которые позволяют, например, создать видео с тем или иным политиком или государственным деятелем.
«Известны случаи влияния дипфейков на политическую борьбу демократической и республиканской партий в США. Пожалуй, самый известный эпизод произошел в 2019 году, когда действующий на тот момент президент Дональд Трамп, осознанно или нет, «разогнал» в личном Twitter-аккаунте дипфейк с одним из своих главных критиков — спикером Палаты представителей США Нэнси Пелоси. На видео представитель демпартии предстает в явно нетрезвом виде, хотя на самом деле ничего подобного в реальности не происходило», — рассказал Вадим Глущенко.
Правовое регулирование и дипфейков, и искусственного интеллекта в целом во многих странах либо отсутствует, либо находится в зачаточном состоянии. Из-за этого привлечь к ответственности за распространение таких материалов достаточно сложно, но возможно. В Китае в 2023 году приняли закон о дипфейках. Он запрещает использовать дипфейк человека без его разрешения.
В Китае, например, с 2023 года действует закон, обязывающий цифровые платформы и креаторов контента маркировать все свои произведения, созданные при помощи ИИ, чтобы не вводить в заблуждение пользователей. Иначе им грозят большие штрафы с риском попасть под уголовное преследование», — поделился Вадим Глущенко.
В России правовое регулирование искусственного интеллекта пока только развивается. На федеральном уровне нейросети регулируются с помощью экспериментальных правовых режимов:
- Федеральный закон от 31.07.2020 г. No 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации».
- Федеральный закон от 02.07.2021 No 331-ФЗ «О внесении изменений в отдельные законодательные акты Российской Федерации в связи с принятием Федерального закона «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации».
При этом в России применение искусственного интеллекта на выборах ограничено. Например, в начале 2024 года Правительство РФ не поддержало законопроект о нейросетях на выборах. ЛДПР предлагала разрешить применять изображение и голос, созданные нейросетью, в период предвыборной агитации. Однако этот законопроект был отклонен из-за опасений, что созданный искусственным интеллектом контент может исказить представление избирателей о кандидате.
Анализирует и упрощает
Искусственный интеллект также может помочь анализировать большие массивы информации гораздо быстрее, чем это может сделать человек «вручную».
Как ИИ может помочь анализировать информацию в период предвыборной кампании?
- Анализ больших данных: демографической информации, опросов, статистики.
- Мониторинг социальных сетей для определения уровня общественных настроений.
- Прогнозы результатов выборов на основе моделей с историческими данными и современными трендами.
- Анализ текстов для оценки выступлений кандидатов, пресс-релизов и других материалов.
- Обработка обратной связи от избирателей, после которой можно скорректировать стратегию кандидата.
Например, в 2023 году партия «Единая Россия» решила использовать искусственный интеллект во время предвыборной кампании. Политики использовали широкий спектр возможностей нейросетей: от генерации контента до прогнозирования и аналитики. Партия использовала отечественные разработки (например, Kandinsky). Замсекретаря генсовета «Единой России» Сергей Перминов рассказывал РБК, что применение искусственного интеллекта позволяет привлечь новых сторонников и поможет презентовать партийные планы.
«Он эффективен как механизм подготовки черновиков документов, моделирования реакции избирателей, формирования предположений и гипотез, систематизации и упрощения больших и сложных материалов. В целом тот же ChatGPT может хорошо помогать при трех условиях — обращении к нему с точными и удачными вопросами, внимательном анализе и коррекции того, что он напишет, и адресовании к нему с темами и проблемами, в которых он силен. Например, он силен в верификации фактов или обобщении информации за последние один-два года», — поделился политолог Михаил Виноградов.
Политики использовали ИИ и на муниципальных выборах в Иркутской области в 2023 году. Политтехнологи размещали в агитационно-пропагандистских материалах изображения кандидата, сгенерированные нейросетью. Это позволило политику решить сразу несколько проблем: избежать возможного нарушения авторских прав при использовании «обычных» изображений и повысить привлекательность кандидата для избирателей. Кроме того, нейросеть оказалась банально дешевле, чем услуги профессионального фотографа, что оказалось особенно важно на выборах в районе, где проживает всего 24 тысячи человек.
Кроме того, Центральный исполнительный комитет заявлял о том, что пользуется нейросетями для того, чтобы проверить подписи для кандидатов. Благодаря этому эксперты обрабатывают документы в 8–10 раз быстрее. Кроме того, ИИ исключил возможность ошибки, связанной с человеческой невнимательностью.
«Мы активно применяем искусственный интеллект и развиваем цифровизацию в рамках комиссии. Отмечу, что искусственный интеллект применяется во многих выборных процедурах. Замечу, что у нас есть более 20 цифровых сервисов, чтобы любой человек мог узнать все о выборах в России», — рассказала глава ЦИК Элла Памфилова в ходе выступления на XIII Московской юридической неделе.
При этом эксперты сообщали, что во время выборов президента России в 2024 году мошенники почти не использовали нейросети, чтобы создавать фейки на эту тему.
Безопасность и доверие
Использование искусственного интеллекта в предвыборной кампании несет за собой риски, связанные с безопасностью и этикой. Например, глава Комиссии Совета Федерации по защите госсуверенитета и предотвращению вмешательства во внутренние дела РФ Андрей Климов рассказал, что дипфейки могут создать у избирателей иллюзию нелегитимности выборов, чтобы дискредитировать кандидатов. Это серьезная угроза государственному суверенитету, которую необходимо учитывать.
«В 2019 году резонансное обращение к нации президента Габона Али Бонго сочли дипфейком (на фоне слухов о его тяжелой болезни), что привело к неудавшейся попытке государственного переворота и сбоям в работе Интернета в центральноафриканской стране. Явных доказательств того, что конкретное видео оказалось дипфейком, представлено не было, однако сама возможность применения в политических целях этой технологии привела к дестабилизации целой страны», — рассказал Вадим Глущенко.
Чтобы таких ситуаций не возникало, необходимо контролировать использование искусственного интеллекта во время предвыборных кампаний. Такой подход поможет, во-первых, не отказываться от преимуществ применения нейросетей, во-вторых, обеспечить безопасность и прозрачность выборов.
Эксперты отмечают, что есть две распространенные ошибки: воспринимать искусственный интеллект как источник окончательных решений или, наоборот, как робота-помощника, неспособного на яркие идеи и креатив. Необходимо иметь в виду, что искусственный интеллект представляет из себя инструмент, окончательный вариант в любом случае придется делать человеку. При этом искусственный интеллект вполне может предложить свежий взгляд на задачу: например, при создании иллюстраций для предвыборной кампании.
«Результаты массового применения ИИ-технологий в электоральных процессах напрямую зависят от изначального сценария заказчика. Любая технология, и ИИ здесь не исключение, не может быть плохой или хорошей. Все зависит от целей и задач применения, а также от регуляторных рамок», — подытожил Вадим Глущенко.
Нейросети — полезный инструмент для кандидатов на выборах. Он помогает создавать агитационные материалы, обрабатывать обращения и анализировать эффективность кампании. Однако не стоит забывать и об опасностях, которые несут в себе нейросети. Созданные с их помощью дипфейки могут использоваться для дискредитации кандидатов и распространения недостоверной информации.