Документы международных организаций по ИИ

2023 Перевод Международный кодекс поведения Хиросимского процесса для организаций, разрабатывающих передовые системы ИИ/Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems, SBER AI

Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems

02.11.2023 SBER AI
Перейти к источнику

1 ноября в Блетчли (Великобритания) начался двухдневный саммит по безопасности искусственного интеллекта. Участники мероприятия - представители 28 государств, включая США, КНР, Индию, ФРГ, Францию и Японию, а также ЕС. В ходе саммита была принята декларация, основанная на инициативах стран "Группы семи" в области регулирования ИИ.

Данный документ является переводом оригинального кодекса, осуществленным экспертами Центра регулирования ИИ Sber AI.
Пункты Кодекса:

  1. Принимать надлежащие меры на протяжении всей разработки передовых систем ИИ, в том числе до и на протяжении всего периода их развертывания и размещения на рынке, для выявления, оценки и снижения рисков на протяжении всего жизненного цикла систем ИИ.
  2. Выявлять и устранять уязвимости и, при необходимости, инциденты, и схемы неправильного использования после развертывания, включая размещение на рынке.
  3. Публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования передовых систем ИИ, чтобы поддержать обеспечение достаточной прозрачности, тем самым способствуя повышению подотчетности.
  4. Работать над ответственным обменом информацией и сообщениями об инцидентах между организациями, разрабатывающими передовые системы ИИ, в том числе с отраслью, правительствами, гражданским обществом и научными кругами.
  5. Разрабатывать, внедрять и раскрывать политику управления ИИ и рисками, основанную на риск-ориентированном подходе, включая политику конфиденциальности и меры по смягчению последствий.
  6. Инвестировать в надежные средства контроля безопасности, включая физическую безопасность, кибербезопасность и защиту от инсайдерских угроз, и внедрять их на протяжении всего жизненного цикла систем ИИ.
  7. Разработать и внедрить надежные механизмы аутентификации контента и определения его происхождения, где это технически возможно, такие как водяные знаки или другие методы, позволяющие пользователям идентифицировать контент, созданный ИИ.
  8. Определять приоритетность исследований для снижения социальных рисков, рисков в области охраны труда и техники безопасности, а также приоритетность инвестиций в эффективные меры по смягчению последствий.
  9. Уделять приоритетное внимание разработке передовых систем ИИ для решения важнейших мировых проблем, в частности, климатического кризиса, глобального здравоохранения и образования, но не ограничиваясь ими.
  10. Содействовать разработке и, при необходимости, принятию международных технических стандартов.
  11. Внедрить соответствующие меры по вводу данных и защите персональных данных и интеллектуальной собственности.