Документы международных организаций по ИИ

2023 Перевод Международный Хиросимский процесс. Руководящие принципы для организаций, разрабатывающих передовые системы ИИ/Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI system, SBER AI

Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI system

02.11.2023 SBER AI
Перейти к источнику
1 ноября в Блетчли (Великобритания) начался двухдневный саммит по безопасности искусственного интеллекта. Участники мероприятия - представители 28 государств, включая США, КНР, Индию, ФРГ, Францию и Японию, а также ЕС. В ходе саммита была приняты руководящие принципы по развитию ИИ странами-подписантами.

Данный документ является переводом оригинальных принципов, осуществленным экспертами Центра регулирования ИИ Sber AI.
Руководящие принципы: 
  1. Принимать надлежащие меры на протяжении всей разработки передовых систем ИИ, в том числе до и на протяжении всего периода их развертывания и размещения на рынке, для выявления, оценки и снижения рисков на протяжении всего жизненного цикла систем ИИ.
  2. Выявлять и устранять уязвимости и, при необходимости, инциденты и схемы неправильного использования после развертывания, включая размещение на рынке.
  3. Публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования передовых систем ИИ, чтобы поддержать обеспечение достаточной прозрачности, тем самым способствуя повышению подотчетности.
  4. Работать над ответственным обменом информацией и сообщениями об инцидентах между организациями, разрабатывающими передовые системы ИИ, в том числе с отраслью, правительствами, гражданским обществом и научными кругами.
  5. Разрабатывать, внедрять и раскрывать политику управления ИИ и рисками, основанную на риск-ориентированном подходе, включая политику конфиденциальности и меры по смягчению последствий, в частности для организаций, разрабатывающих передовые системы ИИ.
  6. Инвестировать в надежные средства контроля безопасности, включая физическую безопасность, кибербезопасность и защиту от инсайдерских угроз, и внедрять их на протяжении всего жизненного цикла систем ИИ.
  7. Разработать и внедрить надежные механизмы аутентификации контента и определения его происхождения, где это технически возможно, такие как водяные знаки или другие методы, позволяющие пользователям идентифицировать контент, созданный ИИ.
  8. Определять приоритетность исследований для снижения социальных рисков, рисков в области охраны труда и техники безопасности, а также приоритетность инвестиций в эффективные меры по смягчению последствий.
  9. Уделять приоритетное внимание разработке передовых систем ИИ для решения величайших мировых проблем, в частности, климатического кризиса, глобального здравоохранения и образования, но не ограничиваясь ими.
  10. Содействовать разработке и, при необходимости, принятию международных технических стандартов.
  11. Внедрить соответствующие меры по вводу данных и защите персональных данных и интеллектуальной собственности.