Документы международных организаций по ИИ

2023 Базовые модели, такие как ChatGPT, через призму Рекомендации ЮНЕСКО по этике искусственного интеллекта/Foundation Models such as ChatGPT through the prism of the UNESCO Recommendation on the Ethics of Artificial Intelligence, ЮНЕСКО

Foundation Models such as ChatGPT through the prism of the UNESCO Recommendation on the Ethics of Artificial Intelligence

английский ChatGPT ЮНЕСКО Этика 2023
08.04.2024 UNESCO
Перейти к источнику
В этой статье авторы оценивают базовые модели, такие как ChatGPT, через призму положений Рекомендации ЮНЕСКО, чтобы прояснить и выделить некоторые риски, связанные с их использованием, и предложить структуру, с помощью которой можно учитывать и снижать их при проектировании, разработке и внедрении систем искусственного интеллекта.
Основное содержание:
  • Распространение “экспериментальных” инструментов искусственного интеллекта, таких как ChatGPT, является ярким примером того, почему государствам крайне важно выполнять Рекомендацию ЮНЕСКО, чтобы выявлять, уточнять и снижать риски ущерба от таких моделей, и при этом ответственно управлять ими. Это особенно относится к малозаметному и долгосрочному вреду, который может быть менее очевиден для общественности или обычных пользователей, например, вред окружающей среде, предвзятость и воздействие на критическое мышление и креативность. 
  • Эти проблемы можно было бы выявить на этапах проектирования и разработки с помощью эффективного процесса взаимодействия с участием многих заинтересованных сторон и оценки этических последствий – обоих ключевых элементов Рекомендации, – которые могли бы помочь точно определить потенциальные негативные последствия и облегчить тестирование и внедрение достаточных мер по смягчению последствий. Аналогичным образом, повышение осведомленности и грамотности общественности, что является еще одним принципом Рекомендации, могло бы подготовить людей к негативным последствиям, которые невозможно было бы смягчить с помощью технических средств. 
  • Цель рекомендации - дать правительствам, компаниям и другим организациям предварительную оценку того, как проектировать, разрабатывать, внедрять и закупать системы искусственного интеллекта с соблюдением этических норм и в соответствии с правами человека и основными свободами, чтобы в первую очередь предотвратить причинение вреда. OpenAI также может предпринять несколько действий для снижения выявленных рисков, таких как полное раскрытие набора данных, использованного для обучения GPT-4, и обеспечение того, чтобы ChatGPT предоставлял ссылки в подтверждение любых фактических утверждений, которые он приводит в своих ответах. Он также должен содержать четкую информацию для пользователей о том, что они не должны принимать результаты работы платформы за чистую монету, а должны критически относиться к ней.