В этой статье мы оцениваем базовые модели, такие как ChatGPT, через призму положений Рекомендации ЮНЕСКО, чтобы прояснить и выделить некоторые риски, связанные с их использованием, и предложить структуру, с помощью которой можно учитывать и смягчать их при проектировании, разработке и развертывании систем искусственного интеллекта.

Основное содержание:
Среди негативных последствий ChatGPT и других языковых моделей были выделены шесть аспектов:
- Дискриминация, возникающая в результате устаревших или предвзятых данных
- Содействие распространению неточной информации, ослабление доверия к данным
- Злонамеренное использование ИИ
- Вред от взаимодействия человека и компьютера,
- Автоматизация, доступ и вред окружающей среде,
- Потенциальное нарушение неприкосновенности частной жизни.
- Эти проблемы можно было бы выявить на этапах проектирования и разработки с помощью процесса вовлечения многих заинтересованных сторон и оценки этического воздействия – обоих ключевых элементов Рекомендации, – которые могли бы помочь точно определить потенциальные вредные последствия и облегчить тестирование и внедрение достаточных мер по смягчению последствий.
- Повышение осведомленности и грамотности общественности, еще один из принципов Рекомендации, могло бы подготовить общественность к негативным воздействиям, которые невозможно было бы смягчить с помощью технических средств.
- Системы ИИ работают этично и в соответствии с правами человека и основными свободами, чтобы в первую очередь предотвратить причинение вреда.
- OpenAI мог бы предпринять некоторый набор действий для снижения некоторых выявленных рисков, таких как раскрытие набора данных, использованного для обучения GPT-4, и обеспечение того, чтобы ChatGPT предоставлял ссылки в поддержку любых фактических утверждений, которые он делает в своих ответах.
- Он также должен содержать четкую информацию для пользователей о том, что они не должны принимать результаты работы платформы за чистую монету, но сохранять критическую перспективу, чтобы максимизировать позитивный вклад.