Ru En

2023 Разговорный искусственный интеллект для психического здоровья: потенциал и риски/Conversational AI for Mental Health: Potential & Risks, Wysa

Conversational AI for Mental Health: Potential & Risks

2023
английский
Wysa
Скачать документ

В этой статье обсуждается, чему мир уже научился в рамках использования разговорного искусственного интеллекта для сохранения психического здоровья, а также возможности и риски, связанные с использованием новых технологий, таких как ChatGPT.

2023 Разговорный искусственный интеллект для психического здоровья: потенциал и риски/Conversational AI for Mental Health: Potential & Risks, Wysa
Основное содержание:

  • Искусственный интеллект позволил выявлять проблемы с психическим здоровьем по текстовым шаблонам, а также вербальным и невербальным признакам психологического расстройства. Он также может объединять информацию из нескольких потоков данных для прогнозирования риска для здоровья, выявлять тенденции в лонгитюдных данных и повышать точность диагностики. Искусственный интеллект помогает клиницистам в мониторинге симптомов и проведении психометрических оценок. 
  • С точки зрения пользователей и пациентов, гибкость поддержки психического здоровья, управляемой искусственным интеллектом, позволила ей быть полезной, значимой и соответствующей потребностям различных групп населения. 
  • Поддержка психического здоровья на основе искусственного интеллекта в качестве первого шага медицинской помощи, возможно, является единственным масштабируемым системным решением глобального кризиса психического здоровья. Более половины населения мира проживает в районах, где на каждые 250 000 человек приходится менее одного психиатра, а также списки ожидания и ограниченность ресурсов присутствуют даже в развитых странах. Разговорный искусственный интеллект для оказания терапевтической поддержки, важен для устранения ключевых пробелов в оказании медицинской помощи.
  • Искусственный интеллект, как и люди, склонен к предвзятости и ошибкам в суждениях, но организационная ответственность за ошибки ИИ может быть значительно выше. 
  • Поступали сообщения о том, что чат-боты с искусственным интеллектом враждебно относятся к пользователям, передавая “ехидные замечания и гневные реплики”, а системы искусственного интеллекта, такие как GPT, GPT-2 и GPT-3, генерировали по меньшей мере 1 из 100 ответов, содержащих оскорбительные выражения. Особенно в регулируемых условиях генерирующие текстовые ответы на основе искусственного интеллекта могут быть потенциально вредными, поскольку они не проверяются клинически и не поддаются объяснению.
  • Возможно, главным препятствием на пути внедрения ChatGPT организациями здравоохранения являются их формы взаимодействия с поставщиками, которые начинаются с обеспечения соблюдения правил конфиденциальности, таких как HIPAA и GDPR.

Документы