Search
Write a publication
Pull to refresh

Глава OpenAI предупредил о рисках использования ChatGPT в качестве психотерапевта

Reading time1 min
Views15K

На подкасте Тео Вона глава OpenAI Сэм Альтман рекомендовал пользователям "подумать дважды" перед тем, как использовать ChatGPT в роли психотерапевта. Многие пользователи обращаются к нейросети за помощью в трудных ситуациях или просто советом — но проблема в том, что подобные разговоры никак не регулируются юридически. Консультации с настоящим писхотерапевтом защищены законом о конфиденциальности, который не распространяется на ChatGPT. Аналогичным образом защищены разговоры с врачами и юристами.

По словам Альтмана, сейчас OpenAI по умолчанию сохраняет все переписки — даже временные чаты остаются на серверах компании 30 дней. И если суд потребует эти данные — то компания будет вынуждена раскрыть их. Теоретически такое может произойти в случае, если пользователь окажется участником судебного процесса о разводе, опеке, трудовом споре и так далее — адвокаты другой стороны могут затребовать диалоги с ChatGPT и любым другим ИИ.

Глава OpenAI считает подобную ситуацию неправильной и просит законодателей догнать реальность. По его мнению, разговоры с ИИ на чувствительные темы также должны быть защищены законом о конфиденциальности.

По данным свежего опроса Talker Research для Vitamin Shoppe (июль 2025), уже около 35% взрослых американцев используют генеративные ИИ‑сервисы для вопросов здоровья и самочувствия: 31% проверяют через них симптомы и ищут информацию о заболеваниях, а примерно 20% обращаются к ботам за писхотерапевтической помощью.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Tags:
Hubs:
Total votes 4: ↑3 and ↓1+2
Comments37

Other news