Как стать автором
Поиск
Написать публикацию
Обновить

Глава OpenAI предупредил о рисках использования ChatGPT в качестве психотерапевта

Время на прочтение1 мин
Количество просмотров15K

На подкасте Тео Вона глава OpenAI Сэм Альтман рекомендовал пользователям "подумать дважды" перед тем, как использовать ChatGPT в роли психотерапевта. Многие пользователи обращаются к нейросети за помощью в трудных ситуациях или просто советом — но проблема в том, что подобные разговоры никак не регулируются юридически. Консультации с настоящим писхотерапевтом защищены законом о конфиденциальности, который не распространяется на ChatGPT. Аналогичным образом защищены разговоры с врачами и юристами.

По словам Альтмана, сейчас OpenAI по умолчанию сохраняет все переписки — даже временные чаты остаются на серверах компании 30 дней. И если суд потребует эти данные — то компания будет вынуждена раскрыть их. Теоретически такое может произойти в случае, если пользователь окажется участником судебного процесса о разводе, опеке, трудовом споре и так далее — адвокаты другой стороны могут затребовать диалоги с ChatGPT и любым другим ИИ.

Глава OpenAI считает подобную ситуацию неправильной и просит законодателей догнать реальность. По его мнению, разговоры с ИИ на чувствительные темы также должны быть защищены законом о конфиденциальности.

По данным свежего опроса Talker Research для Vitamin Shoppe (июль 2025), уже около 35% взрослых американцев используют генеративные ИИ‑сервисы для вопросов здоровья и самочувствия: 31% проверяют через них симптомы и ищут информацию о заболеваниях, а примерно 20% обращаются к ботам за писхотерапевтической помощью.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Теги:
Хабы:
Всего голосов 4: ↑3 и ↓1+2
Комментарии37

Другие новости

Ближайшие события