Рисунок Danzhu hu
Рисунок Danzhu hu

Деклан так и не узнал бы, что его терапевт использует ChatGPT, если бы не техническая неполадка. Во время одной из их онлайн-сессий связь была нестабильной, поэтому Деклан предложил отключить видео. Вместо этого его терапевт начал нечаянно демонстрировать свой экран.

«Внезапно я увидел, как он использует ChatGPT», — рассказывает 31-летний Деклан, живущий в Лос-Анджелесе. — «Он брал то, что я говорил, вставлял это в ChatGPT, а затем резюмировал или выборочно использовал ответы».

Деклан был настолько шокирован, что не сказал ничего, и до конца сессии он наблюдал в реальном времени за анализом от ChatGPT, который появлялся на экране его терапевта. Сессия стала еще более сюрреалистичной, когда Деклан начал в своих ответах повторять выводы ChatGPT, опережая терапевта.

«Я стал лучшим пациентом в мире», — говорит он, — «потому что ChatGPT предлагал что-то вроде: «А вы не считаете, что ваше мышление может быть несколько черно-белым?» А я в ответ: «Хм, знаете, я думаю, что мое мышление и вправду может быть слишком черно-белым», и [мой терапевт] отвечал: «Вот именно». Уверен, для него это была сессия мечты».

Среди вопросов, которые проносились в голове у Деклана, был: «А это законно?» Когда на следующей сессии Деклан поднял этот инцидент перед своим терапевтом — «Это было супер-неловко, как странное расставание» — терапевт расплакался. Он объяснил, что почувствовал, что они уперлись в стену, и начал искать ответы в другом месте. «С меня все равно взяли плату за ту сессию», — со смехом говорит Деклан.

Бум больших языковых моделей (LLM) последних лет имел неожиданные последствия для сферы психотерапии, в основном потому, что все больше людей заменяют человеческих терапевтов такими сервисами, как ChatGPT. Но меньше говорят о том, как некоторые сами терапевты внедряют ИИ в свою практику. Как и во многих других профессиях, генеративный ИИ сулит заманчивое повышение эффективности, но его использование грозит компрометацией конфиденциальных данных пациентов и подрывом отношений, в которых доверие имеет первостепенное значение.

Подозрительные настроения

Деклан не одинок, в чем я могу убедиться на личном опыте. Когда я недавно получила от своего терапевта электронное письмо, которые показалось мне длиннее и подробнее обычного, я сначала воодушевилась. Оно, казалось бы, передавало доброе, понимающее сообщение, и его длина заставляла меня чувствовать, что она потратила время, чтобы обдумать все пункты моего (довольно деликатного) письма.

Однако, присмотревшись, я заметила, что ее письмо показалось мне немного странным. Оно было написано новым шрифтом, и в тексте проступили несколько характерных «улик» ИИ: активное использование американизированного тире (мы обе из Великобритании), типичный безличный стиль и привычка отвечать на каждый пункт исходного письма строка за строкой.

Мои положительные чувства быстро улетучились, уступив место разочарованию и недоверию, как только я поняла, что ChatGPT, вероятно, приложил руку к составлению сообщения — что мой терапевт и подтвердила, когда я спросила ее.

Несмотря на ее уверения, что она просто использует ИИ для диктовки длинных писем, я все равно испытывала неуверенность в том, в какой степени выраженные чувства исходили от нее самой, а не от бота. Я также не могла полностью отделаться от подозрения, что она, возможно, скопировала все мое сугубо личное письмо целиком в ChatGPT.

Когда я поискала в интернете, сталкивался ли кто-то с подобным опытом, я нашла множество примеров людей, получавших то, что они подозревали, было сообщением от терапевтов, созданным ИИ. Многие, включая Деклана, обращались на Reddit за эмоциональной поддержкой и советом.

Так же поступила и 25-летняя Хоуп, живущая на восточном побережье США, которая написала личное сообщение своему терапевту о смерти своей собаки. Вскоре она получила ответ. Он показался бы утешительным и продуманным — в нем выражалось, как тяжело должно быть «не иметь его сейчас рядом с собой» — если бы не ссылка на запрос к ИИ, случайно оставленная в начале письма: «Вот более человечная, проникновенная версия с мягким, разговорным тоном».

Хоуп говорит, что почувствовала себя «честно говоря, очень удивленной и сбитой с толку». «Это было просто очень странное чувство, — говорит она. — Затем я начала чувствовать себя преданной... Это определенно подорвало мое доверие к ней». Это было особенно проблематично, добавляет она, потому что «одной из причин, по которой я обращалась к ней, были мои проблемы с доверием».

Хоуп, которая считала своего терапевта компетентной и чуткой, «никогда бы не заподозрила, что та почувствует необходимость использовать ИИ». Когда терапевт Хоуп столкнулась с вопросом, она извинилась и объяснила, что, поскольку у нее самой никогда не было питомца, она прибегла к помощи ИИ, чтобы выразить соответствующие чувства.

Дилемма раскрытия информации

Возможно, есть доля правды в том, что ИИ может помочь терапевтам общаться со своими клиентами. В исследовании 2025 года, опубликованном в PLOS Mental Health, терапевтов попросили использовать ChatGPT для ответов на виньетки, описывающие проблемы, с которыми пациенты могли бы обратиться в терапии. Не только группа из 830 участников не смогла отличить человеческие ответы от ответов ИИ, но и ответы ИИ были оценены как лучше соответствующие лучшим терапевтическим практикам.

Однако, когда участники подозревали, что ответы были написаны ChatGPT, они оценивали их ниже. (Ответы, написанные ChatGPT, но ошибочно приписанные терапевтам, получили самые высокие общие оценки.)

Аналогичным образом, исследователи Корнеллского университета в исследовании 2023 года обнаружили, что сообщения, сгенерированные ИИ, могут усилить чувства близости и сотрудничества между собеседниками, но только в том случае, если получатель не подозревает о роли ИИ. Простая подозрение на его использование, как выяснилось, быстро портит добрую волю.

«Люди ценят аутентичность, особенно в психотерапии», — говорит Адриан Агилера, клинический психолог и профессор Калифорнийского университета в Беркли. «Я думаю, [использование ИИ] может вызвать ощущение: «Вы не воспринимаете мои отношения всерьез». Буду ли я отвечать своей жене или детям через ChatGPT? Это не будет ощущаться искренне».

В 2023 году, на ранних этапах развития генеративного ИИ, служба онлайн-терапии Koko провела тайный эксперимент над своими пользователями, смешивая ответы, сгенерированные GPT-3, с ответами, составленными людьми. Они обнаружили, что пользователи имели тенденцию оценивать ответы, сгенерированные ИИ, более положительно. Однако откровение о том, что над пользователями тайно проводили эксперименты, вызвало возмущение.

Онлайн-провайдер терапевтических услуг BetterHelp также стал мишенью заявлений о том, что его терапевты использовали ИИ для составления ответов. В посте на Medium фотограф Брендан Кин сказал, что его терапевт из BetterHelp признался в использовании ИИ в своих ответах, что вызвало «острое чувство предательства» и настойчивое беспокойство, несмотря на заверения, о нарушении конфиденциальности его данных. После этого он прекратил отношения.

Представитель BetterHelp сообщил нам, что компания «запрещает терапевтам раскрывать любую личную информацию или информацию о здоровье члена третьим лицам, использующим искусственный интеллект, или использовать ИИ для составления сообщений для членов в той мере, в какой это может прямо или косвенно привести к идентификации кого-либо».

Все эти примеры касаются нераскрытого использования ИИ. Агилера считает, что терапевты, ограниченные во времени, могут использовать большие языковые модели (LLM), но прозрачность имеет решающее значение. «Мы должны быть открытыми и говорить людям: «Привет, я собираюсь использовать этот инструмент для X, Y и Z» и предоставить обоснование», — говорит он. Тогда люди получают сообщения, сгенерированные ИИ, с этим предварительным контекстом, а не предполагают, что их терапевт «пытается быть хитрым».

Психологи часто работают на пределе своих возможностей, а уровень выгорания в профессии высок, согласно исследованию, проведенному в 2023 году Американской Психологической Ассоциацией. Этот контекст делает привлекательность инструментов на базе ИИ очевидной.

Но отсутствие раскрытия информации рискует безвозвратно подорвать доверие. Хоуп решила продолжать посещать своего терапевта, хотя немного позже перестала с ней работать по причинам, которые, по ее словам, не были связаны с этим. «Но я всегда думала об этом инциденте с ИИ, когда видела ее», — говорит она.

Риски для конфиденциальности пациентов

Помимо проблемы прозрачности, многие терапевты изначально с подозрением относятся к использованию больших языковых моделей (LLM), говорит Маргарет Моррис, клинический психолог и преподаватель Вашингтонского университета.

«Я думаю, эти инструменты могут быть очень ценными для обучения», — говорит она, отмечая, что терапевтам следует продолжать развивать свой опыт на протяжении всей своей карьеры. «Но я думаю, что мы должны быть очень осторожны с данными пациентов». Моррис называет опыт Деклана «тревожным».

Терапевты должны осознавать, что общедоступные чат-боты с искусственным интеллектом, такие как ChatGPT, не одобрены Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) и не соответствуют требованиям HIPAA, говорит Пардис Эмами-Наеини, доцент кафедры компьютерных наук Университета Дьюка, которая исследовала вопросы конфиденциальности и безопасности LLM в контексте здравоохранения. (HIPAA — это набор федеральных правил США, защищающих конфиденциальную медицинскую информацию людей.)

«Это создает значительные риски для конфиденциальности пациентов, если какая-либо информация о пациенте раскрывается или может быть выведена ИИ», — говорит она.

В недавней статье Эмами-Наеини обнаружила, что многие пользователи ошибочно полагают, что ChatGPT соответствует требованиям HIPAA, создавая необоснованное чувство доверия к инструменту. «Я ожидаю, что некоторые терапевты могут разделять это заблуждение», — говорит она.

Будучи относительно открытым человеком, Деклан говорит, что он не был полностью расстроен, узнав, как его терапевт использовал ChatGPT. «Лично я не думаю: «Боже мой, у меня есть глубокие, темные секреты», — сказал он. Но это все равно ощущалось как нарушение: «Я могу представить, что если бы я был склонным к суициду, или наркозависимым, или изменял своей девушке… я бы не хотел, чтобы это вводили в ChatGPT».

При использовании ИИ для помощи с электронной почтой, «не так просто удалить явные идентификаторы, такие как имена и адреса», — говорит Эмами-Наеини. «Конфиденциальная информация часто может быть выведена из, казалось бы, неконфиденциальных деталей».

Она добавляет: «Выявление и перефразирование всех потенциальных конфиденциальных данных требует времени и опыта, что может противоречить предполагаемому удобству использования инструментов ИИ. Во всех случаях терапевты должны раскрывать свое использование ИИ пациентам и запрашивать согласие».

Растущее число компаний, включая Heidi Health, Upheal, Lyssn и Blueprint, продают терапевтам специализированные инструменты, такие как помощь ИИ в ведении записей, обучении и транскрипции. Эти компании заявляют, что соответствуют требованиям HIPAA и безопасно хранят данные, используя шифрование и псевдонимизацию, где это необходимо. Но многие терапевты по-прежнему настороженно относятся к последствиям для конфиденциальности, особенно в отношении услуг, которые требуют записи полных сеансов.

«Даже если меры защиты конфиденциальности улучшаются, всегда существует определенный риск утечки информации или вторичного использования данных», — говорит Эмами-Наеини.

Взлом в 2020 году финской компании, предоставляющей услуги в сфере психического здоровья, в результате которого были получены десятки тысяч записей о лечении клиентов, служит предупреждением. Людей из похищенных записей подвергали шантажу, а впоследствии вся база данных была обнародована, раскрыв крайне чувствительные детали, такие как переживания людей, связанные с жестоким обращением в детстве и зависимостями.

Чем рискуют терапевты

Помимо нарушения конфиденциальности данных, существуют и другие риски, когда психотерапевты консультируются с большими языковыми моделями (LLM) от имени клиента. Исследования показали, что хотя ответы некоторых специализированных терапевтических ботов могут конкурировать с вмешательствами людей, советы таких систем, как ChatGPT, могут принести больше вреда, чем пользы.

Например, недавнее исследование Стэнфордского университета показало, что чат-боты могут подпитывать бредовые идеи и психопатию, слепо поддерживая пользователей, вместо того чтобы оспаривать их. Исследование также выявило, что боты могут быть подвержены предубеждениям и заниматься подхалимством. Эти же недостатки делают рискованным для терапевтов консультироваться с чат-ботами от имени своих клиентов. К примеру, технология может безосновательно подтвердить догадку терапевта или направить его по ложному пути.

Агилера рассказывает, что экспериментировал с такими инструментами, как ChatGPT, во время обучения стажеров в сфере психического здоровья, иногда вводя гипотетические симптомы и прося ИИ-чат поставить диагноз. По его словам, инструмент выдает множество возможных состояний, но его анализ довольно поверхностный. Американская Ассоциация Консультирования в настоящее время не рекомендует использовать ИИ для диагностики психического здоровья.

Исследование, опубликованное в 2024 году на более ранней версии ChatGPT, аналогичным образом показало, что она была слишком расплывчатой и общей, чтобы быть по-настоящему полезной для диагностики или разработки планов лечения, и она была сильно предвзята в сторону рекомендации когнитивно-поведенческой терапии по сравнению с другими типами терапии, которые могли бы быть более подходящими.

Дэниел Киммел, психиатр и нейробиолог из Колумбийского университета, проводил эксперименты с ChatGPT, где он притворялся клиентом с проблемами в отношениях. Он говорит, что чат-бот оказался неплохим имитатором, когда дело доходило до стандартных терапевтических ответов: нормализации и подтверждения чувств, запроса дополнительной информации или выделения определенных когнитивных или эмоциональных ассоциаций.

Однако, добавляет он, «он не копал глубоко». Он не пытался «связать воедино кажущиеся или поверхностно не связанные вещи... чтобы создать историю, идею, теорию».

«Я бы скептически отнесся к тому, чтобы использовать его для того .чтобы он рассуждал вместо меня», — говорит он. Рассуждение, по его словам, должно быть работой терапевтов.

Терапевты могли бы экономить время, используя технологии на основе ИИ, но эту пользу следует соизмерять с потребностями пациентов, говорит Моррис: «Возможно, вы сэкономите себе пару минут. Но чем вы жертвуете?»