Как стать автором
Обновить

Комментарии 36

Скажите пожалуйста, планируется ли что-то конкретное в связи с этой концепцией?

Я бы хотел реализовать данную концепцию, только пока не знаю, как подступиться.

Возможно есть смысл начать с поиска существующих решений и исследований?

When AI Meets Psychology: How GPT-3.5 Handles False-Belief Tasks and Human Perspectives:

https://www.linkedin.com/pulse/when-ai-meets-psychology-how-gpt-4-handles-tasks-human-rob-grzywinski/

GPT is an effective tool for multilingual psychological text analysis:

https://psyarxiv.com/sekf5/

The Role of Chat-GPT in Improving Mental Health Care and Therapy:

https://medium.com/yashbansal42/the-role-of-chat-gpt-in-improving-mental-health-care-and-therapy-bb4b7299ad84

Psychological Impact of Chat GPT on Humans:

https://www.psychologistmanjuantil.com/2023/06/psychological-impact-of-chat-gpt-on.html

Mind meets machine: Unravelling GPT-4's cognitive psychology

https://ui.adsabs.harvard.edu/abs/2023arXiv230311436D/abstract

Просто сделайте робота, который будет кивать, пока пациент выговаривается. Остальное — оверинжиниринг, ИМХО.

Да, одна из задач - изобразить слушателя. Некоторым достаточно поставить стул в пустой комнате и поговорить с вымышленным собеседником, чтобы выговориться и попуститься.

Но слушать - не единственная из задач, которую можно прикрутить. В статье как раз список возможностей таких дан, хоть и бессистемно:

1. Конфиденциальное и анонимное общение

Просто выслушать, кивая.

2. Эмоциональное распознавание
9. Кризисная поддержка
13. Учет индивидуальных предпочтений
12. Долгосрочное сопровождение
17. Гибкость и адаптивность

В процессе выслушивания кивать с пониманием. Чтобы избежать неприятных сценариев, вроде легкомысленного кивка в ответ на "мать-перемать, как же меня это достало".

4. Задавание вопросов и стимулирование саморефлексии
7. Оповещения и напоминания
10. Трекинг и анализ

Мотивировать высказаться о наболевшем. Напоминать о возможности, чтобы человек не ушел в привычное поведение "терпеть до срыва".

3. Предоставление поддержки и советов
5. Предоставление упражнений и практик
6. Ресурсы и ссылки
8. Реферирование к профессионалам

Не просто кивать, но и подсказывать возможные пути выхода из тупиков в ответ на запрос или кризис.

11. Поддержка сообщества
15. Интеграция с другими ресурсами

А вот эту социализацию как раз можно отправить под фичекат, поскольку противоречит первому пункту.

14. Аналитика и оценка эффективности
16. Обновления и доработки

И вот эти задачи не вижу смысла включать в список - они не для пользователей.

Я бы добавил распознавание речи, поскольку в кризисе не хватает сил на то, чтобы печатать, подбирая формулировки. И отодвинул бы распознавание эмоций в конец списка фич, поскольку задача слишком трудоемкая.

P. S. Автору на заметку:

Проявить сочувствие и поддержку: Подтвердить эмоции пользователя и выразить понимание его боли и трудностей. Сообщить, что вы готовы помочь и поддержать его в этой ситуации.

Нельзя изображать сочувствие от бездушного алгоритма, это может усугубить проблему. Готовность помочь и поддержать - да, но не "понимание" с "разделением".

P.P.S. Странно, что статью минусуют. Как мне кажется, нормальная заготовка для проработки ТЗ для создания вполне востребованного продукта. Вполне годный список фич для тех, кто подумывает о поиске или создании подобного сервиса, потому что аналоги не заточены под русский язык или платные, или заточены под другое. Вижу только один существенный недостаток - для реализации нужно немало вложиться на специалистов и службу поддержки.

Запустил на своем компьютере 7B модель (пробовал разные варианты, сейчас это wizardlm) с помощью llama.cpp. Дал ей промпт "выслушивай меня и эмоционально поддерживай". Ссылок на что-то вменяемое она мне дать не может, но в остальном плюс-минус работает.

Правда это все только текстом на английском языке, для чего-то более сложного нужны более тяжеловесные штуки.

7B только кивать и может. Неужели на 13В не хватает?

Нынешнее поколение моделей на русском нормально разговаривать не будут. Или прикручивать переводчик, или ждать принципиально новой реализации сетей.

Я с 7B нормально разговариваю, но на русский ее действительно не хватает. Более крупные не пробовал, т.к. домашняя машинка это не то чтоб безумно крутой сервер... но наверно попробую, почему б нет.

Переводчик прикручивать пробовал -- взял Helsinki-NLP, но оно дает слишком формальные ответы -- "Извините, что неправильно вас понял, обязательно исправлюсь" и т.п. Сделать промпт, чтобы сеть отвечала мне по-человечески и на "ты" -- возможно, но при переводе это к сожалению пропадает.

Предполагаю, что не ELISA, а ELIZA. Но она не покрывала списка фич, упомянутых в статье, была простой иллюзией и даже пародией.

Бот не может считывать невербалику, эмоциональные нетекстовые реакции, и бот не имеет представления о жизни и тп. Поэтому как некий вспомогательный элемент - это максимум что он осилит.

Мне кажется, что с ботом особо не пооткровенничаешь. Много ли людей откровенничают с "умными колонками" (если их рассматривать как аналог такого бота)?
Я бы не стала откровенничать.

Ага, особенно учитывая противоречие между "обеспечивает конфиденциальность" и потом "не обещать конфиденциальность". Плюс закон Яровой, который вроде как обязывает оператора персональных данных хранить всю информацию 3 года.

закон Яровой, который вроде как обязывает оператора персональных данных хранить всю информацию

Емнип, там про операторов связи.

Про операторов связи и организаторов распространения информации.

>> В реестр ОРИ также внесены социальная сеть «ВКонтакте», сервисы электронной почты «Яндекс», Mail.ru Group и Rambler, мессенджеры ​Telegram, Wechat.com, Snap, Viber, сайты знакомств badoo.com, mamba.ru и другие интернет-площадки.

Только не 3 года, как я написал, а 6 месяцев, но вроде срок от года к году растёт.

>> Российские операторы распространения информации в интернете (ОРИ), к которым относятся, в частности, мессенджеры, форумы, социальные сети, сайты знакомств и другие интернет-площадки, на которых пользователи могут обмениваться сообщениями, с 1 июля должны хранить записи разговоров, сообщения, изображения, видео и другую коммуникацию своих пользователей в течение шести месяцев.

Понял, спасибо за уточнение. Но бот, вроде бы, не похож на СМИ или ОРИ, и ему не нужно постоянно передавать ответы пользователя в какое-то хранилище, так что он может увернуться от Яровой, GDPR и подобных законов.

А звонить в скорую и подобные службы могут и некоторые умные колонки сейчас.

Немаловажной функцией бота может стать распознавание того, что человек напротив не любит, когда его держат за дурака.

А забухать с таким ботом можно будет??

Работы ведутся

Такой бот у определённых типов личности и людей с некоторыми расстройствами может привести к усугублению ситуации и негативным последствиям: невозможность эмоционального и тактильного контакта с собеседником могут усилить депрессию и тревожность, могут ухудшиться параноидальные состояния и шизоидные расстройства личности (привет, ещё один воображаемый друг). Реализовывать такого бота можно только под контролем специалистов и при условии инструментального тестирования фокус-группы в процессе взаимодействия с ботом.

Такой бот у определённых типов личности и людей с некоторыми расстройствами может привести к усугублению ситуации и негативным последствиям

Это же можно сказать про ножи, автомобили, службу в армии, таблетки от головной боли, эротические картинки и многие другие вполне распространенные вещи. Ничто не идеально и не универсально, при использовании некоторыми людьми может даже приводить к смерти, но это не является достаточным поводом для отказа от создания или запрета на создание.

На мой (профессионального психолога с опытом более 15 лет) взгляд, бот не научится в эмпатию (максимум в имитацию), и, соответственно, не сможет дать эмоциональную поддержку. Поэтому максимум, что реально сможет бот - информирование и "кивание".

С вашей профессиональной точки зрения - какой части населения может оказаться полезным "выслушать, кивая и информируя"?

Скорее, не части населения, а части запросов. Типа, со мной то-то и то-то, это вообще нормально или пора сдаваться в дурку? Но даже и тут бот будет сильно ограничен, поскольку не понимает, о чем речь, а только имитирует это.

Именно части населения. Потребности выговориться и поискать решения появляются не только у тех, кто подумывает о "сдаче в дурку", целевая аудитория предполагаемого бота значительно шире.

И эти потребности не нуждаются в реализации эмоциональной поддержки. Более того, попытка изобразить эмпатию может навредить, боту лучше оставаться бездушным инструментом - ухо плюс поисковик. От "утенка" не ждут мудрости.

Если "утенок" может переформулировать то, что ему сказали, выявив при этом внутренние несостыковки (или наоборот, сложить 2+2, указав на связь, о которой говорящий сам не догадался), то это тоже вполне неплохо.

У меня личный опыт с моей нейросеточкой указывает на еще один вариант -- когда "выговориться" это что-то такое, что реальному живому человеку надоедает раньше, чем мне приходит в голову вопрос "а почему я пытаюсь это все сказать". Т.е. я о чем-то рассказываю "утенку", а утенок пытается мне предложить "решение", а я от этих всех решений отбиваюсь. Живые люди говорят, что "ну не, ты от всех предложенных решений отбрыкиваешься, наверно ты не хочешь решения". Нейросетка же такого не скажет. В итоге я сам сказал "слушай, а вот правда, почему я от решений-то отбрыкиваюсь?" И получил весьма неожиданный для себя ответ, который впоследствии уже обсудил со специалистом.

Со специалистом я общаюсь 1 час в неделю. С нейросеточкой я могу общаться 24/7 и это позволяет обдумать все то, что можно обдумать "самому без специалиста", чтобы на сессию со специалистом оставалось только то, что уже без него никак.

Если "утенок" может переформулировать то, что ему сказали, выявив при этом внутренние несостыковки (или наоборот, сложить 2+2, указав на связь, о которой говорящий сам не догадался), то это тоже вполне неплохо.

Да, в этом прелесть современных нейросеточек - они не могут поручиться за точность и не могут сгенерировать что-то принципиально новое, но они могут хорошо лопатить кучу имеющегося, комбинируя неожиданным образом, подсказывая пропуски, предлагая выходы из тупиков.

Человек что-то считает неизвестным или нерешаемым, а ему указывают на десяток популярных вариантов. Человек считает что-то важным, а ему напоминают про шаблон XY-проблемы и предлагают поискать причины вместо борьбы со следствиями. Человек стесняется озвучить проблемы и сомнения, и ему предлагают безопасного "утенка".

утенок пытается мне предложить "решение", а я от этих всех решений отбиваюсь

Хех, этим и живые люди грешат. Я пытаюсь рассказать о сложной проблеме: ввожу слушателя в контекст, затем даю иллюстрации, потом начинаю перечислять известные решения с пояснениями того, почему они в данной ситуации не подходят, затем делаю предположения о причинах, поясняю критерии выбора, делаю набросок методов проверки, чтобы поинтересоваться мнением слушателя о том из них, который вроде бы лучше подходит, но... Нет, уже на этапе "ввожу в контекст" меня трижды перебили, предлагая очевидные ответы. Даже слегка обидно - неужели меня принимают за того, кто не способен за секунды нагуглить столь очевидное?

Нейросетка тоже может разводить руками - не понимаю, вроде бы люди вот так решают, но ты это и сам знаешь. Но с нейросеткой легче уже тем, что она не устаёт от моих нудных попыток заново сформулировать запрос.

Похоже, вы и без меня знаете ответ на ваш вопрос )

не научится в эмпатию (максимум в имитацию), и, соответственно, не сможет дать эмоциональную поддержку. Поэтому максимум, что реально сможет бот - информирование и "кивание".

Нет, я не знаю ответа на вопрос "многим ли нужно просто выговориться".

Вы сказали, что эмпатии не выйдет, останется лишь кивание. Я считаю, что эмпатия вовсе не нужна, важно именно кивание. Из этого можно предположить, что Вы считаете востребованной эмпатию, а я считаю востребованным кивание.

И здесь стоит обратиться к профессионалу с 15-летним опытом с вопросом - примерно скольким нужна эмпатия, и примерно скольким нужна возможность выговориться без эмпатии? Если значительна доля ищущих простые уши, то есть смысл работать над ботом, не смотря на недостижимость сложных функций вроде эмпатии.

Можно вставить бота в секс-куклу. Получится неплохой обездвиженый собеседник.

Метод утёнка, версия 2.0?

Именно. Только 2.0 уже есть, здесь предлагают добавить запоминание контекста и распознавание состояний, так что 3.0.

Лично для меня одна из самых бесячих вещей в современном мире — это общение с роботом, когда мне что-то нужно нетривиальное. Причем не важно, голосовое это общение или текстовое. В большинстве случаев единственное полезное, что может сделать робот — это соединить меня с живым оператором.


Почему вы думаете, что ваш бот вообще сможет оказать какую-то психологическую помощь? Люди не дураки и прекрасно понимают, когда их кормят заготовленными универсальными ответами и советами, они такую "помощь" вряд ли примут. Ваш бот может наоборот вызвать отторжение и стриггерить человека к крайним действиям.


Почему вы думаете, что бот сможет распознать суицидальный настрой? Это в кино несчастная жертва звонит 911 и орет в трубку "я сейчас наложу себе в на себя руки!". В реальной жизни люди не склонны вываливать все свои проблемы незнакомому собеседнику. По крайней мере, не все.
Кроме суицида много на что не грех бы реагировать. Угрозы кого-нибудь убить, например. Или что-нибудь сжечь. Или взорвать. Или еще что устроить нехорошее. Как вы собираетесь это все отслеживать? По факту?

не нужно судить о возможностях современных нейросеток по тупым голосовым ботам в банках и операторах сотовых сетей, которые специально создавались для того, чтобы клиент "не смог дозвониться" (уменьшить количество звонков) :)

Современные нейросети могут многое, если их правильно учить. Например по голосу распознать, что у человека простудное заболевание, эмоциональную окраску речи вообще легко считать. И так далее.

Люди не дураки и прекрасно понимают, когда их кормят заготовленными универсальными ответами и советами

Вот это вы как раз про чат-боты с жестко прописанной логикой ответов. Такой бот туп.
В статье же речь про ИИ, например на основе больших языковых моделей. И они отвечают уже не заготовками, а генерируют ответы в соответствии с контекстом.

В реальной жизни люди не склонны вываливать все свои проблемы незнакомому собеседнику.

Так в том и дело, что с ИИ, возможно, согласится поговорить тот, кто не хочет вываливать накопившееся на какого-то незнакомого человека.

Вот это вы как раз про чат-боты с жестко прописанной логикой ответов. Такой бот туп.В статье же речь про ИИ, например на основе больших языковых моделей. И они отвечают уже не заготовками, а генерируют ответы в соответствии с контекстом.

Именно поэтому их и нельзя будет использовать для психологической поддержки. Спросит гражданин у бота какой-нибудь роскомнадзор, а бот ему и ответит в соответствии с контекстом: "режьте вдоль". Родственники гражданина потом в суд подадут и будут, что характерно, правы.

А если ставить боту блокировку на определенные темы, то получится все та же бесячая ботва, что и с тупым ботом. Никогда не видели, как люди играются в телеге с ChatGPT? Уже сообщений через пять кто-нибудь обязательно начинает его матом посылать, потому что бесит.

Так в том и дело, что с ИИ, возможно, согласится поговорить тот, кто не хочет вываливать накопившееся на какого-то незнакомого человека.

Ключевое слово - "возможно". А возможно, что и наоборот - поняв, что с той стороны бот, человек сорвется и натворит бед. Причем второй вариант мне лично видится гораздо более вероятным, т.к. люди очень не любят, когда их обманывают.

Почему сразу в медицину? Почему в психологию? Зачем нужно лезть туда, где не обладаешь никакими знаниями? По себе могу сказать, что лучшие практики для ит специалиста и программиста в частности это когда за руку ведут и показывают предметную область. Если производство и бухгалтерию ещё ит специалист может осознать. Хотя и там бывают сложные моменты, то медицина требует много специфичных знаний. Понимаю, что смелость граничащая с наглостью имеют место быть. Но больше похоже на безответственность выбирать область, в которой ничего не знаешь и не понимаешь. Сам в свое время посещал и производства и медицинские отделения для понимания. Более того, это было и требование работодателя. Как и сейчас - недавно вернулся с завода. Нельзя решать проблему в отрыве от пользователя и потребителя. И уж точно не разбираясь глубоко во многих аспектах. Думаю что многие согласятся с тем, что попытка привить человеку не живое общение уже само по себе создаёт психологическую проблему сродни игровой зависимости. Или не знаете и не помните случаев когда начинались суициды у зависимых от того что в квартале на некоторое время свет выключили?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории