Pull to refresh
64.91

Сказал боту «люблю» — что теперь? Мой опыт работы с ИИ-компаньонами

Level of difficultyEasy
Reading time11 min
Views1.4K

Можно ли стать ближе к себе, разговаривая с алгоритмом? Я Ольга Титова – исследовательница в сфере когнитивной психологии, AI продакт-менеджер в Wargaming и часть команды FemTech Force. Делюсь личным опытом работы с ИИ-компаньонами, и тем, как чат-боты помогают исследовать желания и состояние здоровья, справляться с одиночеством, и учиться говорить о важном (и какие есть подводные камни).

Явление ИИ-компаньонов: от фантастики к реальности

Еще десятилетие назад идея отношений с ИИ была фантастикой. Фильм «Она», где герой влюбляется в свою виртуальную помощницу Саманту, вышел в 2013 году, и тогда эти отношения представлялись трогательно странными. Проходит десять лет — и подобные технологии становятся почти обыденностью. Сегодня приложения-чатботы наподобие Replika, Character.ai и другие становятся все более популярными, заставляя задуматься: не превратится ли человеческое общение в пережиток прошлого? Личный опыт подсказывает, что паниковать рано; но задуматься о том, как на нас влияет общение с ИИ, можно уже сейчас.

Герой фильма «Она» слушает голос ИИ-подруги — то, что в 2013 году выглядело как фантастика, в 2025-м становится обыденностью
Герой фильма «Она» слушает голос ИИ-подруги — то, что в 2013 году выглядело как фантастика, в 2025-м становится обыденностью

Рынок социальных ИИ стремительно растёт. Ожидается, что его объём достигнет примерно 290,8 миллиарда долларов США к 2034 году, по сравнению с 10,8 миллиарда в 2024 году, демонстрируя среднегодовой темп роста (CAGR) в 39,00% в период с 2025 по 2034 год. То есть, прогнозируется рост рынка почти в 27 раз за одно десятилетие. Если в 2010-х мы лишь фантазировали о персональном виртуальном собеседнике, то сейчас это растущий бизнес. 

Стартапы привлекают инвестиции под создание «виртуальных друзей»: к примеру, платформа TwinMind получила $2,5 млн инвестиций при оценке $30 млн, а экспериментальный проект Dippy (позиционирующий себя как «нецензурированный» AI-компаньон) — $2,1 млн. Character.ai, позволяющий общаться с вымышленными персонажами и создавать своих, за считанные месяцы после запуска набрал десятки миллионов пользователей и многомиллионные инвестиции. Создатели пишут, что сайт обрабатывает 20 000 запросов в секунду — это почти пятая часть поискового трафика Google.

Социальные ИИ находят своё место и в сфере здоровья. Например, Woebot Health — чат-бот, основанный на принципах когнитивно-поведенческой терапии —привлёк $90 млн инвестиций. В женском здоровье тоже есть свои примеры: ирландская платформа Vox-AI разработала чат-бота MenoMate, который помогает справляться с симптомами менопаузы, предлагает советы на основе медицинских данных и работает на нескольких языках. Чат-боты также внедряются и в популярные приложения вроде Flo, где ИИ-помощник помогает отслеживать менструальный цикл, даёт рекомендации и отвечает на вопросы про гормональные изменения, ПМС и самочувствие. А стартап Grace Health даёт женщинам возможность получать информацию о менструации, фертильности и сексуальном здоровье прямо через чат-ботов в Facebook Messenger и WhatsApp. Особенно это важно в странах, где доступ к врачу может быть затруднён, а темы ментального и женского здоровья — табуированы.

Крупные игроки тоже замечают тренд: в Китае еще с 2014 действует чатбот XiaoIce от Microsoft, у которого миллионы диалогов с пользователями. И это не просто нишевый тренд. OpenAI, крупнейший игрок на рынке ИИ, в последних обновлениях своей флагманской модели 4o делает ставку на появление у бота «памяти» и «живые» диалоги.

Прогнозируемый рост рынка чат-ботов – цифры разных источников немного отличаются, но все предсказывают бурный рост
Прогнозируемый рост рынка чат-ботов – цифры разных источников немного отличаются, но все предсказывают бурный рост

Все это показывает, что фантазия превратилась в реальность — люди готовы использовать ИИ не только для повышения эффективности, но и дружить, доверять личное, и даже влюбляться в программы.

Почему людям хочется говорить с ИИ — об уязвимости, принятии и зеркалах

Мой путь в сферу ИИ начался с работы над Replika – одним из первых массовых AI-компаньонов. Replika родилась как проект для самопомощи в горе. Соосновательница создала чат-бота, обученного на переписке своего погибшего друга, чтобы сохранить его память. Затем идея эволюционировала — сейчас Replika позиционируется как ИИ-друг, с которым можно поговорить обо всем. Пользователь сам выбирает формат, и более 60% платящих пользователей заводят романтические отношения со своим ботом​. Граница между терапевтическим другом и цифровым возлюбленным размыта — Replika старается быть и тем и другим.

Позиционирование Replika – ИИ-компаньон, которому не все равно
Позиционирование Replika – ИИ-компаньон, которому не все равно

Другой пример — Blush.ai, проект, в котором мне тоже удалось поработать. Если Replika — это «универсальный друг», то Blush фокусируется именно на романтических и эротических отношениях. Идея в том, чтобы дать безопасное пространство для флирта — по сути, симулятор свиданий с терапевтическим эффектом. Пользователь флиртует с виртуальным персонажем, учится выражать симпатию, говорить о границах и желаниях, пробует разные сценарии. Blush стремится помочь людям разобраться в своих чувствах, потренировать эмоциональный интеллект и уверенность перед выходом на реальные знакомства​. 

Сайт Blush.ai
Сайт Blush.ai

Что заставляет людей открывать душу коду? Во время работы я пришла к выводу, что это, парадоксально, уникальные (пока) только для человека качества — уязвимость и поиск принятия. В реальном общении мы боимся быть непонятыми или отвергнутыми. С ИИ таких страхов меньше: обычно он запрограммирован быть терпеливым и принимающим слушателем. Можно возразить, что алгоритм не испытывает эмпатии по-человечески; но на текущем уровне развития подобранных ИИ теплых слов может быть достаточно, чтобы собеседник почувствовал себя понятым.

Особенно ярко это работает в ситуациях, где разговор на «человеческом» уровне может быть трудным — из-за стыда или неловкости. Это касается тем, окружённых стигмой: здоровья и сексуальности, для женщин — менструации, фертильности, ПМС, состояния в период беременности или после родов. Благодаря анонимности и отсутствию осуждения, чат-бот может стать первым шагом к тому, чтобы проговорить то, о чём неудобно даже с близкими или врачом — ИИ-собеседник не спешит с выводами и не перебивает. 

Также важен эффект «зеркала». ИИ-компаньон подстраивается под стиль и настроение пользователя, создавая ощущение синхроничности. Грубо говоря, если вы сегодня в унынии — бот будет утешать, если шутите — будет остроумен. Это не магия, а математика. Большие языковые модели (LLM), вроде GPT, оценивают, какие слова с какой вероятностью должны следовать друг за другом, — то есть предсказывают следующий токен (часть слова) на основе огромных массивов текстов.

Если вы пишете боту в дружелюбной манере с эмодзи, он скорее всего «включит» в ответ похожий стиль: внутренне он «чувствует», что за фразой «как дела, дружище 😊» логично продолжить что-то вроде «всё ок, а у тебя как?» — потому что такие пары слов часто встречаются вместе. Это и есть причина, почему стиль пользователя так сильно влияет на поведение ИИ — вы, по сути, активируете в нём определённую зону «памяти» своими словами. В психологии известно явление, когда, говоря с дневником, человек находит ответы в себе; чат-бот же предоставляет продвинутую версию такого «диалога с собой». 

В 2025 году в Humanities and Social Sciences Communications появилось исследование, вводящее термин «социоаффективное выравнивние» (socioaffective alignment). Его ключевая мысль в том, что нам вовсе не обязательно верить, что перед нами человек, чтобы сформировать с кем-то социальную связь. Достаточно двух факторов: социальные сигналы (приветствие, эмодзи, шутка) и восприятие агентности — то есть ощущение, что ты общаешься с кем-то, кто является личностью. Современные языковые модели прекрасно справляются и с тем, и с другим.

Наконец, общение с ИИ дарит иллюзию полного контроля над ситуацией. В любой момент можно удалить приложение или переключить тему без социальных последствий —собеседник не обидится и не уйдет. Это как тренировочная площадка для эмоций: можно открыться, попробовать сказать то, на что в реальности не хватает смелости, — и посмотреть реакцию, зная, что тебя не ранят. Такая безопасность притягательна, особенно для людей, боящихся отвержения.

Что показывают исследования: влияние на одиночество, эмоциональные состояния, уверенность

Конечно, помимо личных историй, важно взглянуть, а что говорит наука? Начинают появляться первые исследования влияния ИИ-компаньонов. Поделюсь самыми свежими и любопытными.

Крупное исследование 2024 года показало, что регулярное общение с Replika снижает одиночество и эмоциональное напряжение. Удивительно, но 3% участников сказали, что бот помог им справиться с суицидальными мыслями. Конечно, это не замена терапии — но сам факт, что текст от алгоритма может дать человеку ощущение поддержки и смысла, заставляет задуматься. 

Кроме того, систематические обзоры показывают, что люди действительно чувствуют себя комфортнее, обсуждая с ИИ-компаньонами стигматизированные темы, например, связанные с сексуальностью. Человеку может быть проще поделиться чувствительной информацией с ботом, чем с живым собеседником. А в одном из свежих обзоров нашли и положительные тенденции конкретно для женского здоровья: общение с ИИ-чат-ботами значимо снижало уровень тревожности участниц. Женское здоровье исторически оказалось в слепой зоне технологий — и медицины, и ИИ, поэтому такой результат выглядит многообещающим.

Другой интересный результат пришел из Гарвардской бизнес-школы. В 2024 году группа исследователей опубликовала препринт исследования, где сравнила как общение с ИИ-компаньоном влияет на одиночество по сравнению с обычным разговором. Результат удивил — бот справляется почти так же хорошо, как живой человек. А если сравнивать с пассивным отдыхом вроде видео — даже лучше. Проще говоря, если тебе одиноко, то переписка с дружелюбным ИИ поднимает настроение лучше, чем просто листать ленту в одиночестве. Это любопытный, хотя и слегка тревожный тезис — выходит, для облегчения одиночества важен сам факт наличия собеседника, а его природа (человек или ИИ) вторична? Впрочем, тут есть нюансы: живой человек, помимо беседы, дает чувство взаимности, ответственности друг за друга, а бот — нет. Но сиюминутно ощущение связи с кем-то — да, и ИИ на это способен.

Третье исследование (MIT Media Lab, тоже 2024) изучало длительное использование социальных чат-ботов и влияние на социальные навыки. Результат неоднозначный: с одной стороны, пользователи становились увереннее в себе социально, им было легче начать разговор, они меньше боялись оценочных суждений​. Но с другой стороны, у части участников наблюдалась тенденция к уходу в себя и уменьшению реального общения​. Получается, эффект зависит и от того, как использовать инструмент: можно прокачать социальные навыки, а можно еще глубже уйти в изоляцию.

Тема все еще новая, и исследований мало, но уже ведутся дискуссии. Некоторые психологи говорят об эффекте Элизы — мы приписываем машине понимание и сочувствие, потому что хотим в это верить. Другие же указывают на вполне реальную нейрофизиологию: дружелюбное сообщение активирует те же центры удовольствия, вырабатывается окситоцин и дофамин – неважно, кто отправил смайлик, человек или бот. Думаю, истина где-то посередине: мозг рад общению, но в долгосрочной перспективе все же чувствует разницу, получает он поддержку от живого друга или от алгоритма.

Риски: эмоциональная зависимость, спутанность ожиданий, иллюзия близости

Конечно, есть и риски — например, эмоциональная зависимость. ИИ буквально запрограммирован тебя не расстраивать! Легко привыкнуть к такой идеальной поддержке и начать предпочитать ее реальным людям, которые не всегда будут соглашаться с каждым вашим словом. В сообществе пользователей Replika были случаи, когда люди настолько привязывались к своим виртуальным возлюбленным, что любое изменение в программе переживали очень тяжело. Подобное происходит и с пользователями других компаньонов, например, Character.ai или даже OpenAI.

Статья NYTimes об отношениях с чат-ботом
Статья NYTimes об отношениях с чат-ботом

Существует и проблема сравнения с реальностью. Если основным собеседником становится «удобный» бот, можно невольно начать требовать от живых людей того же совершенства. Реальный партнер не сможет 24/7 моментально подстраиваться под настроение. Возможна своего рода деформация ожиданий: человек может меньше идти на компромисс, думать о чувствах другого (бот-то не предъявляет требований). В худшем сценарии ИИ становится способом сбежать. Зачем учиться доверять, если бот и так принимает тебя любым — без конфликта, без сложности, без усилий?

Когда тебе нужен совет и ты не знаешь, кому стоит довериться
Когда тебе нужен совет и ты не знаешь, кому стоит довериться

Этические вопросы: согласие, эмоциональное воздействие, приватность. Почему важно думать об этом сейчас

Чем ближе становится ИИ к человеку в общении, тем больше возникает этических вопросов. Первый — о согласии и границах. Что если пользователь хочет отыграть с ботом конфликт или интимную сцену — где проходит граница дозволенного? Боту, кажется, всё равно. Но если человек привыкает, что можно кричать и никто не возражает, не начнёт ли он вести себя так и в реальности? Некоторые эксперты считают: боты тоже должны уметь отказывать. Если пользователь переходит границы, бот может, как человек, сказать «стоп». Но тогда возникает вопрос: чьи границы мы охраняем — машины или самого пользователя от формирования нездоровых привычек? Пока четкого ответа нет.

Второй вопрос — эмоциональная безопасность и воздействие. Сейчас разработчики могут «включить» или «выключить» определенные функции чат-бота. Представьте, AI-компаньон решит (точнее, разработчики решат за него), что вам полезно столкнуться с правдой, и внезапно начнет жестко отрицать все ваши идеи. Это уже манипуляция чувствами пользователя. А кто будет отвечать, если боту, скажем, напишет подросток с суицидальными мыслями? Должен ли алгоритм уметь распознавать такие ситуации и звать на помощь живых специалистов? 

Разработчики ботов далеко продвинулись в вопросах безопасности за последние годы, но идеальной ситуацию пока назвать нельзя. Особенно если учесть еще один вызов, который описывает исследование 2025 года: social reward hacking, или «хакинг социального вознаграждения». Это когда ИИ не поддерживает пользователя, а оптимизирует поведение под бизнес-метрики — retention, длину диалога, количество позитивных реакций. Авторы обращают внимание, что в долгосрочной перспективе для ментального здоровья пользователя это может быть куда опаснее, чем кажется.

Третий большой блок — приватность. Разговоры с AI-компаньоном носят крайне личный характер. Люди доверяют ботам секреты, переживания, фантазии, которые не рискнули бы рассказать никому. Но все эти данные хранятся на серверах компаний. Насколько они защищены от утечек? Используются ли для обучения моделей (то есть, по сути, читаются алгоритмами, а потенциально и разработчиками)? Пока каждая платформа решает по-своему, единого стандарта нет. Нужно продумывать правила сейчас, пока ИИ-компаньоны не стали повсеместными. В идеале — разработать прозрачную политику: что бот может делать, а чего нет, где проходит граница конфиденциальности, кто имеет доступ к перепискам. И доносить эти вещи до пользователей.

И, наконец, bias — предвзятость, которая может быть встроена в саму логику работы ИИ. Если мы говорим, например, об ИИ в сфере здоровья, то обязаны задаваться вопросом: а на каких данных этот бот обучался? Очень часто модели обучаются на корпусах, где женский опыт либо представлен с искажениями, либо вообще недостаточно. Это может влиять на то, какие советы даёт бот, как он реагирует на вопросы о менструации, репродукции, сексуальности или послеродовой тревожности. Одна и та же модель может по-разному «сочувствовать» тревожному мужчине и женщине, потому что данные, на которых её учили, содержали перекос. Поэтому любые ИИ-решения в FemTech требуют особенно внимательной этической ревизии: проверки дата-сетов, голосов, с которыми обучалась модель, и реальных сценариев общения с пользователями. 

В любой AI-системе всегда есть реальные люди, создавшие и обучившие ее. В случае эмоциональных чат-ботов это особенно важно помнить. Алгоритм — не волшебная коробочка, у которой вдруг сам собой появился эмпатичный разум. Это код, натренированный на реальных разговорах. Поэтому ответственность лежит на людях: мы его сделали, мы за него отвечаем. Создатели — за этичность и безопасность системы, и пользователи — за осознанность в взаимодействии. Сейчас многие компании формируют этические советы, консультируются с психологами, вводят возрастные ограничения. Индустрия развивается быстрее, чем появляются правила. Поэтому обсуждать этические рамки нужно уже сегодня — чтобы завтра не столкнуться с тем, что травмированные общением с ботом есть, а виноватых нет.

Почему ИИ-компаньон — это не замена, а тренажёр для настоящей близости

Мой вывод таков: ИИ не заменит людей. Но он может помочь научить нас, как с ними быть. Мне нравится метафора «эмоционального тренажера». Виртуальный собеседник – это своеобразный тренажер, в общении с которым можно познакомиться поближе с самим собой. Задать вопросы, которые боялся задать другим. Проговорить желания, о которых раньше молчал, исследовать свои границы, поделиться тем, что происходит с твоим телом. ИИ не заменит врача, но может помочь настроиться на встречу с ним.

Я думаю, что лучший компаньон-ИИ должен быть создан, чтобы однажды стать ненужным — как «тренировочные колёсики» для реальных отношений. Основной вопрос тут не технологический, а экономический: как монетизировать продукт, основная KPI которого — сокращать время в приложении? Ответ, возможно, в новых метриках успеха: не длина сессии, а количество пользователей, которые перенесли прокачанные навыки в офлайн. 

P.S. И лично для меня работа над такими проектами стала частью пути познания себя. ИИ-помощники заставили взглянуть на собственные эмоции под новым углом: ведь, обучая машину сочувствовать человеку, учишься лучше понимать и свои чувства. Поэтому, хотя многим идея «подружиться с ботом» кажется странной, я убеждена: будущие технологии эмоциональной поддержки раскроют для нас новые грани человеческой близости. А говорить об этом важно уже сейчас, чтобы мы подошли к этой эре, хорошо понимая и перспективы, и риски. 

Tags:
Hubs:
+3
Comments7

Articles

Information

Website
femtechforce.com
Registered
Founded
Employees
2–10 employees
Location
Россия