Комментарии 8
Если бот не умеет сразу звать человека по запросу "сотрудник" - всё это лажа.
Банки особенно этим грешат. Просишь позвать сотрудника - в ответ рассказывает про какие-нибудь акции.
Да, хорошее замечание. В статье, я на этом акцент не делал, но тот же описанный механизм классификации интентов отвечает и за определение того, что пользователя нужно переводить на оператора. Это включает в себя и случаи вроде "сотрудник", "оператор" и случаи, когда пользователь начинает негативить и ругаться, или когда он начинает разговаривать про конкурентов, например.
Спасибо, отличная статья. Мы на своем опыте пришли к похожим выводам!
По какой логике вы определяете, что надо взять информацию из CRM, а не из RAG? По каким-то ключевым словам в вопросе? Ведь LLM может бесконечно отвечать на любые вопросы
За это отвечает отдельный классификатор интентов на ML, который помечает сообщение пользователя в одну из категорий (что хочет получить пользователь). Дальше, когда LLM через диалог вытянула из пользователя все необходимые вводные, например код товара или город, то дальше уже включается прописанная логика, которая смотрит, что есть определенный интент, есть заполненные параметры, значит можно вызвать API CRM.
Сам этот классификатор можно разными способами организовывать, можно делать его на ключевых словах, но скорее всего плохо будет работать. Можно обучать ML под эту узкую задачу, а можно даже прописать отдельный промпт, у которого будет только одна задача выполнить классификацию. У каждого подхода есть свои плюсы и минусы.
Я довольно часто пользуюсь чатами на сайте. Последнее время, все чаще там "умный ИИ". Это ужасно. Получить ответ просто нереально. Очень часто есть слабый раздел с помощью на который повесили ИИ. И все. Но даже большие игроки, например, Shopify, грешат этим.
Лучшим , но и дорогим, конечно, решением будет:
- сделать FAQ. Не выдуманный, а по реальным обращениям клиентов
- сделать полноценный мощный раздел помощи. Который всегда актуальный
- нанять больше людей в 1 и в 2 линию поддержки
Здравствуйте, спасибо за статью, отличная работа. Но у меня еще остался вопрос. Насколько я понимаю, процесс предварительной обработки сообщения пользователя довольно трудозатратный, и иногда задействует повторные запросы в ту же LLM, CRM и DB. И всё это выполняется, прежде чем отправляется запрос на генерацию релевантного ответа. В добавок, сама генерация ответа тоже может занимать некоторое время. Отсюда вопрос. Насколько быстро отвечает такой ассистент и какие подходы вы используете для разгона системы?
Как мы сделали клиентскую поддержку интернет-магазина действительно умной: опыт внедрения RAG-бота