Как стать автором
Обновить

Сделали copilot-сервис для техподдержки и делимся секретами RAG c глубоким пониманием контекста

Время на прочтение21 мин
Количество просмотров7.1K
Всего голосов 28: ↑28 и ↓0+32
Комментарии6

Комментарии 6

Если не секрет что используете для OCR?

Не секрет, используем наш OCR, он доступен в облаке, а ещё почитать про нашу VLM можно в недавнем посте

Только отмечу, что в API Нейросапорта нет встроенного OCR, нужно будет передавать текст. Если в документации есть сканы или что-то подобное - можно воспользоваться нашим облачным OCR или опенсорсными VLM-моделями в Yandex Cloud AI Studio

Надо сделать чтобы операторы коллцентра при отсутствии очереди, делали ревью прошлых сессий , с добавлением информации которая поможет в дальнейшем. Типа human feedback.

Также по идее можно делать препроцессинг базы знаний с использованием ллм, когда маленькая нагрузка на ферму которая занимается обслуживанием клиентов, можно подгружать своими заданиями и улучшать базу знаний или хотя бы помечать проблемные данные для дальнейшей оценки человеком.

Да, очень хорошие мысли - мы просим опытных операторов и службу контроля качества регулярно размечать подсказки с потока, чтобы следить за качеством. Пока этих данных заметно меньше, чем специально собранных другими процессами, поэтому они не играют ключевую роль в обучении, и фидбек по ошибкам и недостающей информации мы обрабатываем сами, не автоматически.

Сейчас экспериментируем с тем, чтобы поток, особенно с оценками и с правильным ответом оператора, анализировать и искать места для улучшения автоматически - находить потенциальные противоречия в базе знаний или непокрытые области, недостаток информации на входе и все подобное.

Для некоторых сервисов так же пробуем автоматическое локальное переписывание базы знаний, чтобы модель лучше по ней отвечала. Этот процесс чуть сложнее, надо убеждаться, что ключевая информация не теряется, но уже есть хорошие сигналы

а зачем у юзера спрашивать про его заказ если вы бы могли той же llm сходить и по юзеру получить его активные заказы и если 1 не задавать странных вопросов?

Если действительно можно без уточнения у пользователя определить заказ, то система это сделает даже без использования LLM. Однако есть много нюансов, например: вопрос может быть про старый заказ, он может быть задан с другого аккаунта пользователя. В таких и других сценариях лучше уточнить дополнительную информацию у пользователя, чтобы дать ему корректный ответ

Зарегистрируйтесь на Хабре, чтобы оставить комментарий