Как стать автором
Обновить

Анатомия виртуального сотрудника: от смыслов до каналов

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров1.3K
Всего голосов 6: ↑6 и ↓0+10
Комментарии2

Комментарии 2

круто, все данные структурированы

в Chotto UI добавили компоненты CallMessage, AudioMessage - для голосовых данных. в этих объектах есть свойство transcript, в котором могут быть отображены текстовые данные - для AudioMessage в виде просто текста, а для CallMessage - в виде диалога

Спасибо, сохраняю в закладки. Если можно, хотелось бы глубже раскрыть тему распознавания эмоций. Правильно ли я поняла, что пока это осуществляется только на уровне текста? Если да, то как: по каким-то словам-маркерам эмоций или при помощи промптов к сильной LLM? Есть ли шанс извлечь эмоции из аудио-характеристик (тембр голоса, темп речи и т.п.)?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий