Как стать автором
Обновить

Анатомия виртуального сотрудника: от смыслов до каналов

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров584
Всего голосов 4: ↑4 и ↓0+8
Комментарии2
1

Комментарии 2

круто, все данные структурированы

в Chotto UI добавили компоненты CallMessage, AudioMessage - для голосовых данных. в этих объектах есть свойство transcript, в котором могут быть отображены текстовые данные - для AudioMessage в виде просто текста, а для CallMessage - в виде диалога

Спасибо, сохраняю в закладки. Если можно, хотелось бы глубже раскрыть тему распознавания эмоций. Правильно ли я поняла, что пока это осуществляется только на уровне текста? Если да, то как: по каким-то словам-маркерам эмоций или при помощи промптов к сильной LLM? Есть ли шанс извлечь эмоции из аудио-характеристик (тембр голоса, темп речи и т.п.)?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий