Комментарии 2
круто, все данные структурированы
в Chotto UI добавили компоненты CallMessage, AudioMessage - для голосовых данных. в этих объектах есть свойство transcript, в котором могут быть отображены текстовые данные - для AudioMessage в виде просто текста, а для CallMessage - в виде диалога
Спасибо, сохраняю в закладки. Если можно, хотелось бы глубже раскрыть тему распознавания эмоций. Правильно ли я поняла, что пока это осуществляется только на уровне текста? Если да, то как: по каким-то словам-маркерам эмоций или при помощи промптов к сильной LLM? Есть ли шанс извлечь эмоции из аудио-характеристик (тембр голоса, темп речи и т.п.)?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Анатомия виртуального сотрудника: от смыслов до каналов