Pull to refresh

Comments 2

круто, все данные структурированы

в Chotto UI добавили компоненты CallMessage, AudioMessage - для голосовых данных. в этих объектах есть свойство transcript, в котором могут быть отображены текстовые данные - для AudioMessage в виде просто текста, а для CallMessage - в виде диалога

Спасибо, сохраняю в закладки. Если можно, хотелось бы глубже раскрыть тему распознавания эмоций. Правильно ли я поняла, что пока это осуществляется только на уровне текста? Если да, то как: по каким-то словам-маркерам эмоций или при помощи промптов к сильной LLM? Есть ли шанс извлечь эмоции из аудио-характеристик (тембр голоса, темп речи и т.п.)?

Sign up to leave a comment.