К сожалению, со стороны пользователя тут особо не пошаманишь. Я пробовал прописывать в системном промпте ограничения на длину ответа и в количестве символов, и в количестве слов и предложений, однако, у современных LLM с их подсчётом пока проблемы ) В любом случае, спасибо за Ваш труд.
Здравствуйте! Благодарю за отличную модель, это, действительно, лучшее, что есть сейчас в русскоязычном сегменте. Использую с Home Assistant, работает очень хорошо, кроме случаев, когда ответ виртуального ассистента превышает 1000 символов. В этом случае получаю ошибку: Model couldn't generate your text, probably it's too long. Можно ли как-то снять данный лимит или хотя бы увеличить его до 2000-3000 символов?
К сожалению, со стороны пользователя тут особо не пошаманишь. Я пробовал прописывать в системном промпте ограничения на длину ответа и в количестве символов, и в количестве слов и предложений, однако, у современных LLM с их подсчётом пока проблемы ) В любом случае, спасибо за Ваш труд.
Здравствуйте! Благодарю за отличную модель, это, действительно, лучшее, что есть сейчас в русскоязычном сегменте. Использую с Home Assistant, работает очень хорошо, кроме случаев, когда ответ виртуального ассистента превышает 1000 символов. В этом случае получаю ошибку: Model couldn't generate your text, probably it's too long. Можно ли как-то снять данный лимит или хотя бы увеличить его до 2000-3000 символов?