Pull to refresh

Comments 3

Во прикол. А я тоже ему пишу чтоб просил у меня дополнительную информации для более точного ответа. И прошу не отвечать сразу если не уверен на 100%.

Только у llm нет понимания, на сколько процентов они уверены, так как всегда уверены в своем ответе на 100% - это заложено в их архитектуру

Вот здесь есть фрагмент, который вроде как отвечает на сказанное вами:

"Внедрение явных пороговых значений уверенности в промпты

Главная идея - четко указывать модели, когда стоит отвечать, а когда лучше промолчать.

Вместо обычного промпта: «Когда родился Наполеон?»

Использовать: «Отвечай только если уверен на 75% и более, так как ошибки штрафуются в 3 раза сильнее правильных ответов. За „не знаю“ штрафа нет.»

Рекомендуемые пороги:

  • 50% уверенности (штраф 1:1) - для общих вопросов

  • 75% уверенности (штраф 3:1) - для важной информации

  • 90% уверенности (штраф 9:1) - для критических данных

Эта техника называется «поведенческая калибровка». Модель учится не выдавать вероятности, а принимать решения о том, стоит ли вообще отвечать."

Ссылка на полный текст, там про галлюцинации и довольно много интересного - https://habr.com/ru/articles/945450/

Sign up to leave a comment.

Articles