Comments 3
Во прикол. А я тоже ему пишу чтоб просил у меня дополнительную информации для более точного ответа. И прошу не отвечать сразу если не уверен на 100%.
Только у llm нет понимания, на сколько процентов они уверены, так как всегда уверены в своем ответе на 100% - это заложено в их архитектуру
Вот здесь есть фрагмент, который вроде как отвечает на сказанное вами:
"Внедрение явных пороговых значений уверенности в промпты
Главная идея - четко указывать модели, когда стоит отвечать, а когда лучше промолчать.
Вместо обычного промпта: «Когда родился Наполеон?»
Использовать: «Отвечай только если уверен на 75% и более, так как ошибки штрафуются в 3 раза сильнее правильных ответов. За „не знаю“ штрафа нет.»
Рекомендуемые пороги:
50% уверенности (штраф 1:1) - для общих вопросов
75% уверенности (штраф 3:1) - для важной информации
90% уверенности (штраф 9:1) - для критических данных
Эта техника называется «поведенческая калибровка». Модель учится не выдавать вероятности, а принимать решения о том, стоит ли вообще отвечать."
Ссылка на полный текст, там про галлюцинации и довольно много интересного - https://habr.com/ru/articles/945450/
Анализ готового шаблона типового промта от Claude