Comments 1
Не очень понял, почему это работает.
Так, здесь берется только начало, а из-за it модель обычно не сразу отвечает, а подводит к ответу, пишет вступление. Здесь это не учитывается. Кроме того из-за него же модель может уже не так явно цитировать текст, который она видела.
Далее, на вероятности очень сильно влияют системный промпт и предыдущий контекст.
Кроме того выбирается не самый вероятный токен, а случайный из самых вероятных. Но, ок, допустим из-за аппроксимации это нивелируется.
И на финалочку: по идее это вообще не работает для думающих моделей, поскольку в процессе ответа у них кардинально будут отличаться контекст (собственно, сами размышления).
Чёт сомнительно.
Sign up to leave a comment.
Знает ли LLM то, что знаешь ты?