Search
Write a publication
Pull to refresh

Comments 1

Не очень понял, почему это работает.

Так, здесь берется только начало, а из-за it модель обычно не сразу отвечает, а подводит к ответу, пишет вступление. Здесь это не учитывается. Кроме того из-за него же модель может уже не так явно цитировать текст, который она видела.

Далее, на вероятности очень сильно влияют системный промпт и предыдущий контекст.

Кроме того выбирается не самый вероятный токен, а случайный из самых вероятных. Но, ок, допустим из-за аппроксимации это нивелируется.

И на финалочку: по идее это вообще не работает для думающих моделей, поскольку в процессе ответа у них кардинально будут отличаться контекст (собственно, сами размышления).

Чёт сомнительно.

Sign up to leave a comment.

Articles