Search
Write a publication
Pull to refresh

Comments 5

Как раз недавно сделал пост про промты своих GPTешек (Open AI позволяет выносить специализированные промпты в отдельные чаты) с пояснениями как они устроены.

Если интересует практический пример, то вот: https://tiendil.org/ru/posts/my-gpts

Описывается техника, как заставить это что-то выдать в качестве оракула, безусловно правильного, хотя не всегда понятливого. А результат верифицируется, проверяется на адекватность? Может, ансамбль этого пропмт-ужаса сможет взаимопроверить друг друга и дать итог лучше? Или хотя бы разные модели полдловят косяки друг друга. Хотя есть и риск, что оно вообще разойдётся и уйдёт не в ту степь.

Может, основа на доверии первой модели с лёгкими правками не столь основательна, и её стоит корректировать?

На практике всегда ответы модели верифицируются, нет гарантий не получить галлюцинации

Sign up to leave a comment.

Articles