Comments 5
Как раз недавно сделал пост про промты своих GPTешек (Open AI позволяет выносить специализированные промпты в отдельные чаты) с пояснениями как они устроены.
Если интересует практический пример, то вот: https://tiendil.org/ru/posts/my-gpts
Спасибо, всё супер и понятно расписано!
Описывается техника, как заставить это что-то выдать в качестве оракула, безусловно правильного, хотя не всегда понятливого. А результат верифицируется, проверяется на адекватность? Может, ансамбль этого пропмт-ужаса сможет взаимопроверить друг друга и дать итог лучше? Или хотя бы разные модели полдловят косяки друг друга. Хотя есть и риск, что оно вообще разойдётся и уйдёт не в ту степь.
Может, основа на доверии первой модели с лёгкими правками не столь основательна, и её стоит корректировать?
Искусство общения с LLM: Гайд по техникам Prompt Engineering