All streams
Search
Write a publication
Pull to refresh

Comments 3

Почему то все сводится к "Вжух, тыкни сюда и все сделается за тебя", но ты прочти туториал от разрабов, что бы лучше понимать то, что в моей статье не обьясняется. Видимо CoT/ToT, CoVe/RAT, Shema, да даже элементарный G.R.W.C промт механики для слабаков, что бы их объяснять широкой аудитории и вести ее к пониманию как увеличить эффективность промтов.

GRWC, ARISE, APEX и др - это всего лишь акронимы разных комбинаций того, что я текстом тут итак описал. И эта статья сделана специально, что не грузить людей терминологией, а дать самую суть.

Что же касается CoT, RaT и десятка других подобных механик - все они заслуживают отдельной статьи. Это интересные механики, но прирост качества ответа моделей от использования подходов, описанных в этой статье, к начальному уровню промптинга несравнимо больше, чем от применения CoT/RaT. Да и не стоит забывать, что например GPT-5 сам включит ризонинг модель, когда посчитает запрос достаточно сложным, а она, по сути, сама использует chain of thought подход.

В том то и дело, что промт инженерия подразумевает создания кастомных цепочек рассуждения с передовыми, доказанными в эффективности промт механиками под конкретное ТЗ. Что в агентном формате, что в формате чат бота топовые ллмки хорошо подстраиваются под кастомную архитектуру промта и четко следуют ей, что видно в агентном режиме при выгрузке логов. Может я наивно надеялся, что вместо очередной перестановки токенов, для увеличения эффективности - увижу интересные архитектурные решения и комбинации техник с тестами, наверное так и было.

Sign up to leave a comment.

Articles