Comments 3
Почему то все сводится к "Вжух, тыкни сюда и все сделается за тебя", но ты прочти туториал от разрабов, что бы лучше понимать то, что в моей статье не обьясняется. Видимо CoT/ToT, CoVe/RAT, Shema, да даже элементарный G.R.W.C промт механики для слабаков, что бы их объяснять широкой аудитории и вести ее к пониманию как увеличить эффективность промтов.
GRWC, ARISE, APEX и др - это всего лишь акронимы разных комбинаций того, что я текстом тут итак описал. И эта статья сделана специально, что не грузить людей терминологией, а дать самую суть.
Что же касается CoT, RaT и десятка других подобных механик - все они заслуживают отдельной статьи. Это интересные механики, но прирост качества ответа моделей от использования подходов, описанных в этой статье, к начальному уровню промптинга несравнимо больше, чем от применения CoT/RaT. Да и не стоит забывать, что например GPT-5 сам включит ризонинг модель, когда посчитает запрос достаточно сложным, а она, по сути, сама использует chain of thought подход.
В том то и дело, что промт инженерия подразумевает создания кастомных цепочек рассуждения с передовыми, доказанными в эффективности промт механиками под конкретное ТЗ. Что в агентном формате, что в формате чат бота топовые ллмки хорошо подстраиваются под кастомную архитектуру промта и четко следуют ей, что видно в агентном режиме при выгрузке логов. Может я наивно надеялся, что вместо очередной перестановки токенов, для увеличения эффективности - увижу интересные архитектурные решения и комбинации техник с тестами, наверное так и было.
Один пост, чтобы обрести силу… или разбираемся в промптах, чтобы научиться их писать раз и навсегда