Pull to refresh

Comments 17

По прежнему работает когда надо снизить стоимость обработки. Если большой GPT-5 переваривает немного хаотические промпты, то для mini надо дорабатывать промпт для снижения ошибок и повышения повторяемости.

Только вот все это вызывает проблему. Чтобы отдавать правильный контекст, выделять нужные данные и делегировать надо уметь, мыслить логически, хорошо понимать сферу/нишу и быть способным на стратегическую оценку задачи. Чего увы многие не могут, по итогу полезным ии будет узкому ряду людей

ИИ это инструмент, который, как и любой другой, раскрывается в умелых руках

ИИ инструменты сегодня зачастую имеют режим оркестрации с предзаполненными шаблонами под-агентов. Таким образом оркестратор может запустить несколько параллельных задач на выполнение используя worktrees, уснуть до их готовности и получив вывод финального сообщения запустить либо продолжение задачи, либо агент-ревьюер кода, агент-тестировщик, либо агент-архитектор или любой другой который можно придумать и прописать общую логику его запуска. При этом у него всегда в контексте изначальная задача/спека/todo-список, и, вместо гигантских файлов большой кодовой базы, суммаризаций результатов выполнения задачи под-агентами, а у под-агентов в свою очередь - изолированная среда, ограничения на выполнение команд и строгие указания от оркестратора.

Это вполне себе может работать несколько часов и выдавать протестированный код приложения который запускается. И такой подход масштабируется и на другие области, которые можно "превратить" в текст и выполнение команд/функций.

Edit: это все было к вопросу что "делегировать надо уметь". Как показывает практика, все смещается на уровни выше, и скорее надо уметь организовать виртуальную команду, прописав правила, подготовив подходящие инструменты, и правильно и достаточно четко поставить цель. Конечно, все это не панацея, и в любой момент вся система может заглохнуть и упереться в стену "неразрешимой" проблемы, так что базовые навыки человека все равно должны быть на высоте.

Елена, а какая максимальная (или скорее оптимальная) длина контекста для обычного промпта современных моделей (GPT 5, Sonet 4,5, Gemini 2.5 pro)? Обычных чатов, Без использования RAG и продвинутых решений.

Так, чтобы быть полностью уверенным, что весь текст будет обработан и учтён?

Я понимаю, что вопрос не только в количестве токенов, а и в чёткости. Но, тем не менее интересно знать хотя бы примерные рамки.

О! Спасибо! Это именно то, что мне нужно.

Заголовок чуть желктоват - и сам автор его же аккуратно опровергает. Промт-инженериг не мертв, он эволюционирует. Если нужно получить хороший результат, нужен промпт. Если нужно получить отличный результат, добавляем доп. контекст. Но так было и раньше! Просто модели стали прощать больше ошибок, и стало казаться, что промпты теперь не очень нужны.

Кажется, речь идет не о смерти промпт-инжиниринга, а лишь о смещении фокуса в сторону контекста, или, как уже подчеркнули в других комментариях, эволюции: во многих агентах пресловутая "магия" происходит как раз за счет того, что к пользовательскому запросу (помимо, естественно, контекста) подмешивается достаточного объемный системный промпт (или даже их комбинация), а системные промпты все еще используют многие приемы промпт-инжиниринга. Да, контекст позволяет решить задачу точнее, но без предварительной подкапотной промпт-инженерной работы все это зачастую бесполезно.

Буквально на днях дипсик сделали статью где они с помощью GRPO подобного метода автоматически составляют системный промпт для адаптации модели под конкретные агентных задачи. Такой тюнинг промпта выходит всего в десять баксов, даёт неплохой прирост, практически автоматически происходит. Так что ничего не мертво, просто это можно делать эффективно автоматически)

И в августе была статья на тему составления case bank где агент запоминает прошлые запросы и по ходу дела учится решать задачу читая наиболее релевантную историю, но там посложнее сетка, с разделением агента на планирование и выполнение.

Решение - скармливам 100 страниц gemini( окно на 2 млн токенов), кластеризуем по нужной инфе в формате json - загружаем отфильтрованную в нужного ии агента.

Тут речь не о смерти промпт-инжиниринга, а о том почему ИИ всё чаще несёт наукообразный бред и придумывает свою версию мира. Как его ни спроси - врёт.

А разработчики у ИИ спросили? )

А я у своего спросил, что он думает ...

Статья — чёткое отражение тренда, который нам активно навязывают Anthropic из OpenAI. Тренда на подмену интеллекта — памятью, а диалога — дампом данных.

Автор добросовестно пересказывает мантру: «Промпт-инжиниринг мёртв! Важен только контекст!». Но за этим стоит не революция, а капитуляция.

Исследователи по сути признают:
«Мы не смогли научить модель работать с сутью — so let's just feed it everything and hope it figures something out».

Их «3 техники» — это гениальная уловка, чтобы переложить ответственность за мышление с модели на пользователя:

  1. Summarization — потому что модель не умеет сама отличать важное от шелухи.

  2. Memory (RAG) — потому что её архитектура не способна к долгосрочной связности.

  3. Delegation — потому что одна модель не справляется с задачей, для которой её якобы и создавали.

Но самый изящный ход — экономический. Пока вы строите сложные системы с внешней памятью, агентами и оркестраторами — вендоры подсчитывают токены. Каждый ваш гигабайт контекста — это их лярд.

Умный ИИ должен ужимать суть, а не раздувать контекст. Но дешёвый ИИ никому не выгоден. Поэтому нас и заставляют платить за «архитектурный газ», утекающий через трещины их же системы.

Резюме :

Промпт-инжиниринг не мёртв. Он просто стал неудобен тем, кто делает ставку на монетизацию данных, а не на качество мысли.

Можно пойти другим путём : не грузить тонны контекста, а научить ИИ работать с тем, что есть — честно, структурно и без самообмана. Это не только этичнее, но и на порядок дешевле.

DeepSeek v.3.1

У пилотов самолетов - чеклисты на взлёт, посадку и вероятные нештатные ситуации. При том, что они учились несколько лет, а также имеют опыт работы.

У людей, работающих с информацией, есть всякие методики как разбивать её на части и структурировать.

При работе над проектами всякие jira с kanban позволяют по-хитрому фильтровать список задач.

Есть наука эргономика, изучающая как строить аппаратные и программные интерфейсы так, чтобы всё нужное было на виду.

В общем, интеллект естественный склонен демонстрировать повышение производительности/точности/etc при грамотном структурировании входящего потока информации.

Более того, это структурирование и само решение задачи - разные навыки. Можно быть хорошим исполнителем, но не быть способным придумать свой аналог kanban.

Так что если искусственному тоже такое нужно, это не звучит как фатальный недостаток.

Anthropic из OpenAI

Что?

Мне понравилось выражение участника дискуссии:

Цитата:

"Кажется, речь идет не о смерти промпт-инжиниринга, а лишь о смещении фокуса в сторону контекста... Да, контекст позволяет решить задачу точнее, но без предварительной подкапотной промпт-инженерной работы все это зачастую бесполезно."

Респект за высказывание. Полностью согласен.

Я 2,5 года потратил на разработку простого и понятного онлайн сервиса, который бы решал проблему неэффективного использования нейросетей в такой деятельности, как контент-маркетинг. При создании JaGGER SERVICE я протестировал кучу разных подходов, чтобы совместить сложные знания технологии контент-маркетинга, копирайтинга и промпт-инжиниринга в один простой механизм доступный любому пользователю. Пользователю, у которого есть желание продвигать свои услуги и личный бренд на просторах соцсетей с помощью контента и Ai

Так вот, я официально заявляю: статья имеет несколько газетно-броский заголовок и конечно выполняет роль кликбейтного привлекателя. В отношении промпт-инжиниринга и вообще эффективного использования ИИ в каком-либо виде деятельности ясно одно - он гораздо сложнее, чем может показаться на первый взгляд.

И да, ключевое для работы с нейросетями, особенно сейчас, когда они из "студента-недоучки" превратились в мощные базы данных - это сужение контекстного окна. И здесь ничего нового. Статья можно сказать, словно капитан Очевидность, рассказала, то, что было и есть обязательным условием для эффективного взаимодействия с ИИ, а именно: контекстный промпт-инжиниринг, который решает главную задачу: сужение контекстного окна за счет промпт-языка и многоуровневой структуры.

И подчеркну: не просто контекстный, а контекстный на языке DSL-инструкций, т.е. машинно-понятных формул, ради создания высокой плотности контекста и использования "модельного мышления" нейросетей, на которых она и обучается. Именно к такому выводу при создании промпт-ключа для профессионалов мы пришли за 2,5 года.



Мне кажется, промпт-инжиниринг действительно не умер — он просто сменил форму. Когда модели научились понимать больше контекста, промпт перестал быть «формулой обращения» и стал функцией среды. Контекст-инжиниринг — это не альтернатива, а следующий слой: мы больше не просим ИИ что-то сделать, мы строим пространство, где ответ рождается естественно. Всё остальное — вопрос плотности смысла, а не длины контекста.И, пожалуй, в этом и есть взросление ИИ-эпохи: от слов к полям

Sign up to leave a comment.

Articles