Если вы будете все особенности держать в одном чате - нейросеть их будет забывать по мере заполнения контекстного окна из-за известной проблемы lost in the middle. Держать документацию по проекту надёжнее чем держать всё в одном чате
"Увольняем джуниора" - статья начала 2025. Современные LLM достигли такого уровня, что уже можно писать статью "Увольняем Analytics Lead в Ton Foundation" :)
Примерно полгода назад один энтузиаст Джон Капобианко реализовал интерфейс Gemini CLI в Телеграм, назвав его gemini cli slash listen. Идея послужила фундаментом для других подобных проектов. Интересно, есть ли связь между оболочкой claude для whatsapp и такой же оболочкой gemini cli для telegram
Параллельно с этим появляются исследования в сфере безопасности ИИ, научные публикации на arxiv, в том числе полностью сгаллюцинированные:) и тут наступает тот момент, когда рукописная статья ценится выше, особенно потому, что актуальная ЛЛМ с датасетом до весны 2025 ничего не знает про реалии 2026, а при попытке актуализировать свои знания, например с помощью Perplexity MCP или Gemini Deep Research сталкивается с проблемой - в выборку попадают сгенерированные с галлюцинациями и опубликованные на arxiv статьи и итоговый материал получается некачественным.
Сегодня я попросил его настроить самого себя чтобы наконец он мог работать в групповых чатах Google Chats. Через 10 итераций он испортил свой openclaw.json и перестал запускаться после попытки самоперезагрузки. Так что лучше это дело поручить claude code / gemini cli с обязательным пре-фетчем документации по нему
Старый Todo мне нравился больше. Он интегрировался с speckit и хранился в ~/.claude/ в формате json и всегда на виду был текущий статус, фазы, задачи, подзадачи (speckit делал максимально подробные todo).
Текущие tasks нужно проверять вызовом через /tasks. И вообще task-master.dev реализовал этот функционал для claude ещё полгода назад.
Из того что нравится сейчас - оркестраторы Get Shit Done и Oh My Claude Code.
Я не применяю промпты, я применяю Context Engineering и Spec-Driven Development. А для написания хороших промптов есть Context Aware Prompt Enhancement одной кнопкой на проиндексированном воркспейсе.
Чтобы построить идеальный план разработки - не нужно тратить время на написание идеального промпта, нужно время на прохождение интервью с ИИ агентом, когда он задаёт Вам настолько много вопросов, насколько способен, и формирует промпт и мета-промпты за вас, и на разбивку каждого пункта плана на подпункты автоматически формируются следующие промпты.
Базовое, что из практик промпт-инжиниринга я иногда применяю - это структурирование промпта в формат xml или .md, но чаще task-master.dev делает всё сам в формате json
Если же task-master как ПМа для ИИ недостаточно - на помощь приходит архитектор GitHub SpecKit.
Те, кто готов тратить на ИИ больше денег, вообще остановились лишь на двух подписках - $40 Traycer для построения спецификаций и планов + $200 Claude Code для их выполнения
В контексте разработки ПО статья актуальна на 2023-2024. В 2026 для разработки ПО промпт-инжиниринг не нужен. Он может понадобиться только для разработки ИИ-приложений, где нужно обезопасить агента от конечных пользователей и наоборот пользователей от агента.
Если вы будете все особенности держать в одном чате - нейросеть их будет забывать по мере заполнения контекстного окна из-за известной проблемы lost in the middle. Держать документацию по проекту надёжнее чем держать всё в одном чате
Skills issue
"Увольняем джуниора" - статья начала 2025. Современные LLM достигли такого уровня, что уже можно писать статью "Увольняем Analytics Lead в Ton Foundation" :)
Любой Codebase Retrieval MCP делает простой задачу понимания архитектуры системы на кодовой базе любого масштаба
Это уже делается и называется fine tuning
Я сначала подумал что пост об отказе от Claude Code в пользу Factory AI (Droid), но оказалось всё гораздо интереснее, спасибо за ваш опыт!
Для исключения моментов того, что не написано, комбинируем speckit.specify + speckit.clarify + claude plan mode + interview skill (пушка бомба)
Подсказка: Водафон
Посмотрите на количество pull requests в openclaw/openclaw - вот что будет происходить.
И речь не то что бы о количестве, а о процессе:
энтузиаст присылает навайбленное исправление
его пулл реквест 600й в очереди (ваш коммит очень важен для нас)
Спустя неделю этот коммит отклоняют со словами "нуу у вас конфликты с main, сделайте rebase"
Чел делает rebase, новый PR - он уже 1500й в очереди, и пока дождётся её - снова появляются мердж конфликты. Круг замкнулся:)
И всё равно - он ничего не добьётся! (С)
Примерно полгода назад один энтузиаст Джон Капобианко реализовал интерфейс Gemini CLI в Телеграм, назвав его gemini cli slash listen. Идея послужила фундаментом для других подобных проектов. Интересно, есть ли связь между оболочкой claude для whatsapp и такой же оболочкой gemini cli для telegram
Они официально партнёры Cursor, который ничего общего с Copilot не имеет
Зачем через 5 лет если посмеяться уже можно сейчас?)
Долгожданная актуальная статья, которую приятно читать. Кстати, как там поживают Vide Coding Cleanup специалисты
Параллельно с этим появляются исследования в сфере безопасности ИИ, научные публикации на arxiv, в том числе полностью сгаллюцинированные:) и тут наступает тот момент, когда рукописная статья ценится выше, особенно потому, что актуальная ЛЛМ с датасетом до весны 2025 ничего не знает про реалии 2026, а при попытке актуализировать свои знания, например с помощью Perplexity MCP или Gemini Deep Research сталкивается с проблемой - в выборку попадают сгенерированные с галлюцинациями и опубликованные на arxiv статьи и итоговый материал получается некачественным.
Ещё одна вещь, где ИИ не заменит людей:)
Сегодня я попросил его настроить самого себя чтобы наконец он мог работать в групповых чатах Google Chats. Через 10 итераций он испортил свой openclaw.json и перестал запускаться после попытки самоперезагрузки. Так что лучше это дело поручить claude code / gemini cli с обязательным пре-фетчем документации по нему
Qwen предлагает 2000 запросов в день бесплатно
Старый Todo мне нравился больше. Он интегрировался с speckit и хранился в ~/.claude/ в формате json и всегда на виду был текущий статус, фазы, задачи, подзадачи (speckit делал максимально подробные todo).
Текущие tasks нужно проверять вызовом через /tasks. И вообще task-master.dev реализовал этот функционал для claude ещё полгода назад.
Из того что нравится сейчас - оркестраторы Get Shit Done и Oh My Claude Code.
Я не применяю промпты, я применяю Context Engineering и Spec-Driven Development. А для написания хороших промптов есть Context Aware Prompt Enhancement одной кнопкой на проиндексированном воркспейсе.
Чтобы построить идеальный план разработки - не нужно тратить время на написание идеального промпта, нужно время на прохождение интервью с ИИ агентом, когда он задаёт Вам настолько много вопросов, насколько способен, и формирует промпт и мета-промпты за вас, и на разбивку каждого пункта плана на подпункты автоматически формируются следующие промпты.
Базовое, что из практик промпт-инжиниринга я иногда применяю - это структурирование промпта в формат xml или .md, но чаще task-master.dev делает всё сам в формате json
Если же task-master как ПМа для ИИ недостаточно - на помощь приходит архитектор GitHub SpecKit.
Те, кто готов тратить на ИИ больше денег, вообще остановились лишь на двух подписках - $40 Traycer для построения спецификаций и планов + $200 Claude Code для их выполнения
В контексте разработки ПО статья актуальна на 2023-2024. В 2026 для разработки ПО промпт-инжиниринг не нужен. Он может понадобиться только для разработки ИИ-приложений, где нужно обезопасить агента от конечных пользователей и наоборот пользователей от агента.