Pull to refresh

Comments 50

Сорян, но ты не написал ровным счётом ничего, что отличало бы warp от vs code со встроенными агентами и mcp

Для меня главное преимущество – плотная связка ИИ с терминалом + бесшовное переключение между командной и промпт-строкой. Это прямо принципиально другой UX, чем выстроенный вокруг IDE с редактором в основе, именно это для меня зашло больше всего.

Хз как именно, но статья бы сильно выиграла если бы получилось это хорошо раскрыть. Как получилось в принципе тоже с удовольствием прочитал.

Да, наверное все же увлёкся рассказом в целом о тех подходах к разработке с ллм, которые у меня сработали.

А вот уже после публикации вспомнил, что забыл рассказать: вкладки!! Табы как в браузере, в каждом окне свои, и когда несколько проектов с разными репозиториями очень удобно навигировать. И вкладки ещё переименовывать можно.

Так если обобщить ТОП-3 фичи warp для меня:

  1. Не мешает постоянно открытый текстовый редактор — поле ввода и история команд / диалога с ии в основе, ничего лишнего

  2. Переключение терминал / промпт бесшовное с возможностью передавать контекст из одного в другое и автоподсказками

  3. ИИ на удаленном сервере: очень помогает когда падает на проде что-нибудь - сам идёт, смотрит логи, фиксит, с учетом окружения, а не только кода проекта; ну и настройка базовая серверного по упрощается

Вы упомянули, что для критичных задач доверяете только GPT-5 High Reasoning, потому что Claude и Gemini «ушли не туда». Можете рассказать конкретный пример, где модель «сошла с дистанции»: какие именно архитектурные решения она предложила и почему это оказалось невозможно откатить без боли? Интересно понять, где проходит тонкая грань между «надо просто доуточнить промпт» и «нужно срочно переключать модель, пока не поздно».

Спасибо за вопрос! На долгой дистанции Claude может выдумывать несуществующие сущности, даже с учетом разработки на основе спецификации, добавлять от себя не нужную функциональность – в общем, галлюцинировать. И Gemini тоже, несмотря на заявленный миллион токенов контекстного окна – чем длиннее и комплекснее задача, тем он хуже удерживает её в рамках изначальной архитектуры.

Есть такое. Мне один раз claude сказал: у меня не получается сделать это на vue, давай перепишем весь проект на react. И пошел переделывать - хорошо, что я это вовремя заметил

А его в warp не подключить. Там выбор только из определенного количества моделей. Кастомный endpoint для запросов разработчики собираются делать, но пока не реализовали

Локальная llama.cpp нужна

Все хорошее когда-нибудь заканчивается. Для warp - это повышение цен и снижение в два раза запросов по тарифным планам. Теперь это уже перешло из разряда "халява" в дорогое удовольствие. Это коснулось всех крупных llm. Крупные компании в силу сложившегося положения задумываются о переходе на "классический" подход в разработке ПО. Новый порядок цен на доступ к облачным ИИ технологиям заставит сильно поумерить аппетиты в их использовании в разных проектах начиная с RAG и прочим технологиям на их основе. На сегодняшний день "флаг" подхватят китайцы с их дешевыми и бесплатными тарифами на тот же qwen-code.

а они не смогут бесконечно поднимать цены, потому что пользователи или уйдут к конкурентам, или не смогут использовать вайбкодинг в принципе

Я пробовал kiro - там ценник зашкаливающий. Все это дорого для вайбкодинга.

Кто

Давно киро пробовали? Они сильно упростили биллинг и расчетов токенов, многократно снизив стоимость, рекомендую дать ещё шанс.

С этими кредитами теперь у всех разбираться — непонятно как: у всех свой курс за токены? У каждой ide разный курс за разные модели?

Ага, у каждого свои попугаи для измерения удава

но это же субсидируемая область, если уйдут - для них убытки меньше

понятно, что важно занять долю рынка, получить доступ к базе, отчитаться перед инвесторами и т д., но когда бесконечные деньги заканчиваются, сокращение клиентов это может быть даже необходимым

Крупные же могут себе позволить On-Premise модели, Qwen3 так вообще по идее на уровне может быть, тем более когда вопрос в приватности данных.

А по warp – видимо, придется комбинировать: оставить его для терминала, а код в Windsurf писать (мне он больше чем курсор зашёл).

Там все проблема сейчас в "зашкаливающем" ценнике на доступ к моделям типа Claude и пр., что по затратам не тянут сейчас даже крупные компании. Локальные модели для кодинга вообще не подходят. Чисто "побаловаться". По новостям у производителя Claude убытки каждый квартал более 100мил., баксов. Поэтому и цены идут вверх, соответственно все поставщики ai агентов их тоже поднимают. Все это грозит обвалом ai технологий. Раньше warp за 18$ в месяц давал 2500 запросов, которых при активном использовании хватало дней на 5. Сейчас у них за 20$ только 1500 запросов. Как говорят, почувствуйте разницу. У остальных поставщиков ai агентов цены выше еще в 2-3 раза. Если размышлять про rag и различных ai консультантов в облаке, где подключены разные ai модели с тарифицируемым трафиком, то по таким сегодняшним ценам на модели никто пользоваться этим не будет.

Удивил ваш комментарий про 1500 запросов, особенно в свете того как курсор вообще отказался от лимитированных запросов и теперь просто продает токены по цене апи.

Почитал - там все же не запросы а АИ кредиты, чем больше контекста и тяжелее модель - тем больше тратится кредитов. Не подскажите, сколько их уходит на достаточно типизированный запрос, скажем 200к токенов для Сонет 4-4.5?

Раньше 2500 хватало примерно на 5 дней при активном кодинге. 1500 - это вообще ни о чем. Многие ai агенты в базе вообще предлагают 250- 500 запросов. Улетают точно также. Напрямую покупать токены на Claude - можно сразу "разориться". Сейчас пытаюсь работать с qwen-code. Китайцы для своего ai агента дают 2500 ai запросов в день бесплатно. Разработчики в текущей ситуации предлагают начальный код делать на "тупых" бесплатных моделях, а потом "вычищать" его на дорогих.

Я активно пользуюсь Claude (прямая подписка), аккаунта за 20$ не хватало действительно. За 100$ - ещё остаются лимиты, выработать лимиты 5 часовые можно - если параллельно задачи запускать, в остальном полёт нормальный. Недельный один раз только выработал полностью. Как будто 8тр в месяц за такой объем работы - это почти бесплатно.

До этого использовал CODEX в веб версии, у него в окружении не всё можно поставить (dotnet например нет), поэтому ошибки компиляции потом в несколько итераций исправлял - не удобно.

Сейчас CODEX в виде дополнения юзаю как второе мнение или проверку, для написания кода в VS CODE через дополнение - на мой взгляд хуже Claude.

У меня ощущение, что при работе через свою платформу (не в IDE) - результат лучше (качественней информация и код).

Также заметил, что работа Claude в IDE в виде дополнения и работа в онлайн платформе Claude Code - даёт разные результаты, на онлайн платформе субъективно лучше (но все изменения через GIT).

Также есть курсор с подпиской простой самой - самая высокая скорость, для простых задач хорош. Сложные задачи - я не научился в нём делать. При большом контексте падает сессия и её сложно восстановить (может у меня глюки).

AI от Google Juolis - по моим оценкам самый слабый по качеству результатов, комментарии к коду только можно доверить - это он хорошо делает.

cto.new - хороший сервис, пользуюсь. Из плюсов настраиваемое окружение и там есть dotnet, сам собирает проект смотрит ошибки. Из интересных для меня моделей там "спав Claude4.5 + GPT 5 beta" и GLM4.6

Вчера попробовал Warp указанный в статье - в целом не плохо. Из 10 пунктов которые он оценивал в проекте - 5 оказались "галюцинациями" или не верными, он не верно интерпретировал некоторые комментарии в коде и сделал не верные выводы (модель Авто). При этом нашел 2 проблемы которые другие сервисы до этого ни разу не находили (это +).

Авто не вариант) Claude 4.5 thinking или gpt-5 high reasoning решают

а вообще спасибо за такой всеобъемлющий обзор всех тулов! 👍🤝

Еще неплохо работает плагин windsurf . там есть все модели новые, но подписка стоит дорого. Этот плагин работает в ide среде и умеет напрямую локально кодить и запускать с тестированием проект в браузер. Работает все шустро. Все решения работы с ai через браузер почему-то тупят и выдают некачественный код. Тут либо плати и используй дорогой доступ. Тот же cto.new код делает посредственный. Производители специально "тупят" свои модели для "халявного" доступа , чтобы платили официально и много за их использования, так как в платной дорогой подписке получаемый код по своему качеству отличается в разы.

Не знаю по токенам, но я за два дня сжёг 20$, когда пытался оживить "код" wordpress проекта, в среднем на запрос GPT ~ 0.16$, на Sonet ~ 0.22$, хотя как и упомянул автор этого поста GPT хоть и медленнее, но выдает грамотный код, а Sonet это как подросток на спидах, быстрый, но об стену бьётся сильнее )

Цены за те же возможности падают в два раза чуть ли не каждые полгода.

Что-то незаметно при текущем их повышении в 2 раза. Даже разработчики в codex и cursor "за голову хватаются" и не понимают, что делать дальше.

Всё резко поменялось

С начала ноября 2025 появились лимиты.
Два вида: пятичасовое окно и недельная квота.
Эти лимиты чертовски быстро тают.

На форумах и в реддите в последние дни - типичная картина:
«за час плотной работы сгорело почти всё»,
«недельный лимит - за день»,
«после апдейта лимиты стали строже».
И это не единичные истории - таких тредов сейчас много.

А ведь раньше лимитов не было - теперь они часть продукта.

Недолго музыка играла, получается? 😕

На самом деле ничего страшного. Для большинства пользователей у них комфортные условия, мне для работы хватает. Ну а если ты сверх активно используешь сервисы, ну значит плати больше. По факту для большинства цены и лимиты на приемлемом уровне

Будем надеяться, что так и останется, или станет лучше) А то на фоне этого ИИ-пузыря (возможно, лопнущего) способ увеличения выручки за счет повышения цены выглядит логичным.

Раньше и продукта не было. Расширился круг задач и уровень автономности. Кроме codex везде использую по API - количество токенов в месяц выросло x10-x100, а денег стало уходить x5. По использованию подписки и лимитам бесполезно смотреть, там нет четкой метрики по количеству токенов.

Еще есть бесплатный нелимитируемый доступ к последним моделям Claude и chatgpt в режиме ai агента, но не для всех, и скорее всего , временно. Пока пользуемся.

А оно в ide типа vscode подключается или все в онлайне ?

За все то же самое люблю Сlaude code. Работаю во встроенном терминале в Курсоре. В терминале Клод код, а в Курсоре удобно файлы смотреть и редактировать, если надо

Warp потыкал, прикольный тоже, но Сlaude code зашел больше. В первую очередь — за счет субагентов и skills

Павел, привет! Да, читал про субагентов и навыки в клоде — а какими пользуешься, поделись вкратце, пожалуйста?

В гитхабе есть репозиторий с разными суб-агентами на все случаи жизни разработчика awesome-claude-code-subagents

Я под себя поправил и пользуюсь

Прикол субагентов в том, что у них свой контекст, поэтому они не забивают контекст основного агента. Я их запускаю для всяких проверок, например. Основной агент написал код, прогнал тесты, позвал субагента. Субагент проверил весь код на соответствие паттернам, безопасность, возможные проблемы (это дофига контекста), написал короткий отчет, передал его основному агенту и умер. В итоге основной получил всю инфу о проблемах, не забивая себе контекст кучей файлов кода.

Вот для любых исследований, поиска инфы, анализа кода и прочего пускаю субагентов, прошу их на выходе краткое саммари дать.

А скиллы — это обычные мд-файлы с информацией, но их Клод Код сам подгружает в контекст, если в промте встречается какое-то ключевое слово. Ну например, я сделал скилл Тесты. Там расписал, как мы делаем тесты, когда их запускаем и так далее. Если я в запросе Клод Коду (или он сам в процессе работы) как-то упоминаю тесты — вся эта инфа автоматически в него загрузится.

Раньше я просто руками в него эти инструкции загружал в начале работы или команды делал. А сейчас он сам, удобно.

Спасибо за подробный рассказ! Да, субагенты звучит круто, сейчас все это руками приходится склеивать)

А вот если скиллы — это просто маркдаун, это похоже может решаться через rules или системный файл агента (Claude.md или warp.md), или нет?

а Gemini cli кто нибудь использует в таком же режиме?

Все ии агенты у которых нет своей модели и своих серверов вынуждены покупать апи доступы у крупных игроков, что там не придумай, а обычному пользователю проще купить 20 долларовую безлимитную подписку у крупного игрока, чем кодить 5 дней в месяц у перекупа. Поэтому курсор и вложился в свои модели и сервера и у него появилась подписка 20 дол. Теперь он полноценный конкурент gpt и claude, хоть пока и уступает. Имхо.

Всё так, и Windsurf тоже ещё раньше свою запустил, но они, конечно, для больших задач не тянут. И на фоне всех этих мега-кластеров с видеокартами, которые у основных игроков есть, вряд ли они смогут когда-то сравняться.

Смотрели ли aider? Тоже из командной строки позволяет загружать контекст, сразу коммиты делает, подключаешь любую модель которая нравится. У zed собственный редактор её vs code также, были бесплатные кредиты для Claude.

Спасибо за наводку 👍 правда судя по сайту все же немного другого класса продукт, чем warp — больше похож как раз на codex-cli / Claude code. То есть чисто командная строка с ии-кодинг-агентом.

Долго сидел на vscode/cline; cursor мне не понравился, а возможности github copilot не впечатлили. К слову copilot исправили.

Интересно прочесть про опыт с другим инструментом, но мой выбор: 1. claude code, 2. openai codex, 3. https://opencode.ai/

Они все консольные, opencode умеет работать с claude, openai, github copilot - для работы с корпоративными ресурсами, пользуюсь именно им.

Warp понравился, но главное ограничение - у них нет версии для андроида/ios, что для меня важно: я часто работаю удаленно именно с samsung fold 7 через termux.

Да, если из терминала нужно запускать, то вариантов нет. Вот ещё коллеги Kilo Code посоветовали.

Основные мои агенты это:

  • Claude Code и Codex.

Claude Code - главный писатель.
Codex - анализатор и советчик.

Спрашиваю "как будем делать".
Клод предлагает план. Я скармливаю план Кодексу. Кодекс отвечает на этот план и ответ скармливаю Клоду.
И так по кругу 3-4 раза. Принимается решение и отдается Клоду на имплементацию.

Я пришел недавно к такой схеме (всегда был адептом Клода), потому что заметил, что код лучше у Клода, но к сожалению, часто ему не хватает глубины размышления. У Кодекса наоборот - часто глубже смотрит в задачу, но хуже кодит.
Надо сказать, что они плюс-минус одинаковы, как у людей, одна голова хорошо, а две лучше.

Приведу пару скриншотов, пример того как Клод отвечает на ревью Кодекса:

Sign up to leave a comment.

Articles