Pull to refresh

Comments 22

Сравнивал как-то kilocode и opencode и использовал локальную llm OpenAI/gpt-oss-20b.

Результат kilocode был плохим, несколько минут оно размышляло и пыталось что-то сделать и в конце сообщило, что не справилось и надо разбить запрос на мелкие подзадачи. Он использовал около 70к токенов.

При этом opencode оказался лучше. Он справился с тем же самым промптом. Ещё и за меньшее время и использовал около 15к токенов.

Я пробовал их обоих сравнивать с одинаковыми промптами на одном и том же проекте, и в целом opencode справлялся намного стабильнее и тратил меньше токенов, kilocode справлялся только на очень простых запросах.

У меня обратная история, kilo code и roo code показали самые хорошие результаты в процессе эксплуатации. Но вообще по идее все же от модели зависит которая запрос обрабатывает, плагин только промт системный задает. Должно все примерно одинаково работать, вопрос только в удобстве интерфейса плагина и преднастроенных промтах для ролей.

Согласен, я тоже ожидал, что будет одинаковый результат с одной и той же моделью. В плане интерфейса kilocode намного удобнее, чем opencode.

Попробуйте roo code, очень интересно какие в ваших тестах с ним результаты будут. Он практически как kilo code по интерфейсу и возможностям

Пользуюсь Github Copilot pro+ за 39USD в месяц, не знаю как сравнить стоимость и удобство с килокоде

Никак, у Copilot нет АПИ токенов

Процесс установки и настройки плагина для GigaIDE и OpenIDE отличается только тем, что плагин нужно будет установить вручную, предварительно скачав его с маркетплейса JetBrains.

Касательно OpenIDE это не так. Kilo code есть в маркетплейсе OpenIDE и доступен для скачивания привычными для разработчика способами :)

Отзывы на плагин KiloCode для VS Code, мягко говоря, неважные.

у плагина рейтинг 4.5 из 5. У него много достойных конкурентов, но он прямо не плох

Была же уже на Хабре статья (или коммент?), что этот Kilo пылесосит токены, как не в себя? Типа за день легко может на 200$ навайбить. Вот не могу сейчас её быстро найти(

мне тут подумалось - а не ворует ли он ваши токены на какие-то свои нужды? Или это можно проверить?

это можно проверить, плагин по апи ключу запросы шлет, затраченые токены видно в истории в том же openrouter, routerai или любом другом провайдере. Так любой плагин можно проверить, не только этот

RouterAI существенно дороже vseLLM выходит

эм, за зачем еще один уровень абстакций? Entia non sunt multiplicanda praeter necessitatem

работа через апи для gpt - нужно версию больше чем плюс?

\claude и гемини прекрасно работают вместе - достаточно оставить один файлик куда они все будут писать промежуточные мысли.

в корне проекта создаём readme (md) для claude и gemini (md) для гемини говорим что в работе принимают участие еще одна сетка и явно указать при начале обдумывания читать доп мысли (которые можно оспаривать (и скорее всего нужно)) от другой сети из заранее созданного файла всё.

для одного офф аддон, другой в кли режиме и задача трех тел решена.

с гроком в кли режиме еще не приходилось общаться но скорее всего принцип такой же.

paranoid_mode=on

RouterAI — если коротко, то это российский аналог OpenRouter. - звучит страшно, не правда ли?

В каком плане страшно?

основной закон высокотехнологического бизнеса в россии как звучит? может напомните?

Вас пугает слово российский? Будем честны тот же грок использует гео блокировку даже через опенроутер, который прокидывает локацию. Все плагины поддерживающие OpenAI стандарт, типа kilo code, позволяют вам использовать ЛЮБОГО провайдера, в этом их прелесть. Так что не пугайтесь, вариантов масса: прямой доступ к вендорам типа Claude, роутеры или локальные модели. Конкуренция и выбор это всегда хорошо, особенно в мире где существуют блокировки.

Интересно, сколько денег он сожрет за день вайбкодинга?)

Тут все зависит от задачи которую вы вайбкодите (размер контекста для разных задач разный, отсюда и цена). Ну и конечно от модели зависит сильно, если использовать sonnet то можно и 10к рублей сжечь за день, но и результаты скорее всего будут отличными, как от работы небольшой команды за несколько дней. Но можно и прямо дешевыми моделями добиться нормального результата, будет может пару сотен рублей и все равно огромный буст вас как разработчика в плане результата.

Ну нафиг, тогда. Пока посижу на бесплатном помощнике яндекса...

Сейчас очень недорого модели на z.ai. Лайт план около 2000р в год, pro план я взял чуть меньше 12 000. На про плане нужно писать больше 2 промптов в минуту чтобы упереться в 5 часовой лимит (т.е. 600 запросов за 5 часов). Да и на лайт плане я думаю лимит очень сложно достичь. А качество glm 4.7 уровня claude sonnet 4.5

А можно вообще бесплатные использовать, я долго сидел в roo code на grok-code-fast, потом перешёл на minmax m2 (они и сейчас там бесплатны). Но это для работы.
Для чистого вайбкодинга можно использовать opencode (там тоже много бесплатных моделей, включая glm 4.7 сейчас) или cto.new (нужен инвайт).

Sign up to leave a comment.

Articles