Комментарии 28
Сравнивал как-то kilocode и opencode и использовал локальную llm OpenAI/gpt-oss-20b.
Результат kilocode был плохим, несколько минут оно размышляло и пыталось что-то сделать и в конце сообщило, что не справилось и надо разбить запрос на мелкие подзадачи. Он использовал около 70к токенов.
При этом opencode оказался лучше. Он справился с тем же самым промптом. Ещё и за меньшее время и использовал около 15к токенов.
Я пробовал их обоих сравнивать с одинаковыми промптами на одном и том же проекте, и в целом opencode справлялся намного стабильнее и тратил меньше токенов, kilocode справлялся только на очень простых запросах.
У меня обратная история, kilo code и roo code показали самые хорошие результаты в процессе эксплуатации. Но вообще по идее все же от модели зависит которая запрос обрабатывает, плагин только промт системный задает. Должно все примерно одинаково работать, вопрос только в удобстве интерфейса плагина и преднастроенных промтах для ролей.
Пользуюсь Github Copilot pro+ за 39USD в месяц, не знаю как сравнить стоимость и удобство с килокоде
Процесс установки и настройки плагина для GigaIDE и OpenIDE отличается только тем, что плагин нужно будет установить вручную, предварительно скачав его с маркетплейса JetBrains.
Касательно OpenIDE это не так. Kilo code есть в маркетплейсе OpenIDE и доступен для скачивания привычными для разработчика способами :)
Отзывы на плагин KiloCode для VS Code, мягко говоря, неважные.
у плагина рейтинг 4.5 из 5. У него много достойных конкурентов, но он прямо не плох
Была же уже на Хабре статья (или коммент?), что этот Kilo пылесосит токены, как не в себя? Типа за день легко может на 200$ навайбить. Вот не могу сейчас её быстро найти(
RouterAI существенно дороже vseLLM выходит
эм, за зачем еще один уровень абстакций? Entia non sunt multiplicanda praeter necessitatem
работа через апи для gpt - нужно версию больше чем плюс?
\claude и гемини прекрасно работают вместе - достаточно оставить один файлик куда они все будут писать промежуточные мысли.
в корне проекта создаём readme (md) для claude и gemini (md) для гемини говорим что в работе принимают участие еще одна сетка и явно указать при начале обдумывания читать доп мысли (которые можно оспаривать (и скорее всего нужно)) от другой сети из заранее созданного файла всё.
для одного офф аддон, другой в кли режиме и задача трех тел решена.
с гроком в кли режиме еще не приходилось общаться но скорее всего принцип такой же.
paranoid_mode=on
RouterAI — если коротко, то это российский аналог OpenRouter. - звучит страшно, не правда ли?
В каком плане страшно?
основной закон высокотехнологического бизнеса в россии как звучит? может напомните?
В голос 😂
Вас пугает слово российский? Будем честны тот же грок использует гео блокировку даже через опенроутер, который прокидывает локацию. Все плагины поддерживающие OpenAI стандарт, типа kilo code, позволяют вам использовать ЛЮБОГО провайдера, в этом их прелесть. Так что не пугайтесь, вариантов масса: прямой доступ к вендорам типа Claude, роутеры или локальные модели. Конкуренция и выбор это всегда хорошо, особенно в мире где существуют блокировки.
Честно говоря вообще вас не понял, тут похоже какой-то личный опыт
Интересно, сколько денег он сожрет за день вайбкодинга?)
Тут все зависит от задачи которую вы вайбкодите (размер контекста для разных задач разный, отсюда и цена). Ну и конечно от модели зависит сильно, если использовать sonnet то можно и 10к рублей сжечь за день, но и результаты скорее всего будут отличными, как от работы небольшой команды за несколько дней. Но можно и прямо дешевыми моделями добиться нормального результата, будет может пару сотен рублей и все равно огромный буст вас как разработчика в плане результата.
Ну нафиг, тогда. Пока посижу на бесплатном помощнике яндекса...
Сейчас очень недорого модели на z.ai. Лайт план около 2000р в год, pro план я взял чуть меньше 12 000. На про плане нужно писать больше 2 промптов в минуту чтобы упереться в 5 часовой лимит (т.е. 600 запросов за 5 часов). Да и на лайт плане я думаю лимит очень сложно достичь. А качество glm 4.7 уровня claude sonnet 4.5
А можно вообще бесплатные использовать, я долго сидел в roo code на grok-code-fast, потом перешёл на minmax m2 (они и сейчас там бесплатны). Но это для работы.
Для чистого вайбкодинга можно использовать opencode (там тоже много бесплатных моделей, включая glm 4.7 сейчас) или cto.new (нужен инвайт).
routerai.ru смешно, но 100 рублей, которые я кинул, закончились за первый же запрос... :D
На то он и агрегатор, что позволяет выбрать любую модель. Попробуйте например z-ai/glm-4.7 она очень дешевая и вполне не плохо работает. Ну либо поднимите локальную ollama и если ресурсы позволяют настройте kilo code, вообще условно бесплатно получится.
Такая же ерунда, я на 3 доллара вечер и пол ночи используя DeepSeek напрямую, закинул 100 рублей, подключил одну из самых дешевых моделей к кило код, просто 10 минут половины уже нет. В общем закрыл и забыл.
Привет народ, подскажите плз. Купил подписку Gemini AI Pro Model 3.0 и не совсем понимаю как я могу её подключить в VS Code, нужен ли какой плагин условный этот же Kilo или где взять и куда вводить API.
Всем привет, использую vscode и lmstudio, играюсь всякими модельками и настройками на нейрокомпе aimax от gmtec (96 VRAM).
Обратил внимание что все эти плагины roo code, clion, kilo code один в один похожи, прямо до мельчайшей настройки внутри.
Continue отличается, но в нем много глюков в апи, он может заполнить файл вместо кода текстом ошибки, может ждать от меня апрува, хотя нет кнопки подтвердить и много таких мелочей, может я его просто готовить не умею, а может надо без lm studio запускать апи.
Continue выполняет команды grep && и другие в терминале windows и падает.
Дальше про все эти clion - аналоги:
Сам clion в чате имеет проблемы с версткой, вероятно от того что у меня в редакторе шрифт увеличенный, то и в чате текст маленький, а участки кода типа названия файлов огроменные и окно ввода текста огромный шрифт... Такое ощущение что проект устарел, работает криво, иногда стоп не работает в задачах, чат продолжает висеть, приходится перезакрывать редактор.
RooCode уже более доработанный, глюков меньше, но как и clion - тормозной, работа в чате lm-studio у меня под 50-60 токенов в секунду, но вот в плагинах типа этого ооочень долго, т.к. у них там системный промпт километровый и даже не знаю что он там отправляет помимо него при каждом запросе. Еще он чтение файлов как то долго делает, разрешение стоит, а он каждый файл раздельно говорит я хочу его прочесть и думает потом отправляет и следующий...
Kilo Code мне понравился больше всего, т.к. он позволяет системный промпт модифицировать, там в настройках разворачивается дополнительно и при клике сразу файл открывает внутри текущего проекта... Настройки выглядят интереснее, но временами могут быть глюки при сохранении настроек. Чтение файлов тут как будто прямо по несколько штук может быть когда прошу проанализировать проект.
В работе два последних достаточно хорошо работают, они умеют прямо в чате выполнять команды (например хеш получить), сразу видеть их результат, потом этот хеш например в конфиг вставить, ну достаточно интересная штука, можно в полностью автоматическом режиме наблюдать как непонятно что происходит - папки создаются, файлы, код какой то в них накидывается, какие то там команды выполняются... Но лучше модерировать эти действия.
Хотел может бест практис получить кто вообще локально писал проектики подобным образом, как то тюннили промпты или настройки запуска нейронки, стоит ли вообще выкручивать контекст в 260к, как там всякие температуры и другие ползунки подкручивать чтобы получать оптимальный вариант.

Вайбкодим с плагином Kilo Code в VS Code и IntelliJ IDEA из России