Комментарии 81
Спасибо за материал! Подскажите "Авторизуйтесь через GitHub" - это обязательный пункт?
Нет, не обязательно. Только если вы хоти использовать trial модели не наши.
"If you prefer not to sign in, you can use Koda with your own API keys or local model."
Т.е. если использовать ваши модели, то нужно авторизоваться через GitHub.
А можно ему скормить папку проекта и задавать вопросы, чтобы он сам менял файлы по согласованию с разработчиком? Вот как, например, в Warp
Больше Code-wisperers хороших и разных.
Оставлю тут: Zencoder-AI, от русских разработчиков появился точно на 2 года раньше Koda-AI и понимает русский.
Такой же плагин, те же функции. А вы точно не списывали, или это ребрендинг Zencoder под русскую аудиторию?
попробую, когда выйдет под jetbrains
JetBrains версию пилим
когда ждать?)
Надеюсь через месяц будет готова.
Еще будет CLI клиент. Тоже пилим.
Только пожалуйста - проверяйте результат. Почти весь инструментарий для работы с llm как будто этими llm и написан. Тот же continue кладет intelij idea, постоянно глючит (на уровне интерфейса) и выглядит коряво. Десктопные клиенты зачастую не умеют в копи-паст - вообще бред.
А возможность подключить свои локальные модели будет?
Напишите здесь :)
нормально делайте!
А для VS 2022 можно ожидать плагин?
Если компания будет использовать Koda, coda.io и так далее, то предложение "посмотри в коде" будет особенно эпичным.
Что-то мне до боли напоминает эта неоновая илюминация-подсветка окошка при ожидании ответа на запрос юзера.. и модельки в олламе как-то странновато запускаются, где-то я именно эту тупую проблему с олламой ("num_gpu": 0 в запросах к эндпоинту) и видел.. Вспомнить бы где.. Чтобы это могло быть?.. Roo? :)
Вот не понял вопроса или к чему это вы) Есть какая-то проблема?
Он, вероятно, к тому, что внешний вид koda-ai похож на ollama-webUI. @Dharmendra - я верно угадал?
опубликуйте на open-vsx.org - не только vscode же
Возможно я придираюсь, но такое ощущение, что интерфейс 1:1 как у continue.dev
А где найти бенчмарки? Было бы интересно посмотреть разные сравнения с популярными моделями которые используются в claude code, openai codex и так далее
Koda уже нас заменят)
В чем преимущества перед, допустим Roo Code или Kilo Code? Не совсем понял, если честно - они тоже работают без всяких VPN, с mcp, rag, кастомными промтами, режимами и проч
А будет версия для Visual Studio?
То есть это форк Contiunue, но без поддержки ollama?
Скам получается какой-то)
Хотя и continue настолько кривой (для intelij idea), что сам - Скам)
Ну Cursor тоже форк VSCode)
Вы выше уже ответили что локальные модели можно подключить (хоть и там через конфиги а не из ui, но оно и у contine через жопу, все по Эскобару), так что моя претензия что проект Скам полностью снимается))
Просто если бы оно действительно было "взять opensource проект, вырезать из него возможность пользоваться своими моделями, вставить проприетарные модели и продавать доступ" - это прямо плохо)
Да, это форк Continue. MIstral, кстати, тоже форкнулись с Continue и сделали свое решение.
Для меня пока что главный затык — не ВПН, русский язык или платность, а качество модели. В копайлоте есть и GPT, и Sonnet. Даже в бесплатном. А у вас что?
Недавняя GLM 4.5 например сильна и особо не уступает Sonnet 4 а на некоторых бенчах репортят, что даже лучше. Попробуйте эту модель.
Тут можно почитать про GLM 4.5 https://z.ai/blog/glm-4.5
моделями от Koda — они тоже показывают отличные результаты
А есть какие-то сравнительные данные, насколько "тоже"?
В наших моделях мы используем топовые опенсорс модели и дообучаем их. Будем рассказывать позже в новых статьях про Koda. Но в целом мы еще в пути к получению наших лучших моделей))
Сейчас "Авторизуйтесь через GitHub не проходит, т.к. даже через впн GitHub выдает, что в вашей стране ограничения
А подключиться к llama.cpp запущенном как сервер на http://127.0.0.1:8081/v1
Ну или к серверу с llama.cpp можно ?
Да, можно. Выше что в конфиге нужно добавить как здесь

А как mcp настраивать? Я что то не нашел это в документации
А максимальная длина контекста больше 1,048,576 tokens ?)
поигрался с разными опенсорц моделями и вашими "собственными". Ну, мягко говоря, это не работает. Вообще. По сравнению с любыми даже cli агентами - это блокер. Как не было нормального RAG/func/tool calling, так и нету у всех этих опенсорсных форков "агентов". Нет каскадного планирования и выполнения плана шагов и самое главное - нет нормального применения патчей, модели чтото выдают, одному б-гу известное и каждый раз разное - явно парсер function не может делать различие между форматом данных у каждой модели - сработало - ништяк, не сработало - ну и ладно. То ошметки кода (руками вписывать?), то какие-то советы вместо патчей.
Кароче - в утиль. Не похож совсем на Cursor и даже не примитивненький Copilot, ни тем более на claude/gemini/codex cli... ничего.
Взяли опенсорсный кривой continue, не приходя в сознание и наточили его на свой ДЦ где развернули серверы с GPU. И все это ужасно тормозит - мощностей ДЦ явно маловато.
А свое-то что сделали? Сколько своего кода написано дополнительно к "импортозаместительному" переклеиванию названий? Ну хочется верить, что все же когда-нибудь сделают.
Но, пока это даже не пре-альфа - или фальшстарт маркет олухов, или все как обычно, ну вы поняли...
Проекту и команде искренне желаю удачи все же однажды сделать агента и облако не хуже Cursor'a! Пусть у вас все получится.
Спасибо за мнение!
А можете сюда или чат сообщества ваших кейсов накидать, где отработало плохо или ошибки, которые встретили? Чтобы предметно понять, что улучшить.

Попробуй https://chat.qwen.ai сверху модель сменить на Qwen3 Coder.
Войти через гугл.
Он меня очень удивил. Почти не допускает ошибок, за исключением случаев, когда человек путает свои желания и логику.
Так например собрал с помощью него мощного бота для телеграм.
Здравствуйте
Скажите пожалуйста вы работали прямо в окне копировали код, или по api?
Да на сайте туда сюда копипастил) но так как нейронка делала всё с нуля у неё была история всего проекта.
Сейчас решил поставить на комп
https://habr.com/ru/articles/938036/
связку lm-studio > vs codium insiders + плагин continue
..плагин koda почему то не находит lm-studio
и провернуть тоже самое на модели
qwen3-coder-30b Q4_K_M 18.63 GB
с железом rtx3060 12gb, ram32gb, ryzen 7 5070x
напишу о своих успехах там https://t.me/H360ru
пока, что в целом довольно шустро строчит код,
посмотрим правильно ли он запустится с первого раза

дээмс...
Добрый день. Ваше расширение постоянно пытается изменить настройку "editor.autoClosingBrackets": "never", а без этого, судя по всему, не работает автодополнение. Ему это действительно необходимо? Другие подобные расширения как-то обходятся без этого. У меня settings.json доступен только на чтение (NixOS), поэтому это является существенной проблемой.
Есть ли поддержка MCP?
Если установлен Continue и Koda - при удалении одного из них - второй ломается, переустановка помогает
Было бы интересно почитать сравнение с cursor
Поставил на VS Code, интересно, но работаю в IntelliJ Idea, очень хочется попробовать), очень жду)))
Всё, умерло?

Koda: AI-помощник разработчика – бесплатно, без VPN, с поддержкой русского языка