Обновить

Koda: AI-помощник разработчика – бесплатно, без VPN, с поддержкой русского языка

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров22K
Всего голосов 48: ↑47 и ↓1+57
Комментарии81

Комментарии 81

Спасибо за материал! Подскажите "Авторизуйтесь через GitHub" - это обязательный пункт?

Нет, не обязательно. Только если вы хоти использовать trial модели не наши.

"If you prefer not to sign in, you can use Koda with your own API keys or local model."

Т.е. если использовать ваши модели, то нужно авторизоваться через GitHub.


А можно ему скормить папку проекта и задавать вопросы, чтобы он сам менял файлы по согласованию с разработчиком? Вот как, например, в Warp

Да, модели с названием KodaChat и КоdaAgent будут работать без аутентификации.

Да, можно так и написать возьми такуюто папку пойми что там и перепиши код

Больше Code-wisperers хороших и разных.

Оставлю тут: Zencoder-AI, от русских разработчиков появился точно на 2 года раньше Koda-AI и понимает русский.

Такой же плагин, те же функции. А вы точно не списывали, или это ребрендинг Zencoder под русскую аудиторию?

К ZenCoder не имеем отношения никакого.)) И он же забугорный. Вряд ли они под русский затачивали модели.

А как вы затачивали модели под русский язык?

Дообучали на стадии SFT+RL ну и промты для русского подбирали.

попробую, когда выйдет под jetbrains

JetBrains версию пилим

когда ждать?)

Надеюсь через месяц будет готова.

Еще будет CLI клиент. Тоже пилим.

Только пожалуйста - проверяйте результат. Почти весь инструментарий для работы с llm как будто этими llm и написан. Тот же continue кладет intelij idea, постоянно глючит (на уровне интерфейса) и выглядит коряво. Десктопные клиенты зачастую не умеют в копи-паст - вообще бред.

А возможность подключить свои локальные модели будет?

Да, с версией для JetBrains у Continue есть проблемы

Локальную модель можно подключить для chat и agent роли. Для этого нужно открыть конфиг моделей и прописать вашу модель.

- name: model

provider: ollama

model: model

roles:

- chat

В сообществе можно найти такие ответы.

Напишите здесь :)

нормально делайте!

ага, постараемся нормально!)

спасибо:)

А для VS 2022 можно ожидать плагин?

Если компания будет использовать Koda, coda.io и так далее, то предложение "посмотри в коде" будет особенно эпичным.

НЛО прилетело и опубликовало эту надпись здесь

Когда выбираете модель с подписью trial то внизу чата появляется индикатор оставшихся запросов

НЛО прилетело и опубликовало эту надпись здесь

Что-то мне до боли напоминает эта неоновая илюминация-подсветка окошка при ожидании ответа на запрос юзера.. и модельки в олламе как-то странновато запускаются, где-то я именно эту тупую проблему с олламой ("num_gpu": 0 в запросах к эндпоинту) и видел.. Вспомнить бы где.. Чтобы это могло быть?.. Roo? :)

Вот не понял вопроса или к чему это вы) Есть какая-то проблема?

Он, вероятно, к тому, что внешний вид koda-ai похож на ollama-webUI. @Dharmendra - я верно угадал?

опубликуйте на open-vsx.org - не только vscode же

Спасибо, хорошая идея.

Возможно я придираюсь, но такое ощущение, что интерфейс 1:1 как у continue.dev

Да, мы форкнулись от Continue и переделали его внутри. Мы полгода назад решали с чего начать и решили, что лучше форкнуться от Continue чем писать с нуля.

А где найти бенчмарки? Было бы интересно посмотреть разные сравнения с популярными моделями которые используются в claude code, openai codex и так далее

Да, по возможности будем рассказывать в следующих статьях про бенчмарки. Но к примеру в Koda доступны топовые китайские модели, которые почти не уступают Claude Sonnet 4, которая работает в Claude Code. Например модель GLM 4.5

Koda уже нас заменят)

В чем преимущества перед, допустим Roo Code или Kilo Code? Не совсем понял, если честно - они тоже работают без всяких VPN, с mcp, rag, кастомными промтами, режимами и проч

Как минимум поддерживаем работу на русском языке лучше и не сильно отстаем от них по основной функциональности.) У нас можете пользоваться бесплатно моделями с приставкой Koda и еще 1000 запросов к trial моделям получить.)

А будет версия для Visual Studio?

Пока не думали на этот счет. Спасибо, подумаем. Ближайшее что делаем -- это JetBrains плагин и Koda CLI

А Visual Basic будете поддерживать? )))

А как же))

Шутка, в которой только доля шутки: а для Notepad++ можно плагин? Часто редактирую скрипты в нём, когда тяжёлую ide запускать неохота. Если получится, это будет первым подобным плагином.

Такой плагин не планировали.

То есть это форк Contiunue, но без поддержки ollama?

Скам получается какой-то)

Хотя и continue настолько кривой (для intelij idea), что сам - Скам)

Ну Cursor тоже форк VSCode)

Вы выше уже ответили что локальные модели можно подключить (хоть и там через конфиги а не из ui, но оно и у contine через жопу, все по Эскобару), так что моя претензия что проект Скам полностью снимается))

Просто если бы оно действительно было "взять opensource проект, вырезать из него возможность пользоваться своими моделями, вставить проприетарные модели и продавать доступ" - это прямо плохо)

Да, это форк Continue. MIstral, кстати, тоже форкнулись с Continue и сделали свое решение.

А почему форкнули именно Continue, а не Roo code? Кажется, по функциональности и скорости внедрения новых фич Roo Code круче

Для меня пока что главный затык — не ВПН, русский язык или платность, а качество модели. В копайлоте есть и GPT, и Sonnet. Даже в бесплатном. А у вас что?

Недавняя GLM 4.5 например сильна и особо не уступает Sonnet 4 а на некоторых бенчах репортят, что даже лучше. Попробуйте эту модель.

Тут можно почитать про GLM 4.5 https://z.ai/blog/glm-4.5

моделями от Koda — они тоже показывают отличные результаты

А есть какие-то сравнительные данные, насколько "тоже"?

В наших моделях мы используем топовые опенсорс модели и дообучаем их. Будем рассказывать позже в новых статьях про Koda. Но в целом мы еще в пути к получению наших лучших моделей))

Да, на z.ai очень впечатляющие результаты сравнений. Тогда вопрос - сколько стоит железо для обучения и какое оно (без деталей)? Вроде как все это должно стоить кучу бабок. Где деньги, Зин?)

Сейчас "Авторизуйтесь через GitHub не проходит, т.к. даже через впн GitHub выдает, что в вашей стране ограничения

А напишите в сообщество Koda со скринами. Не понял почему не проходит авторизация через gitHub. Должно работать.

Очень странно. У меня VS Code авторизуется через GitHub без проблем. Правда, GitHub Copilot все равно не хочет работать. Но оно мне уже не надо.

А подключиться к llama.cpp запущенном как сервер на http://127.0.0.1:8081/v1

Ну или к серверу с llama.cpp можно ?

Да, можно. Выше что в конфиге нужно добавить как здесь

О, отлично, спасибо! =)

Когда Cline стал полностью платным, я попробовал подключить к нему Mistral на сервере LM Studio. Результат поразил! Cline каким-то макаром открыл контекстное окно в 131000 токенов и моя видеокарта встала на взлетную полосу:)) В самом LM Studio модель работает прекрасно.

А как mcp настраивать? Я что то не нашел это в документации

Возможность добавить MCP будет в следующей версии. Пока такой возможности нету.

А максимальная длина контекста больше 1,048,576 tokens ?)

В зависимости от модели. KodaAgent 130k контекст сейчас.

поигрался с разными опенсорц моделями и вашими "собственными". Ну, мягко говоря, это не работает. Вообще. По сравнению с любыми даже cli агентами - это блокер. Как не было нормального RAG/func/tool calling, так и нету у всех этих опенсорсных форков "агентов". Нет каскадного планирования и выполнения плана шагов и самое главное - нет нормального применения патчей, модели чтото выдают, одному б-гу известное и каждый раз разное - явно парсер function не может делать различие между форматом данных у каждой модели - сработало - ништяк, не сработало - ну и ладно. То ошметки кода (руками вписывать?), то какие-то советы вместо патчей.

Кароче - в утиль. Не похож совсем на Cursor и даже не примитивненький Copilot, ни тем более на claude/gemini/codex cli... ничего.

Взяли опенсорсный кривой continue, не приходя в сознание и наточили его на свой ДЦ где развернули серверы с GPU. И все это ужасно тормозит - мощностей ДЦ явно маловато.

А свое-то что сделали? Сколько своего кода написано дополнительно к "импортозаместительному" переклеиванию названий? Ну хочется верить, что все же когда-нибудь сделают.

Но, пока это даже не пре-альфа - или фальшстарт маркет олухов, или все как обычно, ну вы поняли...

Проекту и команде искренне желаю удачи все же однажды сделать агента и облако не хуже Cursor'a! Пусть у вас все получится.

Спасибо за мнение!

А можете сюда или чат сообщества ваших кейсов накидать, где отработало плохо или ошибки, которые встретили? Чтобы предметно понять, что улучшить.


Попробуй https://chat.qwen.ai сверху модель сменить на Qwen3 Coder.
Войти через гугл.

Он меня очень удивил. Почти не допускает ошибок, за исключением случаев, когда человек путает свои желания и логику.

Так например собрал с помощью него мощного бота для телеграм.

Здравствуйте

Скажите пожалуйста вы работали прямо в окне копировали код, или по api?

Да на сайте туда сюда копипастил) но так как нейронка делала всё с нуля у неё была история всего проекта.

Сейчас решил поставить на комп
https://habr.com/ru/articles/938036/
связку lm-studio > vs codium insiders + плагин continue
..плагин koda почему то не находит lm-studio

и провернуть тоже самое на модели
qwen3-coder-30b Q4_K_M 18.63 GB

с железом rtx3060 12gb, ram32gb, ryzen 7 5070x
напишу о своих успехах там https://t.me/H360ru
пока, что в целом довольно шустро строчит код,
посмотрим правильно ли он запустится с первого раза

А можете дать подробностей, в каком окружении и какие плагины у вас установлены еще? Лучше в чат сообщества, чтобы не потерять эту ошибку.

Добрый день. Ваше расширение постоянно пытается изменить настройку "editor.autoClosingBrackets": "never", а без этого, судя по всему, не работает автодополнение. Ему это действительно необходимо? Другие подобные расширения как-то обходятся без этого. У меня settings.json доступен только на чтение (NixOS), поэтому это является существенной проблемой.

Проверим. А может дать деталей написав в чат сообщества в "ошибки и баги"?

Есть ли поддержка MCP?

В следующем релизе будет поддержка MCP

Если установлен Continue и Koda - при удалении одного из них - второй ломается, переустановка помогает

Ага, спасибо. Проверим в чем дело.

Было бы интересно почитать сравнение с cursor

Поставил на VS Code, интересно, но работаю в IntelliJ Idea, очень хочется попробовать), очень жду)))

Всё, умерло?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
kodacode.ru
Дата регистрации
Численность
2–10 человек
Местоположение
Россия