Комментарии 31
И им бесплатно можно пользоваться в таком случае?
Я так понял что да, за что и кому платить то?
А сам claude code что из себя представляет ? Это локальная программа или что?
Локальная программка с интерфейсом командной строки. Внутри инкапсулирует логику взаимодействия с агентами, MCP и т. д. Все нужное хранится уже там (промпты, настройки и т.д.). Для запуска моделей лазит по URL, который можно задать в переменных среды. Если хотите не на сервера антрофик кидать запросы, можно поставить Claude code router или подобную утилиту и подключать модели с OpenRouter, OpenAI или локальные.
Надо попробовать, так как это самый злободневный вопрос
Ничего себе. Неожиданно. Интересно, а их километровый системный промпт идет в комплекте? Это местами может быть плюсом.
Есть claude code router который позволяет работать с локальными моделями и другими API
Куда им было деваться, решили хоть бренд покачать дополнительно, да стату чекать. А так несколько хороших агентов под локальные модели уже давно есть.
А почему не использовать OpenCode?
А как установить кастомный урл?
VLLM давно поддерживает claude code
chutes.ai давно поддерживает claude code
Бесплатно??
А как вы работаете в консольном режиме, коллеги? Я без окон не представляю работы по анализу того, что нагегерила нейронка, пролистывания файлов на ревью, ревью результата нейронки с исходником открытым рядом. Промпт: напиши hello world - тут всё понятно, но если кодовая база большая это как то не похоже на удобство.
Плагин к вскоду claude code
Легко.
Во первых, в консоли весь дифф есть и он показывается зачастую, во вторых открыт VSC с этим проектом, который с gitlens и тп тоже подсвечивает все изменения.
По факту разницы нет, разве что общение в ide удобнее чем в консоли. Но консоль это ныне больше агент, у тебя есть мастер и субагенты и все это вот крутится в консолях.
В мою видюху 8 гиг не влезет с 64000 токенов. Максимум 20000 токенов с моделяи на 4 млрд параметров
Интересно попробовать. Подскажите, пожалуйста, что для кода лучше, чтобы сносно работало на 5060ti 16gb vram? Qwen3 30b не влезает, как я понимаю, заранее спасибо.
Попробуйте, это вполне возможно. Если есть достаточное количество RAM, часть слоев просто уйдет в нее. Главное выбирать модели с MoE архитектурой, они в такой конфигурации гораздо лучше работают.
У меня получилось запустить Qwen3-Coder-30B-A3B-Instruct-GGUF (квант Q4_K_M) с помощью llama.cpp на 3060 12Gb, i7-2600k, 32 Gb Ram. Получилось около 5 токенов/с с пустым контекстом (размер контекста ставил 65К). Если учесть, что 2600k - это очень старый процессор и память DDR3 - я думал, что вообще шансов нет.
Рекомендую почитать https://habr.com/ru/articles/961478/ там неплохо расписано что да как.
и с такой маленькой моделью получается работать? claude code не скатывается в бесконечный цикл правок и ломания кода?
GPT-OSS-20B. Да и 120В можно попробовать. Там ещё есть задний нюанс : модель умеет один или несколько форматов вызова инструментов, тот софт, которым вы её крутить будете, поддерживает несколько из этих форматов, а этот Claude Code наверняка потребует какой-то конкретный из них, даже без объяснений. Если при попытке прочитать/написать в файл начинается бред и XML, то виновато вот это вот всё.
Поэтому я и говорю, нафиг это нужно, когда для своих моделей есть специальные дополнения для VSCode и др.
Есть вроде специальные qwen code
А в чем прикол использовать клиент claude, если все самое ценное в нейронке от которой как я понимаю из статьи предлагают отключиться и использовать локальную модель.
Можно ли обойти региональные ограничения, если использовать локальный сервер вместо claude-вских?

Claude Code теперь можно запускать с локальными open-source моделями