Обновить

Комментарии 31

И им бесплатно можно пользоваться в таком случае?

Я так понял что да, за что и кому платить то?

А сам claude code что из себя представляет ? Это локальная программа или что?

Локальная программка с интерфейсом командной строки. Внутри инкапсулирует логику взаимодействия с агентами, MCP и т. д. Все нужное хранится уже там (промпты, настройки и т.д.). Для запуска моделей лазит по URL, который можно задать в переменных среды. Если хотите не на сервера антрофик кидать запросы, можно поставить Claude code router или подобную утилиту и подключать модели с OpenRouter, OpenAI или локальные.

Спасибо за ответ!

Надо попробовать, так как это самый злободневный вопрос

Ничего себе. Неожиданно. Интересно, а их километровый системный промпт идет в комплекте? Это местами может быть плюсом.

Есть claude code router который позволяет работать с локальными моделями и другими API

Куда им было деваться, решили хоть бренд покачать дополнительно, да стату чекать. А так несколько хороших агентов под локальные модели уже давно есть.

А почему не использовать OpenCode?

Какой опенкод, люди из океана браузера с чатгпт ещё не вышли:)

Как вариант - потому что он дико глючный

А как установить кастомный урл?

TLDR: ANTHROPIC_BASE_URL в переменных окружения или конфиге .claude/settings.json

https://code.claude.com/docs/en/llm-gateway

Бесплатно??

А как вы работаете в консольном режиме, коллеги? Я без окон не представляю работы по анализу того, что нагегерила нейронка, пролистывания файлов на ревью, ревью результата нейронки с исходником открытым рядом. Промпт: напиши hello world - тут всё понятно, но если кодовая база большая это как то не похоже на удобство.

Плагин к вскоду claude code

Тогда уж лучше сразу Roo Code который изначально под всё затачивался.

Лично мне он не очень понравился. Как и колокол. И Клайн.

Легко.

Во первых, в консоли весь дифф есть и он показывается зачастую, во вторых открыт VSC с этим проектом, который с gitlens и тп тоже подсвечивает все изменения.

По факту разницы нет, разве что общение в ide удобнее чем в консоли. Но консоль это ныне больше агент, у тебя есть мастер и субагенты и все это вот крутится в консолях.

В мою видюху 8 гиг не влезет с 64000 токенов. Максимум 20000 токенов с моделяи на 4 млрд параметров

Интересно попробовать. Подскажите, пожалуйста, что для кода лучше, чтобы сносно работало на 5060ti 16gb vram? Qwen3 30b не влезает, как я понимаю, заранее спасибо.

Попробуйте, это вполне возможно. Если есть достаточное количество RAM, часть слоев просто уйдет в нее. Главное выбирать модели с MoE архитектурой, они в такой конфигурации гораздо лучше работают.
У меня получилось запустить Qwen3-Coder-30B-A3B-Instruct-GGUF (квант Q4_K_M) с помощью llama.cpp на 3060 12Gb, i7-2600k, 32 Gb Ram. Получилось около 5 токенов/с с пустым контекстом (размер контекста ставил 65К). Если учесть, что 2600k - это очень старый процессор и память DDR3 - я думал, что вообще шансов нет.
Рекомендую почитать https://habr.com/ru/articles/961478/ там неплохо расписано что да как.

и с такой маленькой моделью получается работать? claude code не скатывается в бесконечный цикл правок и ломания кода?

Я пробовал с KiloСode плагином. Конечно эта модель гораздо слабее, чем облачные (даже те, к которым Kilo дает бесплатный доступ типа grok code fast). Но, тем не менее во многих случаях она справляется с простыми задачами. Сильно много не тестировал, потому как 5 t/s это довольно медленно.

GPT-OSS-20B. Да и 120В можно попробовать. Там ещё есть задний нюанс : модель умеет один или несколько форматов вызова инструментов, тот софт, которым вы её крутить будете, поддерживает несколько из этих форматов, а этот Claude Code наверняка потребует какой-то конкретный из них, даже без объяснений. Если при попытке прочитать/написать в файл начинается бред и XML, то виновато вот это вот всё.

Поэтому я и говорю, нафиг это нужно, когда для своих моделей есть специальные дополнения для VSCode и др.

Есть вроде специальные qwen code

А в чем прикол использовать клиент claude, если все самое ценное в нейронке от которой как я понимаю из статьи предлагают отключиться и использовать локальную модель.

Можно ли обойти региональные ограничения, если использовать локальный сервер вместо claude-вских?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости