Комментарии 20
Я запускаю оригинальный ClaudeCode с Deepseek моделями, или с Ollama, с помощью настроек переменных окружения. Что я делаю не так? И в чем смысл тогда OpenClaude?

Вы кому именно вопрос задаете? Глядя на список моделей понятно что нейронка статью писала, а человек даже не читал: GPT-4o/4.1, Llama-3.3, Дипсик чат какой-то.
Такое что-то?
ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1
Но там же апи может быть не совместим
Все (ну почти, но вы вряд-ли попадете на такое) модели сейчас openai совместимые. То есть у них единый формат передачи и получения информации. Димсик меняется на квен, а тот на яндексгпт или клода, которые заменяться на оламу локальную - буквально двумя строчками - адрес и токен доступа. Все остальное - не требует изменений.
Anthropic сами пострадали от возможностей технологий: форки Claude Code, портировaнные на другие языки с помощью того же GenAI, могут перестать быть объектами авторского права. Компания лишается серьезного конкурентного преимущества, так как разработчики других моделей быстро адаптируют их ноу-хау для своих инструментов.
Интересен тот факт, что, согласно самим Anthropic, Claude Code был в значительной степени написан самой моделью Claude. В США авторское право же защищает произведения, созданные человеком.
Их конкурентное преимущество это модели, а не CC у которой так-то вагон аналогов и не только консольных, да и устареет оно быстро. Почти все провайдеры поддерживают апи антропика и позволяют юзать любые модели, у z.ai на этом вся бизнес-модель построена.
О каком преимуществе речь? Claude Code хорош, спору нет, но OpenCode не хуже. А GSD 2, например, лучше их всех -- Spec-based разработка из коробки, без бесконечного ввода слэш-комманд и ручной чистки контекста. Странно что до сих пор ничего подобного нативно в CC не завезли и, похоже, не особо собираются
Так и оригинальный можно использовать с любой моделью скажем с claude code router.
Да много способов. У меня например с LiteLLM работает. У OpenRouter и Z.AI Coding Plan вообще совместимость заявлена. Была идея написать статью (там есть один неочевидный нюанс - похоже баг LiteLLM который проявляется если надо привязать к другим моделям) но показалось что ну очевидно же (и куча статей есть).
Если интересно...
сокращенная версия: в LiteLLM создаем Virtual Key и настраиваем хотя бы формальный fallback для моделей нужных.
затем создаем батник (ну или аналогично для Linux)
@echo off
set ANTHROPIC_BASE_URL=https://litellm.yourdomain.com
set ANTHROPIC_AUTH_TOKEN=$YOUR_API_KEY
set ANTHROPIC_API_KEY=
REM Отключаем эксперименты и телеметрию
set CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1
set CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
set ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5-Turbo
set ANTHROPIC_DEFAULT_SONNET_MODEL=GLM-5
set ANTHROPIC_DEFAULT_HAIKU_MODEL=GLM-4.5-Air
rem %USERPROFILE%\.local\bin\claude %*
claude %*
Занятно, что ни один агентский LLM не умеет подключаться к отладчику и смотреть переменные в точке останова. Ну и смысл? Теряется очень много того что делает человек.
Пока
При необходимости может добавить лог и посмотреть вывод. Только что воспроизводить проблему для моделей пока тяжкая задача.
В чем тяжкая? Логи смотрит, код правит и перезапускает.
часто для воспроизведения надо много чего накликать в интерфейсе, запустить локально кучу сырых сервисов и так далее.
Если получается выкрутиться через интеграционные тесты, тогда да, только сиди, пей чай и поглядывай.
надо много чего накликать в интерфейсе
Попробуйте инструмент без таких проблем
Если нужен дебаг, то значит агент решает задачу такой сложности, что не сдюжил написать код. А для такой задачи нужен весь контекст. Если заставить его изучать UI в том же контексте и с нуля, это будет долго и загадит себе всю основную тему. Можно ли это сделать субагентами и наработкой скиллов для использования UI заранее, х.з. не пробовал.
Неправда. Всё можно сделать, вопрос только в том, какие инструменты дать нейронке. Если очевидно, что не хватает инструментов - либо искать MCP под нужную задачу, либо написать самому. Вот, например, нашёл MCP для GBD:
https://github.com/Ipiano/gdb-mcp
https://github.com/signal-slot/mcp-gdb
В VisualStudio 2026 есть такая возможность при включенном GitHub Copilot в режиме агента (функция называет Debug with Copilot). Но на практике пока человек дебажит лучше, хоть и медленнее.
Харнесс Claude Code заточен под модели Anthropic. Нет особого смысла использовать его с другими моделями, когда есть generic harnesses типа OpenCode.

Claude Code бесплатно: как использовать ии бесплатно в 2026 году