Comments 24
Я запускаю оригинальный ClaudeCode с Deepseek моделями, или с Ollama, с помощью настроек переменных окружения. Что я делаю не так? И в чем смысл тогда OpenClaude?

Вы кому именно вопрос задаете? Глядя на список моделей понятно что нейронка статью писала, а человек даже не читал: GPT-4o/4.1, Llama-3.3, Дипсик чат какой-то.
Такое что-то?
ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1
Но там же апи может быть не совместим
Все (ну почти, но вы вряд-ли попадете на такое) модели сейчас openai совместимые. То есть у них единый формат передачи и получения информации. Димсик меняется на квен, а тот на яндексгпт или клода, которые заменяться на оламу локальную - буквально двумя строчками - адрес и токен доступа. Все остальное - не требует изменений.
Anthropic сами пострадали от возможностей технологий: форки Claude Code, портировaнные на другие языки с помощью того же GenAI, могут перестать быть объектами авторского права. Компания лишается серьезного конкурентного преимущества, так как разработчики других моделей быстро адаптируют их ноу-хау для своих инструментов.
Интересен тот факт, что, согласно самим Anthropic, Claude Code был в значительной степени написан самой моделью Claude. В США авторское право же защищает произведения, созданные человеком.
Их конкурентное преимущество это модели, а не CC у которой так-то вагон аналогов и не только консольных, да и устареет оно быстро. Почти все провайдеры поддерживают апи антропика и позволяют юзать любые модели, у z.ai на этом вся бизнес-модель построена.
О каком преимуществе речь? Claude Code хорош, спору нет, но OpenCode не хуже. А GSD 2, например, лучше их всех -- Spec-based разработка из коробки, без бесконечного ввода слэш-комманд и ручной чистки контекста. Странно что до сих пор ничего подобного нативно в CC не завезли и, похоже, не особо собираются
Так и оригинальный можно использовать с любой моделью скажем с claude code router.
Да много способов. У меня например с LiteLLM работает. У OpenRouter и Z.AI Coding Plan вообще совместимость заявлена. Была идея написать статью (там есть один неочевидный нюанс - похоже баг LiteLLM который проявляется если надо привязать к другим моделям) но показалось что ну очевидно же (и куча статей есть).
Если интересно...
сокращенная версия: в LiteLLM создаем Virtual Key и настраиваем хотя бы формальный fallback для моделей нужных.
затем создаем батник (ну или аналогично для Linux)
@echo off
set ANTHROPIC_BASE_URL=https://litellm.yourdomain.com
set ANTHROPIC_AUTH_TOKEN=$YOUR_API_KEY
set ANTHROPIC_API_KEY=
REM Отключаем эксперименты и телеметрию
set CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1
set CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
set ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5-Turbo
set ANTHROPIC_DEFAULT_SONNET_MODEL=GLM-5
set ANTHROPIC_DEFAULT_HAIKU_MODEL=GLM-4.5-Air
rem %USERPROFILE%\.local\bin\claude %*
claude %*
Занятно, что ни один агентский LLM не умеет подключаться к отладчику и смотреть переменные в точке останова. Ну и смысл? Теряется очень много того что делает человек.
Пока
При необходимости может добавить лог и посмотреть вывод. Только что воспроизводить проблему для моделей пока тяжкая задача.
В чем тяжкая? Логи смотрит, код правит и перезапускает.
часто для воспроизведения надо много чего накликать в интерфейсе, запустить локально кучу сырых сервисов и так далее.
Если получается выкрутиться через интеграционные тесты, тогда да, только сиди, пей чай и поглядывай.
надо много чего накликать в интерфейсе
Попробуйте инструмент без таких проблем
Если нужен дебаг, то значит агент решает задачу такой сложности, что не сдюжил написать код. А для такой задачи нужен весь контекст. Если заставить его изучать UI в том же контексте и с нуля, это будет долго и загадит себе всю основную тему. Можно ли это сделать субагентами и наработкой скиллов для использования UI заранее, х.з. не пробовал.
Добрались до нюансов)
весь контекст
Только в случае неумения структурировать проект. Если агент имеет инструменты для быстрого нахождения нужной части кода, то проблемы нет.
заставить его изучать UI
Прошу прощения, но при грамотном подходе этот вопрос не может возникнуть в принципе.
загадит себе всю основную тему
Если под основной темой подразумевается код, то не понимаю как контекст ui может отравить контекст кода.
Все что вы написали относится к случаю где дебаг не нужен. Дебаг нужен в ситуации когда модель уже собрала в контексте базовую документацию, весь связанный с проблемой код, разобралась как все работает, обшарила все смежные области, но все ещё не видит проблемы. Если в этот момент вы заставите ее забрать в контекст ещё и детали UI это ещё снизит фокус модели на проблеме. В идеале агент должен создать в этот момент субагента с инструкцией "воспроизвели проблему в ui". Но не уверен что текущие агенты такое осилят.
модель уже собрала в контексте базовую документацию, весь связанный с проблемой код, разобралась как все работает, обшарила все смежные области, но все ещё не видит проблемы
Из моей практики, это обычно следствие дефектов документации: сначала делали по варианту а, потом перешли на б и не удалили а из документации полностью и не сказали почему выбран б.
Также возможна простая невнимательность, когда в документации все есть, но не в том месте и не теми словами.
На мой взгляд, в любом случае тыкать носом в юай "ну не работает сам смотри" редко когда поможет. То, что "агенты не могут" - вообще не понял чего они не могут. Галку в чекбокс поставят, текст в поле введут, кнопку нажмут.
имхо лучше аудировать алгоритм и смотреть несоответствие логики и фактов.
Документация с LLM это вообще зло. Под базовой документацией я имел ввиду минимальную вводную в проект.
Что до галок в чекбоксе, то средний энтерпрайз продукт имеет такой UI, что в нем человек начинает разбираться только через год работы, включая всякие не очевидные драг энд дропы, исторически принятые странные решения и прочее.
Неправда. Всё можно сделать, вопрос только в том, какие инструменты дать нейронке. Если очевидно, что не хватает инструментов - либо искать MCP под нужную задачу, либо написать самому. Вот, например, нашёл MCP для GBD:
https://github.com/Ipiano/gdb-mcp
https://github.com/signal-slot/mcp-gdb
В VisualStudio 2026 есть такая возможность при включенном GitHub Copilot в режиме агента (функция называет Debug with Copilot). Но на практике пока человек дебажит лучше, хоть и медленнее.
Харнесс Claude Code заточен под модели Anthropic. Нет особого смысла использовать его с другими моделями, когда есть generic harnesses типа OpenCode.
Claude Code бесплатно: как использовать ии бесплатно в 2026 году