Обновить

Комментарии 20

Я запускаю оригинальный ClaudeCode с Deepseek моделями, или с Ollama, с помощью настроек переменных окружения. Что я делаю не так? И в чем смысл тогда OpenClaude?

Вы кому именно вопрос задаете? Глядя на список моделей понятно что нейронка статью писала, а человек даже не читал: GPT-4o/4.1, Llama-3.3, Дипсик чат какой-то.

Такое что-то?

ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1

Но там же апи может быть не совместим

Все (ну почти, но вы вряд-ли попадете на такое) модели сейчас openai совместимые. То есть у них единый формат передачи и получения информации. Димсик меняется на квен, а тот на яндексгпт или клода, которые заменяться на оламу локальную - буквально двумя строчками - адрес и токен доступа. Все остальное - не требует изменений.

Anthropic сами пострадали от возможностей технологий: форки Claude Code, портировaнные на другие языки с помощью того же GenAI, могут перестать быть объектами авторского права. Компания лишается серьезного конкурентного преимущества, так как разработчики других моделей быстро адаптируют их ноу-хау для своих инструментов.

Интересен тот факт, что, согласно самим Anthropic, Claude Code был в значительной степени написан самой моделью Claude. В США авторское право же защищает произведения, созданные человеком.

Их конкурентное преимущество это модели, а не CC у которой так-то вагон аналогов и не только консольных, да и устареет оно быстро. Почти все провайдеры поддерживают апи антропика и позволяют юзать любые модели, у z.ai на этом вся бизнес-модель построена.

О каком преимуществе речь? Claude Code хорош, спору нет, но OpenCode не хуже. А GSD 2, например, лучше их всех -- Spec-based разработка из коробки, без бесконечного ввода слэш-комманд и ручной чистки контекста. Странно что до сих пор ничего подобного нативно в CC не завезли и, похоже, не особо собираются

Так и оригинальный можно использовать с любой моделью скажем с claude code router.

Да много способов. У меня например с LiteLLM работает. У OpenRouter и Z.AI Coding Plan вообще совместимость заявлена. Была идея написать статью (там есть один неочевидный нюанс - похоже баг LiteLLM который проявляется если надо привязать к другим моделям) но показалось что ну очевидно же (и куча статей есть).

Если интересно...

сокращенная версия: в LiteLLM создаем Virtual Key и настраиваем хотя бы формальный fallback для моделей нужных.

затем создаем батник (ну или аналогично для Linux)

@echo off
set ANTHROPIC_BASE_URL=https://litellm.yourdomain.com
set ANTHROPIC_AUTH_TOKEN=$YOUR_API_KEY
set ANTHROPIC_API_KEY=

REM Отключаем эксперименты и телеметрию 
set CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1
set CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

set ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5-Turbo
set ANTHROPIC_DEFAULT_SONNET_MODEL=GLM-5
set ANTHROPIC_DEFAULT_HAIKU_MODEL=GLM-4.5-Air


rem %USERPROFILE%\.local\bin\claude %*
claude %*

Занятно, что ни один агентский LLM не умеет подключаться к отладчику и смотреть переменные в точке останова. Ну и смысл? Теряется очень много того что делает человек.

Пока

При необходимости может добавить лог и посмотреть вывод. Только что воспроизводить проблему для моделей пока тяжкая задача.

В чем тяжкая? Логи смотрит, код правит и перезапускает.

часто для воспроизведения надо много чего накликать в интерфейсе, запустить локально кучу сырых сервисов и так далее.

Если получается выкрутиться через интеграционные тесты, тогда да, только сиди, пей чай и поглядывай.

надо много чего накликать в интерфейсе

Попробуйте инструмент без таких проблем

Если нужен дебаг, то значит агент решает задачу такой сложности, что не сдюжил написать код. А для такой задачи нужен весь контекст. Если заставить его изучать UI в том же контексте и с нуля, это будет долго и загадит себе всю основную тему. Можно ли это сделать субагентами и наработкой скиллов для использования UI заранее, х.з. не пробовал.

Неправда. Всё можно сделать, вопрос только в том, какие инструменты дать нейронке. Если очевидно, что не хватает инструментов - либо искать MCP под нужную задачу, либо написать самому. Вот, например, нашёл MCP для GBD:
https://github.com/Ipiano/gdb-mcp
https://github.com/signal-slot/mcp-gdb

В VisualStudio 2026 есть такая возможность при включенном GitHub Copilot в режиме агента (функция называет Debug with Copilot). Но на практике пока человек дебажит лучше, хоть и медленнее.

Харнесс Claude Code заточен под модели Anthropic. Нет особого смысла использовать его с другими моделями, когда есть generic harnesses типа OpenCode.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации