Заголовок звучит как что-то из разряда «хакерских трюков», но на деле это официальный релиз.
3 мая 2026 года (в мой день рождения) разработчики Ollama опубликовали версию 0.23 — и главным событием стала прямая интеграция с десктопным приложением Claude.

Разбираемся, что изменилось и почему это упрощает жизнь тем, кто работает с локальными моделями.
В чём соль
Claude Desktop — это настольное приложение от Anthropic. Внутри него живут Claude Cowork (для совместной работы) и Claude Code (терминальный интерфейс для разработки).
До версии 0.23 подключить к этому хозяйству локальные модели Ollama было можно. Но с оговорками. Требовалось включить режим разработчика в настройках Клода, поставить HTTPS-прокси (например, Caddy), потому что десктопное приложение принимало только защищённые соединения, и прописать эндпоинты в конфигурационном файле.
С выходом 0.23 всё это ушло в прошлое. Открываем терминал и пишем:
ollama launch claude-desktop
Команда сама поднимет нужное окружение и запустит Claude Desktop с поддержкой Cowork и Code.
Терминальная версия Code никуда не делась — её по-прежнему можно запустить через ollama launch claude. Выбор между десктопным и консольным интерфейсом остаётся за пользователем.
Что ещё привезли в релизе
Помимо интеграции с Клодом, разработчики переработали систему отображения моделей. Раньше список рекомендованных моделей был частью сборки и обновлялся только вместе с приложением. Теперь он динамически подгружается с сервера — новые модели могут появляться в интерфейсе без необходимости качать обновление.
Из технических исправлений: на Windows починили досадный баг с таймаутом OpenClaw (проблема решена принудительным использованием IPv4). Также укрепили работу с Metal на macOS — сбои при компиляции ядер GPU больше не приводят к падению всего сервиса.
Что пока недоступно
В официальном changelog указано, что Web Search и расширения в рамках интеграции с Claude Desktop пока не поддерживаются. Обещано «coming soon» — ждём в следующих релизах.
Сценарий использования, о котором говорят
Один из сценариев, который обсуждают в технических блогах: использовать Claude Desktop (Anthropic) для стратегических задач — планирования, архитектуры, ревью сложных багов, а Claude Code через Ollama — для «черновой» работы: линтинга, пакетной обработки файлов, рефакторинга.
Идея в том, что «тяжёлые» операции, которые быстро съедают квоту на облачном аккаунте, перекладываются на локальную модель или недорогой API. Это экономит ресурсы и оставляет чувствительный код на своей машине.
Для тех, кто переживает о сохранности данных
Запуск через ollama launch claude-desktop означает, что все вычисления происходят на вашем оборудовании. Никакой код не отправляется в облачные сервисы без вашего ведома. Особенно это актуально для небольших команд и индивидуальных разработчиков, которые работают с проприетарным кодом.
Как откатить изменения
Если новый режим по какой-то причине не подошёл, возврат к исходным настройкам — одна команда:
ollama launch claude-desktop --restore
Флаг --yes избавит от дополнительного подтверждения.
Стоит ли пробовать
Если вы уже пользуетесь Ollama для локального запуска моделей и у вас установлен Claude Desktop — однозначно да. Релиз 0.23 убирает лишние промежуточные звенья и делает связку «локальная модель — десктопный ИИ-ассистент» простой как никогда.
Скачивайте с официального репозитория на GitHub, обновляйтесь и тестируйте.
И делитесь впечатлениями — разработчики открыты к обратной связи через Discord и email.
