
Ollama, один из самых популярных инструментов для локального запуска LLM, сделала важный шаг в сторону мультимодальности. В утилите появилась экспериментальная поддержка генерации изображений, что фактически превращает Ollama из «запускалки чат-моделей» в полноценную локальную AI-платформу.
На старте доступны две модели. Z-Image Turbo на 6 млрд параметров ориентирована на более качественные и детализированные изображения. FLUX.2 Klein существует в версиях на 4 и 9 млрд параметров и делает ставку на скорость, позволяя получать результат почти мгновенно даже на потребительском железе.

Ключевая фишка релиза заключается в глубокой интеграции с терминалом. В Ghostty и iTerm2 изображения можно просматривать прямо в окне консоли без внешних вьюеров. Это выглядит как мелочь, но для разработчиков и power users такой UX сильно ускоряет работу и снижает трение при экспериментах.
Управление генерацией полностью завязано на CLI. Пользователь может задавать разрешение, количество шагов диффузии, негативные промпты и другие параметры одной командой. Такой подход хорошо ложится в пайплайны, скрипты и автоматизацию, где веб-интерфейсы обычно мешают.

Пока поддержка генерации изображений доступна только на macOS. Версии для Windows и Linux обещают позже, но точных сроков не называют. Даже в текущем виде апдейт показывает, что локальные AI-инструменты быстро догоняют облачные сервисы и начинают предлагать сопоставимый функционал без подписок и ограничений.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использова��ь российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
