Разработчики Ollama выпустили обновление инструмента для локального запуска нейросетей. В нём появилась поддержка мультимодальности, возможность загружать файлы и другие функции. Обновление доступно для всех платформ, а для Windows и macOS выпустили обновлённый клиент.

Что нового в Ollama:
В интерфейсе чата появился переключатель для быстрой смены и загрузки моделей.

В чат теперь можно загружать документы для анализа. Для загрузки достаточно перетащить файл в окно Ollama. После этого можно задавать вопросы по документу. Важно помнить, что для работы с большими файлами в настройках надо увеличить длину контекста, что может сказаться на потреблении памяти.

Помимо документов в чат для анализа можно загружать изображения. Эта функция работает на базе мультимодального движка Ollama и только с мультимодальными моделями, например Gemma 3 от Google.

В чат можно загружать файлы кода. Например, можно загрузить файл проекта на Python и попросить модель сгенерировать документацию в Markdown.
