Я как-то пробовал на навигаторе с WinCE запускать игры от WM2003-WM6, но то ли лыжи не ехали, то ли ещё что - 80% из того что встало либо совсем не заработало, либо жутко глючило. Как контрольное устройство использовал Qtek S110 - убедиться, что это действительно навигатор шалит, а не какой-нибудь битый .cab.
Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.
Только в Ollama нет (и не будет, такими темпами) мультимодальности. Надо или грузить через llamacpp\KoboldCPP с соответствующим mmproj (должен подойти от Gemma 3), либо использовать vLLM\Aphrodite или EXL2\3.
По-идее, Ollama\LM Studio в режиме OpenAI API как раз имитируют ChatCompletion, поэтому должно работать. Важно, чтобы модель была натренирована на использовании инструментов. На HuggingFace такие модели, как правило, содержат "tool" в названии.
Я всё не пойму, это какой-то тест SberGPT в массовом масштабе? Последние две недели как на подбор - пользователи с датой регистрации "сегодня", пишут вроде как отдалённо в тему, но потоком сознания и без знаков препинания вообще.
Моя претензия была больше к тому, что LCPP поставили на второстепенное место, хотя на самом деле Ollama-то ничего толком не делает, кроме как llama-server запускает с параметрами.
Работа с инструментами - это вопрос из области обучения моделей. Доучили модель работать с шаблоном инструментов - будет работать. Проблема в том, что для работы с tool calling почти все интерфейсы полагаются на режим Chat Completion (чат отформатирован в стиле вопрос-ответ), в то время как локальные движки работают в режиме Text Completion ("логическое" автодополнение текста в запросе). В TC парсить вызов инструмента крайне сложно, а локально запускать СС - геморройно.
Короче, локально вызов инструментов можно сделать, но нужно много настраивать руками.
Не "ещё", LCPP - это "бэкенд" поверх которого работает Ollama. Сама Ollama - это репозиторий сконвертированных моделей и конфигов к ним, чтоб голову не надо было включать.
Gemma 3 27B. И в отличие от GPT-OSS, который сами OAI выложили только в FP4, с Gemma можно поторговаться относительно качества-размера.
Просто чтоб понимать степень песца:
Тук-тук
Опять генерал шутки шутит.
Я как-то пробовал на навигаторе с WinCE запускать игры от WM2003-WM6, но то ли лыжи не ехали, то ли ещё что - 80% из того что встало либо совсем не заработало, либо жутко глючило. Как контрольное устройство использовал Qtek S110 - убедиться, что это действительно навигатор шалит, а не какой-нибудь битый .cab.
WireGuard + мусорные данные для пряток от DPI.
Внешние. /s
Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.
А через 27 лет id сделал шутку не шуткой.
Ща, где-то у меня были мемы на эту тему...
У 3n в input указан только текст (пока?)
Мелко мыслите.
Особо отличившихся можно будет отправлять на сезонное тапанье хомяков, с целью пополнения бюджета страны и на благо Родины!
Только в Ollama нет
(и не будет, такими темпами)мультимодальности. Надо или грузить через llamacpp\KoboldCPP с соответствующим mmproj (должен подойти от Gemma 3), либо использовать vLLM\Aphrodite или EXL2\3.По-идее, Ollama\LM Studio в режиме OpenAI API как раз имитируют ChatCompletion, поэтому должно работать. Важно, чтобы модель была натренирована на использовании инструментов. На HuggingFace такие модели, как правило, содержат "tool" в названии.
Я всё не пойму, это какой-то тест SberGPT в массовом масштабе? Последние две недели как на подбор - пользователи с датой регистрации "сегодня", пишут вроде как отдалённо в тему, но потоком сознания и без знаков препинания вообще.
Моя претензия была больше к тому, что LCPP поставили на второстепенное место, хотя на самом деле Ollama-то ничего толком не делает, кроме как llama-server запускает с параметрами.
Работа с инструментами - это вопрос из области обучения моделей. Доучили модель работать с шаблоном инструментов - будет работать. Проблема в том, что для работы с tool calling почти все интерфейсы полагаются на режим Chat Completion (чат отформатирован в стиле вопрос-ответ), в то время как локальные движки работают в режиме Text Completion ("логическое" автодополнение текста в запросе). В TC парсить вызов инструмента крайне сложно, а локально запускать СС - геморройно.
Короче, локально вызов инструментов можно сделать, но нужно много настраивать руками.
Не "ещё", LCPP - это "бэкенд" поверх которого работает Ollama. Сама Ollama - это репозиторий сконвертированных моделей и конфигов к ним, чтоб голову не надо было включать.
Для "печальных владельцев AMD" есть https://github.com/YellowRoseCx/koboldcpp-rocm, либо поддержка Vulkan Compute.