Search
Write a publication
Pull to refresh
3
0.1

Пользователь

Send message

Gemma 3 27B. И в отличие от GPT-OSS, который сами OAI выложили только в FP4, с Gemma можно поторговаться относительно качества-размера.

параноидальная цензура

Просто чтоб понимать степень песца:

кпк для игр для винды

Я как-то пробовал на навигаторе с WinCE запускать игры от WM2003-WM6, но то ли лыжи не ехали, то ли ещё что - 80% из того что встало либо совсем не заработало, либо жутко глючило. Как контрольное устройство использовал Qtek S110 - убедиться, что это действительно навигатор шалит, а не какой-нибудь битый .cab.

Интересно, а AmneziaWG на каком ядре работает?

WireGuard + мусорные данные для пряток от DPI.

Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.

При должном количестве устройств покрытие сети ничем не ограничено.

Ща, где-то у меня были мемы на эту тему...

Мелко мыслите.

Особо отличившихся можно будет отправлять на сезонное тапанье хомяков, с целью пополнения бюджета страны и на благо Родины!

Только в Ollama нет (и не будет, такими темпами) мультимодальности. Надо или грузить через llamacpp\KoboldCPP с соответствующим mmproj (должен подойти от Gemma 3), либо использовать vLLM\Aphrodite или EXL2\3.

По-идее, Ollama\LM Studio в режиме OpenAI API как раз имитируют ChatCompletion, поэтому должно работать. Важно, чтобы модель была натренирована на использовании инструментов. На HuggingFace такие модели, как правило, содержат "tool" в названии.

Я всё не пойму, это какой-то тест SberGPT в массовом масштабе? Последние две недели как на подбор - пользователи с датой регистрации "сегодня", пишут вроде как отдалённо в тему, но потоком сознания и без знаков препинания вообще.

Так что именно "ещё"

Моя претензия была больше к тому, что LCPP поставили на второстепенное место, хотя на самом деле Ollama-то ничего толком не делает, кроме как llama-server запускает с параметрами.

Работа с инструментами - это вопрос из области обучения моделей. Доучили модель работать с шаблоном инструментов - будет работать. Проблема в том, что для работы с tool calling почти все интерфейсы полагаются на режим Chat Completion (чат отформатирован в стиле вопрос-ответ), в то время как локальные движки работают в режиме Text Completion ("логическое" автодополнение текста в запросе). В TC парсить вызов инструмента крайне сложно, а локально запускать СС - геморройно.

Короче, локально вызов инструментов можно сделать, но нужно много настраивать руками.

Не "ещё", LCPP - это "бэкенд" поверх которого работает Ollama. Сама Ollama - это репозиторий сконвертированных моделей и конфигов к ним, чтоб голову не надо было включать.

Для "печальных владельцев AMD" есть https://github.com/YellowRoseCx/koboldcpp-rocm, либо поддержка Vulkan Compute.

1
23 ...

Information

Rating
3,799-th
Registered
Activity

Specialization

Backend Developer
Java
English
SQL
Java Spring Framework
REST
Linux
Docker
Database
Software development
OOP