Как стать автором
Поиск
Написать публикацию
Обновить
3
0.1

Пользователь

Отправить сообщение

The T2V-1.3B model requires only 8.19 GB VRAM, making it compatible with almost all consumer-grade GPUs. It can generate a 5-second 480P video on an RTX 4090 in about 4 minutes (without optimization techniques like quantization).

14B-480p весит 65 гигабайт (без учёта CLIP и Т5, они в сумме ещё 16 гигов требуют). Если тянуть до 720 или выше, то требования становятся совсем улётными.

Gemma 3 27B. И в отличие от GPT-OSS, который сами OAI выложили только в FP4, с Gemma можно поторговаться относительно качества-размера.

параноидальная цензура

Просто чтоб понимать степень песца:

Опять генерал шутки шутит.

кпк для игр для винды

Я как-то пробовал на навигаторе с WinCE запускать игры от WM2003-WM6, но то ли лыжи не ехали, то ли ещё что - 80% из того что встало либо совсем не заработало, либо жутко глючило. Как контрольное устройство использовал Qtek S110 - убедиться, что это действительно навигатор шалит, а не какой-нибудь битый .cab.

Интересно, а AmneziaWG на каком ядре работает?

WireGuard + мусорные данные для пряток от DPI.

Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.

При должном количестве устройств покрытие сети ничем не ограничено.

А через 27 лет id сделал шутку не шуткой.
Ща, где-то у меня были мемы на эту тему...

У 3n в input указан только текст (пока?)

Мелко мыслите.

Особо отличившихся можно будет отправлять на сезонное тапанье хомяков, с целью пополнения бюджета страны и на благо Родины!

Только в Ollama нет (и не будет, такими темпами) мультимодальности. Надо или грузить через llamacpp\KoboldCPP с соответствующим mmproj (должен подойти от Gemma 3), либо использовать vLLM\Aphrodite или EXL2\3.

По-идее, Ollama\LM Studio в режиме OpenAI API как раз имитируют ChatCompletion, поэтому должно работать. Важно, чтобы модель была натренирована на использовании инструментов. На HuggingFace такие модели, как правило, содержат "tool" в названии.

Я всё не пойму, это какой-то тест SberGPT в массовом масштабе? Последние две недели как на подбор - пользователи с датой регистрации "сегодня", пишут вроде как отдалённо в тему, но потоком сознания и без знаков препинания вообще.

Так что именно "ещё"

Моя претензия была больше к тому, что LCPP поставили на второстепенное место, хотя на самом деле Ollama-то ничего толком не делает, кроме как llama-server запускает с параметрами.

Работа с инструментами - это вопрос из области обучения моделей. Доучили модель работать с шаблоном инструментов - будет работать. Проблема в том, что для работы с tool calling почти все интерфейсы полагаются на режим Chat Completion (чат отформатирован в стиле вопрос-ответ), в то время как локальные движки работают в режиме Text Completion ("логическое" автодополнение текста в запросе). В TC парсить вызов инструмента крайне сложно, а локально запускать СС - геморройно.

Короче, локально вызов инструментов можно сделать, но нужно много настраивать руками.

Не "ещё", LCPP - это "бэкенд" поверх которого работает Ollama. Сама Ollama - это репозиторий сконвертированных моделей и конфигов к ним, чтоб голову не надо было включать.

Для "печальных владельцев AMD" есть https://github.com/YellowRoseCx/koboldcpp-rocm, либо поддержка Vulkan Compute.

1
23 ...

Информация

В рейтинге
3 798-й
Зарегистрирован
Активность

Специализация

Backend Developer
Java
English
SQL
Java Spring Framework
REST
Linux
Docker
Database
Software development
OOP