Pull to refresh
4

Пользователь

0,3
Rating
3
Subscribers
Send message

нахрен вообще это нужно?

"Нас демократический\коммунистический ответ их недемократическому\некоммунистическому Flipper!"

Ещё можно esp32-doom запускать.

Жаль на мобильной версии аналога Ctrl-Enter нет, пришлось в комментарии писать :)

ESP32-S3-WROOM-1-N16R8 с 16 МБ флеш-памяти, 8 ГБ PSRAM

Редактор опять писал, не приходя в сознание?

Ещё раз, люди 20-30 лет назад работали и не скулили

The T2V-1.3B model requires only 8.19 GB VRAM, making it compatible with almost all consumer-grade GPUs. It can generate a 5-second 480P video on an RTX 4090 in about 4 minutes (without optimization techniques like quantization).

14B-480p весит 65 гигабайт (без учёта CLIP и Т5, они в сумме ещё 16 гигов требуют). Если тянуть до 720 или выше, то требования становятся совсем улётными.

Gemma 3 27B. И в отличие от GPT-OSS, который сами OAI выложили только в FP4, с Gemma можно поторговаться относительно качества-размера.

параноидальная цензура

Просто чтоб понимать степень песца:

Опять генерал шутки шутит.

кпк для игр для винды

Я как-то пробовал на навигаторе с WinCE запускать игры от WM2003-WM6, но то ли лыжи не ехали, то ли ещё что - 80% из того что встало либо совсем не заработало, либо жутко глючило. Как контрольное устройство использовал Qtek S110 - убедиться, что это действительно навигатор шалит, а не какой-нибудь битый .cab.

Интересно, а AmneziaWG на каком ядре работает?

WireGuard + мусорные данные для пряток от DPI.

Так это просто Vsync получается - он, когда система до целевого значения монитора не может дотянуть, "роняет" максимальный FPS до ближайшего делителя и повторно отдаёт готовые кадры. То есть на мониторе 60 Гц FPS падает до 30, как раз из-за того, что ГПУ отдаёт тот же кадр дважды.

При должном количестве устройств покрытие сети ничем не ограничено.

А через 27 лет id сделал шутку не шуткой.
Ща, где-то у меня были мемы на эту тему...

Мелко мыслите.

Особо отличившихся можно будет отправлять на сезонное тапанье хомяков, с целью пополнения бюджета страны и на благо Родины!

Только в Ollama нет (и не будет, такими темпами) мультимодальности. Надо или грузить через llamacpp\KoboldCPP с соответствующим mmproj (должен подойти от Gemma 3), либо использовать vLLM\Aphrodite или EXL2\3.

По-идее, Ollama\LM Studio в режиме OpenAI API как раз имитируют ChatCompletion, поэтому должно работать. Важно, чтобы модель была натренирована на использовании инструментов. На HuggingFace такие модели, как правило, содержат "tool" в названии.

Information

Rating
3,138-th
Registered
Activity

Specialization

Бэкенд разработчик
Java
Английский язык
SQL
Java Spring Framework
REST
Linux
Docker
Базы данных
Разработка программного обеспечения
ООП