Pull to refresh
26
0.1
Кунцевич Андрей@titulusdesiderio

JS-dev | IT-specialist

Send message

Только предварительно загуглить актуальную информацию, какие карты РБ сейчас привязываются к PayPal

Никакие? Хотя погулять конечно не плохо

У вас новости просроченные. Зачем Выпускать новостную статью о позапрошлой версии?

Спасибо! Крутой инструмент. Только не обязательно его устанавливать. Можно просто:

npx llm-checker hw-detect

Хабр, работай давай. Код не отображался, пока я эту фразу после него не вставил

Проходная завода - максимально стандартная и не сложная. Как по мне, ничем не отличается от работы любого студента

Справится ли оно с билингвальным текстом?

"Залей этот commit в ветку."

Не понятно чем оно лучше spec-kit. Одна строчка в таблице совершенно голословна и кажется даже не притянута за уши, а вовсе выдумана

А я в то время искал русскоязычные источники с актуальной интересной информацией про нейросети для разработчиков. А то всё на английском да на английском

А тут вы со своим списком на 10 крутые каналов! Как тогда подписался, до сих пор читаю и участвую в дискуссиях. Спасибо за подгон 👍

Спасибо за статью.

Помимо бд есть ещё вариант хранения JSON файла в S3. Его и обновлять проще и кеширование там из коробки.

Вы правы. Я так понял из статьи, но видимо ошибся.

шаблоны CI/CD, в том числе и интеграционный, мы распространяли свободно для всех

Получается автор соврал в тексте статьи

"Хорошие художники копируют, великие — воруют"

Ваш код распространялся по свободной лицензии. Opensource для того и существует, чтобы другие могли взять код, переделать его и создать на базе этого свой проект.

Я сам тысячи раз воровал код из гитхаб и sof. Все мои коллеги, кто старше интерна - так же. Так работает наша индустрия. За счёт этого мы так быстро движемся вперёд

Практически все.. Некоторые ещё студенты

Не способность закончить проект "универ" - ред флаг для работы.

У меня сервер на linux и я устанавливал llama.cpp через brew - это неправильный способ? о_О

Покопался в логах. Действительно дело в GPU. Буду копать в эту сторону. Спасибо!

~$ llama-server -hf lmstudio-community/gpt-oss-120b-GGUF --host 0.0.0.0 --port 8080 -c 32000 -ngl 99 -ub 4092 -b 4092 -ncmoe 25
warning: no usable GPU found, --gpu-layers option will be ignored
warning: one possible reason is that llama.cpp was compiled without GPU support
warning: consult docs/
build.md for compilation instructions

чуда не произошло ):

3.6 t/s при любых раскладах

GPU 1x RTX 3060

CPU 26 Cores

Memory 51.2 GB

запуск без флагов
запуск без флагов
-с 32000
-с 32000
-с 32000 -ngl 99 -cmoe
-с 32000 -ngl 99 -cmoe
-c 32000 -ngl -ncmoe 25
-c 32000 -ngl -ncmoe 25

Можете дать ссылку на cuda версию? не понимаю как отличить её от cpu на huggingface

Запускал как рекомендует сам huggingface

🤦 сорян, не ту модель скопировал в сообщение. Вот:
unsloth/gpt-oss-120b-GGUF - её использовал. Gemma 3 12b показывает гораздо выше t/s на такой карте.

Сейчас проверяю ту же OSS-120B на 3060. Надеюсь будет заметна разница в скорости. через полчаса-час скину результаты

Попробовал unsloth/gemma-3-12b-it-GGUF на:
GPU: 1x RTX 5090
CPU: 48 Cores
Memory: 128 GB
Disk: 200 GB

Что без флагов 11t/s что с -c 32000 -ngl 99 -ub 4092 -b 4092 -ncmoe 25 11t/s, что с -c 32000 -ngl 99 -ub 4092 -b 4092 -cmoe 11t/s. вообще никакого влияния на производительность 🤷

Думаю стоит сразу два домена регистрировать - с обычной у и нескладовай

Недавно проскакивала статья, в которой как раз освещался успешный пример механизма снабжения органоидов питательными веществами. Вместо кровеносных сосудов использовалась матрица желобков на поверхности, на которой выращен органоид. Благодаря этому их получалось в большие (относительно) горизонтальные кластеры выращивать.

1
23 ...

Information

Rating
3,844-th
Registered
Activity