Обновить
57
0x62.a.sh@0x62ash

Пользователь

15
Подписчики
Отправить сообщение

Я в докере держу и только недавно стал нормальное встроенный cron сервис работать

В Максе боты пока только для юрлиц

Qwen3 TSS не пробовали? Есть прокси поверх что бы стриминг был. Я сам все хочу попробовать, но руки не доходят

Как я понял этот акт относится к уже изъятым через ордер вещам, а не к досмотру на границе

llama-bench -m /data/llama-2-7b.Q4_0.gguf -ngl 99 -fa 0,1 

| model                          |       size |     params | backend    | ngl | fa |            test |                  t/s |
| ------------------------------ | ---------: | ---------: | ---------- | --: | -: | --------------: | -------------------: |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  0 |           pp512 |        345.43 ± 2.78 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  0 |           tg128 |         49.79 ± 0.01 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  1 |           pp512 |        354.94 ± 5.57 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  1 |           tg128 |         49.52 ± 0.01 |



| model                          |       size |     params | backend    | ngl | fa | mmap |            test |                  t/s |
| ------------------------------ | ---------: | ---------: | ---------- | --: | -: | ---: | --------------: | -------------------: |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  0 |    0 |           pp512 |       1343.96 ± 8.71 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  0 |    0 |           tg128 |         46.91 ± 0.03 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  1 |    0 |           pp512 |       1528.16 ± 0.95 |
| llama 7B Q4_0                  |   3.56 GiB |     6.74 B | ROCm       |  99 |  1 |    0 |           tg128 |         50.90 ± 0.01 |

pp прям разительно прокачали

Я гонял Strix Halo и у меня rocm/llama.cpp:llama.cpp-b6652.amd0_rocm7.0.0_ubuntu24.04_server показал намного хуже результат чем master llama.cpp

Я тут свой недавно достал с полки (валялся без дела с 22 года). И вот что у меня

  9 Power_On_Hours          0x0032   001   001   000    Old_age   Always       -       75094

75k часов, т.е. 8 лет налета ) Сижу думаю какую вторую жизнь можно подарить девайсу

Я так понял данные на HDD будут же?
Тогда надо бы еще и disk_optimization_strategy подкрутить + возможно read ahead поправить

Вообще, numToken все же лучше бы оставили дефолт. Все нормально кассандра распределит на 4-5 нод. Зато не будет потом проблем при скейлинге.

А когда появится возможность слушать прямо с чесов (wifi/сохраненные треки)??

А все же сравнение не помешало бы )

> Мы высадили два RS на одну ноду

А, вижу тоже замучилась тред-пулы подкручивать что бы выжать максимум с железа и всё равно этого не хватает и проще поднять еще RS на сервере 8)
А мы поступили проще — на некоторые таблицы вообще отключили BlockCache )

Кстати, а какие цифры на вашем профиле данных вы получили бы если бы включили SNAPPY/LZO/ZSTD и хранение в кеше сжатых данных hbase.block.data.cachecompressed issues.apache.org/jira/browse/HBASE-11331?

Не пробовали Кеш на SSD?

У HBase небольшой кеш, а вот в кеш файловой системы вполне могло все попасть (у вас там вроде по 700GB памяти).

Зачем major делать до заливки?

Скиньте исходники для HBase. Прогоню на своем нагрузочном кластере. Интересно что у меня получится.
В get полного экземпляра у вас будут и «новые» данные из MemStore и «старые» из HFile, так что диски будут задействованы. Причем чтение из MemStore + HDFS возможно будет даже медленее чем если бы вы сразу из HDFS считали объект целиком.
> ZooKeeper session timeout + split time + assignment/replay time

Split time тут лишнее.

Вы сильно раздули MemStore потому у вас при падение RS нужно много данных вычитывать из WAL. У нас после падение RS рекавери за 1-2 минуты проходит.

> На версии 2.1.0 наблюдали как RS упал, а переезд не начался
Как по мне так намного чаще регионы зависают в transition по разным причинам и их приходится в ручном режиме пропихивать.
В реальной жизни чтение обычно сильно позже идет после записи, а значит MemStore будет сброшен на диск до чтения. Потому я склоняюсь что тест на чтение должен работать с файлов после принудительного FLUSH что бы зафиксировать скорость чтение в типовом сценарии потребления.
В тесте для HBase добавьте FLUSH на таблицы в конце записи, что бы чтение было не из MemStore, а с диска. Иначе БД в разных условиях сравниваются на чтение.
Сдается мне что произошла путаница между Wide Column и Column Oriented.
Топик стартер кажется имел ввиду второе
Упс… не туда, сорри
Понял, спасибо
1
23 ...

Информация

В рейтинге
5 155-й
Зарегистрирован
Активность