А мы поступили проще — на некоторые таблицы вообще отключили BlockCache )
Кстати, а какие цифры на вашем профиле данных вы получили бы если бы включили SNAPPY/LZO/ZSTD и хранение в кеше сжатых данных hbase.block.data.cachecompressed issues.apache.org/jira/browse/HBASE-11331?
В get полного экземпляра у вас будут и «новые» данные из MemStore и «старые» из HFile, так что диски будут задействованы. Причем чтение из MemStore + HDFS возможно будет даже медленее чем если бы вы сразу из HDFS считали объект целиком.
> ZooKeeper session timeout + split time + assignment/replay time
Split time тут лишнее.
Вы сильно раздули MemStore потому у вас при падение RS нужно много данных вычитывать из WAL. У нас после падение RS рекавери за 1-2 минуты проходит.
> На версии 2.1.0 наблюдали как RS упал, а переезд не начался
Как по мне так намного чаще регионы зависают в transition по разным причинам и их приходится в ручном режиме пропихивать.
В реальной жизни чтение обычно сильно позже идет после записи, а значит MemStore будет сброшен на диск до чтения. Потому я склоняюсь что тест на чтение должен работать с файлов после принудительного FLUSH что бы зафиксировать скорость чтение в типовом сценарии потребления.
В тесте для HBase добавьте FLUSH на таблицы в конце записи, что бы чтение было не из MemStore, а с диска. Иначе БД в разных условиях сравниваются на чтение.
Я в докере держу и только недавно стал нормальное встроенный cron сервис работать
В Максе боты пока только для юрлиц
Qwen3 TSS не пробовали? Есть прокси поверх что бы стриминг был. Я сам все хочу попробовать, но руки не доходят
Как я понял этот акт относится к уже изъятым через ордер вещам, а не к досмотру на границе
pp прям разительно прокачали
Я гонял Strix Halo и у меня
rocm/llama.cpp:llama.cpp-b6652.amd0_rocm7.0.0_ubuntu24.04_serverпоказал намного хуже результат чем masterllama.cppЯ тут свой недавно достал с полки (валялся без дела с 22 года). И вот что у меня
75k часов, т.е. 8 лет налета ) Сижу думаю какую вторую жизнь можно подарить девайсу
Я так понял данные на HDD будут же?
Тогда надо бы еще и disk_optimization_strategy подкрутить + возможно read ahead поправить
Вообще, numToken все же лучше бы оставили дефолт. Все нормально кассандра распределит на 4-5 нод. Зато не будет потом проблем при скейлинге.
А когда появится возможность слушать прямо с чесов (wifi/сохраненные треки)??
А все же сравнение не помешало бы )
А, вижу тоже замучилась тред-пулы подкручивать что бы выжать максимум с железа и всё равно этого не хватает и проще поднять еще RS на сервере 8)
Кстати, а какие цифры на вашем профиле данных вы получили бы если бы включили SNAPPY/LZO/ZSTD и хранение в кеше сжатых данных hbase.block.data.cachecompressed issues.apache.org/jira/browse/HBASE-11331?
Не пробовали Кеш на SSD?
Зачем major делать до заливки?
Скиньте исходники для HBase. Прогоню на своем нагрузочном кластере. Интересно что у меня получится.
Split time тут лишнее.
Вы сильно раздули MemStore потому у вас при падение RS нужно много данных вычитывать из WAL. У нас после падение RS рекавери за 1-2 минуты проходит.
> На версии 2.1.0 наблюдали как RS упал, а переезд не начался
Как по мне так намного чаще регионы зависают в transition по разным причинам и их приходится в ручном режиме пропихивать.
Топик стартер кажется имел ввиду второе