Комментарии 7
Отличная статья. Автору за респект.
Спасибо за материал!
Но если вдруг нужно данных сильно больше и персистентно - приглашаю к нам в KVRocks (https://github.com/apache/incubator-kvrocks), где развиваем совместимую по командам базу с хранилищем в RocksDB.
Спасибо за статью. Не имеете ли что-то сказать за TiKV, Tidis?
статья подустарела, в redis появилась многопототочность, по крайней мере для io. И Redis все, есть KeyDB.
Провел бенчмарки, результат меня удивил, на последних версиях redis/keydb redis оказывался быстрей
используем keydb как для кеша, так и хранения горячих данных
в кеше одно ядро, в среднем, обрабатывает 2,5 млн комманд в минуту, в среднем, количество обрабатываемых команд колеблется от 2 до 10 млн хз, как redis с таким наплывом справится.
Сколько читаю подобные статьи, никто не пишит то, что висит в воздухе:
если используется хранение данных, то, при перезагрузке редиса/кейдб, ему надо время, чтобы загрузить данные в память и чем больше данных, тем дольше редис отбрасывает коннекты к базе, например, rdb-файл размером 30Гб, будет грузится около 15 минут и все это время редис работать НЕ БУДЕТ, имейте это ввиду, чтобы потом не оказалось, что у вас сайт на 15 минут упал, потому, что кто-то решил редис дернуть.
касаемо aof помните, это файл ЖУРНАЛА, т.е. туда пишется КАЖДАЯ комманда и если вы не включили перезапись файла, то будьте готовы к тому, что у вас закончится место на диске спустя очень короткое время, если будет большая активность.
если используете хранение данных, следите за местом. вам надо иметь запас минимум x2 от текущего размера данных в памяти иначе, в момент форка (неважно rdb или aof) у вас закончится место на диске, потому как в этот момент создается temp файл, куда скидываются данные и только после этого удаляется старый файл.
Здравствуйте. А при AOF файл не будет постоянно расти в режиме дозаписи пополняясь по-сути данными о чем-то с незначительными имениями?
есть: хххх - записали
небольшое изменение: хххy - снова записали
Т.е. если дозаписывать обновленные данные об X, то надо предыдущие данные об Х удалить да?
Разбираемся с Redis