Comments 4
Спасибо за тесты, сами хотели такое делать, теперь всё равно сделаем, но будем знать куда смотреть :)
Еще в копилку интересных вопросов: у SeaweedFS функция self-healing заявлена, как опция платной Enterprise версии. При этом некоторые механизмы ее вроде как в open source версии есть. Не очень понятен смысл репликации X2, если при этом нет self-healing и его нужно делать в ручном режиме. Ну то есть закачали файл, он скопировался в два места, а дальше? Допустим диск медленно "умирает" и у одного файла (из тысячи) перестала сходится CRC, как копия переедет на другой диск ("живой")?
Главной проблемой с seaweedfs стало неумение работать с dns-style бакетами, которые приходится костылить сверху на nginx редиректами. Но за счёт этого не работают v4 сигнатуры и приходится откатываться на v2
Нет Lifecycle policy. В целом, есть ручная команда, а также можно настроить TTL отдельных путей на уровне Filer через shell-команды. Но почему нет нативного параметра для S3 для меня остаётся загадкой.
Не очень понимаю почему в обзорных статьях на водоросли все пишут что нет поддержки Lifecycle policy.
S3 API метод PutBucketLifecycleConfiguration работает и в отличии от TTL на уровне Filer'а - время жизни меняется также у всех существующих файлов в бакете. Об этом и в документации написано. Правда поддерживается только "Days" параметр. Версия 4.17.
Или вы что-то другое имеете в виду?
Хаос в объектах: испытания Garage и SeaweedFS