Комментарии 17
Круто. Вот только Elasticsearch 1.0 научился делать snapshot и восстанавливать его практически одним вызовом
www.elasticsearch.org/guide/en/elasticsearch/reference/master/modules-snapshots.html
Вероятно, Graylog скоро обновится.
www.elasticsearch.org/guide/en/elasticsearch/reference/master/modules-snapshots.html
Вероятно, Graylog скоро обновится.
12G индекс, а база? И сколько времени занимает полное переиндексирование, если не хранить индекс эластика?
База порядка 3 гб, если я не ошибаюсь. Времени — я не дождался, ибо производилось это все на AWS инстансе, не самом шустром. Сомневаюсь, что быстрее, чем упаковка (порядка 30 мин.)
Пишут, что graylog хранит сами логи в elasticsearch'е, что объясняет такое необычное соотношение размера индекса и размера базы.
Интересно, почему они не взяли lucene/solr.
Интересно, почему они не взяли lucene/solr.
На самом деле, если иметь 3 ноды, 1 реплику и больше 2 шардов на индекс в elasticsearch (это дефолтные настройки как минимум), то бекап из статьи будет неполным.
НЛО прилетело и опубликовало эту надпись здесь
Место == деньги. Снапшот был моей изначальной идеей.
НЛО прилетело и опубликовало эту надпись здесь
О простоте решения никто не говорит, снапшот — проще всего. Может у вас не проблема, но отдать 18-20 гб. под хранение бэкапов не самое разумное решение. 2 гб. — уже другой разговор.
а каков размер дампа mongodb?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Резервное копирование и восстановление Graylog-сервера