Pull to refresh

Comments 6

100 Гб это примерно 12ГБ в секунду, или 720 в минуту, то есть 11 минут сеть была заполнена на половину :)

Как человек, поставивший на ночь неспешно копироваться 15 терабайт (ограничение из-за пропускной способности FC большую роль играли, чем скорость дисковых операций) рад за то, что есть запас, но 6 минут были бы вау-вау.

Но обычно очень большие объемы данных есть у больших баз, с их полными и инкрементальными бэкапами.

Будет продолжение цикла статей про дружбу с разными СУБД и обработку типовых СУБД задач?

Как ваше решение дружит с бэкапами и как быстро создаст пару снапшотов на пару сотен терабайт (для бизнес-копий)?

Действительно, некоторое время сеть не была использована на 100%. Это связано с разными факторами:

  • нужно время для действий на подготовительных и завершающих этапах каждого из множества процессов,

  • использования других вычислительных ресурсов в разные моменты времени (CPU/MEM),

  • неравномерность данных, как следствие, разные эффекты от работы алгоритмов дедупликации и компрессии.

У нас есть планы повышения производительности по многим направлениям. По СУБД — в первую очередь работаем над скоростью резервного копирования БД PostgreSQL. При этом развитие идет по разным направлениям, включая и ванильные версии и Postgres Pro.

За 11 минут proxmox backup server забекапит терабайт 20...

На какой дедуплицирующий сторадж?

А почему для теста не использовали хосты с zVirt?

Sign up to leave a comment.