Comments 6
100 Гб это примерно 12ГБ в секунду, или 720 в минуту, то есть 11 минут сеть была заполнена на половину :)
Как человек, поставивший на ночь неспешно копироваться 15 терабайт (ограничение из-за пропускной способности FC большую роль играли, чем скорость дисковых операций) рад за то, что есть запас, но 6 минут были бы вау-вау.
Но обычно очень большие объемы данных есть у больших баз, с их полными и инкрементальными бэкапами.
Будет продолжение цикла статей про дружбу с разными СУБД и обработку типовых СУБД задач?
Как ваше решение дружит с бэкапами и как быстро создаст пару снапшотов на пару сотен терабайт (для бизнес-копий)?
Действительно, некоторое время сеть не была использована на 100%. Это связано с разными факторами:
нужно время для действий на подготовительных и завершающих этапах каждого из множества процессов,
использования других вычислительных ресурсов в разные моменты времени (CPU/MEM),
неравномерность данных, как следствие, разные эффекты от работы алгоритмов дедупликации и компрессии.
У нас есть планы повышения производительности по многим направлениям. По СУБД — в первую очередь работаем над скоростью резервного копирования БД PostgreSQL. При этом развитие идет по разным направлениям, включая и ванильные версии и Postgres Pro.
Выше ^^^ отвечают наши коллеги из Киберпротекта.
За 11 минут proxmox backup server забекапит терабайт 20...
А почему для теста не использовали хосты с zVirt?
Более 4 000 ГБ за 11 минут: тестируем три сценария резервного копирования с Кибер Бэкап и TATLIN.BACKUP