Как стать автором
Обновить

Комментарии 9

Мы делаем бэкапы через duplicity на Amazon S3 + RackSpace.Cloud File.
C какой скоростью потом можно получить бэкап?
731 MB база данных восстанавливается около 5 минут.
Duplicity создает полные снапшоты каждые несколько дней. Нету необходимости применять патчи с самого первого снапшота.
По поводу того чтобы скопировать на удаленный сервер — использую точно такую же схему только во время бекапа сохраняю файлы на удаленный сервер.
Использую похожую схему, но есть несколько отличий:
Написал 3 bat-файла
1 файл. Создает ежедневный бэкап базы и сжимает ее с помощью 7zip (с паролем) и складывает в папку Dropbox
2 файл. Создает еженедельный бэкап базы со сжатием в 7zip (с паролем) и закачивает ее на Amazon Glacier
3 файл. Создает еженедельный архив папки с изображениями (с паролем) и закачивает их на Amazon Glacier

Все bat-ники запускаются с помощью Task Sheduler.
это же база данных, какой смысл от бекапов? Разве потеря информации в промежутках между бекапами не является катастрофической?
Все-таки лучше чем ничего.
7z
Не позволяет включать в архивы информацию для восстановления и не поддерживает возможность восстановления данных из поврежденных архивов.(c wiki)
Поломался один байт по дороге и пропал целый архив. Может посмотреть на FreeArc или другие, со встроенной функцией добавления информации для восстановления.
Может для Вашего бизнеса это не критично, но для всех остальных, кто захочет делать как тут:
Бекапы лога каждые 10 минут в 2 разных точки, желательно в разные географические точки!!!
Тогда можно надеятся на 100% сохранность любых данных.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий