Comments 26
Вы бы лучше упомянули, как заливать на удаленный ftp ~20Gb бэкап варьируя скорость аплоада в зависимости от нагрузки сети.
mysqldump на сколько-нибудь большой да еще и живой базе обрадует вас очень долгим бэкапом и прочими прелестями.
Для MyISAM лучше использовать mysqlhotcopy, для InnoDB Percona XtraBackup (он и MyISAM может, но если надо только MyISAM то mysqlhotcopy гораздо проще).
Для MyISAM лучше использовать mysqlhotcopy, для InnoDB Percona XtraBackup (он и MyISAM может, но если надо только MyISAM то mysqlhotcopy гораздо проще).
Спасибо за комментарий. Конечно, в каждом конкретном случае к вопросу надо подходить исходя из актуальной ситуации на сервере.
Данная статья — это в первую очередь призыв новичкам организовать процесс резервного копирования.
Данная статья — это в первую очередь призыв новичкам организовать процесс резервного копирования.
Пойду перепишу свои костыли для этой задачи. Автор, спасибо за статью! =)
Чего только люди не сделают, чтобы bacula не настраивать (:
Было бы очень интересно почитать о способах организации инкрементальных бекапов. Так как часто тратить по 20Гб и более в день трафика на бекапы не всегда возможно.
а чего там сложного? можно тем же таром:
tar czvf /root/VPSbackups/VPSbackup.tar.gz -N"$LAST" --exclude-from=/VPSbackups/tar.excludelist.txt /etc/ /root/exportdb/ /home/username/ > /root/VPSbackups/backup.log 2>&1
##где tar.excludelist.txt - список исключений;
##а LAST - файл с датой в формате date +'%F %R:%S'
LAST=`cat /root/VPSbackups/lasttimebackup.log`
Хм, действительно, что-то я об этом не подумал. То, что надо. А то у меня всё была идея делать какие-то бинарные дифы и прочее… а всё оказывается гораздо проще. Спасибо!
что-то мне подсказывает, что
по дефолту работать не будет.
при mput спрашивается подтверждение на имя файла.
правильнее
put $DUMPFILE
mput $DUMPFILE
по дефолту работать не будет.
при mput спрашивается подтверждение на имя файла.
правильнее
put $DUMPFILE
А я для пересылки бекапов использую scp с аутентификацией по ключу. Как по мне, это удобнее и безопаснее.
Скорость канала, кстати, можно отрегулировать при помощи CBQ или аналогичных.
Скорость канала, кстати, можно отрегулировать при помощи CBQ или аналогичных.
В Debian есть утилита backup-manager, умеет инкрементальные бекапы, отправку на удаленный FTP, SSH, RSYNC, Amazon S3. Написана на Perl. www.backup-manager.org/about/
А я делаю так:
А с директорией /home/Backup можно делать что угодно, например с Dropbox ее синхронизировать. У меня сервер не большой, суточный бэкап ~300Мб, а за месяц около 10гигов.
Запуск по крону каждую ночь, понятно.
#!/bin/bash
cd /home/Backup
# Бэкап всего что нужно
tar -cvvzf /home/Backup/back-`date '+%m_%d_%Y'`.tar.bz2 \
/var/www/ \
/var/lib/mysql/ \
/etc/ \
/var/log/ \
/root/ \
--exclude=/home/Backup > ./last.log
# Стираем файлы бэкапа старше 30 дней
find . -mtime +30 -exec rm '{}' \;
# Стираем старые логи
find /var/log/ -type f -name *\.gz -exec rm '{}' \;
А с директорией /home/Backup можно делать что угодно, например с Dropbox ее синхронизировать. У меня сервер не большой, суточный бэкап ~300Мб, а за месяц около 10гигов.
Запуск по крону каждую ночь, понятно.
Dropbox на сервере или на десктопе?
Заголовок не соответствует статье — бэкап всея сервера подразумевал, подразумевает и подразумевать будет сохранение / со всеми симлинками-датами-специальными файлами-специальными атрибутами.
Бэкап данных + конфигов + пользователей + системы == бекап сервера.
Бэкап данных + конфигов + пользователей + системы == бекап сервера.
Раз все так элементарно, то почему вы не внедрили ранее backup в своих услугах и как минимум полгода кормили обещаниями мол очень скоро? ) (что собственно и стало причиной отказа от услуг)
При коннекте к FTP нужно переходить в режим binary, иначе базы при передаче будут биться.
Sign up to leave a comment.
Простой способ резервного копирования Linux-сервера с выгрузкой файлов по FTP