Pull to refresh

Comments 29

Не резервного копирования, а именно клонирования?
Тогда нужна ФС с поддержкой снэпшотов, а последние хоть dd.
Нужно более подробное ТЗ, а то вообще непонятно, что требуется и какие есть ограничения.
как выше написали — всё зависит от того, что крутится на серваке и что вы используете на этом серваке (zfs? lvm? ничего такого?).
сервисы какие крутите на этом серваке?
PHP, MySQL, Syncthing, Yggdrasil, transmission, postfix+dovecot+rspamd…
UFO just landed and posted this here
Хм, многообещающая система, спасибо!
UFO just landed and posted this here
Для винды есть disk2vhd — на лету может копировать сервак в VHD. Для линукса есть похожие инструменты?
UFO just landed and posted this here
dd(1), консистентность данных никто не гарантирует.
звучит ненамного лучше, чем "/dev/rand — никто ничего не гарантирует", но как штука… тоже не смешно
tar, если у вас правильно настроен сервер:
1. Система на отдельном разделе (бекап только после обновления)
2. Всякие /var/log* и прочее — на отдельном томе и не бекапим
3. Базы данных — своими средствами
И потом из tar'а нормально развернётся обратно на голый винт?
Нет, при восстановлении на новый диск придётся вручную отредактировать настройки (uuid нового диска ) в GRUB и /etc/fstab
А особые флаги ФС на файлы и каталоги?
Атрибуты доступа для точек монтирования «внутри» и «снаружи»?
Ничего не написано про Amazon Glacier.
Хотя в данный момент именно этот сервис наиболее логично использовать для хранения вторых-третьих бэкапов в облаке.
На самом деле он не дешевый для ежедневных бекапов. Потому что в нем минимальный срок хранения артефактов 90 дней. Раз в месяц или раз в квартал будет норм.
UFO just landed and posted this here
Много букв, но ни одного слова про скорость заливки/скачивания, а ведь это главный минус, который не дает пользоваться облачными бэкапами, и стоимость терабайтов гораздо ниже стоимости гигабитного канала и сетевого оборудования для его организации. Единственный выход, размещать свои сервера в датацентре, рядом ставить полки для бэкапов + fiber channel switch и да, тогда за ночь можно успеть сделать инкрементный архив средней организации, а за выходные полный. И как вишенка на торте такой кейс — сотрудник подхватил шифровальщика, касперский его благополучно пропустил, через 30 минут пользователи стали жаловаться на странные файлы на файловом сервере, еще через 20-30 минут админ прибил шифровальщик, но тот успел зашифровать 100гб документов, это мелкие файлы и их много, сколько времени займет восстановиться из облака yandex через канал 100мб/сек? Я думаю как раз часов 6-10.
UFO just landed and posted this here
Могу еще привести пример из личного, так называемого consumer сегмента: было у меня два диска по 1.5Тб. с фильмами, музыкой, фото, играми, образами, книгами и т.п. в совокупности что то 2.3-2.5 Тб, и вот однажды СМАРТ показал сообщение — пора менять диски, денег на немедленную замену не было, но зато Amazon как раз проводил акцию, облако неограниченного объема, но на 6 месяцев, потом плати, решил пока залить все на Amazon, а потом докупить диск и слить всё на него. В общем, в итоге, все получилось, заливал на Amazon примерно неделю, а забирал с амазона две недели.
Использую Allway Sync. Гоняю бєкапы через VPN, между физическими серверами, расположенными в разных местах. Есть возможность синхронизироваться с Гугл диском, ftp, ssh серверами и еще с десятком облачных сервисов. Настраивается на зеркалирование папки-источника или только на прием, что не даст шифровальщику затереть копию. Бесплатной версии вполне хватает.
Ух, как вспоминаю универские годы, когда сохранял диплом на комп, с помощью автосохранения каждый 15 минут, но не дублировал ни на какие физические носители… Комп, в итоге, конечно полетел
Sign up to leave a comment.