Pull to refresh

Comments 78

Всех пользователей можно разделить на две группы: на тех, кто регулярно делает бэкапы и на тех, кто пока не начал их делать.

Есть еще третья группа — те, кто проверяет бекапы.
Вы имеете ввиду необходимость проверки возможности восстановления из сделанного бекапа?
Без этого можете считать что бэкапов у вас нет вообще, особенно если пользуетесь инкрементальными бэкапами, снэпшотами, дедубликацией данных и прочими инструментами, помогающими уменьшить объем бэкапа, но и для полных бэкпов систематическая проверка восстанавливаемости необходима.
А как проверять, кроме как раз в неделю делать полное восстановление на чистый комп?
На своем примере. Есть кластер виртуализации на нем куча виртуалок, которые бэкапятся целиком, есть отдельный сервер с гипервизором который из бэкапов периодически стаскивает бэкап каждой из виртуалок скриптом разворачивает у себя, входит внутрь и запускает определенные действия (ansible сценарий) при условии что сценарий выполнен успешно переходит к следующему образу, если сценарий крашится — пишет админу и отдает оповещение в мониторинг. Для БД сценарий похожий, разворачиваем бэкап на специальном тестовом серваке делаем пару контрольных запросов в базу, выполнились — ОК, не выполнились — алярм. Ситуация когда образ побился в процессе бэкапа или переноса не такая частая, но регулярная — пару битых образов в год имеем по разным причинам, без этой проверки можно неожиданно для себя обнаружить, что после факапа или совсем нечего восстанавливать или последний живой бэкап годовой давности.
Я не про энтерпрайз.
Как быть обычному домохозяину с условными ноутбуком, NAS-ом и Dropbox-ом?

Собственно, в статье я и ожидал увидеть ответ на этот вопрос, а там какие-то общие слова и реклама Акрониса.
Бекапить файлы, а не снимать образы.
1. Определиться с каталогами, которые имеет смысл бэкапить.

Бэкап домашней системы может не позволять вернуть «всё как было» одним нажатием кнопки — это обычно требует слишком много места и/или времени и/или денег — но он должен позволить восстановить все важные файлы и настройки ОС/приложений. Можно позволить себе потерять то, что без проблем можно заново выкачать с торрентов, но не результаты своей работы и не то, восстановление чего потребует слишком много личного времени.

Подбор каталогов для бэкапа потребует некоторого времени, возможно понадобится даже как-то реорганизовать что где лежит на винте. Но в результате можно получить достаточно скромный размер полного бэкапа системы — у меня это порядка 5-6GB (на 3TB винт). Ежедневные инкрементальные бэкапы занимают в 10-20 раз меньше места. Такой объём можно заливать в любое облако достаточно быстро, как и скачивать в случае необходимости.

2. Настроить любую утилиту, которая по расписанию будет раз в сутки делать полные и инкрементальные бэкапы этих каталогов. И крайне желательно — в любом стандартном формате, для распаковки которого не требуется использовать исключительно какую-то одну конкретную утилиту! Особенно платную и/или с закрытыми исходниками — добровольно делать вендор-лок своим бэкапам может только ССЗБ.

3. По тому же расписанию желательно эти бэкапы шифровать (аналогично, какой-нить стандартной и открытой утилитой) и заливать в облако.

4. После чего обязательно необходимо убедиться, что из облака бэкапы удаётся скачать, и у них совпадает контрольная сумма с залитыми файлами (я использую 4shared.com через DAV, так вот, вы удивитесь, как часто после скачивания обнаруживается проблема, и не думаю, что это уникальная «фишка» 4shared).
Для простых смертных, даже в том же Акронисе есть функция «проверить бэкап» которую так же можно запланировать. Она пытается восстановить резервную копию «вникуда» и сверяет контрольную сумму результата.
У Акрониса раньше (а возможно и сейчас) была распространена проблема, когда архив просто признавался битым спустя некоторое время. А так же, tib-файл сделанный в одной версии, запросто отказывался открываться в другой версии Акрониса. И в-третьих, используют закрытый формат файла, и в случае проблемы из первого пункта вы получаете просто напросто ненужный никому файл, из которого ничего не извлечь.
Собственно так и произошло с бэкапом на ленте… полетел винт на сервере, заменили. При восстановлении данных — облом… лента с последним бэкапом не читается. В итоге потеряли все изменения за последние 2 недели.
Интересно, за что мне минусов накидали :)
Я просто задал уточняющий вопрос, потому что из первого комментария не совсем ясно, что имел ввиду его автор. А так да, разумеется бекапы нужно периодически пытаться восстановить.
Есть ещё четвёртая категория — те, кто делает бэкапы бэкапов.
Кстати, я делаю. Но это уже относится не к категории, а просто к многоуровневому резервному копированию.
Мда… Если вы про персоналку, то сколько денег потребуется на исполнение всех ваших рекомендаций? Сравнимо с двухкратной ценой этой персоналки?
Тоже так подумал сначала, но оказалось, что ценник для Acronis True Image 2016 вполне адекватный. Вот только зачем если есть… :)
TCO какой с NAS, тарифом Cloud, запасными HDD, включая и ценник Акрониса?
Подождите, конкретно с каким пунктом вы не согласны? Конечно, необходимость бекапа не удешевляет стоимость владения, но мы сейчас говорим совсем про другие вещи. Почти всегда стоимость носителей на порядки ниже стоимости информации на них находящейся. Естественно, в случае с виндой, есть альтернатива, но это не отменяет того факта, что продукты Acronis очень качественные.
Да, дорого, но вы эту цену и так платите, и даже больше, просто «в кредит». Когда сломается — придётся этот кредит отдавать.
Любая авария с данными — это а) стоимость железа, б) нервы, в) стоимость человекочасов, потраченных на наработку утерянного — у меня у многих знакомых программистов есть десятки гигабайт наработок за десятилетия их работы, документация, куски кода, и на всё это потрачены годы работы, ошибок и опыта. Так вот, ни первое, ни второе не стоит и тысячной доли того, что стоит третий пункт.
Я уже не говорю про всякие исторические архивы…
А сколько стоят ваши данные?
Насколько дороги вам ваши данные?
Насколько дорога политика резервирования и, что важно, восстановления — на 10% от стоимости терабайта моих данных (рабочих и личных файлов), на 50% или на 150%? И сколько простоя создаст восстановление?

Конечно, если считать, что в комп и внешний HDD попадёт метеорит, то мне, сидящему рядом с этим же компом, вопрос дороговизны данных будет уже не важен.

В остальных случаях лаптоп с диском в охапку – и данные в шоколаде, причём с сохранением всего софта и всех настроек этого софта.

Когда я изучал для себя предлагаемые Акронисом политики, я не нашёл лёгкого восстановления состояния операционки со всем софтом и документами «на вчера». Всё там какое-то шаманство с offline загрузкой, с перетыканием дисков, нарезанием DVD (причём регулярным, как ни странно), с многочасовым ожиданием процесса…

Поэтому для себя выбрал политику «горячего» клонирования. Это не требует выключения винды. А для восстановления всё равно отвёртка нужна так или иначе. Но время восстановления — одна операция по замене диска на 5 минут, и — вуаля — я снова в бизнесе.

Это конечно, если не стирать сдуру важные файлы и бегать со всякими Undelete.

Преимущества клонирования:
1) полное восстановление занимает 5 минут и требует только отвёртки и диска той же модели.
2) полный клон умрёт при записи на битый резервный диск — это сигнал к подмене резерва.

Недостатки клонирования:
1) Где нужна версионка — её надо организовать своими руками. Это решаемо и не влияет на время и полноту восстановления.
2) При загрузке с клона слетает лицензия винды. Это не мешает мгновенному началу работы после сбоя. Хотя я не нашёл доказательства, что у Акрониса не слетает.
В остальных случаях лаптоп с диском в охапку – и данные в шоколаде, причём с сохранением всего софта и всех настроек этого софта.
Потоп, пожар, удар молнии, короткое замыкание, в случае с HDD — удар который может вывести диск из строя, кража, и т.д. — все эти варианты делают бесполезными бекап находящийся физически в одном компьютере. Бекап на NAS с развязкой через сетевой фильтр от части проблем спасает, от остальной части спасает бекап бекапа в облако.

PS. Инкрементные бекапы нужны для случаев «неделю назад удалил папку, а оказывается там была нужная фотка» — причем «удалил» — это может быть и сам и ребенок и что-то вредоносное и кто угодно, а может вообще ошибка в инсталляторе которая что-то трет. Одним «горячим» бекапом не обойтись.
Да, реальный кейс… Как-то в антивирусе нажал кнопку «почистить систему», ну она должна была поидее удалить временные файлы, историю браузера и т.д. по какой-то причине туда попали ссылки на системные папки. Угу… антивирусник, с системными правами потёр ВСЁ до чего дотянулся(и систему и даже программы!). Я еще подумал чего-то он долго и слишком интенсивно чистит… потом винда начала возмущаться что отсутствует нужный системный файл, ни одна программа не запускается по причине отсутствия файла…
И как на зло — последняя резервная копия сделана месяц назад(ага, хранилище резервных копий переполнено и уже месяц как некуда ложить свежие бэкапы). да, свежей версией акрониса, а загрузчик записанный на диске предыдущей версии и не может восстановить… Зато есть копия системы годичной давности. Вот так и пришлось восстановить хоть что-то в несколько этапов, на каждый из которых ушло примерно по 2 часа(пока проверится копия перед восстановлением, пока восстановится и сам загрузчик запускается минут 10).
Вот кстати камень в огород Акрониса — его загрузчик крайне костыльный и загружается очень долго, хотя казалось бы наоборот должен грузится секунды как это делает виндовс после выхода из спящего режима — какая проблема сделать слепок памяти запущенного загрузчика просто восстанавливая его?
Ну если сравнивать с нормальным самостоятельным решением, то сильно дешевле.
Правда, я не могу сказать про качество их решения, т.к. не пользовался.

Сам я себе организовал схему бэкапа следующим образом:
1.Важные данные, которые нужно бэкапить (рабочие проекты, фото/видео с отдыха и тому подобная фигная) влезает в 500Гб и всегда есть на ноутбуке. Правда, я уже очень близок к превышению этого порога. (в стоимость бэкапа не входит)
2. Домашний NAS, собранный своими руками (raid1 на 640Гб для системы и бэкапов) + по совместительству файлопомойка на отдельных дисках 3Тб (10000 рублей разовое вложение. собирал года 3 назад, поэтому сейчас цена будет существенно выше. стоимость интернетов считать сюда не будем). Сюда раз в сутки всё бэкапится с ноута, при условии, что он в домашней сети. Из поездок, к сожалению, всё это ест много трафика, который не всегда есть под рукой.
3. Сервер в ДЦ где так же есть около 500Гб под мои бэкапы + по совместительству рабочая площадка под пару своих (и товарищеских) проектов. Сюда раз в сутки бэкапится с домашнего nas'а всё. (40000р разовое вложение + 2500 ежемесячно).
Если всё сложить, получается 50к разово + 30к / год я плачу за возможность качественного бэкапа своими руками, где каждый важный элемент находится под моим личным контролем. По сравнению с этим 70 баксов в год, что просит акронис — копейки.

Раз уж мне всё равно нужен сервер под проекты, а бэкап особой нагрузки не даёт, то меня всё устраивает. И у меня нет ощущения, что я столько денег отдаю просто за возможность делать бэкапы так, как мне нравится (:
Но в целом, это крайне недешёвое удовольствие.

зы. Правда, я бэкаплю исключительно файлы. Бэкапить систему и настройки я смысла не вижу. Всё можно аписать тем же ansible и он прекрасно восстановит всю систему вместе с настройками без лишних заморочек.
Первая и единственная ошибка наших бэкапов — использование последних поделок Акрониса.
А что с ним? Я просто не в курсе.
Ну например Acronis True Image 2015-2016 мне тупо снёс virtual disk driver для доступа к >2tb hdd на материнках без UEFI, из-за чего этот раздел просто отвалился. Их поддержка ответила «да, фигня, но исправлять не будем».
Я ничего не имею против Acronis True Image 2016 и Acronis True Image Cloud. Однако, утверждение что они "… позволяют делать резервное копирование данных с учётом всех вышеперечисленных советов и рекомендаций", и идея, что встроенный в ОС TM это то, чему «не стоит полностью доверять» и всего лишь «вспомогательный бэкап-инструмент», а ваш продукт то, чему стоит — мне кажется маркетинговым… преувеличением. Я не знаю вашего продукта, и необходимости его знать у меня нет, однако, я сильно сомневаюсь в его идеальности. Не потому, что вы программы писать не умеете, а потому, что никто не умеет писать идеальные программы.

Совет «пользуйтесь только нашими продуктами» — это очень плохой совет. Привязать бэкапы к единому стороннему поставщику — это очень плохая идея.

Что касается практических рекомендаций от меня (для дома) — делать бэкап TM на два устройства (локальный диск и nas) и завести альтернативный бэкап в облако (я для этого пользую arq).
Мой опыт: чем проще — тем лучше. Поэтому могу посоветовать open-source программу для бекапов часто (и не очень) меняющихся данных — www.areca-backup.org, которая жмёт в zip-ы. А для снэпшотов системы отлично подходит бесплатный для личного пользования Paragon Backup & Recovery.
А почему именно указанные «куда», а не какие-нибудь облачные хранилища типа Amazon S3, Selectel или OVH?
Для регулярных длительных бэкапов по-моему идеально подходит glacier
Только для регулярного восстановления не подходит. :)
У амазона есть же за 60 баксов безлимит. Правда родной клиент там жуткий.
Ну я так понимаю, речь о катастрофоустойчивости за минимальные деньги, а не регулярном восстановлении. Для частого восстановления косяков прекрасно подходит использование теневых копий.
А там цены не такие уж и маленькие на больших объемах. К примеру, хранить терабайт в год будет стоить больше сотни баксов (130 примерно). А уж за сотню можно найти терабайт с халявным даунлоадом. Хоть дропбокс тот же.
Цены там не маленькие только на трафик. Хранение будет дешевле всех аналогов.
А по поводу халявного даунлоада, то все халявные имеют либо крайне паршивую скорость либо ограничивают объем бесплатного трафика.
Бэкапы надо обновлять — так что вы будете платить, в основном, за запросы на аплоад.
Как ниже сказали — ледник для архивов нужен. Засунули и не вспоминаете.
А зачем еще бэкап нужен? Копия документов, которые закинул и не обращаешься к ним пока не произойдет какая-то катастрофа. Стоимость аплоада, кстати не на столько дорого выходит. Там относительно дорого выходит их скачивание из старых копий.
Это не отменяет raid, заметим. И теневые копии для восстановления мелких косяков в течение работы.
Бэкап должен быть актуальным, поддерживать версионность и периодически проверяться на целостность.
А glacier — это просто архив. То есть закончили работу — все материалы сложили в архив. И больше не обновляете. То есть там хорошо держать то, что окончательно удалять жалко, но регулярного обновления не происходит. Ну или только добавление материалов, без изменения уже сохраненного.

А raid вообще к резервному копированию слабо относится.
Вы упорно игнорируете очень важную технологию, которая позволяет восстанавливать данные «на лету». А именно, теневые копии.
raid не относится к бэкапу, он относится к защите данных.
Для важных данных слои должны быть следующие, что касается только сохранности данных:
1 Защита от изменений, откат версий, защита от случайного повреждения
2 Защита от отказа или уничтожения носителя
3 Защита от отказа или уничтожения компьютера/сервера
4 Защита от уничтожения помещения вместе с данными

Каждый из слоев должен быть рассчитан в зависимости от того, какую часть работы допустимо потерять в случае катастрофы.
В моем понимании прекрасно справляются с этим следующие технологии, если речь идет о типичных средне-важных данных:
1. shadow
2. raid
3. Ежедневная копия на другой компьютер или хранилище рядом
4. Периодическая копия на компьютер в другом здании или в облаке. И вот тут я предлагаю Glacier. Не для сброса ежедневной работы, а для защиты от катастрофы. Не панацея, конечно, каждый использует то что ему удобно, но, мне кажется, это решение имеет место быть.
Почему игнорирую теневые копии? Активно пользуюсь, первая линия защиты.
Если по вашей шкале, то у меня так устроено (для себя, на работе другие реалии).

1. Теневые копии
2. Автоматическое дублирование важных папок на нескольких дисках (raid не хочу, не нравится, как он с местом обращается)
3. Копия важных данных на соседнем компьютере.
4. Копия в данных в обычном облаке. С версиями, доступом в любое время и т.п.

И пятая степень — архивы. Куда я раз в месяц сбрасываю полную копию. Вот тут как раз можно и ледник использовать, потому что это именно что на черный день делается.
Ну glacier всё же для архивирования больше подходит, а не для бэкапа. Т.е. когда к примеру нужно хранить документацию за много лет, и не нужно к ней быстрого доступа.
А так у того OVH есть Public Cloud Storage там €0.01 за гиг в месяц.
Цена не то чтобы очень уж низкая. Терабайт будет стоить как у дропбокса.
Хотя вот их облачная файлопомойка hubic предлагает 10 терабайт за 50 евро в год…
А шифровать резервные копии на удаленные хранилища (и не доверять проприетарному шифрованию) никто же не забывает?
Я бы добавил — не пользоваться стандартным встроенным облаком, т.к. программе бекапящая в «родное» облако будет знать пароль и потенциально это источник утечки.
Для домашних пользователей действительно нет хорошего решения. Облака не предлагать, так как заливка туда гигабайтов без гугль файбера в доме займёт ну очень долго.

Для себя развернул Бакулу (на Малинке с внешним HDD). Таким образом бэкапю локальный сервер (всегда вкл), сервер на vps (через firewall, итд), и домашние лаптопы (не всегда вкл). Операционки: Win, Linux.

Если бы делал заново, то попробовал бы Burp, но после долгой возни с Бакулой начинать всё заново не хочется.
заливка туда гигабайтов без гугль файбера в доме займёт ну очень долго.

Долго займет только первоначальная заливка. Терабайт вполне можно засунуть за неделю-другую (если у вас не крашплан, конечно :)). А потом только изменения заливать.
Ну и далеко не всем надо бэкапить терабайты.

PS. За burp спасибо, надо глянуть.
Неделю, хех, не, спасибо. Дело даже не в том сколько займёт, а сколько раз разорвётся. Иногда приходится заливать ~1-1.5 Гб в дропбох и это занимает часов таки 12-18, разлетевшиеся файлы приходится пере-посылать. То еще удовольствие. Интернет у меня сносный для down-link (2Мбпс), но очень херовый для up (не помню сколько). Но если у вас 1Мбпс ап или выше, может и можно онлайном пользоваться.
А в чем проблемы, куда вам торопиться-то? Да и докачку давно уже изобрели.
На счет же скоростей интернетов… Тут уже у кого что. Если уж совсем хреново, то можно сходить туда, где быстрый интернет для закачки начальных объемов.
Ну, не спорю — можно и на 56к пару гигабайт залить. Главное терпение :)
А куда торопиться? Онлайновые бэкапы, как правило, нужны, когда у вас сдохли все локальные варианты. Потому большие скорости им не слишком нужны. Так что, на мой взгляд, неделя-другая на первоначальную заливку — нормально.
Время — деньги (с) банк Империал
Если деньги, то надо просто сходить туда, где интернет быстрый и залить данные оттуда.
Хотя, конечно, если вы живёте в Норильске или Магадане, то это будет сложновато… Хотя Норильску, по слухам, через годик-другой будет праздник — таки дотащат туда оптику.
Приходит чувак в интернет кафе, за собой санки тащит. На санках стоит десктоп. Снимает шубу, и спрашивает у бармена: «Где тут у вас быстрый вай фай?» ;)
LAN-парти конца девяностых начала нулевых помните? Когда ноутбуки были дорогими и народ нередко на выходные у кого-нибудь собирался со своими системниками и мониторами… :)
Ну дак я не спроста — я самостоятельно через сибирскую метель на санках ХТшку+монитор завернутую в одеяла катал. Поближе к телефону, чтобы чёнить закачать.
На ХТшку? Суровые сибирские юзеры… :)
В наших краях модемы появились уже во времена 286… Не, ХТшки еще были в ходу, но с модемами их не знакомили, насколько помню.
эх, былые времена…
И потом выясняется что при заливке флипнулся один бит и вся резервная копия летит к чёрту(избыточность данных для восстановления? не, не слышали)
А вы что, пакуете все свои данные в один контейнер и не добавляете туда информацию для восстановления? Я пофайлово в облако пихаю. Правда большие объемы у меня не сильно приватные — там только фотки из отпуска, потому их не шифрую. А документы, которые считаю приватными, места занимают немного и их перекачать несложно, если контейнер побился.
Мне не по силам разработать свою систему архивирования данных, а большинство существующих такую функцию не предоставляют. В лучшем случае — проверка контрольной суммы перед восстановлением. А те которые предоставляют, о них я не знаю от слова совсем. Не любят пиариться, или попросту недоступны простым смертным или неудобны для применения в быту.
Зато версии файлов имеются. Испорчена последняя версия — откатитесь на предпоследнюю.
Не всегда это может быть приемлемым. За день в исходниках можно такого понапридумывать что потом в случае катастрофы за неделю не восстановишь.
А системы контроля версий для кого придуманы?
Только если внешняя, и работаешь с ней очень аккуратно. А если как раз из бэкапа требуется восстановить само состояние файлов СКВ?
Там много ньюансов…
Да и банально может быть неудобно ежеминутно делать коммит. А у нас еще и требование выставлено не коммитить нерабочие изменения т.к. ночью происходит сборка проекта и на утро все пользуются свежей версией. Т.е. коммит происходит только когда всё окончательно сделал и проверил.
И какой системой бэкапа вы тогда пользуетесь, чтобы не потерять всё, нажитое непосильным трудом за день? Если боитесь, что при перекачке повредится один бит, а cvs пользоваться не можете.
Дома с трудом пополам через нехочу трудится Акронис, а на работе… на ленточку всё сливается по ночам а база данных в непрерывном режиме. Собственно, большая часть рабочих изменений происходит в рамках базы данных.
Зря вы так.
Все сильно зависит от того, что бэкапим и с чем работаем.
Если монтируете видео — наверное и правда облака не вариант.
А если работа в основном с Ms Office то и проблем нет.
У меня все рабочие файлы — меньше 10 гб.
Все это автоматом льется в дропбокс, а дропбокс каждый день пакуется и заливается на рабочий NAS.
Дистрибутивы программ, фильмы и прочее — не бэкапятся — можно перекачать.
Вот с фото веселее — 300 гиг лежат на RAID 1 из серверных хардов + еще на одном харде плюс еще в облаке.
Те все важные файлы всегда лежат минимум в 3х местах.
Провернуть такую же штуку дома не сложно, но дороговато.
Впрочем, судя по статьям, NAS за 20-30к мало кого пугают, так что вообще не вижу проблем для обычного человека.
Все это автоматом льется в дропбокс, а дропбокс каждый день пакуется и заливается на рабочий NAS


А как из дропбокса в НАС? На НАСе тоже дропбох-клиент стоит?

Кстати, интересная идея. Я тоже о чём-то похожем думал. План был такой:

1. Поднимаем OwnCloud на малине
2. На всех хостах устанавливаем клиент, шарим нужные папки
3. По ночам, малина делает rsync OwnCloud-a в резерв.

Но в конце концов решил не городить велосипед, хотя может быть и стоило…
> План был такой

КМК, тут лучше подойдет syncthing.
На НАСе тоже дропбох-клиент стоит?

Зачем так сложно?
Дропбокс же просто папка на компе.
Exiland backup её пакует в 9 вечера в пароленный rar и кладет на куда скажут :)
Кто-нибудь пользовал ZPAQ?

А то я в свое время поискал-поискал, и, страшно сказать, написал собственную софтину, делающую инкрементальные бэкапы на внешний HDD в формате zip
Собственно причины, по которым я это сделал:
— не требует установки, вся конфигурация в одном месте (чтобы всё не перенастраивать при переустановке системы)
— поддержка инкрементальных бэкапов
— возможность исключать файлы и каталоги по маске (очень актуально при бэкапе своих исходников, чтобы артефакты сборки не захватывать)
Да. и даже написали средство создания резервных копий eterbackup, основанное на zpaq.
Посмотрел по-быстрому — описание выглядит очень вкусно. Обязательно поиграюсь. Спасибо за наводку :-)
UFO just landed and posted this here
Sign up to leave a comment.