Pull to refresh

Comments 11

один из удобных вариантов это через CLI отправлять данные в S3 хранилище одной командой которую можно повесить на cron, т.е для bitrix взять и отправлять в S3 папку backup а сам бэкап делать без папки upload а папку upload изредка как есть отправлять с большим кол-вом файлов в S3, из плюсов upload легко с локальной версией сайта синхронизировать а backup без upload весит мало, для БД и cron отдельный скрипт сохранения в каталог и синхронизация так же в S3

  1. По ошибке или хацкеры удалили upload, частично или полностью.

  2. Произошла синхронизация по cron.

  3. Ааааа...паника-паника...Где же взять данные? :-)

в случаях когда это не единственная копия а одна из то все будет хорошо

Когда вы это заметите уже и остальные будут синхронизированы с поредевшим upload ом.

С бэкапами важно не увлекаться. Сервер в первую очередь должен заниматься сайтом (или что там), а не насиловать диск с процессором, пакуя архивы.

Я к примеру использую 7zip с ключами -mmt1 и -mx1 (но зависит конечно от того что именно архивируется). Чтобы занимать только 1 ядро и не гнаться за каждым лишним байтом ценою сильно большей нагрузки на cpu.

Плюс при пересылке curl'ом использую ключ --limit-rate чтобы и интернет канал не забивать целиком одной лишь этой задачей.

Также бывает что есть смысл часто архивировать базу и какие-то основные файлы, а тонны фото/видео вовсе ни к чему так часто (и тяжело) бэкапить. Можно используя symlink'и делать разделение, хранить например папку с фотками уровнем выше от сайта. Плюс в случае когда нужно развернуть бэкап, бывает также полезно быстро развернуть файлы/базу, а не ждать пока вместе с ними докачаются еще и горы второстепенных фото.

Практически все что угодно можно самостоятельно делать на любом shared хостинге, не обязательно даже иметь ssh или особые фичи панели управления.

Ну а в случае ограниченного бюджета можно рассмотреть вместо всяких платных хранилищ собственный роутер домашний. Почти к любому можно подкинуть usb жесткий диск, докупить у провайдера выделенный ip (или даже без этого обойтись) и держать все бэкапы у себя под боком, а не опять таки зависеть от кого-то.

Спасибо за уточнения по нагрузке.

Ну а в случае ограниченного бюджета можно рассмотреть вместо всяких платных хранилищ собственный роутер домашний.

Кстати да, про роутер с USB диском забыл. Я раньше так делал, пока в облака не переехали. Только без статик айпи. Просто поставил на роутер rsync (для вдс) и lftp (для просто хостеров) и по расписанию выкачивал. Соединение с сервером инициировал роутер и сам скачивал что нужно. А база создавалась по крону и клалась в определенную папку на сервере о которой роутер так же знал. В целом работало стабильно и шустро. Канал только нужно потолще.

Как-то пробовал timeshift для linux, последняя Убунту. Очень удобно, но местами как-то не понятно. Устанавливал скрипты и в процессе делал снимки системы. Потом откатился на самое первое состояние и на сервере остались какие-то части этих скриптов... Оно так и работает?

UFO landed and left these words here
UFO landed and left these words here
UFO landed and left these words here
Sign up to leave a comment.

Articles