Comments 24
Небольшая заметка для тех кто смог дочитать до конца:
Для чего предназначена валерьянка?
Препараты валерианы применяют в качестве успокаивающего средства при бессоннице, нервном возбуждении, неврозах сердечно-сосудистой системы, тахикардии, а также при эпилепсии, астме, мигрени, спазмах желудочно-кишечного тракта и в лечении нейродермитов.
при потере данных лучше помогает коньяк... а валерьянка навряд ли способна что-то вылечить...
Описанные методы бесплатны, не идеальны, но работают.
Как вы смогли получить бесплатное хранилище, чтобы помещать в него бекапы?
… бэкап файлов пользователей, здесь также включаю версионность на сервере где располагаются файлы...
Как вы смогли получить бесплатный сервер для файлов пользователей?
Спасибо.
я имею ввиду методы реализации бесплатны - в том смысле, что не надо покупать ПО. а железо - конечно не бесплатно. Чуть позже дополню статьи про минусы описанного подхода, вижу не доработал риски. есть такая поговорка - "скупой платит дваджы" и ПО для РК очень хорошо вписывается в нее. Но выбор ПО для РК большой вопрос, соберу побольше информации и добавлю что применил. Что вы используете для резервного копирования?
У нас денег нету, чтобы делать резервное копирование. Поэтому-то и мои вопросы.
Вы после того, как шифровальщик поймаете и рсинком это синхронизируете, что делать будете?
Количество виртуалок и их объем я так понимаю невелико.
порядка 80 ВМ, да шифровальщик это уязвимость, но сеть для хостов Hyper-V закрытая и на хранилище должен быть антивирус. А вот история с rsync конечно может закончиться печально. Скорее всего необходимо делать еще и full бекап файлов с помощью Windows Backup например, но есть папки, которые содержат больше 1 ТБ мелких файлов, бекап такой задачи занимает прям много времени. Какой подход к бекапам у Вас?
По множеству мелких файлов можно пройтись архиватором и упаковать. Скорее всего сожмутся до 10 % от терабайта, учитывая что многие файлы хорошо жмутся, и на диске файл занимает несколько больше своего размера из-за того что занимает целое число кластеров. Дампы SQL тоже жмутся неплохо архиваторами.
на хранилище бекапов сбекапил папку, которая есть результат работы rsync, c помощью 7zip с максимальным сжатием 9 - в результате 1,36 Тб pdf-файлов (206 000 файлов) сжалось в архив 1,22 Тб - ушло на это чуть меньше суток - часов 20... наверное быстрее способа и нет?
Эти pdf случайно не из-под сканера, где они являются просто контейнером для jpg?
решили делать архив без сжатия - итого время выполнения 10 часов (1,4 ТБ), вполне приемлемый результат. Как итог получаем не только синхронизированную папку с помощью rsync, но и полный архив
IMHO:
- Бэкапить файл сразу в сетевую шару медленно. И потенциально может завершиться неудачей при проблемах в сети. То же самое с монтированием, в момент бэкапа шара может оказаться размонтированной.
- Полагаться на дату создания файла при его удалении опасно. Сбой синхронизации времени может привести к удалению того что не собирался удалять.
- Про то что синхронизация != бэкап только ленивый не сказал.
- Нужно проверять, чем закончился бэкап, вести логи, по возможности отправлять их себе на почту или в телеграмм.
- Нужно проверять наличие свободного места в хранилище.
- Посчитать хэш перед отправкой файла в хранилище, а потом сравнить тоже не помешает.
Бэкапить файл сразу в сетевую шару медленно. И потенциально может завершиться неудачей при проблемах в сети. То же самое с монтированием, в момент бэкапа шара может оказаться размонтированной.
ну все зависит от скорости сети и от скорости записи.чтения хранилища, ну и мы же говорим об локальной сети - я думаю как минимум в сети хостов Hyper-V она должна быть стабильной - не беру сейчас в расчет падения сети из-за отказа оборудования. Да и в нынешнее время очень многое завязано на сеть.
С файловым бекапом все немного сложнее - действительно, если сеть неправильно настроена, или нет возможности в данный момент сделать все правильно и пользовательский сегмент сети периодически падает, например от принтера (например, при сетевой печати некоторые модели МФУ и принтеров киосера флудят так что сеть падает - спасает только переключения их на 100 Мбит\с), и хранилище и ряд серверов находится в пользовательской сети, ну как минимум этот не правильно. Сервера должны быть в изолированной сети, где нет бродкаста и всякого другого флуда от устройств пользователей - как говорится "разделяй и властвуй".
Полагаться на дату создания файла при его удалении опасно. Сбой синхронизации времени может привести к удалению того что не собирался удалять.
дату и время - действительно ошибки в настройки даты и времени могут создать большую путаницу и не только в бекапах, но и в логах, в данных... Но это важный фактор за которым нужно обязательно следить
так как имя файла бекапа БД в описанном скрипте создается с использованием даты то можно искать по имени... С датой могут быть проблемы - например, когда вы бекапы перенесли с одного хранилища на другое, файлы скопировались - дата изменения = дате копирования.
Про то что синхронизация != бэкап только ленивый не сказал. - Это верно, поэтому необходимо еще создавать фулл бекап другими средствами
Нужно проверять, чем закончился бэкап, вести логи, по возможности отправлять их себе на почту или в телеграмм. - это верно, спасибо, будет время подправлю скрипт
Нужно проверять наличие свободного места в хранилище - если честно, не могу понять как можно проверить свободное место в расшареной папке командой powersell.
Спасибо, но.
Hyper-v и костыли (
Proxmox ve + proxmox backup server - удобно, быстро, инкрементно, шлет отчеты по почте из коробки.
P.s. Цикл заметок по proxmox ve и не только forum.netgate.com/topic/163435/proxmox-ceph-zfs-pfsense-и-все-все-все-часть-2/
Proxmox довольно популярная штука, если анализировать вакансии на hh)). К сожалению в proxmox только в планах, но уже сервер под него выделил, так что обязательно исследуем.
Информатизация вуза. Бэкапы виртуальных машин, баз данных, файлов