Pull to refresh

Comments 24

Небольшая заметка для тех кто смог дочитать до конца:

Для чего предназначена валерьянка?

Препараты валерианы применяют в качестве успокаивающего средства при бессоннице, нервном возбуждении, неврозах сердечно-сосудистой системы, тахикардии, а также при эпилепсии, астме, мигрени, спазмах желудочно-кишечного тракта и в лечении нейродермитов.

при потере данных лучше помогает коньяк... а валерьянка навряд ли способна что-то вылечить...

Описанные методы бесплатны, не идеальны, но работают.

Как вы смогли получить бесплатное хранилище, чтобы помещать в него бекапы?

… бэкап файлов пользователей, здесь также включаю версионность на сервере где располагаются файлы...

Как вы смогли получить бесплатный сервер для файлов пользователей?

Спасибо.

я имею ввиду методы реализации бесплатны - в том смысле, что не надо покупать ПО. а железо - конечно не бесплатно. Чуть позже дополню статьи про минусы описанного подхода, вижу не доработал риски. есть такая поговорка - "скупой платит дваджы" и ПО для РК очень хорошо вписывается в нее. Но выбор ПО для РК большой вопрос, соберу побольше информации и добавлю что применил. Что вы используете для резервного копирования?

У нас денег нету, чтобы делать резервное копирование. Поэтому-то и мои вопросы.

выделение средств на приобретение серверов, для хранение РК очень больной вопрос в бюджетных организаций, и рад за тех у кого это происходит легко, поэтому это тема как большой конструктор лего - правда пока его соберешь, все сервера уже старые))),

Вы после того, как шифровальщик поймаете и рсинком это синхронизируете, что делать будете?

Количество виртуалок и их объем я так понимаю невелико.

порядка 80 ВМ, да шифровальщик это уязвимость, но сеть для хостов Hyper-V закрытая и на хранилище должен быть антивирус. А вот история с rsync конечно может закончиться печально. Скорее всего необходимо делать еще и full бекап файлов с помощью Windows Backup например, но есть папки, которые содержат больше 1 ТБ мелких файлов, бекап такой задачи занимает прям много времени. Какой подход к бекапам у Вас?

По множеству мелких файлов можно пройтись архиватором и упаковать. Скорее всего сожмутся до 10 % от терабайта, учитывая что многие файлы хорошо жмутся, и на диске файл занимает несколько больше своего размера из-за того что занимает целое число кластеров. Дампы SQL тоже жмутся неплохо архиваторами.

на хранилище бекапов сбекапил папку, которая есть результат работы rsync, c помощью 7zip с максимальным сжатием 9 - в результате 1,36 Тб pdf-файлов (206 000 файлов) сжалось в архив 1,22 Тб - ушло на это чуть меньше суток - часов 20... наверное быстрее способа и нет?

Эти pdf случайно не из-под сканера, где они являются просто контейнером для jpg?

Это разные pdf - пользователи через веб-приложение загружают свои работы - портфолио студента, как они создают pdf перед загрузкой только им известно)))

решили делать архив без сжатия - итого время выполнения 10 часов (1,4 ТБ), вполне приемлемый результат. Как итог получаем не только синхронизированную папку с помощью rsync, но и полный архив

IMHO:


  1. Бэкапить файл сразу в сетевую шару медленно. И потенциально может завершиться неудачей при проблемах в сети. То же самое с монтированием, в момент бэкапа шара может оказаться размонтированной.
  2. Полагаться на дату создания файла при его удалении опасно. Сбой синхронизации времени может привести к удалению того что не собирался удалять.
  3. Про то что синхронизация != бэкап только ленивый не сказал.
  4. Нужно проверять, чем закончился бэкап, вести логи, по возможности отправлять их себе на почту или в телеграмм.
  5. Нужно проверять наличие свободного места в хранилище.
  6. Посчитать хэш перед отправкой файла в хранилище, а потом сравнить тоже не помешает.
  1. Бэкапить файл сразу в сетевую шару медленно. И потенциально может завершиться неудачей при проблемах в сети. То же самое с монтированием, в момент бэкапа шара может оказаться размонтированной.

ну все зависит от скорости сети и от скорости записи.чтения хранилища, ну и мы же говорим об локальной сети - я думаю как минимум в сети хостов Hyper-V она должна быть стабильной - не беру сейчас в расчет падения сети из-за отказа оборудования. Да и в нынешнее время очень многое завязано на сеть.

С файловым бекапом все немного сложнее - действительно, если сеть неправильно настроена, или нет возможности в данный момент сделать все правильно и пользовательский сегмент сети периодически падает, например от принтера (например, при сетевой печати некоторые модели МФУ и принтеров киосера флудят так что сеть падает - спасает только переключения их на 100 Мбит\с), и хранилище и ряд серверов находится в пользовательской сети, ну как минимум этот не правильно. Сервера должны быть в изолированной сети, где нет бродкаста и всякого другого флуда от устройств пользователей - как говорится "разделяй и властвуй".

  1. Полагаться на дату создания файла при его удалении опасно. Сбой синхронизации времени может привести к удалению того что не собирался удалять.

дату и время - действительно ошибки в настройки даты и времени могут создать большую путаницу и не только в бекапах, но и в логах, в данных... Но это важный фактор за которым нужно обязательно следить

так как имя файла бекапа БД в описанном скрипте создается с использованием даты то можно искать по имени... С датой могут быть проблемы - например, когда вы бекапы перенесли с одного хранилища на другое, файлы скопировались - дата изменения = дате копирования.

  1. Про то что синхронизация != бэкап только ленивый не сказал. - Это верно, поэтому необходимо еще создавать фулл бекап другими средствами

  1. Нужно проверять, чем закончился бэкап, вести логи, по возможности отправлять их себе на почту или в телеграмм. - это верно, спасибо, будет время подправлю скрипт

подправил - скрипт сделает резевную копию ВМ в расшаренную папку, посчитает время создания бэкапа, посчитает размер бекапа и при отсутствии ошибок отправит письмо на почту

  1. Нужно проверять наличие свободного места в хранилище - если честно, не могу понять как можно проверить свободное место в расшареной папке командой powersell.

Здесь предлагают сперва при помощи net use присвоить шаре букву диска, проверить свободное место, а потом отмонтировать. Хотя при таком раскладе можно сразу и залить бэкапы по этому пути.

Proxmox довольно популярная штука, если анализировать вакансии на hh)). К сожалению в proxmox только в планах, но уже сервер под него выделил, так что обязательно исследуем.

Если будете sata-диски выбирать (hdd, механика), то берите только CMR - не SMR. Это важно.

Популярен из-за открытости, удобства эксплуатации, надежности и всеядности в плане "железа".

Sign up to leave a comment.

Articles