Pull to refresh
12
0
Send message

нам необходима обработка следующих групповых политик:

1) распространение настроек прокси сервера
2) распространение файлов rdp или vnc на клиентские машины - скорее всего в remmina
3) маппинг сетевых дисков при входе пользователя
у вас эти вопросы проработаны? скиньте инструкции если есть?

ничего не делаем, переходим к следующему принтеру

Да, но если дело касается серверов, а не рабочих станций, то необходимо эникейщику дать механизм работы с принтерами на rds, чтобы он не сломал терминальный сервер и не парализовал работу пользователей. Это же касается и удаленной установки и на рабочие станции. В принципе, на это и нацеливался создавая скрипт. Нужно сделать именно дешево и именно сердито - все должно быть четко и понятно, тогда получится функция, бизнес-процесс, которую можно передать сотруднику, за которую он будет ответственен.

я думал про хранение в базе, но это наверное будет уже следующий этап. Кстати Вы очень правы - если инициатор rdsh, то экономится много времени так как установка идет одновременно на все серверы...

Здравствуйте, спасибо за статью. благодаря ей проработал многие моменты только уже на powershell. Вот моя статья - https://habr.com/ru/articles/761750/

подправил - скрипт сделает резевную копию ВМ в расшаренную папку, посчитает время создания бэкапа, посчитает размер бекапа и при отсутствии ошибок отправит письмо на почту

решили делать архив без сжатия - итого время выполнения 10 часов (1,4 ТБ), вполне приемлемый результат. Как итог получаем не только синхронизированную папку с помощью rsync, но и полный архив

Это разные pdf - пользователи через веб-приложение загружают свои работы - портфолио студента, как они создают pdf перед загрузкой только им известно)))

на хранилище бекапов сбекапил папку, которая есть результат работы rsync, c помощью 7zip с максимальным сжатием 9 - в результате 1,36 Тб pdf-файлов (206 000 файлов) сжалось в архив 1,22 Тб - ушло на это чуть меньше суток - часов 20... наверное быстрее способа и нет?

Proxmox довольно популярная штука, если анализировать вакансии на hh)). К сожалению в proxmox только в планах, но уже сервер под него выделил, так что обязательно исследуем.

  1. Нужно проверять наличие свободного места в хранилище - если честно, не могу понять как можно проверить свободное место в расшареной папке командой powersell.

  1. Нужно проверять, чем закончился бэкап, вести логи, по возможности отправлять их себе на почту или в телеграмм. - это верно, спасибо, будет время подправлю скрипт

  1. Про то что синхронизация != бэкап только ленивый не сказал. - Это верно, поэтому необходимо еще создавать фулл бекап другими средствами

  1. Полагаться на дату создания файла при его удалении опасно. Сбой синхронизации времени может привести к удалению того что не собирался удалять.

дату и время - действительно ошибки в настройки даты и времени могут создать большую путаницу и не только в бекапах, но и в логах, в данных... Но это важный фактор за которым нужно обязательно следить

так как имя файла бекапа БД в описанном скрипте создается с использованием даты то можно искать по имени... С датой могут быть проблемы - например, когда вы бекапы перенесли с одного хранилища на другое, файлы скопировались - дата изменения = дате копирования.

  1. Бэкапить файл сразу в сетевую шару медленно. И потенциально может завершиться неудачей при проблемах в сети. То же самое с монтированием, в момент бэкапа шара может оказаться размонтированной.

ну все зависит от скорости сети и от скорости записи.чтения хранилища, ну и мы же говорим об локальной сети - я думаю как минимум в сети хостов Hyper-V она должна быть стабильной - не беру сейчас в расчет падения сети из-за отказа оборудования. Да и в нынешнее время очень многое завязано на сеть.

С файловым бекапом все немного сложнее - действительно, если сеть неправильно настроена, или нет возможности в данный момент сделать все правильно и пользовательский сегмент сети периодически падает, например от принтера (например, при сетевой печати некоторые модели МФУ и принтеров киосера флудят так что сеть падает - спасает только переключения их на 100 Мбит\с), и хранилище и ряд серверов находится в пользовательской сети, ну как минимум этот не правильно. Сервера должны быть в изолированной сети, где нет бродкаста и всякого другого флуда от устройств пользователей - как говорится "разделяй и властвуй".

выделение средств на приобретение серверов, для хранение РК очень больной вопрос в бюджетных организаций, и рад за тех у кого это происходит легко, поэтому это тема как большой конструктор лего - правда пока его соберешь, все сервера уже старые))),

я имею ввиду методы реализации бесплатны - в том смысле, что не надо покупать ПО. а железо - конечно не бесплатно. Чуть позже дополню статьи про минусы описанного подхода, вижу не доработал риски. есть такая поговорка - "скупой платит дваджы" и ПО для РК очень хорошо вписывается в нее. Но выбор ПО для РК большой вопрос, соберу побольше информации и добавлю что применил. Что вы используете для резервного копирования?

порядка 80 ВМ, да шифровальщик это уязвимость, но сеть для хостов Hyper-V закрытая и на хранилище должен быть антивирус. А вот история с rsync конечно может закончиться печально. Скорее всего необходимо делать еще и full бекап файлов с помощью Windows Backup например, но есть папки, которые содержат больше 1 ТБ мелких файлов, бекап такой задачи занимает прям много времени. Какой подход к бекапам у Вас?

при потере данных лучше помогает коньяк... а валерьянка навряд ли способна что-то вылечить...

Может да, а может нет. Но жизнь похожа на испытание, и в результате все задают вопрос - зачем… и каждый находит свой ответ…

1

Information

Rating
Does not participate
Registered
Activity