Как стать автором
Обновить

Комментарии 33

Мнение со стороны системного администратора, видевшего аналогичное решение:
Нет, не надо так делать. Даже если всем вашим десяти пользователям нужен одинаковый софт — не надо так делать. Браузер с кучей анимированных картинок может запросто подвесить всю сессию, если используется, например, Thinstation в качестве бесплатного тонкого клиента.
«Локальные машины могут быть любого типа и дешевыми» означает, что будет использоваться старый хлам. Он будет гореть, умирать, но заменяться на такой же хлам.
Лицензий на windows на машинах при этом явно нет.
Десяток человек, одновременно активно работающих с дисками — и винчестерам уже печально.
Никакой надежности запрет на выход в интернет с данного сервера вам не даст, если пользователи могут перемещать документы с локальных машин на сервер и обратно.
Насмерть зависший процесс у одного из пользователей запросто приведёт к тому, что перезапускать необходимо будет весь сервер.

Как вам, вероятно, стоило сделать:
Нормальные компьютеры.
Сетевая версия 1С.
Регулярное резервное копирование компьютеров целиком. Сейчас это можно сделать через Veeam Endpoint Backup, например.
Виртуализация сервера, либо кластеризация сервисов.

Что это даст:
Если у вас умер компьютер — вы просто покупаете аналогичный или меняете умершую часть, после чего прекрасно восстанавливается бэкап.
Если у вас умер сервер — вы не потеряли возможность работать. Софт прекрасно работает на компьютерах, а в силу того, что это не простейшие дешевые калькуляторы — пользователи не ругаются на тормоза и невозможность открыть пару документов.
И всем этим хозяйством можно будет нормально раздельно управлять. Необходимость обновить банк-клиент для бухгалтера не приводит к необходимости перезапуска сервера. Обновление очередного ПО для очередных закупок не приводит к необходимости перезапуска сервера.
Более того, у вас исчезает единая точка отказа.
Если вы купите второй физический сервер — вы сможете настроить их работу либо так, чтобы пользователи даже не заметили, что что-то случилось (при использовании кластера 1С), либо с коротким перерывом на подъем реплики на резервном сервере(при использовании виртуализации).
Вы пишете правильные вещи. Но. На основании своих знаний и того, что один раз видели подобную систему.
Я же во-первых не теоретизирую, а всего лишь описываю реальный опыт реальной компании. И полученный опыт — за мое решение. Оно уже 5 лет без сбоев работает.

Во вторых, Вы почти не уделили внимания главному требованию — обеспечить при минимальных затратах самую большую как только можно надежность хранения данных.

В Вашем варианте такой же надежности можно достичь только поставив RAID массивы на каждое рабочее место (что дорого) или же путем скрупулезного выполнения обслуживающим персоналом (своим айтишником или сторонней компанией — без разницы) всех алгоритмов бэкапирования. Теоретически в этом ничего сложного нет. Практически вмешивается человеческий фактор и от надежности создания резервных копий (если вся надежность только на них) остаются только воспоминания.

Ну и безусловно такое решение, как я описал, подойдет не для всех. И об этом я прямо написал: предполагается одинаковый софт у всех сотрудников и минимум работы через web интерфейсы. Но всем у кого подобные же условия и требуется высокая надежность хранения данных — категорически рекомендую сделать что то подобное.
Да, эту систему легко отдать на централизованное обслуживание в компанию где работают грамотные специалисты. Возьмут (хотя сейчас и будут навязывать облачные решения). А куча «продвинутых» локальных рабочих станций — для централизованного обслуживания гораздо менее пригодна.

И частные замечания: в отношении хлама, который может использоваться на рабочих местах. Да может. И это для меня как директора большой плюс. 5 лет назад сервер со всеми хранилищами и даже с лицензией обошелся мне менее чем в 200 тысяч рублей. Рабочие места «из хлама» я получил даром. А сколько будет стоить (точнее стоила бы 5 лет назад) Ваша структура? Да насчет «гореть». Проблемы которые реально были — это перестал работать СД привод, стал чрезмерно сильно шуметь вентилятор. Думаю это не те проблемы, о которых вообще стоит говорить.

В отношении зависших процессов. Практически не было. Но «последователям» я бы рекомендовал ставить виртуализацию на сервер. Тогда никакие зависания процессов в принципе не страшны.

Ну а поскольку, повторюсь, я описываю реальный опыт, хотелось бы обратиться ко всем, желающим поставить минус — обоснуйте пожалуйста свою негативную реакцию.

Спасибо

Сделанное вами представляется настолько удивительно неоптимальным, что даже сложно всерьёз аргументировать. Пока могу придумать единственное оправдание такой вашей архитектуры — бюджет. Об этом вы не сказали ни слова, а было бы очень интересно узнать. Раскроете? Хотя бы порядок затрат. Capex, Opex
Про бюджет я написал. Фактически новые вложения были менее 200 тысяч рублей.

Не надо ничего аргументировать. Приведите пример не придуманной, а работающей системы, стоящей примерно столько же и гарантирующей ту же степень надежности хранения данных, что и описанная мною.
На сегодня, с учетом нового резервного копирования в облако, она почти совершенна. Более высокая надежность может быть достигнута только при затратах на порядок больше.

Вот поэтому (я про статью в целом) директор компании и ИТ-специалист должны быть разные люди.
Раз уж делимся опытом, то поделюсь своим.
1. Mikrotik RB951G-2HnD + 2 х D-Link DGS-1016
2. Три небольших сервера Ceph на любом недорогом железе (мы использовали восстановленные Fujitsu)
3. Ещё один сервер так же малой мощности под 1С-сервер в web-файловом исполнении и под Calculate Directory Server
(такой же Fujitsu, но с большей ОЗУ)
4. Все машины на относительно недорогом железе, но с достаточно большим количеством ОЗУ.

Система разворачивается по PXE на клиентских машинах. Ввод новой машины занимает время загрузки оной на компьютере.
Ко всему snapshot`ы всего хранилища дублируются на Dropbox каждый день в 00:00. База резервируется раз в час.
Всё работает уже почти 3 года без нареканий и ввод нового кабинета занимал время вставки двух коннекторов в разъём и протяжки кабеля. Windows только у бухгалтера на ноутбуке, но с бухгалтерией у ИТ всегда особые отношения.
В своё время очень хотелось реализовать VLAN структуру, но мне на ту компанию стало совсем не хватать времени и мы расстались.

Оглядываясь назад понимаю, что сейчас при помощи OpenStack можно было бы всё реализовать ещё более красиво.
Цена такого решения сейчас (специально решил посмотреть):
Микротик — 6 299
DGS-1016A 3 999x2=7 998
Fujitsu RX100S6 Core i3-540/8GB/500 GB SATA/2xGlan/PSU 350W — 19 200x4=76 800
1С Бухгалтерия 8.3 ПРОФ 10 800
1С лицензия на 10 рабочих мест 34 500
ИБП DEXP Rely Power 3000VA (2600Вт) 26 999
Шкаф б/у 10 000
Итого: 173 396 рублей без учёта стоимости рабочих мест и со всеми лицензиями
Когда я собирал всю эту систему, обошлось в 140к рублей (правда мы собирали на Xeon-процессорах).
Данная система не то что такая же по надёжности, что и описанная Вами, но и гораздо более надёжная.
В итоге мы получаем сервисы: DNS, DHCP, AD, Mail, NAS, Proxy, 1C. Узким местом является сервер 1С и CDS, но сами данные потерять невозможно (хотя дуракам всё возможно).
Итак, я директор (это не модельная игра, я действительно директор), Вы системный администратор, который предлагает мне сделать несколько (3-4, сколько нужно) дешевых серверов. Я знаю, что есть такие понятия как виртуальные сервера и терминальный сервер.
И тогда я Вас попрошу ответить на такие вопросы:
1. На основании чего Вы считаете, что много простых и дешевых серверов надежнее одного профессионального сервера, на котором можно поднять систему виртуальных серверов?
2. Где физически будет храниться база знаний (ну упростим — база документов и данных) компании и как Вы обеспечите надежность их основного места хранения (дублирование данных в облако — это уже дополнительная защита от потери данных).
3. Если у меня сейчас 5 сотрудников и 5 локальных машин и все, а вскоре я планирую увеличить количество сотрудников в 2 раза — не правильнее все же будет организовать сразу терминальный сервер?
4. Что удобнее и дешевле в обслуживании — один физический сервер с системой виртуальных серверов или несколько отдельных простых серверов?
1,2) Ceph — распределенное отказоустойчивое хранилище. Смерть отдельного сервера не означает ничего, кроме необходимости покупки/замены железа. Сервисы даже не заметят, что один сервер умер.
3) Терминальный сервер не масштабируется нормально, если он не является виртуальной машиной на мощном железе. Удвоение людей — удвоение нагрузки. А придет ещё 5 сотрудников — и старый терминальный сервер станет бесполезным, придется брать новый.
4) Гораздо удобнее обслуживать несколько отдельных серверов при условии наличия кластера для сервисов. Нет ограничения «вот надо добавить памяти/диск, но для этого нужно ждать, когда все уйдут».
1. Один сервер — это единая точка отказа. Отсутствие дублирования — это простой и перебои в работе бизнеса. Так что ответ здесь — несколько серверов в рамках бюджета, на которых развернуть систему виртуализации с возможностями прозрачной миграции ВМ между серверами. В большинстве случаев для этого понадобится специализированная система хранения с высокоскоростными интерфейсами типа Fibre Channel и хорошими аппаратными контроллерами RAID. Поскольку сервера оказываются зарезервированными, это могут быть «сервера». Главное — насовать в них побольше памяти
2. Как раз на этой самой системе хранения. Надёжности можно отсюда добавлять например путём создания или использования географически удалённого хранилища, собственного или арендованного
3. Размазав нагрузку по нескольким серверам вы внезапно увеличиваете общую пропускную способность и получаете систему на вырост. Терминальные сервера — довольно странная вещь. Зачем, если даже 5-7 летний компьютер имеет достаточно мощности для нормальной офисной деятельности (я не имею в виду понты и тяжёлые специализированные приложения. Но и там терминальный сервер не спасёт).
вы предлагаете Fibre Channel для офиса из 10-20 человек и географически удаленные площадки? я предлагаю еще запустить собственный спутник связи )))

П.С.
для «смол бизнеса» есть беджетные хранилки QNAP и Synology ;-)
про фабрику улыбнуло…
Да ладно. Авито + кризис = можно купить FC за копейки. Надо только задаться целью и мониторить. Ну и 4Гб в такой конфигурации хватит за глаза. Есть опыт создания на коленке системы хранения в обычном ATX-корпусе с RAID-контроллером и FC, работающем на специализированной сборке Linux (запамятовал, как называется, а искать лень)
Коллеги, мне кажется, что вы обсуждаете два подхода к обеспечению надёжности системы.

Первый подход заключается в уменьшении количества точек отказа (представлен автором, но не стоит забывать, что и один сервер в себе таит с десяток точек отказа), второй — резервирование узлов (которое увеличивает вероятность отказов, но снижает их влияние на систему).

Но, простите, это не взаимоисключающие, а взаимодополняющие подходы!

Обратите внимание, автор допускает перерыв в работе бизнеса 2-3 дня. За это время можно, даже находясь в регионе, слетать в Мск и привезти новый сервер!

Соответственно для некоторого бизнеса и такой вариант является достаточным. Для другого, возможно, будет даже избыточен, для третьего — недостаточен и т.д.
Думаю коллеги DaemonGloom и pred8or более чем достаточно привели доводов на ваши вопросы.
От себя добавлю:
1. Что в Вашем понимании «профессиональный сервер»? А есть непрофессиональный? Fujitsu RX100S6 весьма хороший 1U сервер, с хорошим встроенным RAID контроллером.
2. А где в Вашей конфигурации база знаний будет храниться? Я думаю Ceph вполне себе подойдёт. Хотя ещё круче будет развернуть на тех же 3х серверах LAMP и MediaWiki.
3. Причём здесь вообще терминальный сервер? Вас как будто загипнотизировали…
4. Когда кластер, тогда лучше много серверов. Обновляться гораздо легче без остановки работы.
Спасибо за пояснения. Собственно в новом комментарии, которое я уже написал в конце обсуждения, я уже отметил, что терминальный сервер — это важная, но частная особенность конкретной реализации.
Кластер на технологии Ceph (или нечто аналогичное по функционалу) — это конечно здорово, если его можно сделать по имеющемуся бюджету и есть исполнители, которые это умеют.
В то же время и один сервер, как показывает наш опыт, надежное решение, если там есть аппаратный RAID и это не обычный офисный компьютер, в который добавили память (это к тому, что можно называть профессиональным сервером).

Ваш опыт — это то, что называется «ошибка выжившего». Аппаратный рейд не даст вам уровень защиты данных лучше, чем даст ОС или софт-рейд. Вы всего лишь исключаете ошибку драйвера софт-рейда и добавляете вероятность сбоя контроллера, помноженную на проблемы с переносом массива на другие устройства.
Рекомендую статью: https://habrahabr.ru/company/advanserv/blog/163451/
В вашем случае, это ещё и сервер с минимальной отказоустойчивостью при сбоях железа. Память не registered, один блок питания.
Спасибо за ссылку по сравнению аппаратного и программного рейдов. Прочитал. С трудом, но прочитал и комментарии. Однако все не так очевидно.
Да есть много ситуаций, когда программный рейд лучше (быстрее, дешевле и т.п.), особенно, если вы работаете с Линаксом.
А вот с Виндоуз уже не всегда программный рейд выигрывает.
Именно такие выводы получаются от чтения того, что Вы порекомендовали.
От себя добавлю. Если серьезный производитель (HP в моем случае) интегрирует в свой сервер аппаратный рейд, то наверно он это делает вполне обдуманно, а не для того, чтобы развести нас на деньги.

Вот в чем Вы безусловно правы — так это в том, что на качестве сервера, особенно единственного, экономить надо осторожно.
Я тут у себя пожалуй палку экономии перегнул.

HP/HPE заявляют что можно вынуть диски которые собраны в рейд (из сервера любого класса) и переставить их в другой сервер HP (любого класса), и массив поднимится.

собственно нужно использовать рейд на материнке или другой который предлагает HP.
HP/HPE не производит диски и не производит рейды, но они пишут под них свои прошивки.

основной плус аппаратных рейдов это наличие «большого» энергонезависимого кеша.
Чисто для иллюстрации: наш сервер это HP ProLiant ML110 G6…
Можно подробнее про «1С-сервер в web-файловом исполнении и под Calculate Directory Server»? Я так понимаю вы предлагаете развернуть linux сервер 1C в файловом варианте, где базы будут лежать в кластере Ceph, а юзеры будут сидеть через браузер в 1С? Но тогда мы дважды упираемся в ограничение по скорости сети и проблемы с репликацией и восстановлением файловых баз. Да у 1С в файловом варианте базы живут гораздо хуже SQl-ных
В нашем случае база не планировала расти до 100Гб и файлового режима на 10 (максимум) одновременно работающих пользователей хватало. База находится на сервере, но снапшоты базы лежат на Ceph.
Сидеть в 1С через браузер уже давно не нужно ибо клиент 1С умеет подключаться к web-серверу. В принципе 1С клиент на Linux работает вполне сносно. Особой разницы в «глюках» с форточной версией не увидел.
Впрочем, насколько я знаю та компания скоро перейдёт на SQL, так как их становится всё больше.
— зря отказались от виртуализации, Можно использовать Free версии VMware ESXi или MS Hyper-V.

— c браузерами на терминале у меня никаких проблем, если у вас ws2012R2 все должно работать отлично (без бубна), если ws2008R2 нужно руками включать RemoteFX.

— с клиент банками тоже проблем нету.

— самому делать виртуальные десктопы не имеет смысла на количестве 10 юзеров, нужно мнооого юзеров для экономического эффекта.

— если вам кто-то из «администраторов» говорит что нужно использовать классические ПК, не слушайте такого человека и сотрите его контакт.
ПК не нужны «офисным» работникам!
На данный момент ПК нужны только для работы с 3д графикой, или для подключения всяких разных аппаратиков типа кассового или плотера… и т.д и т.п.

— у меня юзеры работают на терминале с Autocad LT и все ок!

— Считаю что на терминале и не только на терминале, обязательно нужно внедрять MS Applocker или software restriction policy. Чтобы у пользователей не было и шанса подхватить «вирус».

— в случаи 10-20 юзеров нет смысла покупать новые сервера. можно легко купить HP G6 или другие, на хабре по поводу бу серверов уже куча статей. такие сервера легко отработают еще лет 7, а стоимость за 2х процессорный сервер до 1000 уе.

— аналогично с ПК, можно купить бу брендовые (HP,DELL) компактные ПК с ОЕМ лицензиями на винду, и использовать эти ПК в качестве тонких клиентов. предложений море…

П.С.
Возможно для 10-20 юзеров лучше полностью уйти в облоко и отказаться от физических серверов.

Знаю одну контору которая работает аналогично тому как описано в статье, но они использовали ESXi (затем сменили вроде на KVM).
И все у них хорошо. Покупали БУ сервер HP ML150 G6.
Простите, а какое вы используете железо и какой софт на терминалах?
если вкратце:
Xeon 5620 2шт на сервер, HP ML350 G6.
ESXi 5.5
ws2008R2 для виртуалок

П.С.
посмотрите мои публикации.
Как я понял из публикаций, вы используете тонкие клиенты HP.
На первом попавшемся сайте, продающем такие устройства, цены начинаются от 30 тысяч за устройство.
Купить обычный офисный компьютер c профессиональной версией Windows — дешевле.
не внимательно читали ;) или плохо написана статья (я старался) =)
1 — чтобы получить нормальную стоимость на тонкие(новые) нужен «проект».
2 — я(мы) покупали бу тонкие (зачем платить больше?).

таки да, стоимость тонкого и пк, сравнима, даже если техника бу…
но, габариты + енергопотребление, лицензирование…
сейчас мне удобно эксплуатировать парк тонких, и менять ПК которым по 10 и больше лет на тонкие.
Автор, Вами представлен один из многих подходов для реализации офисной инфраструктуры. Хорошо, конечно, что Вы имеете представление о том, какое время Вы допускаете на восстановление и, что именно для Вас важнее.

Но подавляющее большинство директоров в принципе этого не представляют. И системные администраторы плодят железки не потому, что они такие плохие. А, чаще всего потому, что директор сам в этом не разбирается, а все пинки и зуботычины из-за того, что накрылся один единственный собранный на коленке за три копейки из б/у оборудования сервер, достаются именно администратору.

По закону подлости оборудование выходит из строя именно тогда, когда «плановый» простой в 2-3 дня будет недопустим. И та же Ваша сопровождающая организация пожмёт плечами и скажет: «Вы выбрали такую инфраструктуру». И предъявить им будет нечего. На сисадмина хоть поорать можно, почему он не предусмотрел, что именно в этот момент накроется мать и не купил запасную.

Вы описали просто один из подходов к реализации инфраструктуры в определённых условиях. Он не хорош, он не плох — он один из. Его главный плюс в том, что для Вашей организации он достаточен.

Подходит ли он для всего малого бизнеса? Не думаю.

Только не дай бог Вашу статью прочитать другим директорам, которые возомнят себя ИТ-гуру после этого и будут требовать именно такую инфраструктуру, несмотря ни на что =)
Лучше напишу отдельным комментарием, чем ответом в одной из веток.
Мнение начинающего системного администратора.

В самом начале Вы сразу сказали, что Директор, а не Айтишник. В этом вся проблема. Ещё проблема — узость мышления. Вы зациклились на «у меня это уже 5 лет работает, значит верное решение». Возможно, верное в плане экономии денег, но оно не оптимальное в плане надёжности данных. Вам требуется сверхнадёжность при минимальных затратах. По своему опыту знаю, что когда стоит задача «не терять данные вообще никогда, иначе конец света» — думать о бюджете стоит в последнюю очередь.
Если у Вас только 1С и офисные программы на 10 сотрудников, то я бы тоже предложил терминальный сервер. Если набор программ для всех сотрудников одинаковый, то хватит и RDP. Если же разный софт, то лучше использовать виртуализацию рабочих столов. При любом раскладе для подключения к серверу достаточно тонкого клиента, а не полноценного компьютера.
Сервер 1С должен быть отдельным сервером. Бэкап-сервер — тоже отдельный сервер.
Разумеется, сервер может быть как виртуальным, так и физическим. Тут важнее разделение ролей по разным серверам, чтобы при корректировке работы одной из ролей не возникало проблем с другими.
Кстати, Вам не говорили, что профили пользователей (даже на локальных компьютерах) можно сделать перемещаемыми и хранить на сервере (тогда повышаются требования к сети)? А можно только папку «Мои документы» разместить на сервере. И бить по пальцам за сохранение на рабочем столе. А ещё я не встречал вирус-шифровальщик, который умеет шифровать по UNC-путям.

Ещё бочка дёгтя в ложке мёда: лицензии. Вы в курсе, что Вам надо: лицензия на физический сервер, лицензия на каждое устройство\пользователя, которое подключается к этому серверу (даже если просто расшареные папки на сервере используются), лицензия на каждое терминальное подключение, при использовании офиса в терминале — лицензия офиса на каждое устройство (даже тонкий клиент), с которого идёт подключение к терминальному серверу (даже через интернет с домашнего компьютера). И не абы какая любая от любого офиса, к слову.
А Вы говорите — «минимальные затраты». У Вас есть шанс влететь на штраф при проверке. Спасает лишь то, что их почти не устраивают мелким компаниям. А маски-шоу Вам тоже не угрожают? Шанс такого — нулевой?

Итог. Никогда не экономьте на IT. В фанатизм ударяться не стоит — никакой экономии, но и сверхзатрат не нужно. Нужно просто вырабатывать адекватное решение, учитывая не только критерий «сверхнадёжность данных», но и «комфортная работа». Не забывайте, что работу делают сотрудники и компьютеры\серверы — лишь инструмент. От того, как Ваши сотрудники управляют инструментом, зависит качество сделанной работы. И как результат — прибыль компании.

Кратко Ваше решение характеризуется так: «Raid 1 + бэкапы + бэкап бэкапов».
После первоначальных небольших шараханий — пошла интересная и полезная дискуссия.
Есть общее замечание на тему приличности и необходимости директору компании самому вникать в некоторые общие вопросы ИТ системы.
Полагаю, что сейчас уже очевидно идет переход даже в не очень больших компаниях от системы директор+системный администратор+плюс сторонняя сервисная обслуживающая ИТ компания к системе директор + директор по ИТ + много сервисных обслуживающих компаний.
И здесь диретору надо или самому быть ИТ директором или нанимать на стороне не услуги системного администратора, а услуги ИТ директора.

А пока вынужденно совмещая в одном лице и директора и ИТ директора вижу, что прошедшая дискуссия позволяет сформулировать некоторые общие принципы построения структуры ИТ системы, ориентированной на высокую надежность хранения данных компании. Так надо строить распределенную отказоустойчивую систему хранения данных, в которой:
1. будет минимум две физически разнесенные точки хранения данных, обслуживаемые при этом разными организациямими (людьми);
2. одна из таких точек должна находиться под полным контролем компании как физически (находится в ее офисе), так и логически (полностью контролироваться или иметь возможность контролироваться сотрудниками компании).
3. важная частность: в точке хранения с своем офисе крайне желательны аппаратно поддерживаемые RAID массивы.
4. Резервные копии — это само — собой тоже.

А дальше начинаются варианты.
Можно взять (как у меня) один профессиональный сервер и сделать на нем систему виртуальных серверов (чего я не сделал, а зря).
Можно поставить несколько простых «серверов», объединив их технологией Ceph (к слову 5 лет назад ее вроде как еще не было).
Что лучше и надежнее (при ограниченном бюджете) для меня пока не очевидно.

Вопрос о терминальном сервере решается в зависимости от конкретных потребностей бизнеса. Для примера:
Если как у меня новая компания, ничего нет, будет одинаковый софт — то лучше терминальный сервер.
Если идет модернизация сложившейся стрруктуры с большим количеством локальных машин с разным софтом на разных рабочих местах, то терминальный сервер не нужен.

И разумеется, если есть такая возможность (по бюджету и по квалификации исполнителей), то надо иметь минимум два физических сервера (один из них может быть в облаке) и делать систему миграции виртуальных машин между серверами.

НЛО прилетело и опубликовало эту надпись здесь
Нисколько не сомневаюсь, что у Вас будет работать все и без проблем.
Только вот моя задача была и остается сделать такую структуру, которая не требует постоянного наличия возле себя золотых рук.
Про бэкапы. Описанная Вами опасность есть. Однако бэкапы — это прежде всего последняя линия обороны в хранении совсем даже не системы, а данных компании. Систему можно и восстановить, даже еще раз купить в крайнем случае, а вот утерянные собственные данные купить негде.
Хотя и систему тоже бэкаппируют. До кучи. Вдруг получится ее быстро восстановить.
А основная линия обороны по защите данных — это горячее резервирование (RAID массивы, кластеры).

Совершенно не согласен с Вашим негативным восприятием виртуализации. Каюсь здесь у меня исключительно теоретические знания, так что пусть практики меня если что поправят.
Но насколько я понимаю виртуализация (на основе любой ОС) полезна в следующих целях:
— облегчается удаленное администрирование, виртуальный сервер можно перезапустит программно, а не щелкать клавишей сброса или питания.
— на отдельном сервере полезно поставить 1С, чтобы глюки, временами происходящие при обновлении 1С, не влияли на остальной софт.
— можно на отдельных виртуальных серверах поднять такие полезные штуки как VPN сервер, сервер IP телефонии, почтовый сервер.
— Наконец на виртуальных серверах можно организовать отказоустойчивый кластер.

Про аппаратный рейд — где то выше была небольшая дискуссия. Повторяться не буду.

НЛО прилетело и опубликовало эту надпись здесь
для того чтобы не ловить шифровальщика достаточно развернуть Applocker и разрешить запуск приложений только из системных папок, вот и все.
у меня так один пользователь работая на ПК зашифровал сетевую папку, после чего очень быстро начал работать на терминальном сервере ;-).

П.С.
честно говоря мне не понятны советы где рекомендуют избавится от терминального сервера.

П.П.С.
кстати Shadow Copy отличная штука для файловых шар на ws, юзеры смогут сами получать доступ к предыдущим «версиям» файлов.
легко настраивается и администрируется.
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории