Pull to refresh
0
0

Пользователь

Send message
Поговаривают, что в следующем поколении к стойке опционально будут идти маленькие ножки, которые будут перемещать стойки между серверными, обеспечивая тем самым динамический ЦОД.
И часто у вас в организации контроллеры домена на Server Core разворачивают?
Основное преимущество от использования Core режима установки — это не меньшее потребление ресурсов сервера, а меньший footprint системы, как следствие — меньше сервисов -> меньше поверхность атаки -> меньше обновлений -> меньше простой системы.

Однако, широкой практики применения Server Core в организациях, кроме, пожалуй, Hyper-V Server я не встречал. Обычно — это один-два сервера, выполняющих второстепенные задачи, «на поиграться».
Это нормальный подход.

И у GUI, и у CLI есть свои преимущества. Для выполнения базовых административных задач, вроде заведения учетки или начальной настройки отлично подойдет GUI с мастерами, окошечками, вкладками, которые не требовательны к уровню знаний администратора и проще в освоении. Для специфических административных задач, траблшутинга и автоматизации некоторых процессов подойдет CLI. Если же стараться запихнуть в GUI весь функционал, то он станет очень громоздким и неудобным для использования.
Если на сервер приобрести лицензии Windows Server Datacenter, то можно запускать неограниченное количество виртуальных машин. Лицензии на ОС далеко не самая высокая статья расходов ИТ в большинстве компаний. Гораздо дороже могут обойтись лицензии на специфическое прикладное ПО, СУБД, оборудование и прочее.
Хорошая статья, но большинство из приведенных «уязвимостей», на мой взгляд, не настолько критичны (кроме, пожалуй, устаревших пакетов).

Еще одним проблемным местом системы является трансфер виртуальных машин между серверами в режиме XenMotion. Он происходит через 80-й порт системы в plain-text режиме. Таким образом, злоумышленник имеет возможность перехвата данных «на лету». Решение этой проблемы только одно, — применения средств шифрования IP уровня. Но это не единственная проблема при передачи данных,- так же по умолчанию сервис iSCSI передает учетные данные в открытом виде.

Это справедливо в отношении всех гипервизоров, ни ESXi, ни Hyper-V не шифруют трафик при vMotion/Live Migration. По этой причине крайне рекомендуется для этих целей использовать отдельные сетевые адаптеры или хотя бы изолировать трафик в отдельных VLAN'ах. То же касается iSCSI, ведь CHAP не защитит от прослушивания.

Что касается совместного использования ресурсов гипервизора несколькими людьми без необходимости давать им доступ непосредственно к консоли, то в этом случае может пригодиться Self Service Portal.
Ну не знаю. Иногда приходится иметь дело с бизнес-критичными решениями.

Мы себе в лабораторию пару HP Integrity BL860c i2 купили. Поскольку планов на них никаких не было, временно разместили на одном из них продуктовый SQL Server. Ничего, вроде бы работает. Еще были идеи на них принт сервер кластеризовать (для большей надежности).

У одного из заказчиков, например, на Itanium'ах файловые серверы крутятся, говорит — нормально. Правда сейчас у них идет проект по виртуализации, Itanium'ы в виртуальную машину не запихнешь, придется вручную данные переносить — мороки много.
Не сразу понял, что у вас один физический сервер. В таком случае можно было сначала записать копии ВМ на второй 2ТБ диск, а затем подключить его как RDM к ВМ на ESXi.
Если решили ставить внутри ESXi ВМ с Windows, то VMware Converter можно было установить туда, после чего сконвертировать ВМ на горячую, установив агент конвертера в ВМ, или на холодную, указав путь к .vmx файлам выключенных машин по сети. В качестве альтернативного способа — можно было найти диск VMware Converter CD с vSphere 4.1, загрузиться в ВМ с него и сконвертировать машины на ESXi.

Memory compression работает на уровне гипервизора и не зависит от типа гостевой ОС. Если имелся ввиду memory balloon, то драйверы есть и под Linux'ы.

ESXi не поддерживает ext3 разделы. ESX поддерживает, но только внутри service console'и, ВМ размещать и запускать с ext3 не получится.
Статья из серии — чтобы взломать систему нам понадобятся:
1. Пароль учетной записи root


В серьезных организациях вряд ли кто-то будет лазить по ADUC в поисках закладок, поставят какой-нибудь Symantec Security Information Manager или Quest InTrust и при любых отклонениях СБ будет расстреливать подозрительные объекты и заодно всех причастных к их появлению.
Преимущества перед ПК очевидны:
-Централизованное управление, установка и обновление приложений.
-Хранение профилей и документов пользователей в одном месте.
-Возможность удаленного доступа к программам и документам без организации VPN в том числе с мобильных устройств.
-Меньше административная нагрузка на персонал, связанная с обслуживанием рабочих мест, быстрее развертывание новых рабочих мест пользователей.
-При желании и наличии финансовых возможностей — большая надежность и отказоустойчивость решения.
В конфигурации, как представлено в статье, приблизительная стоимость на 100 пользователей:
Windows Server 2008 R2 Standard — 4 шт. (~700$)
RDS CAL per User/per Device — 100 шт. (~85$)
Microsoft Forefront Threat Management Gateway 2010 Standard — 1 шт (1500$)

Сервер HP Proliant DL160 G6 для терминальных серверов — 2 шт (3000$)
Сервер HP Proliant DL160 G6 для TMG и Connection Broker — 2 шт (2000$)

Тонкий клиент Wyse C90LEW — 100 штук (400$)
Монитор, клавиатура — 100 штук (150$)

В сумме получается 77800$ без учета работ и других лицензий (например, на серверы контроллеры домена или Windows Server CAL), порядка 778$ на пользователя. При желании — можно сэкономить, купив более дешевые тонкие клиенты и серверы, или используя существующие компьютеры пользователей.
Отличная статья. Единственно замечание по поводу требования не назначать FSMO Infrastructure Master на Контроллер Домена, который является Глобальным Каталогом. Это справедливо только для тех случаев, когда не все КД являются серверами Глобального Каталога. В противном случае от совмещения Infrastucture Master и ГК ничего плохого нет.
Я так понимаю, что в вашем решении split brain никак не учитывается?
А в чем плюсы Parallels Server Bare Metall кроме необычности?
Вот, покарайте еретиков: www.microsoft.com/industry/government/guides/cloud_computing/7-private.aspx

А если еще скажете — почему private cloud по вашему мнению не является cloud'ом я буду вам благодарен.
А я вот только что вернулся c IDF и главное впечатление...

Это примерно как — «а я вот был на VMWorld — всё вкусное в первую очередь для VMware», или «я был на TechEd — большинство людей на конференции было не с линуксами».

Надо разделять public и private облака и продукты виртуализации под них. VMware и Microsoft традиционно сильны в корпоративном сегменте, решения на базе Xen и KVM — у провайдеров, и говорить о том, что вторые заменят первые — это как говорить, что Ubuntu или PostgreSQL заменят Windows и MS SQL Server или Oracle Database в организациях.
DAS (на SAS или SCSI) дешевле FC и быстрее iSCSI. В маленьких инфраструктурах, где не требуется масштабируемость — самое оно.
Драйверов для синтетических сетевых карт в Windows Server 2003 нет, требуется ставить пакет интеграции Hyper-V.
А почему вы называете ваш кластер Геокластером, если на картинке изображены основной и резервный ЦОД с двумя разными кластерами?

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Registered
Activity