Pull to refresh

Comments 39

Вот вам история.

8 лет назад такой «на основе обычного ПК » чудо-сервер-самосбор был установлен в дружественной организации на 15 сотрудников. Потратили 20 000р на какой-то хлам с двумя дисками Maxtor в програмном Windows RAID 1, и 15 000р на Windows SBS. Весь ужас, что он работает. До сих пор работает. 24*7. Без охлаждения, между швабрами и ведрами. До сих пор с этого сервера мне приходят отчеты о производительности.

Ни единого разрыва, господа, ни единого разрыва. С ноября 2007 года.
Я очень рад, что с 2007 года ваша система работает без единого отказа.
Однако неужели «дружественная организация» до сих пор может уместить все свои данные на зеркале из двух старых дисков?
Неужели она не развивалась и там так и осталось всего 15 сотрудников?
Если так, то возможно им действительно хватит этого старого системника.
Вот только 8 лет — серьёзный возраст для ПК, что будет если в разгар рабочего дня он всё-таки сломается?
Или на нём давно уже не лежат критичные для компании данные?
Если нет — то нет смысла сравнивать его с хранилищем данных, от которых зависит работа компании.
История для пятницы, так что не принимайте близко к сердцу. Компания да, не развилась. Не весь малый бизнес стремится стать большим. Когда он сломается, диск вставят в другой компьютер и поедут дальше.
UFO just landed and posted this here
Нет необходимости забивать себе голову этим вопросом.
На всём протяжении сервисного контракта (а его можно продлить в любое время) вы просто получаете новые диски взамен вышедших из строя.
Предоставляемые диски проходят дополнительную проверку качества на заводах EMC в отличии от дисков, которые продаются в розничных магазинах.
UFO just landed and posted this here
Да, действительно, кроме первых трёх лет (они входят в стоимость) сервисный контракт не бесплатен.

С совместимостью же дисков дела обстоят следующим образом:

1) EMC не выпускает дисков сама, поэтому используются диски других производителей
2) Для обеспечения длительной бесперебойной работы дисков EMC устанавливает на них свою версию прошивки
3) В партнейм EMC обозначающий накопитель входит как сам диск, так и специальные салазки и (в ряде случаев) специальный контоллер

Поэтому диски купленные на рынке могут иметь точно такой же партномер производителя дисков (например seagate), но никто не гарантирует того, что они будут совместимы с системой (система может их просто не распознать).
Однако, даже если такой диск запустится, применение сторонних дисков автоматически лишает весь СХД гарантии.
Благими намерениями, как известно…
В лучших традициях современного бизнеса — попытка привязать к себе клиента любыми способами и усложнить переход к конкуренту.
В этом как раз нет привязки с точки зрения перехода к конкуренту: «свои» диски используют все или почти все системы хранения корпоративного уровня. Переход к конкуренту — как правило осуществляется при покупке новой СХД. И при переходе к конкуренту покупаются и СХД, и диски. Обеспечение простоты перехода к конкуренту чаще лежит в предоставлении инструментов для удобной и простой миграции томов и файловых серверов или наоборот сложности в миграции.
Использование же «своих» дисков позволяет нормально оказывать поддержку: если на диске появляются ошибки и их количество превышают порог — система сама запускает его проактивное копирование на диск горячей замены и создаёт тикет на замену, а после окончания копирования выводит диск из эксплуатация. Подход исходит из того, что сохранность данных гораздо ценнее, чем дисков. И заказчику нет нужды думать о дисках.
Защита от произвольных дисков с рынка в этом безусловно есть – и да, в диски «зашивается» часть совокупной стоимости СХД. Существуют разные модели того, из чего складывается совокупная стоимость: цена может быть в основном зашита в голову, в диски, в потеррабайтные лицензии и т.д. пропорции могут меняться, и производители могут менять модель от поколения к поколению. Причём помимо сугубо маркетинговых за этим порой лежат и вполне осмысленные причины. Но это уже вообще повод для отдельной маркетинго-философской дискуссии и сравнительного анализа. Разумно смотреть на совокупную стоимость владения.
Логично было бы после окончания первых трех лет давать пользователю выбор: использовать свои диски или продолжать платить за них Вам. «система может их просто не распознать» — в наши дни это возможно только в случае, если разработчик системы сам так захотел. По-умолчанию контроллеры, системы и диски несовместимы только разьемом подключения и иногда скоростью интерфеса.
Семейство систем хранения EMC растёт скорее сверху вниз — от high-end систем. Сегмент SMB у EMC начал осваиваться последним. Отсюда и подход, что если система используется под продакшн — она должна иметь контракт на поддержку/обслуживание (для большой железки high-end класса или мейнфрейма — отсутствие контракта на поддержку просто нонсенс — с этим вряд ли кто будет спорить). VNXe — это максимально упрощённые и в обслуживании, и в управлении/настройке системы, но всё-таки в первую очередь имеющие корпоративные корни. Если задача обеспечить гарантированную работу процессов, в обеспечении которых участвует эта система — система должна иметь поддержку.
Если задачи иные — эти системы могут быть не лучшим выбором.
Также, например, на системах VNXe пользователи не имеют доступ к root-у (root на них вообще получается своеобразным образом и получить его в теории может только поддержка). Если приоритетом является желание делать с системой всё что захочется, иметь на ней полный контроль, поставить на неё стороннее ПО — это не тот выбор.
Думаю, что эту информацию стоит вынести в основную статью.

Привязка замены дисков к сервисному контракту сразу отбивает желание читать дальше.
Спасибо за комментарий,
Разговаривая с разной аудиторией порой забываешь о том, что в разных местах разное является «нормой» и «стандартом». В контексте систем хранения EMC — если бы подходили сторонние диски — мы это выделили бы жирным текстом и поместили в первые абзацы =) Но спасибо — учтём.
По дискам у EMC есть техническая особенность. Диски размечаются на сектора не по 512 байт как обычно, а на сектора по 520 байт. Дополнительные 8 байт используются для записи контрольной суммы данных в секторе. Соответственно при каждом чтении данных из сектора происходит еще и проверка, что данные не были повреждены. Т.е. проверяется корректность данных, отдаваемых по запросу «наверх» (какому либо сервису) на уровне самого диска (прошивки диска). Отсюда, в том числе, и «растут ноги» с кастомизированными вендорскими прошивками у EMC и невозможностью поставить в СХД диск «из магазина за углом». Это помимо всех прочих «маркетинговых» причин.

Соответственно если данные не корректны, то дальше происходит восстановление их из контрольных сумм Raid-группы (если есть откуда восстанавливать :)).

В целом такой подход дает гарантию, что повреждение данных будет замечено на «ранней стадии» и исправлено до того как это скажется на сервисах пользователя. Ведь есть еще и внутренние процессы в CХД, которые непрерывно в background-е проверяют целостность записанных на CХД данных. Как то так :).
По дискам у EMC есть техническая особенность.

T10 PI есть не только у EMC и не требует перепрошивки дисков.
Но и в магазине за углом такие диски не лежат в свободной продаже.
Любой диск под SAS поддерживает три размера сектора: 512, 520 и 528. А что в них писать решает СХД.
UFO just landed and posted this here
UFO just landed and posted this here
достаточно просто поднять owncloud на пентиуме только тссс!!!
UFO just landed and posted this here
Действительно сервер с внутренними SSD (если там не стоит какой-то совсем неудовлетворительный контроллер или его не настроили загадочным образом) — будет быстрее, чем внешняя СХД с аналогичным количеством накопителей: Шина PCI-express быстрее чем большинство сетевых протоколов. Но с точки зрения удобства в эксплуатации и высокой доступности часто уже проигрывает.
Если ещё лет 8 назад заказчикам нужно было аргументировать — зачем вообще нужно внешние хранилище SAN или NAS и какие плюсы это даёт по сравнению с внутренней ёмкость серверов – это был регулярный диалог. Сейчас, серьёзнейшим драйвером стало повсеместное распространением решений VMware, это объяснять уже никому не приходится. Меньшее число лет назад — наиболее актуальной темой для объяснения была необходимость в твердотельных накопителях и их надёжность. Сейчас и этот вопрос уже не поднимается.
Но каждое решение стоит рассматривать для конкретной задачи и того, насколько полно оно её решает. Если сервер на atom-е удовлетворяет потребностям и не вызывает проблем — отлично. Если не удовлетворяет – можно посмотреть и на другие варианты, включая EMC VNXe.
В вашем понимании малый бизнес — это филиал корпорации на 10-15 человек. Там да, могут быть кластеры на VMware и даже SLA.
Но более распространённый вариант в России, когда компании просто нужен сервер под 1С и его поломка на день-два не принесёт убытков.
Отчасти вы правы – иногда понятие SMB мы, напичканные западными маркетинговыми материалами, тянем как кальку с западных. И действительно часто у нас и в забугорье под этим понимаю разные вещи. Кстати, для описанного вами (филиал компании) в маркетинговой терминологии для позиционирования часто есть отдельный термин — ROBO (Remote Office, Branch Office).

Если поломка сервера и простой информационных систем на день два не принесёт проблем/убытков – действительно нет нужды в решениях, которые проектируются для высокой доступности. Выбор решения должен быть обоснованным. Решения EMC, как вендора высшего класса в области СХД – конечно прежде всего для тех, для кого простой недопустим или обойдётся дороже.
UFO just landed and posted this here
1) Какое преимущество системы хранения по сравнению с сервером или blade-шасси с парой серверов – очень хороший и в то же время коварный вопрос.
Т.к. не открою секрет, что тут нет магии, и концептуально большинство современных внешних системы хранения это и есть по сути blade (специализированное) шасси на пару серверов, с подключёнными к ним дисками и дисковыми полками. Т.е. теоретически можно самостоятельно собрать кастомное решение лучше, быстрее и дешевле, но на практике это мало реализуемо. Те, кто такое собирают раз-два-три, обычно потом основывают компании-стартапы по производству СХД или софта для организации своей СХД (я говорю тут в первую очередь не про Россию, а про мировую практику).
Преимуществами промышленной внешней СХД по сравнению с реальным, а не теоретически идеальным решением будут стандартные плюсы для промышленных решений:
1) Специализированное (уже продумано и обкатано, оптимизировано под задачу)
2) Выделенное.
3) Более простое (в настройке и эксплуатации).
4) Более надёжное (в том числе как следствие предыдущих)

2) Про пример бизнеса на 10-12 (up to 25) человек, которым нужна такая внешняя СХД.
Однозначно это нужно бизнесу, которому недопустим простой из-за остановки информационных систем на день или несколько, или из-за этого убытки или упущенная прибыль будет больше, чем стоимость такой СХД.
В качестве примера, мне проще и понятнее, наверное, привести то что я как IT-специалист и сотрудник дистрибьютора вижу наиболее полно и чаще всего: небольшие интеграторы, поднимающие тяжёлые проекты (часто сроки горят и срыв их недопустим, дополнительно внешняя СХД удобна и для тестирования и отработки некоторых решений)
Небольшие команды разработчиков (СХД для возможности развёртывания продуктивных и тестовых сред) или проектировщиков, работающих с моделями значительного объёма.
Т.е. в первую очередь, наверное, малый IT-бизнес, обслуживающий большой бизнес.
Полагаю, что и для небольших предприятий, ориентированных и на физических конечных заказчиков, особенно для стартапов, где ставки высоки, и остановка работы может быть фейлом, способным загубить начинание.
На практике не так давно общался с коллегой, ответственным за информационные системы в небольшой компании, для которой характерны высокие нагрузки в определённые периоды – у них основное продуктивное хозяйство: 1С и некоторые вспомогательные базы, лежат даже на более мощной СХД на приличном числе твердотельниках. Он честно признался, что полагает, что заложен коэффициент запаса даже избыточный и большую часть времени это простаивает, но он головой отвечает за работу информационных систем в те периоды, которые по-настоящему «горячие».

Т.е. выбор готовой внешней СХД от вендора класса А часто предпочтителен:
• Людям, обслуживающим и ответственным за инфраструктуру, если они имеют компетенции и хотят заниматься скорее уровнем приложений и не тратить время на собирание и создание самостоятельно инфраструктурной части – получить готовую платформу, чтобы на ней развёртывать продуктивные сервисы.
• Руководителям, понимающим, что покупка готовой платформы ускорит развёртывание и качество решения не будет столь сильно зависеть от компетенции их IT-персонала. В том числе это часто позиция опытных эксплуатационщиков, готовых стоять грудью за то, чтобы к ним точно не возникло вопросов.
Тут я говорю о людях, как о роли – в условиях малого бизнеса эта роль может быть как у директора, так и у одного из манагеров.
Спасибо за комментарии, аргументы поняты и понятны. Постараюсь ответить также по пунктам, хотя и не надеюсь, что вы согласитесь, но, надеюсь, что услышите и меня.
1) Такой подход продиктован стандартами отрасли — в основном решения EMC это проектные решения и цена формируется под проект с проектными скидками. Хотя линейка VNXe максимально приближена к тому, чтобы быть рыночным решением — пока нет возможности публично озвучить цены и продавать это в интернет магазинах. Хотя в этом направлении работа ведётся.
2) Всё очень зависит от задач. В некоторых случаях — выбор собственноручно собранного NAS или NAS класса для дома или малого офиса может обоснован (вот наоборот ставить VNXe домой — точно не стоит, если дома нет отдельной серверной). В некоторых же подобные системы являются лучшим выбором. Если эти 10-15 пользователей, связаны совместной работой с какими-то тяжёлыми моделями, и/или для бизнес-процесса недопустим значительный простой – требования иные. Большинство систем VNXe собственное и являются NAS (а некоторые также SAN — потому Unified), но премиального класса и заточенные на корпоративное использование (визарды и шаблоны для подключения к vSphere, Exchange и т.д.).
Надёжность — это комплексное понятие. Чтобы говорить на одном языке, важно точно определить, что под ним понимать: часто рассматривают HA (High Availability — высокую доступность) + DR (Disaster Recovery — восстановление работы после аварии).
Эти системы обеспечивает высокую доступность (HA): отсутствие прерываний в работе при сбоях задублированных компонентов, и отсутствие, или минимизация прерываний работы во время обслуживания.
Функционал для построения DR решений в системах VNXe также заложен: это и репликация, и интеграция с решениями по резервному копированию. Непременной частью DR является регулярный бэкап (резервное копирование).
Даже без полноценного DR регулярный бэкап — необходим. Никакая высокая доступность его не заменяет, т.к. высокая доступность не спасает от порчи данных, например, в случае сбоя ПО или ошибочных или зловредных действий.
3) Права система конечно сама не раздаст. При работе CIFS сервер управление правами будет абсолютно аналогично управлению Windows файловым сервером и делаться через те же инструменты Microsoft и оснастки MMC. Но некоторые вопросы по обслуживанию или продумыванию снимет или упростит, особенно если у администратора нет свободного времени, чтобы внимательно изучать тему хранения, возможности и настройки, а у его начальника нет желания, чтобы устройство работы и настройки знал и умел только конкретный сотрудник.
4) В принципе да, можно сказать и именно так — производитель СХД, имеющий мощный R&D способен сваять прошивку лучше. Системы хранения работают именно в определённой программно-аппаратной конфигурации, именно с такими алгоритмами RAID, проактивной горячей замены и т.д. Поэтому под конкретную конфигурацию, а не абстрактное использование в сотрудничестве с производителями дисков можно сделать прошивку лучше, чем для общего случая.
Защита от установки дисков с рынка — тут тоже есть. Да, часть стоимости СХД по сути «зашивается» в диски.
5) По ценовым вопросам при нашей неготовности приводить конкретные цифры публично диалог конструктивный конечно не получится. Поднять, собирая самостоятельно – да, за само железо + софт вероятнее всего будет дешевле, но у готового решения есть свои плюсы, а целесообразность, глядя на цифры каждый волен определить для себя.
Сдается мне, что с выходом Windows Server vNext, у которого блочная синхронная репликация хранилища уже встроена в базовые возможности, за покупку малым/средним бизнесом «железных» СХД по космическим ценам вообще не останется никаких аргументов.

Да и без этого SMB должно быть достаточно Hyper-V replica. А если сервер олдскульный есть и DFS Replication.

Хотя фича, конечно, ценная. Правда, наверно, теперь в реплицируемых массивах RAID-10 появится дополнительная часть квеста «найди какой диск тормозит запись на массив». )
Могу ошибаться, но её вроде анонсировали только для Datacenter Edition за 250 тыр.
LENOVOEMC™ PX4-400D — одноконтроллерный домашний NAS, помещенный в стоечный корпус для удобства установки в серверной.

Если брать 12 ти дисковый, то не плохое и относительно бюджетное решение для организации бэкапа на диски (в Raid6 10+1 и 1 HS) в компании среднего уровня (на сотню другую сотрудников). Особенно если софт бэкапа еще и дедуплицировать умеет.

4-x дисковый пойдет под те же цели в уже упомянутые ROBO (Remote Office, Branch Office) той же компании :). Рассматривать как первичное хранилище не стоит в силу единой точки отказа из-за «одноконтроллерности».

Если вы такое решение рассматриваете как primary сторадж, проще уж, как рекомендовали выше, поднять все самому на самосборном (или брендовом :)) сервере или на «просто обычном PC», если не требуется установка в стойку. Будет дешевле и проработать может 8 лет, как писали выше :), а может и не 8-мь.

Кстати, на эти системы, если правильно помню, обычно есть список совместимых дисков, которые в том числе можно пойти и купить в соседнем магазине, если очень хочется.
Как primary storage он, конечно, слабенький. IOPS там взять не с чего, латентность на гигабитном Ethernet печальная.

Но вы же маркетологи, а вот что пишут ваши коллеги:
Perfect for small-to medium-sized businesses and distributed enterprises
up to 75 user

Поправьте их.
Во первых, я к маркетингу не имею никакого отношения и дай бог не буду иметь. (Чур-меня-чур) :)
Во вторых, маркетологи всегда маркетологи. Если такое решение использовать просто под файловую помойку (NAS же это в конце концов), то можно и 100, и 200 пользователей написать. Вопрос только в том сколько будет из них активно использовать эту файловую шару в конкретный момент времени. Но при таком подходе, чем обычный самосборный сервер на винде или на самбе хуже? :)
Да практически ничем, кроме отсутствия салазок, raid-контроллера и ОС.
Но если вы опытный самосборщик )) то последние два пункта можно поменять на что-то вроде FreeNAS
Извините, я про ведущих блог.

А вот вроде бы такая система почти серьезная, а вот на storageperformance.org ее не нашел. Нечего показать?
Если вы про VNXe, то EMC в принципе не любит участвовать в сравнениях «в лоб», насколько я понимаю. По этому найти производительность массивов EMC на профильных сайтах всегда было проблемой. Не думаю что это связано с тем что EMC «нечего показать». Если бы это было так, то они не были бы одним из самых крупных игроков на этом рынке. Но за официальной версией лучше сходить к вендору :).

А в остальном мое мнение, что все «усредненные» синтетические тесты — это измерение «сферического коня в вакууме». Да по ним можно составить какое-то первичное мнение о продукте. Но более правильный способ это требовать у вендора «демо» и тестировать под свои задачи.
Можно и FreeNAS :), но если сконцентрироваться на слове «опытный», то FreeNAS избыточен :). Как и в любом решении «из коробки» может быть много лишнего и не быть чего то остро необходимого.

По поводу Raid-контроллера, не обольщайтесь в LENOVOEMC его нет, как не было и в Iomega из которого все это выросло. Там вполне себе «софтовый» Raid на базе кастомизированного Linux. Да оно и к лучшему наверное :).
Полностью с вами согласен.
Sign up to leave a comment.