Pull to refresh

Comments 43

Так всё-таки «поделка» или достойное изделие? Я о заголовке. Это ведь «две большие разницы».
С виртуальной Unity можно поиграть — она скачивается в виде демки с лицензией на некоммерческое использование бесплатно по этой ссылке.

и как обычно ссылка на «поиграться» отсутствует. Еще бы было интересно посмотреть на тулзы по оценке текущей инфраструктуры, дабы оценить свою показать руководству хоть какое-то обоснование…
Сорри, вот ссылка http://www.emc.com/products-solutions/trial-software-download/unity-vsa.htm

Там же видео по установке и FAQ. Нужно будет зарегистрироваться на портале, если вы еще не являетесь заказчиком ЕМС. Регистрация простая и доступна всем.

По утилитам, инженерам DELL EMC и партнеров доступна MiTrend assessment tool (https://mitrend.com), которая анализирует логи с различных элементов инфраструктуры. Мы обычно используем её в сочетание с сайзером для Unity (или других хранилок). Но у заказчиков доступа нет. Если интересно, напишите в личку. Попробуем помочь с оценкой.
А есть что-нибудь подобное для установки на железо?
или возможно ли девиртуализировать перенести апплианс на железо?

Интересует не распределенное виртуальное хранилище между несколькими хостами, а именно создание «хранилки» на базе одного сервера. Типа FreeNAS только от более именитых производителей (EMC, HP, ...)
Посмотрите вот это https://habrahabr.ru/company/croc/blog/269289/. Возможно, это более подходящее решение. Хотя и небесплатное, конечно.
Спасибо, но не то о чем я спрашивал. ScaleIO опять же апплайнс, который ставится на гипервизор. Меня интересует установка на голое железо.
Не ту ссылку дал. Конечно, вот это имел в виду https://habrahabr.ru/company/croc/blog/246155/
Почему на гипервизор? Берется обычный Linux, на него ставится ScaleIO.
Последний раз, как я читал документацию к нему — его можно было ставить вообще на все, что шевелится, включая ARM.
Мы вот смотрим в сторону Datacore. Я тут плавно готовлюсь к тестированию, на бумаге все выглядит интересно.
Оставьте контакты в личку, если интересно наше мнение. Передам ответственным за него ребятам. У них уже есть опыт работы с этим софтом
А вот микрокод здесь сильно переработанный (причем его частично писали русские программеры из Питера)

Я только не понял — это плюс или минус? :)))

За статью спасибо — было интересно.
Плюс, конечно! Во-первых, русские программеры пишут качественный код, во-вторых, к ним можно доехать за 4 часа на сапсане и физически спросить.
Про качество кода не буду комментировать, у меня тут своих примеров плачевных много :)
Ну а то что физически можно приехать и спросить — это да, плюс :D
Черт подери, как же я вам завидую, по белому конечно.
Не сидишь и не тупишь, пока железка сообразит, а тут все на лету получается.
Не очень впечатляет: производительность ниже чем у одного NVMe SSD, архитектура как у обычного писюка и без erasure coding с компрессией-дедупликацией, которая есть у основных конкурентов (как и замена при износе).
“производительность ниже чем у одного NVMe SSD” — да, но это совсем другая история. Там свои минусы, хотя технология классная.

Про архитектуру, хотел бы я такой писюк. Отсутствие EC жить не мешает, ну а компрессия есть и может быть включена на уровне томов.
Какая максимальная latency при однопоточном random write 4к блоками после часа-полутора тестов?
Такая же, как и в начале тестов. По таблице порядка 0,45мс. Цикл теста проходил порядка 6 часов.
Вы уверены, что это max, а не mean/avg?

(Я это пишу по мотивам срачика с одним вендором, у которого avg, mean, 99.9% < 1ms, а max = 2.5s. Редко-редко, а бывает).
Точно-точно-точно? Потому что это довольно крутой показатель. По какой шине/протоколу оно подключалось? iscsi? SAS? FC? Если iscsi, то через какие коммутаторы.
— Штурман, приборы!
— 36!

И что эти цифры тогда показывают? У заказчиков еще 2Гбит макдаты не все кончились. Несколько хопов, да по загруженным путям, да еще кабели то работают, то не работают.

140 тыщ иопсов при прямом подключении. Серьезный аргумент.
Но в этом случае проще сразу в сервер SSD ставить — оно и быстрее будет в несколько раз, и дешевле.

Так и не понял из статьи какая именно модель Unity тестировалась. 300F или 400F?


140 тыс IOPS достигаются на Unity400 и через FC-коммутаторы (в том числе старые на 4G). Причем это IOPS, которые получают хосты, а не что-то измеренное на бэкенде на дисках массива без учета оверхеда на RAID. Тут просто вопрос количества портов на СХД, серверах и FC-коммутаторах. 2G по FC на Unity не поддерживается, только 4G,8G,16G. Один порт 4G вполне себе может давать 50k IOPS, т.е. достаточно балансировать трафик через 3 порта на Unity. Но в связи с архитектурой FC скорее это будут 4 порта.
Как и предположил автор статьи, в итоге все упирается в производительность CPU в контроллере.


Кстати один TLC SSD диск на Unity вполне может выдавать 36к IOPS. Хотя вендор рекомендует для расчетов использовать значение 20k IOPS. Т.е. и минимальный набор дисков для UnityF (9 дисков + 1HS) может позволить загрузить CPU контроллера полностью.

Вы _это_ реально серьезно продвигаете как нормальное решение? :)

Nutanix в 2U может давать 96TB RAW All Flash места, плюс более 600000 IOPS, плюс вычислительные мощности и прочее.

Да-да, мы знаем. А ещё Нутаникс обогнал Чака Норриса. Дважды
Производитель со звездочками, который износ не считает гарантийным случаем — это HP?
Какой-то старый FUD из мурзилки для продавцов. У 3PAR, IBM и NetApp гарантия давно не учитывает износ — все стараются угодить покупателям и проявляют чудеса щедрости.
встроенный 10 BASE-T для раздачи по файловым протоколам

шо?

Система работает по файловым и блочным протоколам. Т.е. внутри СХД можно запустить виртуальный файловый сервер, назначить ему IPшник, отдать часть места и ходить на него через эти Ethernet порты.
Подсказка:
10BASE-T — это 10 Мбит/с.

Странно видеть такого гостя из мезозоя в современной СХД :)
А стандарт на 10Гбит/с по витой паре называется 10GBASE-T.

В статье по поводу M.2 SSD дисков в контроллерах дана ошибочная информация. В документации вендор пишет, что данный SSD используется для загрузки OS контроллера, имеет раздел для сохранения состояния ОЗУ в случае отключения электропитания и еще ряд служебных разделов. Вот одна из цитат.


The M.2 SSD device is located inside the Storage Processor and serves as a backup device in the event of an SP failure. In the event of an SP failure, the memory contents of the SP’s cache is written to the M.2 SSD device so it can be recovered once the SP is restored. If the M.2 SSD device itself encounters a failure, cache data can be recovered from the peer Storage Processor. The M.2 SSD device also holds a backup copy of the boot image that is used to boot the operating environment.

Тем не менее от первых четырех дисков по прежнему отрезается пространство (около 107Gb с каждого). Это пространство используется для хранения кластерной конфигурации контроллеров и хранения образов OS для реимиджа контроллеров. Н-р если внутренний SSD в контроллере был заменен по неисправности и нужно восстановить загрузку OS на контроллере. Первый 4 диска можно включать в дисковый пул в отличии от массивов VNX/VNX2. Как то так.

Кстати даташиты есть и на русском All Flash и Hybrid. Впрочем как и часть технической документации в том числе по замене запчастей на системе.

Доброго дня. Увы ссылка на русский даташит по гибридной системе не рабочая (
Sign up to leave a comment.