Как стать автором
Обновить
10
0
Алексей @ximik13

Lead Engineer

Отправить сообщение
НЗЧ.
Ниже под следующим спойлером аналогичная проблема с параметрами fio видимо.
День добрый.
Вы похоже забыли описать параметры секции [global] в fio.
После предложения:
При всех синтетических тестах используются следующие конфигурационные параметры fio секции [global]:

пусто.
Я Free версию Veeam не использовал. Потому хочется докопаться до истины.
В недрах настроек Job-а в резделе Storage=>Advanced=>вкладка Storage стоит чекбокс «Enable inline data deduplication (recomended)»? Поле «Compression level» настроено?

Если посмотреть отчет (Report) по завершенному Job, то что то подобное есть?



Просто хочется для себя понять. Действительно ли встроенная дедупликация Windows может приносить дополнительную выгоду в дополнение к средствам Veeam? Или все таки нет? :)
В общем если у вас и Veeam дедуплицирует и выполняет компрессию данных. А затем Windows еще добавляет компактности хранимым данным от себя, то это крайне интересные факт :).
Я видел то, что выше. И конкретно про ваш случай с hp microserver я бы собирал два софтовых Raid1 средствами самой OS. И использовал их как два отдельных репозитория для Veeam. Что бы исключить зависимость от испарвности/неисправности встроенного Raid-контроллера, который все равно «ненастоящий», а такой же полусофтовый (использующий ресурсы CPU). В этом случае, при необходимости, винты можно перекинуть в любой другой сервер/компьютер и более-менее спокойно забрать с них данные.

P.s. Но опять же в данном случае мое мнение не претендует на истинность :).
Да это немного проясняет картину. Но вы так и не ответили. Встроенная дедупликация Veeam в заданиях бэкапа при этом используется или нет?
Не совсем понял, что значат 9% и 35%. Это объем исходных данных после дедупликаци?
Если да то какой дедупликации?
Используется Veeam. Задания настроены с использованием встроенной дедупликации. После этого на полученных дедуплицированных архивах применяется постпроцесная Windows дедупликация и объем архивов уменьшается до 9%-35% от исходного объема архивов? Или уменьшается еще на 9%-35% от исходного объема архивов?

Можно подробнее рассказать? :)
«Скорострельность» в первую очередь зависит от количества шпинделей, а тип Raid только вносит свои коррективы. Если утрировать, то Raid5 из 9 дисков будет быстрее, чем Raid10 из 4-рех.
Дедуплицировать бэкапы уже дедуплицированые в Veeam не лучшая идея. Примерно как пытаться ужать в архив сотню jpg и потом удивляться почему место не только не сэкономилось, а архив стал занимать еще больше чем файлы до этого. А в остальном вполне себе вариант. Вот только если рэйд, то лучше софтовый, что бы в случае чего не искать второй такой же микросервер или аналогичный Raid контроллер. Ну и тут все может еще упереться в пропускную способность канала между площадками.
P.s. Я не эксперт по Veeam, но по работе сталкивался с ним. Мое мнение — это только мое мнение и все :).
Спасибо за статью, она очень познавательна. Но про Iometr вы зря так. Ровно все то же самое, что вы описали для FIO можно реализовать и на нем. B он тоже кроссплатформенный если что :), в том числе из исходников можно собрать под нужную OS. Тут вопрос в том, кто и с чем лучше разобрался :). Ну и в 2006 году вышла не последняя версия Iometr, т.к. после компании Intel его развитием занимались другие люди. Последние версии доступны тут www.iometer.org.
Все бы ничего, но обороты речи во многих местах статьи просто удручают. («сасовские винчи», «простецкий командный интерпретатор», "«ужирать» в час десятки терабайт", "«адские» терабайты" и т.д.) Я не говорю уже про написание на русском англоязычных названий с использованием достаточно «странной» транскрипции (не проще было написать на английском их?). Я понимаю, когда просторечные обороты используются при живой презентации для усиления эффекта для целевой аудитории, которая в курсе профессиональной терминологии и лексики. Или в крайнем случае может переспросить спикера сразу же после произнесенной фразы. Но для технической статьи на достаточно уважаемом портале все это выглядит мягко говоря «некрасиво». Впечатление что на лекции сидела стенографистка и записывала прямую речь лектора, которую потом без редактирования засунули в статью.

Кроме того в статье просто присутствуют технические неточности. Например подскажите мне хоть одну модель DD (старую или новую), где в головном корпусе можно разместить 15 дисков? Всегда в базе идет либо 7, либо 12. А дальше уже полки расширения устаревшие ES20 (12 дисковые) или актуальные ES30 (15-ти дисковые). Про NVRAM тоже не все верно. Например у младшего DD2200 нет отдельной карты NVRAM и схема организована как на массивах VNX. Вместо NVRAM выделяется часть оперативной памяти контроллера под кэширование. Защищается по питанию батарейкой (BBU). В случае отключения питания содержимое ОЗУ сбрасывается (за счет работы от BBU) на системные на диски в резервную «Vault» область.

Честно терпел и читал до середины статьи, потом терпение закончилось. Не могу в таком стиле дальше читать, уж извините :).
Картинка с сравнением Roadmaps Ethernet и FC очень «маркетинговая» в начале статьи. Официальные лица от FC пишут о другом тут: fibrechannel.org/fibre-channel-roadmaps.html
Например: 2016 год — это скорость интерфейсов 128G, а к 2019 году — 256Gb. Причем техническая спецификация на 128Gb была готова уже в 2014 году.

На самом деле похоже, что это стандартные формулировки для EULA почти у любого вендора. Но все равно забавно.
Про 6-ть десятков вопросов я погорячился. Но почти 4 десятка вопросов было. Нашел переписку и запостил их в комментариях к статье про nutanix тут, что бы не писать здесь комментарии не имеющие отношения к данной статье. Понятно что на часть из них ответ уже найден. Так как вопросы эти у меня возникали еще в апреле 2014 года, но то что касается сервиса фактически осталось без ответа. Да и на остальные вопросы хотелось бы увидеть конкретные ответы, а не обтекаемое нечто. Ну в крайнем случае уж с отсылкой в конкретные места пресловутой библии.
Написал вопросы для пользователя shapa тут, что бы не замусоривать ими статью про другого вендора.

Список вопросов:
1. Какой размер дисковой емкости получает пользователь под свои данные (виртуалки)? SSD? SATA? Например в полностью набитом одном боксе на 4 сервера.
2. Какие CPU используются в серверах? Самые мощные? Самые слабые? Или они во всех моделях одинаковые?
3. Как построена архитектура NDFS? Одна виртуальная машина работающая на конкретном сервере физически может быть «размазана» по дисковой емкости нескольких серверов кластера (размер блока которым при этом оперирует FS?) или данные будут стремится находиться на том же физическом сервере, где запущена VM?
4. Если мы говорим о двухкратном дублировании данных, то вторая копия данных этой виртуалки будет так же «размазываться» по дискам нескольких серверов?
5. Если есть возможность, то можно ли привести хотя бы схематично алгоритм или принцип распределения данных по физическим серверам?
6. Для тестовых или не очень важных виртуалок есть возможность отключать дублирование данных в пределах кластера для экономии дискового пространства?
7. Для миграции данных с медленных дисков на быстрые и обратно каким блоком (по размеру) оперирует NDFS? Ну и соответственно на блок какого размера собирается статистика производительности?
8. Миграция данных между SSD и SATA осуществляется по расписанию или постоянно в фоне?
9. Какие типы SSD дисков используются?
10. Где-то в метаданных CRC считается? Или какие есть механизмы для защиты от сбойных блоков на физических дисках?
11. Где и по какому принципу хранятся метаданные в NDFS?
12. Требуется ли отдельная настройка 1G/10G коммутаторов для соединения боксов Nutanix? VLAN-ы, транки, QoS, Jambo Frame и etc.? Особенно в том разрезе: должен ли человек, разворачивающий или администрирующий кластер, обладать достаточными знаниями в сетевых технологиях, а не только в виртуализации?
13. Срок гарантийной поддержки, который идет с новой системой «по умолчанию»?
14. Стоимость продления поддержки на один год после окончания первоначальной поддержки? Например на один полный бокс на 4 сервера?
15. Есть ли описания условий этой поддержки/гарантии для заказчика на русском? Или по другому, что заказчик получает/приобретает, покупая поддержку?
16. В случае возникновения неисправности куда заказчик обращается в первую очередь и какие данные обязан предоставить?
17. Есть ли механизмы и какие для автоматизации заведения кейсов у вендора в случае неисправности оборудования или проблем с софтом? Если да, то как будут обрабатываться подобные кейсы? Кто будет помогать заказчику на месте в случае такой необходимости или запросе из Глобал Сапппорта вендора?
18. Какой срок жизни предполагается для одного семейства продуктов до полного окончания поддержки и невозможности ее продления?
19. Миграция на новое поколения будет прозрачной без остановки сервисов?
20. Какой цикл обновления железной платформы предполагается в годах? Н-р: раз в три года, раз в пять лет.
21. Какие запчасти меняются в Nutanix при выходе из строя? Все ли запчасти меняются на горячую?
22. Где можно найти описание сервисных процедур для замены запчастей?
23. Какие запчасти заказчик может менять самостоятельно?
24. Если для замены запчасти потребуется выезд инженера, то кто поедет и за чей счет? Например в Екатеринбург?
25. Где находятся сервисные склады с запчастями для Nutanix?
26. Какова процедура заказа запчасти? Кто принимает решение о необходимости замены? Кто инициирует и отслеживает сам процесс доставки и замены запчасти?
27. Каков средний срок доставки запчасти до заказчика например в Екатеринбург? За чей счет будет доставляться запчасть?
28. Если необходимо неисправную запчасть возвращать производителю, то за чей счет это будет производиться?
29. Каким образом изолируется служебный трафик между контроллерными VM Nutanix, между контроллерными VM и гипервизором?
30. Требуется ли ручная настройка маршрутизации между контроллерными VM?
31. Какое количество и каких железных компонентов должно выйти из строя в кластере, что бы привести к недоступности данных? К потере данных?
32. Сжатие данных включается на каком уровне? На конкретном физическом сервере? На конкретной VM? На весь кластер сразу?
33. Какой процент производительности теряется, если теряется при работе со сжатыми данными?
34. Репликация виртуалок между датацентрами может выполняться в синхронном режиме? Если да, то какие критерии по предельному расстоянию между ДЦ и времени задержки на канале, минимальная ширина канала?
35. Есть ли разумные ограничения по характеристикам канала между ДЦ для репликации в асинхронном режиме?
36. Какова минимальная (по времени н-р: 5 сек. или 5 мин.) гранулярность снапшотов VM при репликации между ДЦ.
37. Что имеется в виду при репликации между ДЦ под «Защита данных» => Восстановление приложений? Например если у меня MS SQL внутри виртуалки упадет, то он будет «поднят» в другом ДЦ автоматически? Для этого требуется установка агентов Nutanix в виртуалку? Или имелось в виду что то совершенно иное?
38. Для Disaster recovery используется софт и функционал, предоставляемый производителями гипервизоров? Или у Nutanix есть свои инструменты для этого?
39. Ну и почти риторический вопрос. Nutanix не подойдет, как я понимаю, для сервисов, выходящих по производительности за пределы одного сервера Nutanix?
Само по себе SDS сейчас мало кому нужно. Требуется решать бизнес-задачи, тобишь полный стек.
Если смотреть в таком разрезе, то и у Nutanix стек не полный. Для решения бизнес задач на Nutanix как минимум потребуется приобретение коммерческих OS или поддержки на них. Приобретение приложений, которые будут работать на этих OS. Так что давайте не будем передергивать :).
При таком раскладе и Nutanix, и все гипервизоры, и все что окружает эти решения — это плод тупиковой ветви развития эволюции. Нужно сразу заниматься виртуализацией приложений, к чему все эти прослойки в виде эмуляции виртуального железа? :)

«All roads lead to hyperconvergence»
. ScaleIO — может быть частью гиперконвергентного решения, как SDS. В чем противоречие?

Nutanix поддерживает это, мало того — новые Capacity ноды идут под KVM-only, но могут расширять место на кластерах ESXi.
— Я не пытался сравнивать Nutanix и ScaleIO. Но если так уж хочется, то Nutanix поддерживает только популярные гипервизоры тчк. Про остальные OS даже речи нет. Что логично с той точки зрения, как позиционируется Nutanix. Но не всегда логично точки зрения конечного заказчика.

и сидят в одном офисе в в Мск например :)
— распространенное мнение :). Но вроде как не в одном офисе, а на одном этаже. В Екб офис EMC на одном этаже с Microsoft, насколько знаю. Давайте тоже делать выводы :).
Очень много текста :). И итог очень уж сухой.

ScaleIO, насколько понимаю, позиционируется в первую очередь как SDS (Software-defined storage). О чем вы собственно написали сами. Т.е. не как гиперконвергентное решение, а как возможная часть такого решения. Так давайте рассматривать его именно в этом ракурсе :). Отсюда, как использовать ScaleIO в своей среде решает пользователь. Вы описали только один возможный сценарий, а он далеко не единственный. Cудя по описанию на сайте вендора, ScaleIO может работать и не в среде виртуализации. Кроме того поддерживает смешанные кластеры хранения, когда данные распараллеливаются по различным OS (Microsoft Windows, RedHat Enterprise Linux, CentOS, SUSE) и/или гипервизорам (VMware vSphere, Citrix XenServer, Microsoft Hyper-V, Linux KVM) в пределах одного кластера. Опять же есть гибкость в том, что ноды можно разделить по ролям: Server — отдает часть локальной емкости под хранение данных и Client — использует дисковые емкости серверов. Или можно использовать одни и те же ноды и как сервер, и как клиент. Минимальные требования к серверу, для включения его в кластер ScaleIO, по нашим временам достаточно скромные: 2CPU, 1.5 Gb RAM, 100GB дискового пространства.

Никаких специальных ограничений на «бесплатный» ScaleIO EMC так и не озвучила. Т.е. будет доступен бесплатно с 29 мая 2015г. полный функционал решения. А за деньги только тех.поддержка от производителя, если она вам нужна.

Есть и недостатки. Насколько знаю, первична для управления ScaleIO CLI. А GUI только визуализирует конфигурацию кластера и обладает далеко не полным функционалом для управления этим кластером. Возможно (и даже скорее всего) в будущем это изменится. Но я думаю что для «начинающих» такое положение дел пока будет скорее отталкивающим фактором.

P.s. У всех решений и продуктов есть как минусы, так и плюсы. Все зависит от конкретной ситуации и конкретных задач. По этому у меня всегда вызывает улыбку попытка выставить на показ только «плохие» черты конкурентов и только «хорошие» собственные. Ну не живем мы в черно-белом мире в конце-то концов! :)

P.s. P.s. EMC вроде как не владеет VMware целиком (на 100%), по всем последним и не очень новостям звучит цифра 80% :). Кроме того, VMware так и не стала «частью» EMC, как многие другие удачные приобретения. Т.е. VMware живет и развивается достаточно самостоятельно :).
Простите, не уловил связи между бесплатным ScaleIO и ESXi. Можно с этого момента поподробнее?
1) Данные между нодами передаются/синхронизируются по iSCSI?
2) До скольки нод/серверов масштабируется решение?
3) Для работы требуется внешний 10G свитч с медными RJ45? Или там порты под SFP+ трансиверы на нодах (на картинках плохо видно)? Свитч нужен тоже от HP?
4) На 1G не заведется решение в минимальной конфигурации?
Приведенные вами ссылки — это что-то вроде описания коммерческого предложения или условий конкурса, а не заключенный контракт. На том же сайте откопал из свежего только вот это (вроде как заапрувленый контракт примерно на ~$214,5 тыс.)

Информация

В рейтинге
Не участвует
Дата рождения
Зарегистрирован
Активность