Как стать автором
Обновить

Комментарии 27

а что с ленточными накопителями? ведь бэкапы это тоже хранение

Да живы ленточные накопители/библиотеки и тоже до сих пор развиваются и производятся. Просто параллельно развиваются системы c онлайновой дедупликацией данных и записью их на емкие и дешевый SATA диски. Причем зачастую делает и то и другое один и тот же производитель. Как пример, из тех кто известен в нашей стране, это компания Quantum.

Сейчас многие вендоры предлагают решения, позволяющие эмулировать ленточные накопители (в первую очередь библиотеку). При этом сама железка представляет из себя полку с дисками и аппаратной дедубликацией для минимизации места, занимаемого бекапами. Такое решение позволяет получить существенно бОльшую скорость записи и восстановления данных. Некоторые вендоры (например, Huawei) вообще не видят перспектив в производстве традиционных ленточных решений. И предлагают только вариант с виртуализацией. Другие (например, HPE или уже озвученный Quantum) предлагают и то и другое. Конечно же, ленточные устройства никуда не уйдут и еще долгое время будут использоваться для долгосрочного хранения резервных копий. К примеру, Российское законодательство обязывает некоторые компании хранить архивные данные за несколько лет. Для таких случаев выгоднее использовать кассеты.
С ними всё хорошо, для холодных данных это идеальный носитель и объёмы растут с каждым поколением:

Сети хранения данных достаточно инертны. Сколько подобных статей было про FCoE наше все? И FC умрет уже завтра. Потом было Infiniband наше все и FC уже мертв. Теперь очередной виток с Ethernet для хранения данных. На самом деле каждая из новых технологий находит свою нишу, а FC все еще продолжает существовать и развиваться (в том числе наращивать производительность). И умирать точно не собирается. И тому есть свои причины. Во первых, многим оно привычно и знакомо. Во вторых, работает именно так, как от него и ждут. На западе в небольших инсталляциях до сих пор популярен iSCSI, в отличии от России. И его тоже хоронить никто не собирается.


Так что все эти маркетинговые заявления "вот новый прорыв в сфере хранения данных", "мы на пороге революции и мир измениться\изменился навсегда" не более чем маркетинговые заявления.


Да все постепенно движется, все постепенно развивается, появляются новые технологии. В том числе эти технологии разрабатывают и развивают сами "производители традиционных схд". Которые тоже не собираются посыпать голову пеплом и плакать перед разбитым корытом. И это хорошо. Но никаких потрясений на мой взгляд не предвидится. Все размеренно и "по плану". Так что большинство "предсказателей" высасывают свои предсказания из пальца, и нужно с приличной долей иронии и цинизма воспринимать подобные лозунги.

На западе в небольших инсталляциях до сих пор популярен iSCSI, в отличии от России.

А в России что популярно?
КМК, бюджеты сильно порезали и средний бизнес будет уходить от дорогущего FC, где только HBA стоит в пять раз дороже 10 GbE адаптеров. Также в этом году наконец появились приличные 10 GbE коммутаторы для SME: Dell X4012, Netgear M4300-12X12F и т.д.

Да на самом деле в России, что для меня на самом деле странно, до сих пор более популярен FC для построения сетей хранения. У тех кто до сетей хранения уже дорос есть готовая инфраструктура, а разворачивать параллельно рядом альтернативную часто более накладно, чем развивать существующую. Особенно если учесть расходы (и не только материальные) на поддержку и той и другой параллельно. Проще в текущий момент затянуть поясок и либо накопить на "нормальный FC", либо просто подождать "вдруг оно все само вокруг наладится". Т.е. просто пока не тратится на дальнейшее развитие IT.


При построении инфраструктуры с нуля народ чаще последнее время посматривает на альтернативы, в том числе на iSCSI и конвергентные сети и решения. Но много ли компании в текущих условиях готовы переходить из состояния небольших в состояние средних и как следствие начинать отстраивать новую IT инфраструктуру с нуля?


Еще в текущих условиях есть тренд, народ начинает пробовать бесплатные (или условно бесплатные) software define решений хранения, в том числе имеющие среду передачи данных на базе ethernet. Но только единицы из тестирующих решаются ставить на них хоть какой-то продуктив. Во первых, без поддержки разработчика вся ответственность за выбор и поддержание рабочего состояния решения ложиться на IT отдел или руководителя. А кому такое понравится? А если приобретать поддержку, то решение по цене уже мало будет отличатся от обычных стораджей. А во вторых, мало кто у нас пока умеет правильно "готовить" и эксплуатировать Ethernet (да и любую другую альтернативу FC) именно как SAN (сеть хранения данных). А сделанное по принципу "и так сойдет", работает в итоге соответствующим образом.


Все выше написанное просто мое личное мнение. Может я конечно чего то не вижу, не знаю и делаю неверные выводы. Готов увидеть альтернативные мнения :).

Т.е. просто пока не тратится на дальнейшее развитие IT.

Некоторые вендоры принуждают обновляться, задирая стоимость расширения и послегарантийной поддержки в небеса.

Мне ближе проблемы SME и очень нравится SAS — он быстрый, простой и дешевый.
Жаль масштабирование сейчас ограничено четырьмя хостами: у VMware никто не сертифицирует конфигурацию с коммутатором, да и сами коммутаторы под 12 Gbps в России не продаются.

На мой взгляд SAS мертворожденный вариант. Сам по себе протокол на стадии разработки не предполагал наличие мультихоповой маршрутизации. А без этого безболезненное нормальное расширение сети хранения не возможно. С другой стороны кого-то привлекает, что "настраивать" там практически нечего, а значит и вероятность ошибиться близка к нулю.


Лучше уж тогда iSCSI пользовать. Тоже относительно просто и 10G все дешевеет. Да и предел 1Gb под транзакционной нагрузкой находится в районе 10k IOPS или 80 MB/s пропускной способности при последовательном вводе\выводе. Что для небольшого бизнеса часто достаточно. Плюс на 1Gb можно реализовывать мультипассинг, задействовав несколько физических портов и повышая тем самым производительность и отказоустойчивоасть. Другое дело, что под любую сеть хранения в идеале нужно иметь пару выделенных свитчей\коммутаторов. Это касается и iSCSI. Опять же из соображений отказоустойчивости и производительности.

Утонение. Я имел в виду SAS именно как сеть хранения, а не как интерфейс передачи данных внутри сервера или СХД.

А для чего в SAN мультихоповая маршрутизация и как часто в небольших компаниях её используют с FC?
И в SAS есть там мультипасинг — работает как в iSCSI через ALUA, но без головняка с размерами фреймов, буферами коммутаторов, задержками на обработку пакетов и т.п…

Ответ на вопрос с маршрутизацией на поверхности. Достаточно обратится к вопросу, а зачем вообще придумали сети?


Для SAS вменяемые коммутаторы появились достаточно поздно, долгое время были ограничения на использование только медных и достаточно коротких проводов. Это сильно повлияло на популярность и развитие SAS как технологии передачи данных в сетях хранения.


При этом для небольших компаний, которые не планируют расти в обозримом будущем, SAS может быть и вариант. Своя ниша у него уже есть, иначе бы эти решения банально никто не производил. С другой стороны, компании, которые не планируют развиваться, достаточно странно странно выглядят.

С другой стороны, компании, которые не планируют развиваться, достаточно странно странно выглядят.

Мне кажется черезчур оптимистично расчитывать на взрывной рост с четырёх серверов в одной стойке к географический распределённой инфраструктуре. Такой процесс растягивается на годы и за это время сменится пара поколений железок.

Впрочем, я сюда пришел не спорить, а скорее побрюзжать про отказ от хорошего решения в пользу плохих (для определённого сегмента).

Ну с географически распределенными вы замахнулись конечно. Как простой пример, 4 стойки 42U в небольшой серверной уже могут доставлять проблемы с подключением вычислителя стоящего в крайней правой, к СХД, стоящей в крайней левой стойке :).


А в целом да, каждому решению свое применение. И опять же хорошо, что для конкретной задачи есть несколько вариантов решения :).

Заглянул в FAQ по LSI 6160 и судя по написанному он позволяет сделать рабочий вариант:
Typical uses may be to use two switches for redundancy, or multiple “daisy chained” for additional connectivity, or in conjunction with “Active” cables to provide extended distance and connectivity in a data center.

А теперь найдите в каком году такая возможность появилась :) и сравните с остальными технологиями для сетей передачи данных. Плюс все "Active" кабели обычно стоят приличных денег.


P.s. насколько помню не так давно еще появились оптические кабели для SAS подключений.

И да если почитать англоязычные источники за последние 1,5-2 года, то причины слияния Dell и EMC лежат совсем не в поле развития технологий. Просто некоторые недобросовестные инвесторы, скупившие определенный пакет акции публичной компании, пытались заработать здесь и сейчас, требуя распродать EMC по частям и за дорого. Для тех кто пережил 90-ты в нашей стране ситуация довольно знакома. Компания, защищаясь от этой агрессии, формально продавшись Делу сменила форму собственности.
С компанией Dell кстати в свое время была ровно та же история. И ее создатель и текущий владелец тоже прошел через все грабли выкупа своей же компании и параллельной смены формы собственности.

CEPH несомненно рулит. Выкинули все RAID-массивы, развернули его на 5 серверах, два года работы — полет нормальный. Общая ёмкость — 100 терабайт. Бегает правда, не по ethernet 10Gb, а по инфинибанд 56Gb.
Скоро будем модернизировать — добавим для кеша SSD-диски.

Рад за вас :). Но не у всех знакомство с CEPH заканчивается так радужно. Последнее время все острее встает проблема квалифицированных кадров :).

Честно говоря — странно. Квалификация нужна, но не сказал бы, что нужна супер-супер. Если человек осилил что-то из GFS/GPFS/Gluster, то вполне потянет и установку CEPH, в ней нет ничего особенного, чтобы ее отличало от других типов ПО для кластерной инсталляции.
Во первых, очень подробное руководство на самом сайте.
Во вторых — куча статей, даже на русском есть.
В третьих — всегда можно пригласить консультанта/специалиста.
В четвертых — например fujitsu/siemens уже предлагают готовые решения под ключ.
И уж точно это не сложнее развертывания сети FC/SAN или iSCSI. Ну а если нет специалистов, то либо стимулирование слабое, либо продукты и ПО такого класса вам еще не нужны. Ведь подобные решения ставятся для решения сопутствующих задач.

Я по роду деятельности не редко сталкиваюсь с заказчиками, админы которых даже не в курсе как работает кластерная система (любая, даже кластер MS). Хотя компании порой совсем не маленькие :). А вы говорите самостоятельно настроить :). Я согласен, что есть компании, имеющие квалифицированный IT отдел, который может все сделать и взять ответственность за поддержку решения. Но к моему глубокому сожалению таких компаний скорее единицы (может и десятки, если брать в рамках всей страны).


Есть интеграторы и вендоры, которые могут все сделать за заказчика и взять поддержку решения на себя. Но стоимость решения в таком случае слабо будет отличатся от покупки "классической" СХД или чего-то подобного со всеми вытекающими последствиями.

Все зависит от задач, бюджета, и квалификации персонала, это несомненно. Я же не говорю, что это решение на продажу (хотя fujitsu/siemens продают). Тем более, что дисковое распределенное хранилище само по себе погоды не делает, оно ставится для решения определенных задач. Ну а заказчику обычно все равно, что и как у него внутри крутится, какое ПО используется. Лишь бы решало его задачи в соответствии с бюджетом. А интеграторы как раз здесь и могут выиграть на разнице в цене между «традиционным» и «новым» подходами.
Аппаратное обеспечение для простого развертывания того же CEPH сейчас очень подешевело, например 10Гб карточки перешагнули $150-200, а коммутаторы 10G на 8-12 портов уже стоят $700-1000, что по скорости и цене на клиентский порт значительно дешевле традиционных решений.
Тут когда-то был блог компании допиливавшей Ceph для своего облака — там подход совсем не похож на готовую СХД, с которой достаточно пролистать редбук и потыкать кнопки в визарде.
Нет, это не совсем СХД, это нечто большее. Ну и время течет, новые версии ставятся и работают из коробки сразу в продакшн. Ceph сейчас поддерживают очень многие. Он сильно вырос.
Достаточно пролистать «редбук» с официального сайта. На счет визардов — они тоже есть, например Calamari.
Вспомнил почему не интересовался Ceph — его сложно подружить с Hyper-V и ESXi.
Какая версия применяется, обновлялись когда-нибудь?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий