Pull to refresh

Comments 23

> Очень часто получается так, что жесткие диски способны на более высокие скорости, а интерфейс подключения СХД к серверу, или дисков к контроллеру выступает ограничителем производительности.

Да что вы говорите! И часто? ;)
гхм… в целом да… неувязочка… реально вклад шины в скорострельность системы на обычных дисках — не более 5%… и то ещё замерить надо…
а вот если про SSD то картина будет уже иной.
кроме того более высокая скорость по бэк-енду даст прирост в системах с большим количеством шпинделей… хотя и не пропорционально…

в целом резюме — да, 6 лучше чем 3… но с точки зрения юзера — не в 2 раза… :)
Да, такое возможно. Даже более, если смотреть в корень, как нас учил классик, система: сервер (внутренняя архитектура память-ввод-вывод, контроллер в сервере, интерфейс, далее фабрика (возможно или что то еще) контроллер внешней подсистемы дисковой, диски) имеет массу возможностей для узких мест.
> имеет массу возможностей для узких мест.

Именно так. И скорость интерфейса к дискам там где-то в конце первого десятка ;)
Все таки, теоретически возможно (мы не будем поминать старый добрый МСА1000, у которого диски были Ultra320 а бэкэнд всего Ultra160) согласитесь, что вот приходят запросы на ввод-вывод к контроллеру СХД, он их обрабатывает и далее идут запросы на ввод-вывод к дискам. Если дисков мало, контроллер всегда «на коне» и легко (как правило) справится, но если на бэкенде будет висеть много дисков, тогда тормозом будут, вероятнее всего, выступать именно контроллеры и мы будем в метриках производительности наблюдать рост отложенных записей на диски (кэш). Я бы рассказал про массу возможностей, как можно положить даже хай-энд массив неразумными действиями (это непросто, но как в той истории, когда русские перевернули Хамер:)), нет ничего невозможного), но это будет совсем другая история.

Как учит нас теория, распределяйте нагрузку по как можно большему количеству массивов :) Это тем более справедливо для массивов начального уровня.

ЗЫ Только не надо про теплый ламповый звук говорить. Люди, занимающиеся СХД прекрасно знают, что в СХД есть и начальный уровень, и средний уровень и хай-энд. :))))))))
SAS хорошо. Вопрос — а как подключать к этой системе хранения, скажем, десяток серверов?
Через SAS-свитч, надо полагать.
А какая система виртуализации поддержит полноценно такое подключение? Наверно никакая. Тогда зачем?
ошибаетесь. sas-raid controller типа P600m/p700m и никаких проблем. в сервере увидите стандартные scsi диски. только они реально логические на MSA
Нет, даже все таки не могу не спросить, а что все подходы кроме полной виртуализации уже отменили??? Я так не думаю :)
Поиском набери, например, HP StorageWorks 3Gb SAS BL Switch
для HP Blade есть штатный SAS witch правда пока 3 гигабитный… но видимо не за горами апгрейд… да и мезанин есть — P700m
так что ждёмс апгрейда… а в основном лейтмотив статьи — месяца два назад (или раньше) вышило 3-е поколение MSA с 6гигабитным бэкплейном — FC и FC iSCSI(комбо) мозгами. теперь и SAS внешний докрутили :)

кстати, а вы вкурсе, что если пренебречь 6гигабитным бэкплейном то есть возможность перекрутить одну в другую(апгрейд поколений) :)

так дело в том, что, например, в состав поддерживаемых XenServer интерфейсов общего хранилища SAS не входит, VmWare тоже, если не ошибаюсь. То есть использование узкоспециализированное.
вы не поняли… при чем тут SAS?
стандартные scsi поддерживаются? вот и харашо….а SAS это всего лишь реализация..(ну с точки зрения ОС)
А может VmWare или XenServer держать на общем SCSI разделе виртуальную машину, для которой поддерживается режим HighAvailability?
вопрсо не по адресу :) аппаратно сделать презентацию LUNа двум хостам — как два пальца об асфальт :) остальное — вопрос ОС…
Хм… назвать SAS узкоспециализированным решением как минимум странно :) Не забываем, что кроме полной виртуализации существуют (и будут существовать) классические схемы подключение. Кроме того, Бронтозавр вполне резонно отметил, что SAS (как, впрочем, и Файер) — тот же SCSI по внутренней своей сути.

Насчет high availability — не создавайте единую точку отказа в виде СХД, хотя это уже совсем другая история и совсем другие деньги :)
Если вам все ещё интересно, могу сказать за VMware.
В отношении High Availability, ESX'у фиолетово, как именно к нему подключён шаренный SCSI раздел (могут быть вопросы с boot from SAN, но это уже другая песня). У нас подобные инсталляции редко случаются, но около года назад лично делал небольшую с DS3200.
Фибра или iSCSI, судя по интернету. Так что через оптический или езернет коммутатор.
Как вариант, но это совсем другая история.
SAS действительно позволяет подключать несколько серверов через SAS коммутатор. Вот только подумайте, потянет ли СХД начального уровня десятки серверов :) Это надо все считать.
Sign up to leave a comment.