Comments 21
(андрюх, привет!) а как подмонтировали флешку? nexenta дает примаунтить через интерфейс?
0
Немного не понял вопроса, но nexenta встала на флэшку. А танцы с бубном через командную строку.
0
Главный вопрос, почему не встроенный функционал ws2012? scale-out file server + asynchronous cluster? зачем отдавать 2 сервера под sql? глупо ведь. кто вам сказал что рейд 5 — быстр?
Асинхронный кластер фактически убирает точку отказа из системы (разве только свитч, но поставьте 2 и все).
Асинхронный кластер фактически убирает точку отказа из системы (разве только свитч, но поставьте 2 и все).
+2
RAID 5 на SAS — быстро и безопасно.
2 сервера под SQL — для распределения нагрузки на чтение, автоматического фэйловера и потери максимум одной транзакции? Глупо? Возможно.
А вы про асинхронный кластер, про Hyper-V или MSSQL, если про Hyper-V? То каким образом он убирает точку отказа?
2 сервера под SQL — для распределения нагрузки на чтение, автоматического фэйловера и потери максимум одной транзакции? Глупо? Возможно.
А вы про асинхронный кластер, про Hyper-V или MSSQL, если про Hyper-V? То каким образом он убирает точку отказа?
-1
А вот про SoFS я честно не совсем понял, куда вы его собираетесь вставлять? Поднимать его на кластерном диске который уже используется? Добавлять еще одну службу прослойкой?
0
Стандартная реализация подразумевает JBOD, подключенный к двум нодам SoFS:
0
Я в курсе. А так как возможности поставить туда JBOD нет — такой услуги у хостера нет, а везти свой в Германию не целесообразно, то мы и используем Nexenta. И подцепляем CSV по iSCSI. Поэтому мне было непонятно, как предалагает использовать уважаемый 4c74356b41
встроенный функционал ws2012.
0
Вопрос про SQL Вы не совсем поняли, почему Вы сделали это на физических серверах, а не на виртуальных?
Про функционал ws2012… картинка не вставляется habrastorage.org/storage2/488/00b/813/48800b8135b558718170a62683297517.jpg
Это разве не sofs?
Про кластер, я не вполне пойму где точка отказа если все дублированно, 2 хоста 2 для виртуальных машин и 2 для сторейджа?
Про функционал ws2012… картинка не вставляется habrastorage.org/storage2/488/00b/813/48800b8135b558718170a62683297517.jpg
Это разве не sofs?
Про кластер, я не вполне пойму где точка отказа если все дублированно, 2 хоста 2 для виртуальных машин и 2 для сторейджа?
0
По картинке.
Кластеризуется только доступ по SMB.
В нашем случае мы можем через SoFS опубликовать папку c нашего CSV.
Он подключен к кластеру по iSCSI. Такое тоже может быть, на вашей картинке внизу этот случай тоже имеется или как проиллюстрировал navion — JBOD, но смысла в этом особого нет. Так как, этот диск и так подцеплен к каждой ноде.
Почему SQL на физических серверах?
А вы пробовали размещать базу размером порядка 40Гб, к которой идет порядка 3000 запросов в секунду в виртуальной машине? Проект неплохо нагружен.
Как скорость работы?
Если размещать подобную базу в виртуальной машине, то нужно ооочень быстрое хранилище.
Конечно, как вариант, создать на той же nexenta еще один LUN и разместить базу в нем, а к серверу подцеплять по iSCSI, но скорость, все равно, будет в разы меньше, чем на SAS дисках.
Точка отказа — это SAN, nexenta. Она является единственным «строайджем». Именно поэтому в системе предусмотрено резервирование виртуальных машин репликацией.
Кластеризуется только доступ по SMB.
В нашем случае мы можем через SoFS опубликовать папку c нашего CSV.
Он подключен к кластеру по iSCSI. Такое тоже может быть, на вашей картинке внизу этот случай тоже имеется или как проиллюстрировал navion — JBOD, но смысла в этом особого нет. Так как, этот диск и так подцеплен к каждой ноде.
Почему SQL на физических серверах?
А вы пробовали размещать базу размером порядка 40Гб, к которой идет порядка 3000 запросов в секунду в виртуальной машине? Проект неплохо нагружен.
Как скорость работы?
Если размещать подобную базу в виртуальной машине, то нужно ооочень быстрое хранилище.
Конечно, как вариант, создать на той же nexenta еще один LUN и разместить базу в нем, а к серверу подцеплять по iSCSI, но скорость, все равно, будет в разы меньше, чем на SAS дисках.
Точка отказа — это SAN, nexenta. Она является единственным «строайджем». Именно поэтому в системе предусмотрено резервирование виртуальных машин репликацией.
+1
Нет-нет-нет. по картинке в кластере 2 сервера файловые, а остальные к ним обращаются.
касательно нагрузки на sql — у меня около нуля идей, я не специалист по базам данных, но «guest clustering» (в вашем случае «always on») мне кажется удобнее всегда чем 2 реальных сервера.
И соответственно я вел речь про свою картинку. те 2 файловых сервера и несколько хостов hyper-v. нет единой точки отказа.
касательно нагрузки на sql — у меня около нуля идей, я не специалист по базам данных, но «guest clustering» (в вашем случае «always on») мне кажется удобнее всегда чем 2 реальных сервера.
И соответственно я вел речь про свою картинку. те 2 файловых сервера и несколько хостов hyper-v. нет единой точки отказа.
-1
А каким образом 2 файловых сервера будут иметь общее хранилище? Вы не совсем понимаете картинку? Это чисто теоретические умозаключения по картинке?
0
Путаете своими комментариями людей. Без JBOD он бесполезен.
+1
А почему в качестве кластерного хранилища не использовали тот же Windows Server 2012? Сейчас даже не обязательно редакцию DataCenter иметь, iSCSI на всех прекрасно работает.
0
Честно говоря, рассматривали данную возможность.
Но, честно говоря, смутила реализация: VHD файл, даже не VHDX — лежит на жестком диске и отдается службой, это первое. Второе — скорость получалась меньше.
Но, честно говоря, смутила реализация: VHD файл, даже не VHDX — лежит на жестком диске и отдается службой, это первое. Второе — скорость получалась меньше.
0
Второе — скорость получалась меньше.
Сильно? Сеть, я так понимаю, 1G, и диски обычные на обычном контроллере?
Я прямых сравнений не проводил, если честно. Когда-то давно сравнивал со StarVind-ом под той-же виндой, в конечном счете вышел паритет, но при сети в 1G, производительность дисковой подсистемы не очень-то важна. Сейчас у меня есть парочка программных SAN-ов на основе Windows Server 2012, но там 24 SAS диска по 15K оборотов в 10-х RAID-ах на контроллерах с кучей памяти и по 2 10G оптических интерфейса. Вот на них бы получилось сравнение более правдоподобное. Но они пока в продакшене.
P.S. Хотя я конечно сторонник «аппаратных» решений, да и FC как-то роднее iSCSI, хоть и гораздо более специфичен и капризен.
0
Да, в принципе, не сильно. Сеть — да 1G. Больше смутила реализация в WIndows.
И как поживают такие SAN?
На момент реализации Windows 2012 только появилась — не решился в продакшене эксперементировать.
Недавно Nexenta поставил на самосборный SAN с Enterprise HDD, SSD и большим количеством памяти — весьма не плохо, если учитывать некоторые моменты.
P.S. «Аппаратные» решения тоже больше нравятся, но стоимость, порой не оправдана для некоторых задач.
И как поживают такие SAN?
На момент реализации Windows 2012 только появилась — не решился в продакшене эксперементировать.
Недавно Nexenta поставил на самосборный SAN с Enterprise HDD, SSD и большим количеством памяти — весьма не плохо, если учитывать некоторые моменты.
P.S. «Аппаратные» решения тоже больше нравятся, но стоимость, порой не оправдана для некоторых задач.
0
И как поживают такие SAN?
Да прекрасно поживают. Захожу на них ОЧЕНЬ редко. С момента внедрения, около 9 месяцев, раза три заходил LUNку создать и все. Кормят эти штуки данными два кластера по 4-ноды, один на Hyper-V второй на VMWare. Пяток SQL-ей, серверов 1С, и еще около сотни виртуалок от контроллеров домена, до фермы SP и SCCM. Производительности всем хватает, правда кое где есть затыки, но только там, где iSCSI 1G.
0
Sign up to leave a comment.
Отказоустойчивость для Hyper-V VM и MSSQL