Comments 30
А рассматривался вариант Win Storage server/ ISCSI Target?
Спасибо за статью!
Скажите пожалуйста, а почему не стали использовать файлсервер с поддержкой iSCSI и шифрованием на клиентской стороне?
Под файлсервером я имею в виду NAS типа Synology или чего-то подобного.
Скажите пожалуйста, а почему не стали использовать файлсервер с поддержкой iSCSI и шифрованием на клиентской стороне?
Под файлсервером я имею в виду NAS типа Synology или чего-то подобного.
Насколько я знаю, NAS все идут с linux-прошивкой и для предоставления iscsi-таргетов точно также используют что-то из протестированного автором списка. Скорее всего это STGT.
Да и процы на NAS решениях слабоваты мне кажется, чтоб нормально тянуть кучу таргетов, это не говоря о шифровании. В NAS обычно iscsi есть по принципу «чтобы было», ну вдруг кому понадобится 1 или 2 таргета, ну или поиграться-потестить.
Да и процы на NAS решениях слабоваты мне кажется, чтоб нормально тянуть кучу таргетов, это не говоря о шифровании. В NAS обычно iscsi есть по принципу «чтобы было», ну вдруг кому понадобится 1 или 2 таргета, ну или поиграться-потестить.
Дело как раз на клиентской стороне. Мы(на всякий случай) шифруем maildir dovecot, стоит он на сервере с CentOS. А как я писал в статье скорость шифрования в текущем ядре CentOS удручает.
Вторую причину уже написал в своем комментарии SyavaSyava.
Вторую причину уже написал в своем комментарии SyavaSyava.
Подскажите пожалуйста, какое шифрование использовали? Если это LUKS/dm-crypt, то наши тесты показывали достаточно неплохие результаты — где-то + 5-10 % оверхед.
Нет, 2х10 я не видел, у меня используется 2х1, получается около 200-300Мб/с.
Я не увидел в вашей статье количества клиентов, поэтому предположил что 20Гб — это просто страховка.
Я не увидел в вашей статье количества клиентов, поэтому предположил что 20Гб — это просто страховка.
Клиенты — 3 гипервизора ESXi и 1 Windows Server. Конечно ни один из клиентов не загружает сутки на пролет 10ГБ канал, но оптика минимизирует задержки, а цена карт показалась приемлемой.
О, вот это показалось мне очень интересным. Действительно правда что в оптике кадры ethernet летят со скоростью света, а в меди — еле ползут?
Есть ESXi хост подключенный по 1ГБ меди. На нем расположено 6 виртуальных машин, которые редко обращаются к диску. В среднем задержки чтения/записи на хосте 2-2,5 ms. На хостах подключенных по оптике машин больше, обращаются они к диску чаще, а задержки меньше.
А из-за NFS проблем в продакшене и под нагрузкой не было?
С NFS проблемы были, карточки надо объединять в BRIDGE(иначе ESXi считает их разными шарами со всеми вытекающими), а как оказалось BRIDGE с включенным LRO на этих картах приводит к Kernel panic. Были и другие проблемы, но в последствие были решены.
Под нагрузкой NFS с XFS работали нормально — тестировал разнообразными конфигурациями fio.
Но в продакшене пока не используется. SCST дает значительно большую производительность, виртуальные машины работают на разделах выдающихся через него. NFS оставлен на тот случай если ESXi с новым обновлением сломает у себя iSCSI(такое уже случалось).
Под нагрузкой NFS с XFS работали нормально — тестировал разнообразными конфигурациями fio.
Но в продакшене пока не используется. SCST дает значительно большую производительность, виртуальные машины работают на разделах выдающихся через него. NFS оставлен на тот случай если ESXi с новым обновлением сломает у себя iSCSI(такое уже случалось).
Еще хотел полюбопытствовать, почему не Nexenta, например?
А как у вас с поддержкой VAAI?
В SCST поддержки VAAI, к сожалению, нет. Возможно она появится в будущих версиях.
Поддержка VAAI есть в других таргетах, но сейчас от этой технологии пользы получить мы не можем — купленная лицензия VMware vSphere идет без Storage vMotion.
Поддержка VAAI есть в других таргетах, но сейчас от этой технологии пользы получить мы не можем — купленная лицензия VMware vSphere идет без Storage vMotion.
Угу… Видимо, Essentials.
VAAI не только на vMotion влияет. из полезных штук VAAI стоит выделить хотя бы ATS и XCOPY
blog.fosketts.net/2011/11/10/complete-list-vmware-vaai-primitives/
blog.fosketts.net/2011/11/10/complete-list-vmware-vaai-primitives/
"… встала задача обеспечить кластер из гипервизоров VMware ESXi 5.1 хранилищем большого обьема" Никогда не понимал, ЗАЧЕМ все по привычке из кожи вон лезут, чтобы подцепить к VMWare блочный доступ… тем более если делают всё на nix и за бесплатно — используйте NFS.
кстати проверяйте одну вещь, набейте на том штук 20-30 виртуалок рабочих, что бы они диском шевелили. И начните импортировать или экспортировать виртуалки, что бы были операции за запись по 20-50Гб за раз. и делайте так параллельно в 2-3 потока. Если таргет выдержит, значит годный. Но часто просто iSCSI просто отвалится от хостов на этом месте и таргет окажется непригодным к коммерции
.
.
я бы еще перед сборкой запустил бы
меньше мусора в dmesg и, по идее, быстрее работает.
А почему решили не использовать аутентификацию таргетов и хостов?
make debug2perf
меньше мусора в dmesg и, по идее, быстрее работает.
А почему решили не использовать аутентификацию таргетов и хостов?
А Jumbo Frame не пробовали?
У меня в старом проекте когда-то были Promise vTrac на iSCSI с гигабитными линками получалось выжимать около 850 мегабит чистыми c фреймом 9к
У меня в старом проекте когда-то были Promise vTrac на iSCSI с гигабитными линками получалось выжимать около 850 мегабит чистыми c фреймом 9к
Jumbo Frame включен на 10ГБ картах, на 1ГБ включать не понадобилось — ~100 MiB/s показалось достаточно.
Sign up to leave a comment.
iSCSI хранилище для небогатых