Pull to refresh

Comments 23

Практически 1:1 переведённый официальный how-to: scst.sourceforge.net/qla2x00t-howto.html

Также в случае с ESXi после настройки таргета, а также в случае его перезагрузки, нужно перезагружать все хосты-инициаторы, иначе диск не подцепится.

Ого! Это ещё зачем, можно узнать? Всё работает и без таких суровых мер.
Целью статьи было сделать how-to, по которому любой сможет сделать себе хранилище от нуля до конца, не отвлекаясь постоянно на гуглёж ньюансов. Тот how-to мной безусловно использовался, до до 1:1 ему аки до луны. Насчет суровых мер: я не из головы придумал, у меня было именно так, не исключаю возможность того, что я где-то что-то недокрутил — буду рад подсказке, дополню статью.
Целью статьи было сделать how-to, по которому любой сможет сделать себе хранилище от нуля до конца, не отвлекаясь постоянно на гуглёж ньюансов.

Гуглёж полезен для усвоения :)

Насчет суровых мер: я не из головы придумал, у меня было именно так, не исключаю возможность того, что я где-то что-то недокрутил — буду рад подсказке, дополню статью.

Ничего специально не надо делать — просто активируешь SCST и пересканируешь FC адаптер на стороне ESXi. Обычно даже и пересканировать не нужно — лун и так появится.
Ничего специально не надо делать — просто активируешь SCST и пересканируешь FC адаптер на стороне ESXi. Обычно даже и пересканировать не нужно — лун и так появится.


Ну вот с полкой HP MSA1000 никаких проблем, ее перезагружаю и все авто-подцепляется. А с SCST нет — перезагружаю сервак и он сразу исчезает из стораджей ESXi. Нужно перезагрузить ESXi, чтобы хранилище прицепилось.
Возможно есть какие-то проблемы с FC фабрикой и\или зонингом.
Либо дело в том, что собрана транк-ветка SCST, а не стабильная.
Транк, в основном, очень стабилен, но всякое бывает.
Как пример, собрал полку из старого серва, просто купил 8 винтов по 8 тб SATA и собрал в 60 рейд на контроллере lsi 9261 без SSD кеша.
dd if=/dev/zero of=tst conv=fdatasync bs=384k count=40k
40960+0 records in
40960+0 records out
16106127360 bytes (16 GB) copied, 25.2041 s, 639 MB/s
Вы тоже с использованием SCST собирали? Мои убогие WD Green показывают сейчас 82 мб/с, но полка сейчас нагружена. Как нормальные диски куплю, замеряю со всех сторон обязательно.
Спасибо, что напомнили!
Без патчей в ядре
uname -r
3.10.0-229.11.1.el7.x86_64

Только дрова свежие собрал, да контроллер прошил.

Пока эта полка просто как эксперимент, решение под бекапы дешевое ищется с максимально возможной скоростью для быстрого восстановления обратно и как временный датастор при миграции наживую при тех работах.

К хостам esxi заплено пока по nfs, дабы сетка 10гб\с. ISCSI планировал на выходных опробовать, сравнить скорости.

Винты, кстати не самые быстрые Seagate ST8000AS0002 .
В некоторых случаях, ATA over Ethernet уделывает iSCSI по двум пунктам:
  1. Скорость при линейном копировании
  2. Простота и быстрота развертывания, в том числе и multipath-решений.

Проблема только в том, что он никакими стандартными инициаторами практически не поддерживается, в ESXi уж точно… По сути его можно юзать только с Linux.
Я имею в виду софтовый адаптер, как iSCSI или FCoE.
Через хитрый HBA то он может всё что угодно поддерживать :)
Тут уж у каждого свой загашник, у меня, к примеру, нет ничего из FB, и не планирую в будущем его даже, а 10 гигабитный езернет как-то поудобней будет, железки доступней и нет узкости в применении.

PS. iscsi показал не слишком большую разницу в скоростях на 10 гигабитах против nfs(к машине прицепил два винта с датасторов прицеплеными по nfs и iscsi. И после dd по очереди на обоих разделах), плюс только от использования плюшек VMFS5, которые правда мне так и не удалось заметить.
а 10 гигабитный езернет как-то поудобней будет, железки доступней и нет узкости в применении.

О том и речь — FCoE или iSCSI можно гонять на ESXi без спецательного HBA, а этот AoE или FC — нет.

PS. iscsi показал не слишком большую разницу в скоростях на 10 гигабитах против nfs, плюс только от использования плюшек VMFS5, которые правда мне так и не удалось заметить.

Это извечный спор физиков с лириками, лично я пока держусь VMFS5 + блочный доступ.
С ним есть примитивы VAAI из коробки, для NFS же нужны какие-то storage-specific плагины для этого.
Плюс, тут нет чёрных ящиков (с точки зрения ESXi) в виде файловой системы, которая экспортируется по NFS и можно получать более консистентные резульататы.
Большое спасибо за понятную статью. Официальный HOWTO гораздо труднее для понимания.
На шаге «В директории SCST делаем софт линк на драйвер QLogic SCST»
Это не забыли?

[root@localhost /]# cd scst

Напишите, какие команды вы вводили последовательно.
Ах, прошу прощения, проглядел. Эта папка из драйверов а не из архива SCST.
Правда я всё клал в /opt, подумал что не стоит создавать в корне новые папки.
В trank версии вроде даже прикрутили dkms. И ещё, когда таргете вроде всё нормально, но инициатор луны всё равно не видит может помочь подмена прошивок до старых из Openfiler (например, ql2500_fw.bin)
И модули ядра не обязательно вручную где то прописывать. В RPM-ку входит init демон scst, который загружает только те что упоминаются в scst.conf. Демон тоже чуть надо поправить до вида
    103     SCST_MODULES="qla2xxx_scst"
    104     SCST_OPT_MODULES="scst"

чтобы соблюсти верную последовательность загрузки модулей.
И настоятельно рекомендую генерить scst.conf с помощью scstadmin.
Верно для CentOS 6.8.
Sign up to leave a comment.

Articles