Pull to refresh

Comments 42

Реквестую статью по «правильному» созданию JBOD-массива из дисков разного размера )
И не страшно? :-) Мне лично страшно :-)
Для файлопомойки из старых дисков сойдет.
Для хранения личных документов/фотографий — я за RAID1 )
raid-1 расширить нельзя, и после смерти первого диска у вас несколько часов (а то и дней, если не сразу замену найти), когда можно потерять все ;-)
Вам действительно нужно больше 1-2 Тб под документы/фото? Если когда нибудь понадобится — можно взять 2 новых больших диска и перегнать туда информацию.
В RAID5 аналогично, пока не синхронизируется новый диск, вы можете потерять все. RAID6 — да, луче, но нужно хотя-бы 4 диска.
Да, я в целом согласен с вами.

Впрочем, чего это я придираюсь, для MDADM — RAID-1 — это частный случай RAID-4/5 :-) А нормальный RAID-6 можно и из 3 дисков собрать (из одного — в качестве жесткого извращения, и все даже будет работать) :-)
Да, можно. Можно сделать несколько разделов на одном диске и объединить их в RAID6, только какой смысл? Если вылетит диск, на котором было два раздела, ситуация та же, массив будет жить, если во время добавления нового винта, не вылетит кто-то еще )
Я не предлагал делать несколько разделов на диске )
А как вы предлагаете сделать RAID6 на 3 или 1 дисках? )
Из 3-х — совершенно нормальный массив, с емкостью одного диска. Из 1-го — degraded, и потом можно добавлять диски.
Хмм, а разве можно RAID5/6 создавать с одним блоком stripe?
У них как бы минимум 2 блока stripe и 1(или 2 для RAID6) блока parity.
degraded можно, создается массив из 3-х дисков с отсутствующими 1 или 2 дисками, и это будет работать.
Что-то тут не вяжется. Из 3-х — это нормальный RAID6? Как по мне, degraded.
А из одного диска можно сделать degraded RAID1.
РРРРР!

if (raiddisks < 4 && level == 6) {
fprintf(stderr,
Name ": at least 4 raid-devices needed for level 6\n");
return 1;
}


Патч для поддержки 3-х дисковых RAID6 есть, но текущая версия действительно требует 4 :-)
Ок, осталось разобраться, что вы имели ввиду под degraded RAID6 на 1 диске.
mdadm --create /dev/md2 --level=raid6 --raid-devices=4 /hdd1 /hdd2 missing missing

С одним очевидно не выйдет без поддержки 3-х дисковых RAID-6 )
Ок, я уж думал все сильно изменилось, а я не в курсе )
raid1 (впрочем, любой другой тоже) никто не мешает использовать в качестве физического тома LVM. А уж уровнем выше можно обрасширяться хоть до посинения.
Почему «после смерти первого диска у вас несколько часов»?

Времени ровно столько, сколько проживет второй диск из массива.
Тут имеется ввиду, что есть несколько часов, когда массив не защищен от повреждения диска.
Посмотрите на mhddfs. В дебиан/убунту есть в репозиториях. Не совсем JBOD, но по сути почти тоже самое. И не так страшно, т.к. в случае выхода из строя какого-либо диска, терям инфу только с него.
Подскажите, а для того что бы поэкспериментировать c mdadm обязательно 3+ физических дисков? Можно обойтись образами, созданными с помощью dd? если да, то как?
Только что проверил — на файлах нельзя, так что придется брать какое-то мелкое устройство, и разбивать на кучку разделов. Может еще какие способы есть.
Жаль, что mdadm не работает с файлами — теряется некая свобода. Было бы неплохо держать части рейда в виде файлов (на отдельных конечно же физических дисках): надо расширить рейд — скопировал файл на другой носитель, перезапустил демона и все…
Попробуйте использовать механизм loopback устройств, посмотрите «man losetup». Позволяет связывать файл с блочным устройством и работать, соответственно, с ним как с блочным устройством. С высокой вероятностью должно сработать.
для того чтобы поэкспериментировать с mdadm идеально подходит Virtualbox.

Когда появляется нестандартная задача, я стараюсь в виртуалке её эмулировать. Удобно очень, сколько дисков надо столько и создаешь :)
можно ли как-то virtual-box-у подсунуть результат работы dd?
Да, можно.

VBoxManage convertfromraw ImageFile.dd OutputFile.vdi
mdadm позволяет добавлять в массив разделы, а не только диски целиком.

mdadm позволяет создавать массивы из томов lvm
SATA6 диск оказался не очень совместим с SATA1 контроллером
тут где-то ошибочка :)
Using the terms SATA III or SATA 3.0 to refer to a SATA 6 Gbit/s product is unclear and not preferred.
Проясните один вопрос. Куча саппортов утверждает, что этот программный рейд стабильно работает полько под ЦентОС. Может кто поделиться опытом?
У меня Ubuntu, за 1.5 года нареканий нет.
«этот программый рейд» идентичен на всех линукс-дистрибутивах и является стабильным для продакшена уже лет 10. не слушайте саппорт, который выучил только как мышкой возить в одном единственно дистрибутиве.
если у вас на генте/убунте не сыпался продакшн при решарпе массива, то рано или поздно палка выстрелит.

за что они выделили центос и не выделили рхел — вот этот вопрос интереснее.
>>Сначала проверка e2fsck -f /dev/md0
нужно еще добавить, что исправление ошибок в случае их нахождения на смонтированной фс крайне не рекомендуется делать.
Можно создать несколько RAID1 либо RAID1+0 и объединить все в aufs2.
Пример: mount -t aufs none -o br=/media/RAID10_1=rw:/media/RAID10_2=rw:/media/RAID10_3=rw /media/STORAGE
Также можно и NFS объединять, особенно характерно если имеется несколько 1U серверов с RAID1+0 по 4 диска в каждом.
заезженная тема уже к 2007-2008 году.

сейчас ещё сохраняется проблема с добавлением дисков в 6 рейды в центосе из-за 2.6.18 и «нового» функционала с ядра 2.6.21. И обход этой проблемы известен, да и 6 центос близок.

правильный набор команд просто элементарно гуглится.
Операция изменения размера в среднем происходит со скоростью самого медленного диска.

Позвольте не согласиться… Примерно в два раза медленнее скорости самого медленного диска (ибо половину времени он читает, а половину пишет)…
Sign up to leave a comment.

Articles