Комментарии 75
Хороший материал.
Как интересно как с поддержкой всего этого дело под виндами?
Как интересно как с поддержкой всего этого дело под виндами?
Вроде максимум что можно добиться — чтение с таких разделов.
под win есть «динамические диски» — как мне показалось, практически то же самое… только мышкой и не так понятно :)
Динамические диски. Только аккуратней с ними — если что-нибудь случится с одним из винтов, ни одна утилита Вам не поможет восстановить данные со всех(!) дисков. (Если я не ошибаюсь :)
Ну это нормальная ситуация в любом подобном решении.
Есть unionfs — позволяет объединять логические разделы в один большой, с последовательным заполнением.
Т.е. есть 2 диска по 100 Gb — объединяем — первые 100 Gb пишутся на первый диск, следующие — на второй.
Прогиб по скорости, НО — если что-то умрет — оно умрет только со своим куском данных.
Погуглите.
Т.е. есть 2 диска по 100 Gb — объединяем — первые 100 Gb пишутся на первый диск, следующие — на второй.
Прогиб по скорости, НО — если что-то умрет — оно умрет только со своим куском данных.
Погуглите.
Хотите сказать unionfs работает в windows?
P.S. Я не пользуюсь windows, просто интересно, если это действительно так. :)
P.S. Я не пользуюсь windows, просто интересно, если это действительно так. :)
? Я???
Нет, я мало того что не хочу этого говорить, так еще и не скажу!
Unionfs работает только в *BSD и Linux, ну может еще куда-то спортировали.
какой-такой виндувс…
Нет, я мало того что не хочу этого говорить, так еще и не скажу!
Unionfs работает только в *BSD и Linux, ну может еще куда-то спортировали.
какой-такой виндувс…
Тогда Вам стоит быть внимательнее :)
Еще есть такая удобная штука rm.pp.ru/info/mhddfs
Спасибо, уважаемый!
Давно хотел изучить эту тему, а тут Вы. Как раз во время и очень доходчиво. Вам +, а материал в закладки.
Давно хотел изучить эту тему, а тут Вы. Как раз во время и очень доходчиво. Вам +, а материал в закладки.
О как раз пришлось перепродать часть серва, собрал остатки свободного места воедино при помощи LVM и получил 100гб =)
Сравнение Ext3 LVM2 и ZFS: Solaris ZFS and Red Hat Enterprise Linux Ext3 File System Performance White Paper.
После такого на LVM не захочется смотреть. (А что делать?)
После такого на LVM не захочется смотреть. (А что делать?)
Вот кстати, а как с производительностью у LVM? Интересует личный опыт.
Вроде, кстати, LVM умеет шифровать. Так вот, а при включённом шифровании какова производительность?
Вроде, кстати, LVM умеет шифровать. Так вот, а при включённом шифровании какова производительность?
По поводу производительности, отличий «на глаз» не заметил. По моим тестам тоже всё в районе погрешностей.
С шифрованием у меня как-то не срослось, я его попробовал и понял что мне оно не надо — у меня практически нет никакой ценной инфы на локальных машинах…
С шифрованием у меня как-то не срослось, я его попробовал и понял что мне оно не надо — у меня практически нет никакой ценной инфы на локальных машинах…
ыы производительность норм, шифровать lvm не умеет сам, я шифровал разделы отдельно, потом поверх них идет lvm
Вот что вас ждёт на LVM:
• Как восстановить информацию, если сломалось LVM?
• Ubuntu + 6 HDD — странности с именованием устройств
• Как восстановить информацию, если сломалось LVM?
• Ubuntu + 6 HDD — странности с именованием устройств
А 6 HDD тут при чем? Давно уже по меткам модно монтировать, бубунта по дефолту так и делает.
6hdd не актуально, ибо lvm основывается на uuid'ах устройств и метадате, потому абсолютно не важно как будут называться блочные устройства.
Волков боятся — в лес не ходить :)
Кстати, про восстановление — там винт сломался, если кусочек ФС на винте лежит без дублирование то восстановление вне зависимости от LVM будет тем еще счастьем.
LVM это не так просто, как glusterfs.
gluster.org/
gluster.org/
Не знаю мне гораздо проще скопировать систему на новый винт с livecd (cp -a на много более юзабельное шаманство ;)). Так и не понял в чем «безопасность» и в чем прикол такой организации на десктопе. в прочем «кто как хочет — так и дрочит» (с) из к/ф «Брат»
Можно ли с ним сделать такое:
Создать раздел на 16 гиг, чтобы на нем работала и жила система, и реплицировать этот раздел на флешку 16 гиг, чтобы можно было вытащить его и получить копию минутной например давности?
Создать раздел на 16 гиг, чтобы на нем работала и жила система, и реплицировать этот раздел на флешку 16 гиг, чтобы можно было вытащить его и получить копию минутной например давности?
можно с помощью снапшотов.., обычно это делается так:
# lvcreate -s -n snap_home -L2G /dev/ws/home
# в той же группе томов создаётся снапшот нужного раздела.# mount /dev/ws/snap_home /mnt/snapshots
# полученый раздел прицепляется в папку, # tar -cvzf home.tgz /mnt/snapshots
# с него забирается инфа (например можно всё сразу залить в архив).# umount /dev/ws/snap_home
# отцепляем раздел# lvremove /dev/ws/snap_home
# удаляем за ненадобностью.А реплицировать «на лету» оно не может, чтобы не делать долгое копирование? Зеркалирование не поможет?
Честно говоря не совсем понимаю, что имеется в виду под «реплицировать «на лету»» и получить копию минутной например давности.
Если нужен «снимок» в конкретный момент времени — делаем снапшот, если 2 обновляемые в реальном времени копии fs — зеркалирование… можно делать и то и другое при желании.
Средствами lvm можно делать, как snapshots, так и зеркалирование отдельных lv.
Если нужен «снимок» в конкретный момент времени — делаем снапшот, если 2 обновляемые в реальном времени копии fs — зеркалирование… можно делать и то и другое при желании.
Средствами lvm можно делать, как snapshots, так и зеркалирование отдельных lv.
извините,
снапшот таром?
снапшот таром?
Это всё, конечно, хорошо. Ровно до тех пор, как у вас один из дисков накроется :) Потом будет очень много танцев с бубнами вокруг того, чтобы восстановить данные.
опыт показывает что, если нет мониторинга винтов и устойчивого к сбоям рэида или зеркалирования (можно даже lvm'ом) — танцы с бубном чтобы восстановить данные будут в любом случае. ;)
Ну. Там будут танцы вокруг повреждённого диска. А тут сбой одного диска повреждает вообще весь массив. Это совсем не ice какой-то.
Никаких танцев. Если резервирования не было, то меняешь винт на чистый, запускаешь проверку диска, исчезнувшие данные помечаются в системе как отсутствующие, а все остальное продолжает работать. Результат тот же самый, что и без LVM. Просто тут немного подольше будут сохранившиеся данные возвращаться в онлайн.
Я, как человек с жопой с гораздо более толстым слоем ракушек, могу сказать, что RAID от исполнения танцев тоже не спасает, просто несколько снижает вероятность, зато значительно усложняет исполняемые па. ;(
чот поздновато статейка вышла… лет эдак на 8 минимум :)
вспоминаю молодость на AIX :)
вспоминаю молодость на AIX :)
Я побаиваюсь делать ЛВМ на несколько дисков без райда, ведь если умрёт один диск из массива, то с остальных инфу скорее всего уже не вытащишь.
Хотя у меня около 1.5 лет проработала связка 500+500 физические тома => 1000 логический том
Хотя у меня около 1.5 лет проработала связка 500+500 физические тома => 1000 логический том
зачем делать лвм на рейде? буквально выходит рейд на рейде ?!
Затем, что если в /var/lib/mysql, к примеру, место кончится, то туда можно налету добавить гуляющий шмат из /home.
В ZFS-пуле (грубо говоря — это размеченное пространство), например, можно создать отдельную файловую систему (ZFS или UFS). Потом ещё одну, ещё и ещё — сколько нужно. При этом каждая файловая система будет иметь столько свободного места, сколько осталось в пуле.
LVM может распределить тома, чтобы в каждом томе было столько же свободного места (виртуально, разумеется), сколько осталось на дисках?
LVM может распределить тома, чтобы в каждом томе было столько же свободного места (виртуально, разумеется), сколько осталось на дисках?
Увы, будь это FS — может, и смог бы. А так — нет. На нем нарезаются разделы, которые форматятся уже в нужную фс. А-ля слайсы на разделе, которые потом форматить (раз уж вспомнили о UFS).
Меня эта задача, точнее ее решение под линухом, также интересует. Нет, я знаю про ZFS через FUSE. Но это ж не то.
Меня эта задача, точнее ее решение под линухом, также интересует. Нет, я знаю про ZFS через FUSE. Но это ж не то.
Если не критична скорость, можно создать lvm на файлах 'с дырками' (sparce) когда файл на диске занимает ровно столько места, сколько в него записывали, а не сколько выделено с помощью seek.
Тормоза будут из-за реализации loop (хотя на сколько я понимаю есть альтернативы) и повышенной фрагментации (два уровня — дырявый файл фрагментируется и фрагментация самой фс).
Тормоза будут из-за реализации loop (хотя на сколько я понимаю есть альтернативы) и повышенной фрагментации (два уровня — дырявый файл фрагментируется и фрагментация самой фс).
LVM это не RAID, а менеджер логических томов.
>> GRUB has support for LVM and RAID since version 1.95.
grub.enbug.org/LVMandRAID
grub.enbug.org/LVMandRAID
Все здорово, а можно ли с помощью ЛВМ сделать RAID1?
Пересилил лень и решил в общем треде напомнить про unionfs, которая живет под *BSD и есть нативный порт под Linux.
Если рассуждать в масштабах проблем автора, то алгоритм такой.
Цепляем новенький террабайтник.
Форматируем и создаем на нем /home_new
Переименовываем /home в /home_old
Создаем новый /home
Unionfs монитируем на /home /home_old с правами RO и /home_new RW
Получаем х+500Gb данных
Радостно ждем, когда загнется старый диск.
Достаем новый диск (500Gb) из компа и цепляем к ноуту — «Смотри мама, все живо!»
Если рассуждать в масштабах проблем автора, то алгоритм такой.
Цепляем новенький террабайтник.
Форматируем и создаем на нем /home_new
Переименовываем /home в /home_old
Создаем новый /home
Unionfs монитируем на /home /home_old с правами RO и /home_new RW
Получаем х+500Gb данных
Радостно ждем, когда загнется старый диск.
Достаем новый диск (500Gb) из компа и цепляем к ноуту — «Смотри мама, все живо!»
P.P.S. Ах, да!!! Самое главное и самый большой минус LVM — он не читается grub'ом
поэтому раздел /boot должен находиться вне LVM на отдельном разделе жёсткого диска,
иначе система не загрузится.
Хочу напомнить, что кроме grub, есть ещё и lilo который может загрузить систему даже если /boot расположен на lvm.
root@ws:~# vgcreate ws /dev/sdb
Volume group «vg0» successfully created
тут небольшой глюк — создана «ws», а не «vg0»
Volume group «vg0» successfully created
тут небольшой глюк — создана «ws», а не «vg0»
Ситуация:
Сделал файл, к которому привязано блочное устройство, из которого делается pvcreate, vgcreate, lvcreate, блаблабла, далее mount и ф.с. видна, дальше ей пользуется виртуалка. mount прописан в /etc/fstab/ После перезагрузки блочное устройство пропадает, физ, логические тома -тоже
Вопрос: как прописать создание блочного устройства, а затем физического тома, группы, логического тома при загрузке?
Сделал файл, к которому привязано блочное устройство, из которого делается pvcreate, vgcreate, lvcreate, блаблабла, далее mount и ф.с. видна, дальше ей пользуется виртуалка. mount прописан в /etc/fstab/ После перезагрузки блочное устройство пропадает, физ, логические тома -тоже
Вопрос: как прописать создание блочного устройства, а затем физического тома, группы, логического тома при загрузке?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
LVM — это просто!