Сергей Томулевич @phoinixrw
Архитектор
Information
- Rating
- Does not participate
- Location
- Москва, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Chief Technology Officer (CTO), Database Developer
Lead
Nginx
Perl
FreeBSD
Creating project architecture
PostgreSQL
Да капча не причем — это просто повод описать механизм целевого одноразового Кеша.
С одной установкой возились неделю.
Если вы возьмете тот же Proxmox, то установка с root ZFS у вас займет несколько кликов.
С другой стороны, что мне сильно не понравилось, что исходная инструкция в некоторых местах не корректна, и да вы бы сломались где-то в середине, причем не от усталости а от ошибки.
Однако же, данная инструкция достаточно полезна для понимания особенностей установки в целом.
Вопрос про 4K кроме размера блока на диске находится еще в ядре Linux в котором размер блока по-умолчанию 4K.
То что некоторые диски поддерживают размер блока больше, это прекрасная новость, но что бы поддержка стала полной требуется еще немного пересобрать ядро Linux.
Речь о том, что:
"… ZFS не очень хорошо работает с аппаратными RAID массивами, в частности это связано с Write cache..."
И это факт. С какими-то контроллерами хуже, с какими-то лучше. ZFS журналируемая файловая система и отдавать гарантию записи на откуп кому-то еще не хочет по понятным причинам.
И мое мнение относительно того что мне нравится, а что не нравится — фиолетово, либо будет segfault во время записи, либо нет.
Диски находятся в зеркале, то есть заряда конденсатора должно не хватить у обоих.
Мы обсуждаем сферического коня в вакууме, если да кабы.
Публикация не об этом, а о том как установить ZFS на загрузочный раздел.
Для обсуждения вопросов «ZFS pool vs. Raid Controller» тут на Habr наверняка есть отдельная ветка.
RPM = 0 — логично, так как не крутится, с чего ему даже быть 1
А write cache диска действительно включен.
Write Cache отключается на контроллере, а не на диске.
Отключать Write Cache на диске это прямо моветон.
Видимо требуется дополнительно это указать, поправлю статью.
Нету там ни батарейки на RAM.
P.S. hdparm не дам, т.к. это не Ubuntu
>… превращает 15к IOPS в 400
или
>… сваливаются с сотен kiops в жалкие полторы тысячи
Сколько таки IOPS на SSD?
Потому как у меня на fio с Вашими параметрами выдало:
…
iops: min= 3313, max=19582, avg=13246.67, stdev=3838.41, samples=39
…
Это жалкие 13K iops или все таки далеко не 400?
P.S. На разброс особо смотреть не стоит, сервер рабочий и у него своих дел хватает помимо моих тестов.
Каждый волен сам решать, нужно это ему или нет, и если он решит, что это ему нужно то он может воспользоваться данным документом.
www.opennet.ru/opennews/art.shtml?num=49815
Обсуждение в комментариях лучше не читать :-)
Мне сложно сказать что у вас там во что превращается, видимо у вас своя магия…
PERC H730 Mini
4xSSD SAMSUNG 900Gb
BTRFS тоже разрабатывала секта раскольников ZFS
> Авторы не хотят его видеть в Linux, Linux пожимает плечами, и только отдельная группа усиленно работает над попыткой притащить одно в другое.
Авторы чего не хотят видеть это в linux? Авторы zfsonlinux?
Вы вообще в курсе почему ZFS долго не портировалась в Linux?
Почитайте на досуге про лицензии того и другого и суть проблем, а потом высказывайте свое «экспертное» мнение.
— сколько памяти будет выделяться для кеша ZFS;
— будет ли использоваться SSD кеш на обычном дисковом пуле;
— какие данные будут храниться на дисках, да это важно, так как степень сжатия этих данных будет сильно влиять на IO;
В общем, сравнивать «в лоб» — занятие абсолютно бесполезное, тем более что ZFS это не только программный контроллер дисков, а в первую очередь таки журналируемая файловая система.
— resilvering на zfs делается быстрее;
— собирать и разбирать пулы можно без перезагрузки сервера;
— не все RAID контроллеры поддерживают сложные массивы или требуются дополнительные лицензии на них;
То что у ZFS периодически возникают проблемы с WriteCache аппаратного контроллера — да бывает и да зависит от контроллера. Как-то работал с контроллером который как бы поддерживал HBA режим, но при этом при перезагрузке сервера менял их порядок, да пришлось включать аппаратный RAID.
В общем, не суть, и публикация не об этом.
Хотите использовать аппаратный RAID на ZFS — используйте, но тогда потеряете часть функционала ZFS по управлению дисками.
Что касается 512 байт — идем сюда: en.wikipedia.org/wiki/Disk_sector
И читаем:
… Newer HDDs use 4096-byte (4 KiB) sectors, which are known as the Advanced Format (AF).
Если у вас старое железо, то да, используйте ashift=9. Но я в своей работе уже не помню когда сталкивался с подобными дисками, все как-то на новом оборудовании развлекаюсь.
Понятно, что тут все «гуру» и прекрасно знают и понимают вопросы безопасности.
Но, к сожалению, это не так.
И опять же:
"… специалиста финансового отдела..." — то есть доступ (SELECT) к финансовой информации в БД доступна извне?
И да нужно говорить как минимум не о SELEСT * FROM table, а SELEСT * FROM view.
Вообще, для таких целей, я бы все же рекомендовал использовать MS Access.
Какая никакая, но все же БД, которая, к слову, позволяет подключатся к внешним БД через ODBC со всеми ништяками. И таки да, имеет собственную систему безопасности, а не текстовый файл с открытыми данными.
То есть оставлять файл с паролем на доступ к боевой БД на рабочем столе компьютера рядового специалиста финансового отдела — это ОК?
А вот:
host all all 0.0.0.0/0 md5
надеюсь все же пример, а не скрин реального pg_hba.conf боевой базы.
Например есть таблица комментариев древовидных, но объектов комментирования много, соответсвенно для каждого объекта свое дерево комментариев.