Pull to refresh
62
0
Сергей Томулевич @phoinixrw

Архитектор

Send message

Да капча не причем — это просто повод описать механизм целевого одноразового Кеша.

ZOL у нас сейчас в опытной эксплуатации пока, и сейчас сказать более детально по поддержке чего-либо не могу.
С одной установкой возились неделю.
Очень много действий только по причине того, что инсталлятор не поддерживает возможность использования ZFS.
Если вы возьмете тот же Proxmox, то установка с root ZFS у вас займет несколько кликов.
С другой стороны, что мне сильно не понравилось, что исходная инструкция в некоторых местах не корректна, и да вы бы сломались где-то в середине, причем не от усталости а от ошибки.
Однако же, данная инструкция достаточно полезна для понимания особенностей установки в целом.
512K — Да, это конечно опечатка, спасибо, исправил.

Вопрос про 4K кроме размера блока на диске находится еще в ядре Linux в котором размер блока по-умолчанию 4K.

То что некоторые диски поддерживают размер блока больше, это прекрасная новость, но что бы поддержка стала полной требуется еще немного пересобрать ядро Linux.
Я ни слова не сказал, что не люблю контроллеры с батарейкой.
Речь о том, что:
"… ZFS не очень хорошо работает с аппаратными RAID массивами, в частности это связано с Write cache..."
И это факт. С какими-то контроллерами хуже, с какими-то лучше. ZFS журналируемая файловая система и отдавать гарантию записи на откуп кому-то еще не хочет по понятным причинам.
И мое мнение относительно того что мне нравится, а что не нравится — фиолетово, либо будет segfault во время записи, либо нет.
Мы ушли далеко от темы, да действительно, вендоры обещают что заряда конденсатора хватит, но
Диски находятся в зеркале, то есть заряда конденсатора должно не хватить у обоих.
Мы обсуждаем сферического коня в вакууме, если да кабы.
Публикация не об этом, а о том как установить ZFS на загрузочный раздел.
Для обсуждения вопросов «ZFS pool vs. Raid Controller» тут на Habr наверняка есть отдельная ветка.
$ camcontrol identify ada0
...
media RPM             non-rotating
...
write cache                    yes	yes
...

RPM = 0 — логично, так как не крутится, с чего ему даже быть 1
А write cache диска действительно включен.
Так, видимо мы говорим о разных вещах.
Write Cache отключается на контроллере, а не на диске.
Отключать Write Cache на диске это прямо моветон.
Видимо требуется дополнительно это указать, поправлю статью.
На чем тестировал, Dell R220 без дополнительного контроллера. Встроенный работает в HBA режиме.
Нету там ни батарейки на RAM.
diskinfo -t /dev/ada0
/dev/ada0
	512         	# sectorsize
	480103981056	# mediasize in bytes (447G)
	937703088   	# mediasize in sectors
	4096        	# stripesize
	0           	# stripeoffset
	930261      	# Cylinders according to firmware.
	16          	# Heads according to firmware.
	63          	# Sectors according to firmware.
	INTEL SSDSC2BB480G6R	# Disk descr.
	PHWA62960295480FGN	# Disk ident.
	Yes         	# TRIM/UNMAP support
	0           	# Rotation rate in RPM
	Not_Zoned   	# Zone Mode

Seek times:
	Full stroke:	  250 iter in   0.013101 sec =    0.052 msec
	Half stroke:	  250 iter in   0.011557 sec =    0.046 msec
	Quarter stroke:	  500 iter in   0.021420 sec =    0.043 msec
	Short forward:	  400 iter in   0.012800 sec =    0.032 msec
	Short backward:	  400 iter in   0.009990 sec =    0.025 msec
	Seq outer:	 2048 iter in   0.051259 sec =    0.025 msec
	Seq inner:	 2048 iter in   0.051538 sec =    0.025 msec

Transfer rates:
	outside:       102400 kbytes in   0.288353 sec =   355120 kbytes/sec
	middle:        102400 kbytes in   0.206200 sec =   496605 kbytes/sec
	inside:        102400 kbytes in   0.206625 sec =   495584 kbytes/sec

P.S. hdparm не дам, т.к. это не Ubuntu
Вы уже определитесь:
>… превращает 15к IOPS в 400
или
>… сваливаются с сотен kiops в жалкие полторы тысячи

Сколько таки IOPS на SSD?

Потому как у меня на fio с Вашими параметрами выдало:

iops: min= 3313, max=19582, avg=13246.67, stdev=3838.41, samples=39

Это жалкие 13K iops или все таки далеко не 400?

P.S. На разброс особо смотреть не стоит, сервер рабочий и у него своих дел хватает помимо моих тестов.
Если я напишу хоть пол слова на тему: зачем это нужно, набежит стая «хомячков» которые будут объяснять всем: зачем это не нужно.
Каждый волен сам решать, нужно это ему или нет, и если он решит, что это ему нужно то он может воспользоваться данным документом.
Все меняется в этом мире:
www.opennet.ru/opennews/art.shtml?num=49815

Обсуждение в комментариях лучше не читать :-)
[phoinix@db01 ~]$ gstat
dT: 1.043s  w: 1.000s
 L(q)  ops/s    r/s   kBps   ms/r    w/s   kBps   ms/w   %busy Name
    0   1438    156   1419    0.4   1281  26988    0.2   18.4| mfisyspd0
    0   1483    161   1082    0.4   1322  29383    0.3   20.5| mfisyspd1
    0   2067    178   1034    0.2   1889  29234    0.2   19.4| mfisyspd2
    0   2033    144    774    0.3   1889  29234    0.2   21.4| mfisyspd3

Мне сложно сказать что у вас там во что превращается, видимо у вас своя магия…

PERC H730 Mini
4xSSD SAMSUNG 900Gb
Да, секта свидетелей ZFS. :-)
BTRFS тоже разрабатывала секта раскольников ZFS
> Авторы не хотят его видеть в Linux, Linux пожимает плечами, и только отдельная группа усиленно работает над попыткой притащить одно в другое.
Авторы чего не хотят видеть это в linux? Авторы zfsonlinux?
Вы вообще в курсе почему ZFS долго не портировалась в Linux?
Почитайте на досуге про лицензии того и другого и суть проблем, а потом высказывайте свое «экспертное» мнение.
С точки зрения скорости работы — сложно сказать будет ли вкуснее или нет, все зависит от целого ряда факторов:
— сколько памяти будет выделяться для кеша ZFS;
— будет ли использоваться SSD кеш на обычном дисковом пуле;
— какие данные будут храниться на дисках, да это важно, так как степень сжатия этих данных будет сильно влиять на IO;

В общем, сравнивать «в лоб» — занятие абсолютно бесполезное, тем более что ZFS это не только программный контроллер дисков, а в первую очередь таки журналируемая файловая система.
Использовать или не использовать аппаратный рейд — дело предпочтений каждого админа, я его не использую так как:
— resilvering на zfs делается быстрее;
— собирать и разбирать пулы можно без перезагрузки сервера;
— не все RAID контроллеры поддерживают сложные массивы или требуются дополнительные лицензии на них;

То что у ZFS периодически возникают проблемы с WriteCache аппаратного контроллера — да бывает и да зависит от контроллера. Как-то работал с контроллером который как бы поддерживал HBA режим, но при этом при перезагрузке сервера менял их порядок, да пришлось включать аппаратный RAID.

В общем, не суть, и публикация не об этом.
Хотите использовать аппаратный RAID на ZFS — используйте, но тогда потеряете часть функционала ZFS по управлению дисками.

Что касается 512 байт — идем сюда: en.wikipedia.org/wiki/Disk_sector
И читаем:
… Newer HDDs use 4096-byte (4 KiB) sectors, which are known as the Advanced Format (AF).

Если у вас старое железо, то да, используйте ashift=9. Но я в своей работе уже не помню когда сталкивался с подобными дисками, все как-то на новом оборудовании развлекаюсь.
Можно сделать, можно не сделать, но правильней об этом написать.
Понятно, что тут все «гуру» и прекрасно знают и понимают вопросы безопасности.
Но, к сожалению, это не так.

И опять же:
"… специалиста финансового отдела..." — то есть доступ (SELECT) к финансовой информации в БД доступна извне?

И да нужно говорить как минимум не о SELEСT * FROM table, а SELEСT * FROM view.

Вообще, для таких целей, я бы все же рекомендовал использовать MS Access.
Какая никакая, но все же БД, которая, к слову, позволяет подключатся к внешним БД через ODBC со всеми ништяками. И таки да, имеет собственную систему безопасности, а не текстовый файл с открытыми данными.
Самый правильный способ использовать OAuth социальных сетей, а не изобретать велосипед с собственной регистрацией.
habrahabr.ru/company/crystal_service/blog/245975/#comment_8182891
То есть оставлять файл с паролем на доступ к боевой БД на рабочем столе компьютера рядового специалиста финансового отдела — это ОК?

А вот:
host all all 0.0.0.0/0 md5
надеюсь все же пример, а не скрин реального pg_hba.conf боевой базы.
Поле tree нужно что бы можно было работать с несколькими деревьями в одной таблице.
Например есть таблица комментариев древовидных, но объектов комментирования много, соответсвенно для каждого объекта свое дерево комментариев.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity

Specialization

Chief Technology Officer (CTO), Database Developer
Lead
Nginx
Perl
FreeBSD
Creating project architecture
PostgreSQL