Практика это всегда интересно. Ведут себя лучше по производительности записи (тут глупо спорить) или по жизнеспособности? 3700 и 5400s несколько некорректно сравнивать, как мне кажется — между ними разрыв чуть ли не 5 лет.
Optane не пробовали? Сейчас их показатели надёжности пусть и не драматически (как обещалось сначала), но всё же превышают NAND.
В последнее время этот рынок в РФ получил определённое распространение, и это, наверное, хорошо.
Однако, открытым остаётся вопрос сервиса (поставщики б/у оборудования в основной массе готовы предложить только гарантию), а также доступность з/ч — на ebay их полно, но что делать, если вылетел какой-то специфичный для платформы компонент, искать по порталам объявлений и ждать его пару-тройку недель?
Ну, во-первых, не интелом единым — в серверах и СХД брендов много SSD от Micron, Samsung и т.п.
Во-вторых, разница все же есть как по DWPD (параметр Endurance Rating на ark.intel.com), так и по частоте возникновения некорректируемых ошибок (Uncorrectable Bit Error Rate там же, причем, отличается он зачастую на два порядка).
По поводу буферизации тоже не все однозначно — бывает, нужно использовать сырые тома без ФС или же ФС с отключённым журналом для максимальной производительности и повышения ресурса накопителей при крайне интенсивной записи. Плюс, представьте ситуацию, когда запись в журнал осталась в буфере накопителя на момент отключения питания (т.н. barrier просто не успел отработать).
Если взять для примера какую-нибудь ext4, то по умолчанию режим работы у нее data=ordered + delayed allocation, и чтобы приблизиться к ситуации, которую вы описываете, нужно монтировать ее с data=journal, что как бы не очень способствует высокой производительности.
Можно потерять по одному контроллеру в каждой IO group, и система продолжит работу.
Потеря же целой IO group это физический отказ управляющей полки целиком (что весьма маловероятно, учитывая задублированные компоненты), а значит, и доступа к дискам, вставленным в нее непосредственно или подключенных к ней экспаншенами. Защита от такого отказа — Volume Mirroring разве что.
1. Увеличить общий объём системы, если его не хватает: одна control enclosure в случае v5000 поддерживает максимум шесть expansion, а кластер — 12
2. Повысить производительность, т.к. трудятся уже не два, а четыре контроллера
3. Обеспечить лучшую защиту от сбоев за счет увеличения кол-ва путей и контроллеров
К слову, одна управляющая нода — это уже кластер из двух контроллеров (IO group).
>Демоны всякие запускать. Например, как заставить squid запускаться быстро, а не проверять все дерево кэша каждый раз при старте, я не нашел. Видимо, плохо искал.
Добавить @ перед именем демона в rc.conf в случае арчеинита, systemd сам будет срартовать все остальное, не дожидаясь запуска squid (хотя, зависит от настроек).
>Дело в том, что systemd — очень уж тормозная и глючная штука
Дело в том, что это неправда.
>Мало того, что загрузка стала происходить не 2..3 минуты, а около пяти, так еще и часть служб не запустилась!
Стесняюсь спросить, что нужно сделать, чтобы система грузилась несколько минут, даже на стандартном sysvinit. Нужно было просто включить нужные службы через systemctl, либо поставить пакет initscripts-systemd, в котором есть target, запускающий сервисы из rc.conf.
Я ни в коей мере не агитирую за использование systemd, однако, называть софт глючным только из-за того, что не осилил три минуты почитать вики, считаю неправильным.
>Многие репозитории могут оказаться недоступными.
Это какие, если не секрет? Все пакеты официальных репозиториев (включая нестабильные вроде kde-unstable, community-testing, etc) подписаны. Если уж так хочется на свой страх и риск использовать сторонние (кстати, зачем это в арче?) — решается добавлением одной строчки в конфиг пакмана в секции вожделенного репозитория.
Сейчас как раз нечто подобное и наблюдается, по цене в $99 за 16Гб и $150 за 32Гб тачпады разлетаются с прилавков в один миг. Их купило уже очень много людей.
Не берусь утверждать, но мне почему-то кажется, что это запланированная акция.
Optane не пробовали? Сейчас их показатели надёжности пусть и не драматически (как обещалось сначала), но всё же превышают NAND.
Однако, открытым остаётся вопрос сервиса (поставщики б/у оборудования в основной массе готовы предложить только гарантию), а также доступность з/ч — на ebay их полно, но что делать, если вылетел какой-то специфичный для платформы компонент, искать по порталам объявлений и ждать его пару-тройку недель?
Во-вторых, разница все же есть как по DWPD (параметр Endurance Rating на ark.intel.com), так и по частоте возникновения некорректируемых ошибок (Uncorrectable Bit Error Rate там же, причем, отличается он зачастую на два порядка).
По поводу буферизации тоже не все однозначно — бывает, нужно использовать сырые тома без ФС или же ФС с отключённым журналом для максимальной производительности и повышения ресурса накопителей при крайне интенсивной записи. Плюс, представьте ситуацию, когда запись в журнал осталась в буфере накопителя на момент отключения питания (т.н. barrier просто не успел отработать).
Если взять для примера какую-нибудь ext4, то по умолчанию режим работы у нее data=ordered + delayed allocation, и чтобы приблизиться к ситуации, которую вы описываете, нужно монтировать ее с data=journal, что как бы не очень способствует высокой производительности.
Вопрос необходимости собственного парка для каждой компании решается по-своему.
Потеря же целой IO group это физический отказ управляющей полки целиком (что весьма маловероятно, учитывая задублированные компоненты), а значит, и доступа к дискам, вставленным в нее непосредственно или подключенных к ней экспаншенами. Защита от такого отказа — Volume Mirroring разве что.
2. Повысить производительность, т.к. трудятся уже не два, а четыре контроллера
3. Обеспечить лучшую защиту от сбоев за счет увеличения кол-ва путей и контроллеров
К слову, одна управляющая нода — это уже кластер из двух контроллеров (IO group).
2. Прайс за 2шт
2012 год, а в статьях все те же ./configure; make; make install
Добавить @ перед именем демона в rc.conf в случае арчеинита, systemd сам будет срартовать все остальное, не дожидаясь запуска squid (хотя, зависит от настроек).
Дело в том, что это неправда.
>Мало того, что загрузка стала происходить не 2..3 минуты, а около пяти, так еще и часть служб не запустилась!
Стесняюсь спросить, что нужно сделать, чтобы система грузилась несколько минут, даже на стандартном sysvinit. Нужно было просто включить нужные службы через systemctl, либо поставить пакет initscripts-systemd, в котором есть target, запускающий сервисы из rc.conf.
Я ни в коей мере не агитирую за использование systemd, однако, называть софт глючным только из-за того, что не осилил три минуты почитать вики, считаю неправильным.
Это какие, если не секрет? Все пакеты официальных репозиториев (включая нестабильные вроде kde-unstable, community-testing, etc) подписаны. Если уж так хочется на свой страх и риск использовать сторонние (кстати, зачем это в арче?) — решается добавлением одной строчки в конфиг пакмана в секции вожделенного репозитория.
// у меня похожий ноут просто
Или у меня синдром теории заговора? :)
Не берусь утверждать, но мне почему-то кажется, что это запланированная акция.
Но чем отличается установка ОС в DRAC от установки в любой другой системе удаленного управления (кроме расположения элементов)?
Разве DRAC не использует IPMI (как и IBM IMM, ЕМНИП)?