Comments 97
Классический простой УЗО — устройство защитного отключения (в народе автомат)
но узо это не автомат… даже в народе, автомат — это автоматический выключатель по нагрузке или нагреву, а УЗО как вы и написали — это защитное отключение при разности в протекании тока по фазе и нулю и одно другое не заменяет… есть дифф автомат, это как раз УЗО+обычный автомат
А еще заталкивать моножилу в клемму автомата/УЗО, кмк, — не лучшая затея, там же площадь контакта получается чуть больше, чем никакая
Ну, Мосэнерго ж, там ещё и алюминиевый провод. За замену провода от счётчика до автомата они ещё тыщи 2 хотели, там о боже пломбы надо менять и поверку делать.
Эм, а зачем поверку, если счетчик остается на месте и всё меняет сотрудник МЭ?
Они на это дали договор-смету-квитанцию, чтоб можно было прищучить? :)
1. Только что видимо накрылся диск в сервере (ESXi 6.5) Какими способами поднимали инфу с дисков? Есть DiskInternals VMFS Recovery, но на нее нет кряка… =(
2. Как вообще жесткие диски не серверной линейки (зеленые, фиолетовые WD) переживают обрыв по питанию? Пока никак не могу взять ИБП.
3. Гипервизор же можно настроить на корректное выключение (через какое-то время) если пропадет питание? Или такого функционала нет?
Заранее благодарю)
Но в реальном проде у меня были разные варианты, там уже надо копаться, или пытаться из рекавери режима что то вытянуть или монтировать VMDK на живую машину, или искать утилиты для восстановления из мертвых VMDK, у Veeam был помню vmdk explorer (у нас правда платная редакция была), ну и помню как то я просто гуглил и пробовал все подряд что заработает, в итоге что то да вытянул, но тут фишка в том что именно важные данные я храню в нескольких копиях, так что мои домашние приключения чаще всего сводились к переустановки ОС и заливки копии данных из другого места.
2. У меня были и серверные и не серверные, я особой разницы не заметил, и те и те могут валиться.
3. Можно, но для этого нужен ИБП который в идеале умеет по сети слать в API запрос на выключение (соответственно платная редакция ESXi), под ругому можно наверное через KVMoIP если платформа такое поддерживает, но ESXi не факт что корректно выключится тогда. Без доп. средств простая железка и гипервизор боюсь никак не узнают что пора выключаться, либо что то думать на тему Arduino/raspberry который будет мониторить питание в сети и гасить ESXi имитируя интерактивный вход на web морду или посылая команды по ssh, но опять же ИБП тут нужен на тот период пока все это дело будет тушиться.
Можно, но для этого нужен ИБП который в идеале умеет по сети слать в API запрос на выключение
Ваш ИБП Ippon Smart Power Pro II должен поддерживаться NUT, который, разумеется, может дёргать скрипты при разных событиях. Предыдущее поколение смарт иппонов с NUT работает хорошо.
А на бесплатной версии не будет работать? У АРС есть для ESXI, приложение Power Shute, именно для ESXI, руки чешутся попробовать.
Сейчас у меня на ESXI работает вирт машина vMA, она прекрасно выключает виртуальные машины по порядку настроенном в ESXI и гасит сам хост. Есть ещё несколько скриптов для выключения виртуальных машин, но ни один у меня толком не заработал. На настоящий момент рабочее решение vMA.
А насчет vMA, он насколько знаю deprecated:
Note: vMA is deprecated and vMA 6.5 is the last release, please see the vMA Release Notes for further information and alternative functionality.
Значит в моем случае это были автоматы :)
Не понимаю я стремления под каждую программу выделять целую виртуалку. Не понятно что изолированность, но тут мне кажется слишком оверхед. У меня дома примерно такой же функционал делает небольшой корпус на miniitx с ubuntu и всего одной виртуалкой для веб-разработки.
Ну у вас там наврятли 60+ ТБ RAW дискового пространства.
Да и работать удобнее когда сервисы распределены. Но это мое видение, у вас свое, я не утверждаю что мой вариант единственный верный.
26 Тб)
Ничего сверхъестественного. 10Тб основной, 10 Тб под бэкап, два старых 3 Тб которые раньше трудились в raid. Собственно у меня на матери 4 Sata. Raid решил не делать, в пользу периодических бэкапов (rsync) на отдельный диск по usb (для домашнего применения мне хватает). На основном 10 тбайтнике у меня файлопомойка, на 3 Тбайтнике запись ip-камеры и торренты, на втором 3Тбайтнике виртуалка. Пока места хватает при таком сценарии.

Решил, оставив штатные вентиляторы, но написав эмулятор вентилятора на ардуино :)
Ардуино делает две вещи — рапортует блоку питания правильные RPM и дает вентилятору правильный PWM сигнал. Если его не дать — никакое разумное снижение напряжения не помогает, он пытается на максимуме крутиться. А так — заметное, но не ужасающе громкое шелестестение.
Температура хардов не превышает 40 градусов даже с этим.
На всякий случай добавил радиаторов на чипы SAS модулей, но они там почти не греются.
github.com/AlexxIT/XiaomiGateway3
habr.com/ru/post/519644
использую сам — полет нормальный
Но с сточки зрения эффективности, на мой взгляд, ваше решение не выдерживает никакой критики. Есть HP MicroServer. Я год назад покупал за $150 с двумя HDD + SSD. Стоит в зале под телевизором и не мешает никому. HP Server, даже и Micro серии, значительно надежнее вашего комбайна, потребляет 50W, тихий.
Я тоже проходил все этапы создания домашего хранилища: от бытовых компов, через серверные, затем NAS'ы и в итоге остановился на HP MicroServer. Надежно, тихо и при этом дает мне свободу в плане ПО.
Сам я страдаю таким же, поэтому дома у меня 2-х сокетный сервер с 2-мя процессорами e5-2670, 192 ГБ RAM, 2 x 2 TB SSD для виртуалок и 36 TB RAW ёмкости HDD. Кроме рабочей конфигурации в шкафу лежит ZIP из материнской платы, 4 модулей памяти, Raid контроллер LSI и блок питания. На сервер установлен Esxi + vCenter, а на виртуальных машинах развёрнута полноценная инфраструктура для предприятия с кучей разных сервисов. Само собой есть бэкап и мониторинг. В общем всё как у больших дядей. :).
Эффективно ли такое решение? — Нет. Позволяет ли оно получить реальный опыт — Да! Доставляет ли оно удовольствие — Дa! А значит оно того стоит и можно заниматься этим дальше.
Вот ещё есть один такой же любитель — habr.com/ru/users/KorP. В его блоге blog.korphome.ru даже где-то было фото его стойки с оборудованием на балконе.
Plex для дома, кстати, он потянет. Я сам не ставил, но находил решения в сети.
А если вам нужно видео транскодить регулярно — лучше спотов на AWS решение не найти.
Там есть возможность установки простенького Xeon’а (если мы говорим о Gen8), а еще можно это переложить на низкопрофильную видеокарту. И, кстати, часто транскодируете?
У меня стоит Gen8 с Plex’ом на самом чахлом проце, транскодирование сейчас даже для мобильных девайсов, вроде, не требуется...
А зачем больше? У меня вообще два заняты и один еще под hot spare drive.
Сейчас же есть диски любого размера. А дома зачем десятки тер? Это уже не бытовые нужды, если вам нужны десятки тер.
2 микросервера?
Поставить один на другой — с 8-го поколения это очень удобно делать )) А вот с объединением сложнее. Но с учетом того, что у большинства такие ящики служат сразу для нескольких целей (медиахранилище, виртуалки, еще что-то), то есть кейс, когда и объединять не надо. Но я так понимаю, это не Ваш случай )))
Я весь контент для plex в контейнере прокинул по smb, включая фото. Он кстати очень удобен в плане просмотра фото, даже raw понимает, попробуйте.
Да и супруга у меня вменяемая, всякие подозрительные файлы не качает, письма непонятные не открывает, вирусню дома не видел лет 10 уже, если не больше.
Настоящий сварщик восстановится из периодического ZFS снапшота.
Так всегда, вроде 5 минут… а по факту Some time later…
Задумался о переезде на такую конструкцию. Plex оно умеет, равно как и Nextcloud, а вот Seafile, вроде как, не заявлен… Пока не определился с облачной помойкой, но в случае FreeNAS’а, похоже, выбирать не придётся.
Кстати, а за NAS4free (тоже переименовался — ныне XigmaNAS) кто-нибудь следит? Когда-то давно, вроде как, паритет был у этих платформ. Что сейчас?
Но лучше сделать так support.google.com/accounts/answer/3036546
вы не знаете, что 3cott и ippon — это упсы одного и того же китайского разлива?
пассаж про автоматы — это отдельное…
вот не понимаю.
горделивое многостраничное описание продирания сквозь тернии, которые можно было просто обойти.
Я ток не понимаю где вы «горделивое описание» тут заметили )))
На мой взгляд, ваше решение может быть оправдано только если совсем, позарез нужен именно такой огромный для дома массив под данные.
Ну не знаю, я ж описываю факап на факапе, гордиться тут особо нечем, но получилось именно так.
Если бы я сразу начал с hp микросервера или подобного устройства, то вероятно всей этой эпопеи и не было бы, а так спортивный интерес да и опять же оно так вышло за 6 лет, из хлама и нездоровых экспериментов, я в целом ни о чем не жалею. Есть вообще монстры, погуглить историю одного паренька в США который майнфрейм ibm'овский купил.
Не понял ситуацию с автоматами. Их же подбирают под проводку. Нельзя просто взять и заменить автомат на больший ток. Проводка греться начнет.
Так автоматы остались на ту же мощность.
Вся суть в том что в старых автоматах "устали" компоненты, я так понимаю медная пластина стала изгибаться при меньшем токе (или как оно там работало), вообщем новые автоматы исключительно из списка одобренных Мосэнерго, а они больше мощности и не поставят.
А можете дать ссылок на сайты, где про crown неприятное писали? Прикупил в домашнюю стойку, правда online-модель взял
Как по мне то за затраченые деньги проще было воткнуть решение от Synology, но как пишет автор собиралось из того что было, в виду этого, можно было воспользоватся XPEnology, из сложностей синхронизации с мобилками в виду отсутствия quick connect установить Next Cloud, в виду обильного количества программ которые есть на синолоджи, они без проблем могут покрыть 70 % требований описаных в данной статье (Plex, Torrent, Cloud, Backup), с запуском виртуалок наверно будут сложности, и лабораторию не развернуть. Но как вариант можно пойти от обратного, воткнуть на сервер linux, вменяемый кусок отрезать на виртуалку под XPEnology, а все остальное оставить на шалости с виртуалками и лабораторией.
В данный момент я искренне прошу подсказать мне аналогичное решение на Linux, т.к. все мои тесты и попытки собрать что-то аналогичное на zfs или btrfs не увенчались успехом,
а что именно не вышло с дедупликацией в zfs? 1:4 на бэкапах виртуалок стабильно, вместе со сжатием zstd получается грубо 1:10: 10 ежедневных бэкапов виртуалок занимает чуть меньше места, чем thin тома на vmware, с которых и делаются копии.
у вас, конечно, гораздо круче, но подозреваю, что дело тут не в алгоритме дедупликации, а в исходных данных (менее изменчивых).
Вы не знаете zfs с zstd работает на файловом уровне или на уровне блоков файловой системы?
У вас используется под freenas или под голой системой какой то?
И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.
И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.
Да, дедупликацию в ZFS рекомендуют включать только в строго определенных случаях. Чаще всего она только вредит производительности. Лучше включить компрессию и на этом успокоиться, у нее влияние на производительность и жор ресурсов примерно нулевое за счет early abort механизма.
И компрессия и дедупликация ведутся всегда на уровне блоков. Только M$ смогла додуматься сделать так, чтобы для дозаписи в файл его надо было бы сначала расжать.
Собственно, эффективность дедупликации сильно зависит от многих факторов. Если вы пытаетесь дедуплицировать zvol — то размер юнита записи в гостевой ФС должен быть равен размеру блока самого zvol. Кроме того, чем больше блоки — тем меньше накладные расходы на дедупликацию, что делает оптимальным блок в 64к, который никогда не используется автоматически.
Если вы дедуплицируете dataset или несколько, то для наилучшего результата файл стоит заливать целиком, а не дописывать по кусочкам. Кроме того, одинаковые с виду файлы (например, два архива с сетевой шары с интервалом в несколько дней) даже при неизменных файлах но изменившихся датах, могут на блочном уровне оказаться совершенно непохожи друг на друга.
Лучше всего получилось с играми в steam: при трех немного разных библиотеках получилось коэффициент больше 2.
Разумеется, и zvol, и гостевая ФС, и датасет для хоста были попилены на одинаковые блоки format R: /fs:ntfs /unit=64k
для экспортируемого тома, zfs create -V 400G -b 64k
для zvol, zfs create -o recordsize=64k
для dataset.
Вы не знаете zfs с zstd работает на файловом уровне или на уровне блоков файловой системы?
на уровне блоков. у меня размер блока 1 МБ, подумываю об увеличении (при этом эффективность сжатия вырастет, эффективность дедупликации упадёт).
И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.
она включается/включается на уровне файловой системы, а не на уровне пула.
вот пример с живого пула на 140 ТБ:
dedup: DDT entries 22853414, size 505B on disk, 163B in core
bucket allocated referenced
______ ______________________________ ______________________________
refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE
------ ------ ----- ----- ----- ------ ----- ----- -----
1 14.9M 14.9T 4.75T 4.42T 14.9M 14.9T 4.75T 4.42T
2 1.75M 1.75T 826G 764G 3.95M 3.95T 1.81T 1.67T
4 557K 557G 229G 212G 2.87M 2.87T 1.19T 1.10T
8 2.57M 2.57T 962G 894G 25.6M 25.6T 9.34T 8.68T
16 1.93M 1.93T 446G 419G 38.7M 38.7T 8.71T 8.17T
32 68.8K 68.8G 13.1G 12.4G 2.74M 2.74T 560G 528G
64 2.73K 2.73G 1.50G 1.38G 252K 252G 142G 131G
128 892 892M 572M 528M 144K 144G 90.5G 83.5G
256 164 164M 61.7M 57.2M 54.7K 54.7G 20.1G 18.7G
512 47 46.0M 15.7M 14.6M 36.0K 35.4G 12.5G 11.6G
1K 90 90M 38.0M 35.1M 123K 123G 51.7G 47.9G
2K 65 65M 23.1M 21.5M 158K 158G 54.2G 50.4G
4K 13 13M 5.34M 4.95M 54.6K 54.6G 22.4G 20.8G
8K 1 1M 4K 9.14K 15.1K 15.1G 60.2M 138M
16K 2 2M 8K 18.3K 54.7K 54.7G 219M 500M
Total 21.8M 21.8T 7.17T 6.67T 89.7M 89.7T 26.7T 24.9T
то есть дедупликации «подвергнуто» 25 ТБ сжатых данных, из них получилось меньше 7 ТБ на диске, ≈1:3.7 (было 1:4 и лучше, но тут недавно пертурбации были, коэффициент упал, ожидаю, что скоро вернётся к прошлым значениям).
формально несжатых данных почти на 90 ТБ, но это из-за того, что thin образы бэкапятся как разреженные thick, если сохранить в thin, то реально там чуть более 50 ТБ.
так вот, как показывает приведённая статистика, на таблицу дедупликации уходит (22853414 ⋅ 163) / (1024^3) < 3.5 ГБ памяти.
вы действительно считаете, что это слишком много?
P. S. если дедупликацию использовать на zvol с размером блока 4 КБ, например, то таблица дедупликации, разумеется, вырастет на пару порядков и станет слишком большой для размещения в памяти. примерно то же самое будет, если применить дедупликацию к разделу с миллиардом мелких файлов.
У меня резервные копии прилетают уже пожатые, zip кажется, так что zfs наврятли сильно их пожмет, тут как мне кажется нужен именно дедуп.
обычный debian (впрочем, это особой роли не играет).
по поводу zip вам же написали рядом, что дедупликация со сжатыми файлами практически не работает
Ну собственно от MS работает хорошо и с zip и с tgz, я так же знаю схд от pure storage они умудряются дедупить прям на лету, в том числе и архивы, но у них там какая то своя проприетарная технология.
честно скажу: не знаю, как оно там у ms сделано, возможно, придумали что-то принципиально новое, конечно, что позволяет находить одинаковые куски по невыровненным смещениям (а это минимальная проблема, которая возникнет у нас при изменении чего-то в начале zip).
По поводу дедупликации бекапов сайта жены — я так понимаю, что там место занимают миллионы фоточек вкусной еды? Так зачем же их дедуплицировать блочно, если можно пофайлово — при помощи rsnapshop
, rdiff-backup
и подобными инструментами тянуть с сервера прямо по ssh, не пакуя.
А так в целом, то ситуация следующая:
Сайт на WP,
для резервных копий используется плагин который бьет на части и архивирует не только фотки, но и sql, и конфиги, и плагины и т.п. Льет он через мой dropbox.
Открывать ssh или ftp на хостинге как то не хочется исходя из соображений безопасности.
Да и подобную РК легче восстанавливать чем результат rdiff, rsync.
Я не хотел бы хранить дифы, все же полная РК надежнее.
rsnapshot хранит полные копии, просто неизменившиеся файлы хардлинками между копиями. rdiff-backup хранит самую свежую копию как есть, а снимки — диффами. При этом лежит всё на нормальной ФС, без хайтека. rsnapshot может забирать данные не через ssh, а через rsyncd, аналогично у rdiff-backup есть режим демона.
Ну если плагин хорошо работает, то не надо трогать, конечно.
Хотя, дропбокс без своего шифрования… Не боитесь, что ЦРУ узнает все кулинарные секреты?
Я вообще за децентрализацию… вот тут в комментах много таких любителей домашнего сервера… может вам объединиться в сообщество и как то продвигать распределенное хранение, какой то альтернативный хостинг (распределенный) для не критичных проектов. (я бы вот с удовольствием ради того же хобби сайт визитку бы у вас держал.
Вы бы могли создать движение в стране таких же любителей.
1. сделать свою сеть распределенного хранения… и к примеру между собой еще как то резервное копирование распределять самого важного (типа взаимовыручка). (можно какими то архивами нумерованными в каком то общем сетевом диске — т е отдавать какие то объемы динамически на общее хранилище с резервированием. Там какие то фильмы распределить.
2. запустить свой портал с опытом и обсуждениями. (вы вот тут уже под двумя частями этой статьи кучу ценного все написали), может форум какой или децентрализованную соц сеть домосервов.
3. Сделать и отработать систему максимально надежного хранения данных на сетке распределенных домашних серверов. (хотя бы для своих). Сохранять какие то важные знания из интернета на случай локдауна монополистов и апокалипсиса
4. Поднимите свой ВПН для тех у кого нет белых IP адресов.
Ну и может еще что то, что будет в целом выгодно сообществу при децентрализации. Я думаю, что еще бы появились любители держать небольшой сервак и как то его мощности добавлять в сетку вашу домосерва. Вот мне уже интересно стало. У меня есть с пассивным охлаждением ноут, он включен постоянно. Часть мощностей мне бы было тоже интересно подключить к общей вычислительной мощности, ну что то такое. Еще можно како то тоже придумать холодное хранение просто нумерованные части каких то архивов (у одного там 5 частей, у другого еще с резервированием) — наперекор монополистам.
к примеру есть архив у человека
0111 имя
он разбивает его на 10 частей с именами произвольными
1. asdfg879dfsgkjnk34kjnndfkjnksdf987dfkj (такого типа паролит шифрует еще при необходимости) и закидывает в общую систему с резервным копирование (себе на бумажку пишет имена файлов частей). Все уто участвует хранят такие части просто по взаимовыручке. Сделать какую то проверку, что каждой части есть не менее 2 копий. Если осталась одна, то еще куда то вторая сбрасывается кому то. Вот к примеру у меня есть свободные 3 Тб места почти всегда. Я вхожу в сообщество, и обязуюсь по возможности хранить 3 Тб чьих то архивов тоже, взамен на мои резервные где то. Тут принцип, что надежно я только у себя свое хранить не смогу даже 1 Тб. Потому что если у меня выйдет из строя диск, то я все потеряю… А если я знаю что еще есть где то избыточно как минимум копия моего 1 ТБ, за это я даю в общее пользование 2 Тб для чужих резервов.
Ну еще что то может свой джабер, каталог чего то важного. Выйти на самоокупаемость хобби.
Заниматься этим как вы описали, по моему мнению, это еще одна работа на full time, мне пока что и так не скучно =)
А окупать железо и эксплуатационные расходы цели нет, это моя игрушка, как хочу так и ворочу, интеграция этого сервера в «прод» даже распределенный уже будет накладывать некоторые ограничения, оно мне не нужно, как пример: я же (надеюсь и вы) не таксую на своем автомобиле что бы окупать его эксплуатацию для личных нужд.
2. Если Вас уж так не интересуют деньги или хотя бы просто самоокупаемость, почему бы не предложить близким друзьям и знакомым хотя бы хранить самое важное еще одну резервку у вас. Реально то «самого важного» /невосполнимого у людей 1-10 Гб частенько (не более). Ну и расшарить фильмотеку для них же к примеру. Ну и может хостинг кому тоже нужен будет небольшой на 100 Мб (визитка сайт).
Я просто считаю, что любое крутящееся оборудование могло б приносить и еще пользу (свободные мощности), а у Вас я так понял куча свободного места, но тоже зря крутится.
Как то я пропустил вторую часть статьи. Я тоже home server maniac :) Немножко описания и фото я кидал в комментариях к первой части. Прошел путь от простого WD Elements Desktop подключенного по USB к рабочему компу, до 8U стойки уже без свободного места.
Скажу всем начинающим и продолжающим домашнесерверостроителям, что какое бы не было решение, всегда надо идти на компромиссы. У меня дом, но изначально, я немного неправильно спроектировал центр свода коммуникаций в небольшой гардероб. Думал сколько там надо? Полочку одну выделить. Ага :) Сначала была обычная десктопная mini-itx платка на Intel Atom + 5-слотовая 3.5" корзинка с алиэкспресс. Совсем не server grade hardware. Эксперименты по SSH иногда заканчивались обрубанием ветки на которой сидишь, приходилось тащить монитор клавиатуру туда куда их очень сложно притулить (дешево, но не предназначено для работы в качестве сервера 24/7 — компромисс). В общем скоро я понял, что это не дело. Неудобно. Плюс незакрепленная корзина с HDD, с тянущимся к ней питанием и шейфом SATA кабелей, которые было легко зацепить, напрягала (дешево, но ненадежно — компромисс).
Начался поиск недорогой серверной Mini-ITX платы, так как корпус только маленький помещался в гардероб (компромисс). Нашел ASUS P10S-I. Также была сделан DIY дисковая полка на основе Chenbro Backplane на 16 HDD. Соединялось это вместе посредством LSI SAS HBA, который занимал единственный слот в матплате. Уже дороже, но несравненно удобнее (компромисс). IPMI на плате освободил от забот тягать монитор и клавиатуру к серверу. 16 слотов под HDD сильно развязали руки в плане манипуляций с данными. Это все стало уже занимать 2 полки шкафа гардероба. Но в гардеробе стало очень тепло, а температура HDD стала достигать 60-и градусов. Плюс отсутствие ИБП сильно печалило. В жаркий гардероб пихать еще и ИБП я совсем не хотел. А также хотел сделать несколько часов автономной работы. Тогда созрел хитрый план. Купить б.у. хороший ИБП с возможностью подключения внешних батарей. Сделать батарейный блок большой емкости. Разместить все это в пристроенном гараже в серверной стойке. От ИБП протянуть провод в гардероб, благо такая возможность имелась. Взял APC SURT2000XLI, 4 12в батареи на 45Aч. Вместе с питающим проводом 220в протянул 2 пары оптики и 5 UTP Cat 5e (всегда планируйте с запасом). В квартирах места под стойку обычно нет, к сожалению. ИБП 2U, весит много, батареи весят еще больше, гудит как самолет. Если изолированного места в жилище нету под это все, то такое, наверное, не навернешь.
Заработало, отлично. Теперь я с ИБП и 3-мя часами автономной работы (и котел газовый туда же подключил). Камерки будут исправно долго писать даже без электричества (POE switch подключен к ИБП). Протянул оптику, надо заюзать! Слотов PCI-E больше нету, значит меняем плату. Supermicro X11SSM-F отличный вариант, но она уже MicroATX. Смена корпуса, перетаскивание сервера на отдельную полку (теперь уже 3) (места больше — компромисс).
Начали вылетать винты. Они были б.у. с ebay и 60 градусов по S.M.A.R.T. это не шутки. Замена тот еще геморрой. Останови сервак, отключи все кабеля к дисковой полке. Открути болтики прижимающих планок. Пальцы об горячие HDD обожги. Вытаскивать неудобно, запихивать неудобно. Понять где какой стоит неудобно. Горячо и неудобно, но дешево и занимает мало места (компромисс). Но мне повезло, у меня есть прохладный гараж с 8U стойкой и оптикой подведенной к ней. Был куплен 3U корпус с 16 hot swap корзинами. Весь сервак и дисковая полка переехала туда. Оно воет что боинг и адски тяжелое, так что это точно не для квартиры, но в доме не слышно. Зато теперь прохладно и доступ удобный (компромисс).
Собрал еще один похожий, но 2U для бекапов и экспериментов, теперь в стойке уже нет места (надо расширятся). Следующим этапом мож 48 HDD полка от supermicro? Я не знаю, но процесс походу бесконечный :)
Спасибо за комментарий, у вас прям отличный опыт, тоже с постепенным ростом получился, как и у большинства, нас, безумцев ;)). Добавляйтесь в наш маленький телеграмм канал, там нас немного, но люди обмениваются опытом, уже помогают друг другу.
Домашний сервер, или приключение длиной в 6 лет. Часть вторая