Pull to refresh

Comments 149

У меня домашний сервер для тех-же нужд. Правда, изначально его делал под Linux. Самым удачным решением для него, на мой взгляд, было приобретение корпуса Corsair (что-то типа Obsidian Series 550D Mid-Tower Quiet), ориентированного на тихие системы. Сейчас в нем около 10 HDD общим объемом в районе 18 Тб и его почти не слышно.
Да, я в итоге закончил тоже на более тихом решении, во второй части постараюсь расписать в деталях что сейчас поедает у меня электричество 24/7. Но конечно при наличии денежных средств и четкого плана с самого начала, результат был бы не таким вымученным.

У меня домашний сервер на HP Microserver, крутился 7 лет на Windows Server 2012, сейчас обновил на 2019. Синих экранов не было, монитор подключал дважды — при установке и при апгрейде 2012 -> 2019, остальное время по RDP.


HP Microserver всем рекомендую, но только четыре диска..

Мне кстати его многие рекомендовали, но я с самого начала собирал из хлама, и диски были разношерстные, отсюда и BSOD, и прочие зависания, летом кстати на балконе в прямом смысле жара, у меня еще и солнечная сторона на восходе.

Диски тоже были всяко разные, а вот с хламом и температурой — тут да, все что угодно возможно.

А мой HP Microserver GEN7 помер недавно: черный экран и все. Уж не знаю, что делать с ним…
но только четыре диска..

есть варианты: например есть отсеки 5.25->2.5, доставить еще рейд\сата контроллер и винтов можно впихнуть больше. Но проверять я это, конечно, не буду!(с)
Я бы его проапгрейдил бы мамкой на J4125\J5005, но нету времени и желания… эххх

Я пятый так добавил плюс SSD (впихнул оба в отсек 5.25, даже скобочки продаются), но больше уже нет без каких-то странных решений… Правда, мне больше и не надо особо, заменил винты с 2TB на 4TB в какой-то момент просто.

UFO just landed and posted this here

Хмм, я про такие даже не знал — но как-то не рассматривал 2.5 диски для хранения даже, только 3.5. Может быть, зря. В итоге у меня 5x3.5 + 1x1.5 SSD для системы.

UFO just landed and posted this here

дурацкая идея те атомные мат.платы.

полно h110+ thin mini itx плат. туда с мод. биосами можно и 8ядер мутантов с али вставить, но vrm на платах - полное г. 4 ядра не вытягивает норм. помехи на usb, в наушниках и тп.

сокеты предыдущие тоже имеют смысл, но если только совсем дешево. там ddr3 sodimm. т.е. макс 16ГБ +16ГБ. а такую еще поискать. но 8+8 реальнее и часто этого хватит.

но вам нужны будут райзеры на pcie. портов всяких тоже не особо много. sata 3-4? мало для NAS.

м.быть имеет смысл обычные платы.

насчет видеонаблюдения. у меня там 1(!) диск 3.5 hdd на 8ТБ(д.быть. но хитрож.фирма "рога и копыта" местная поставила 6ТБ) так вот. он по ночам мучает своим шумом.противнее холодильника в саду. даже лягушки весной с местного болота не так противно кричат. хотя те иногда кричат просто оглушительно.

гуглил видеонаблюдение с 2 sata. но почти никогда те нельзя заюзать с ssd+hdd в режиме день пишем на ssd, а днем отправляем на hdd скопом. и 2шт sata ооочень редко. крч, самосбор за ту сумму явно лучше

насчет стабильности покупных тут. одна камера из 6ти стабильно ежедневно отваливается/зависает. "умный ai poe коммутатор" нифига её не перезагружает.

Очень интересно, жду вторую часть.

Когда меня посетила мысль о домашнем сервере, я подумал что ключевое слово таки «домашний». Поэтому я пошёл в сторону миниатюризации и работаю над уменьшением шума.
Железки, понятное дело, по принципу «что в доме было лишнего»
Материнка mini-itx на nforce, проц — некий двухядерный атлон 45W, бут диск от ноутбука и хранилище 2Tb WD Red. ОС — openmediavault. Стоит всё это дело в ITX корпусе в кладовке.
Open Media Vault я смотрел на виртуалке, как и unRaid (trial), XPEnology, и Rockstor, но тут могу лишь сказать что моя дурная голова рукам покоя не давала, все время хотелось чего то большего.
Домашний сервер это больше творческий процесс, чем разработка по плану. Мне тоже хочется и материнку обновить и рэйд поднять и 10 гигабит протянуть.
Из софта хочу посмотреть MediaGoblin и если понравится, то скорректировать под него сервер

10 Гбит очень накладно, я не договорюсь с "животным". Гораздо интереснее сейчас выглядит 2,5 Гбит.

Я как-то упустил из виду 2.5Гбит. Это позволит перенести узкое место с сети на жесткие диски.
Пойду выбирать себе подарок на новый год :)
Я подумывал над свитчем от Ubnt 10 gbit sfp+ (EdgeSwitch 16 XG), у него 5 портов eth cat6, и 10 sfp+, модули у них копеечные, по 3к если не ошибаюсь.
UFO just landed and posted this here

Надеяться на то, что без возражений от домашних получится держать включенную дисковую полку в квартире, это конечно опрометчиво. :)


А зачем собственно такие сложности? Не проще было терабайтники слить на авито, а вместо этого купить более вместительные диски и вставить их в оригинальный корпус сервера?

Я собственно подумал что без постоянной нагрузки наврятли она будет очень громкой, я честное слово не знаю почему такая глупая мысль у меня сложилась, хотя я с серверами уже работал не один год, и основной шум там не от работы дисков (5400-7200RPM, про 10к-15к RPM не говорю).
Терабайтники были с приличной наработкой, не в моих правилах такое продавать, да и хотелось поиграться, плюс диски уже на руках, да и 15х1ТБ HDD быстрее чем 2-3х4ТБ (нужно оно или нет это уже другой вопрос ;)) ).
для себя решил, что для дома (то есть небольшая квартира, если есть гараж с серверным шкафом, то это менее актуально) важнее тишина и сохранность данных, а не отказоустойчивость. Нормальный бэкап этих терабайтов ведь нужен по любому. Необходимость в RAID сразу отпала, с ней и шум, и места для дисков.

Если будут цифры по энергопотреблению, то будет круто, чтобы оценить затраты на электроэнергию)

Да, будут.
Для текушего варианта исполнения я уже приобрел ваттметр и все замерил на периоде в 2 недели, на самом деле не так много.
Если остальные домашние компы на винде, то сервер тоже удобно делать на винде.
А чтобы обновления и лишнее не мешало, ставим виндус 10 LTSC и отключаем обновления групповой политикой. Весит она меньше чем 7ка с обновлениями и вполне себе работает.
Контент в итоге потребляется и с других ПК на винде, и с плашета и с мобильного телефона, во второй части постараюсь рассказать о всех взаимосвязях домашей сети.

если на сервере настолько минимальный набор функций - то винда там не особо нужна.

с точки зрения записи всего и вся на диски [! но если не нужно иногда эти диски подключать к другим пк на винде для транспортировки данных, то на линуксе с эти норм. gui их глючные вам не нужны, обновлять тоже не особо нужно. просто держать руку на пульсе насчет самых жутких уязвимостей. также можно поставить gui какой-ниб особо стабильный и древних версий.

самое главное, с точки зрения видеонаблюдения - настроек сииильно больше будет. можно будет на старенький 128-256ГБ ssd пихать половину суток или сутки+, и только потом разом отправлять на hdd. в моем варианте в саду за 100к на satvision. подобное не сделать никак. 1(!) sata внутри. снаружи есть usb, но никаких опций и настроек для подобного нет. а по ночам шум таки выбешивает. пробовал боксы заказать звукоизоляционные.

другой вариант - перенести бокс в стену и поработать над звукоизоляцией и тепло куда-то отводить. нехилая морока. и в текущем варианте мне придется стооолько кабелей заново прокладывать, столько пилить сверлить штробить... просто руки опускаются. и даже не представляю куда убрать, ибо стены не особо толстые кругом. просто современные теплоизоляционные материалы. жил в студенческие годы в панельке, и там был балкон без ремонта и тп. там влажность дикая зимой, весной, осенью бывает. но тогда продырили с соседом перфоратором дырочку между стенами и пропустили длинный hdmi-dvi кабель 10м до тв в зале и короткий кабель до монитора на кухне. это было почти идеально. шумело себе на балконе - и пусть шумит!) в самое сырое или холодное время просто включал в корпусе лампочку не особо мощную внутри. норм.

У вас балкон с отоплением? Не обмерзает ли сервер в минусовую погоду?
Как организована вентиляция в тумбе? Я просто вижу глухую дверцу на фото.
Балкон холодный, не утеплен, просто отделан вагонкой.
В минусовую погоду серверу там отлично, проблемы начинаются когда на улице +20 и выше, до 15:00+- на балкон светит солнце и процессор молит о пощаде.
Задняя стенка у тумбы половинчатая, разделяет тумбу вертикально, что бы было куда выходить нагретому воздуху, а дверцу пришлось держать приотрытой, тут да, не продумал.
В минусовую погоду серверу там отлично


Вот с этим надо быть очень аккуратным. А то можно получить большой «упс» устроив точку росы внутри сервера.
Я хотел комп на балкон поставить, но побоялся выпадения конденсата в минус. Хотя, как я теперь думаю — если сервер 24/7 то он сам себя и обогревает
помимо конденсата говорят ещё вентиляторы в минусе не приспособлены вертеться, быстро дохнут

Если сервер работает 24/7 — там и вентиляторы будут обогреты потоком воздуха.

разумеется, только температура обогретого воздуха может быть не строго больше 0, а и -15, например. Балкон же не замкнутая система.
UFO just landed and posted this here
Чтоб выпал конденсат — надо холодную железяку + теплый влажный воздух. На холодном балконе теплый комп — это наоборот, никакого конденсата. У меня одну зиму стоял на балконе системник, балкон застеклен был чисто символически и до -20 там доходило, вечно горячему AMD FX-9590 там было офигенно в те времена.
Тоже долго мучился с домашним сервером, вернее с его выбором. Начинал со старого барахла, рассматривал серверные варианты. В итоге серверные варианты отпали по причине дороговизны и шумности, барахло по причине того, что это старое барахло. Сейчас у меня в качестве сервера работает hp compaq elite 8300 slim, маленький, тихий и мощный. Единственный его недостаток это всего одно посадочное место под 3,5 hdd. Под систему поставил два терабайтных ноутбучных hdd в raid1 в специальной корзине вместо дисковода, а 3,5 hdd просто взял новый HGST на 6Tb.

С виртуалками я решил не париться, хотя когда-то тоже рассматривал такой вариант, вместо них использую docker контейнеры, это покрывает вообще все мои запросы.
К Docker я пришел немного позже, об этом тоже расскажу во второй части.
Аналогично, только от самосбора перешёл на hp 8300 SFF с кулерами Noctua.
История началась в уже далеком 2014 году...

в качестве операционной системы была выбрана Windows 10…

а где вы взяли Windows10 В 2014 году?
Хорошее замечание, память дело такое, запомнилось мне что начинал я с Windows 10, но учитывая дату выхода вероятно в самом начале была 7ка, тут уже простите за неточности, давно дело было.
Домашние серверы они такие. Чистый FreeBSD (пробовал и FreeNAS, но мне нравится все самому настраивать из конфигов). Маленький корпус сначала под Mini-ITX плату, потом под Micro-ATX (одного слота PCIE мало, когда хочется и LSI SAS и 10Gbps сетевую под оптику). Железо вполне серверное: xeon e3 v5, Supermicro motherboard, ECC RAM. Дисковая полка самодельная из алюминиевых уголков, SAS backplane на 16 портов + SAS expander c ebay, отдельного БП и add2psu платы для синхронного старта полки и сервера. Что на нем только не крутится. Nextcloud, homeassistant (был и openhab), свой mail server, zoneminder для камер, piwigo домашний фотоальбом, paperless для документов, bhyve + rancheros для Docker для Collabora Office в Nextcloud, emby домашняя фильмотека. Есть успешный опыт запуска Windows 10 as guest os.

А с недавнего времени Microtik Hex заменен на полноценный минисервер, c несколькими 4-х портовыми 1Gbps и одной 2-х портовой 10Gbps сетевыми картами, в качетсве роутера. Сначала был OPNSense, через непродолжительное время чистый FreeBSD. Похожий корпус из уголков для минимизации размеров.

У меня в итоге нечто похожее получилось.

Просто интересно — а вот чисто по расходу электричества оно дешевле выходит в сравнении с облачными сервисами?
При потребляемой мощности в 250 вт эта история попросит кушать где-то $170\год (по тарифам городов-миллионников РФ). Добавляем туда амортизацию дисков, стоимость самого сервера, обустройство места для него иии…

Экономическую выгоду я не преследую, но:


  • Диски беру 3TB б.у. на ebay сразу пачкой. Можно сторговаться иногда за 20$ за штуку (вот такие например). Высокая надежность меня особо не заботит, так как ZFS Mirrors и Raid-Z. Плюс все важные данные (по сути всё, кроме фильмов и сериалов) реплицируются на отдельный комп каждый день.
  • Стоимость сервера. У меня не mission critical задачи, да и выкладывать кучу денег за современное серверное железо я не готов. Но понимаю важность server grade аппаратуры для уверенности в стабильной работе. Поэтому придерживаюсь некой середины. Беру хорошее серверное железо, но б.у. и предыдущих поколений. Можно иногда очень вкусные предложения на ebay, или локально в стране найти.
  • Сервисы хранения файлов стоят денег. Например 2ТБ iCloud стоит 10$/мес. Это уже 120$/год. А так у меня бесплатный безлимит.
  • Домашний сервер дает много удобств, к которым быстро привыкаешь. Умный дом (пачка дешевых Sonoff/ESP8266/ESP32/xiaomi, которые централизованно работают только с внутренним сервером и не ломятся в Китай), файлохранилище, централизованная медиатека (а телевизоров несколько), удобный каталог домашних фотографий + уверенность в том что это не исчезнет при глюке винта/флешки/dvd архива.
  • Это ж homelab. Хобби. Нравится мне колупаться во всем этом. Усилий собрать и настроить это все конечно надо немало.
Безумно плюсую, согласен по пунктам.
Я в принципе стараюсь избежать любых постоянных подписок, одно дело взять себе подарок раз в год, другое дело подвязываться на подписку, да и облака тоже не гарантируют что данные не пропадут, ну и оффлайл тоже никуда не достучаться.
Хмм. Но откуда там 250 Вт? Мои домашние сервачки больше 60-70 Вт никогда не потребляли. Да даже двухпроцессорный HP DL360p потребляет порядка 160 Вт, только сегодня замерял…
Угу, 250вт там неоткуда взяться, там же нет GPU которая постоянно что то рендерит.
Давайте сравним:
Мой домашний сервер потребляет 40-60Вт/ч и имеет в составе: 4 потока, 16ГБ озу, 2ТБ SATA, 1TB SSD. Работает 3 виртуалки, две на линуксе, одна на windows 10.

У вас в размерности ошибка. Ватты на час не делятся, а множатся.
Скажите, а в чём смысл миграции OPNSense -> FreeBSD?
Спрашиваю как счастливый и довольный обладатель первого.

После обновления перестал запускаться unbound. Просто не запускается из webgui и все. В логах пусто. Я недолго осваивал OPNSense, поэтому не знал всех премудростей внтуренних особенностей запуска сервисов, a service unbound restart не работает. Мне такая ситуация не понравилась, а в чистом FreeBSD я более менее знаю куда лезть и смотреть. Также возникли сложности с "адаптацией" параметров в GUI, к параметрам в конфигах и родных документациях тех утилит, которые были нужны (pf, unbound, haproxy, dhcpd). Вторым фактором была невозможность (официальный способ по крайне мере) установить систему на ZFS. Частые "бесплатные" снапшоты + их репликация уж очень вкусные плюшки. Налажал в экспериментах — rollback на 15 мин назад. Очень удобно. АвтоGit :) Бекапы на другую машину настраиваются за 10 минут (zap). Это все я умел, поэтому поставил привычную мне систему и настроил. Я не утверждаю, что этого нельзя сделать на OPNSense, но мне было непривычно и неудобно, вот и перешел.

Долго мучился с nextcloud, пытался хранить в нем семейный фотоархив, на атоме он жутко тормозит. Прочел у вас в коментарии про piwigo, перешел на него, отличное приложение.
Может подскажете удобное приложение для хранения заметок в собственном облаке? То, что есть в nexcloud не очень удобное, в частности клиенты для мобильных устройств просто ужасные.
Благодарю.

развёл как-то себе зоопарк железок. wifi стал неиграбелен а иногда и неюзабелен на юттьюбе и тп. нагуглил soft ap ralink usb N адаптер, дрова на него норм., позволяли 7-8Мбайт/с оочень стабильно держать скорость. (было в 2010+-г.) при том, что всякие tplink гигабитные и тп просто никакой инет давали. потом начал думать дальше. раз уже антенну выносную пришлось делать, а несколько раз и usb удлинитель под 8м самодельный в общаге, чтобы yota тогда ловила, а потом матери 5м удлинитель для wifi адаптера. то неплохо бы от того сервака антенны под натяжной потолок и или в люстры встроить. как вариант для квартир с жб стенами - найти место на дверях. может быть там норм встроятся. есть же всякие наклеиваемые. чтобы не у стен, и геометрия на две комнаты раздавать позволяла. а между комнатами таки коридорчик и опять непроницаемые стены. только двери пробить можно. хотя, сейчас норм адаптеры wifi с soft ap не найдешь. wifi6 интелловские тоже г то еще. без плясок с бубном то самое wifi6 не получить, а про soft ap забыть(

UFO just landed and posted this here
Я особо счетов за свет не заметил, у меня правда всегда +еще 2 ПК всегда включено, и супруга готовит много — духовка/плита.
Я когда то тоже заказал такой сервер с ebay, был вариант оставить дома или поставить в дата центе, после первого включения вариантов не было

Тоже стоит только на Linux, никак не могу придумать как видеонаблюдение на нем сделать чтобы запись шла нормально может кто подскажет какие нибудь варианты? Никак не охота на windows ставить ну вообще не вариант)

Там же еще от камер зависит, какой вариант потокового видео оно поддерживает, как авторизация проходит и т.п.
zoneMinder подсказали хорошо справляется с этой задачей буду пробывать посмотрим

Еще есть Motion. Более легковесный, но и более хардкорный в настроке. К нему можно прикрутить MotionEye

Мне лень было читать мануалы по ZoneMinder, в итоге остановился на motion и MotionEye, умеет работать по движению, слать фото на ящик, а большего и не нужно
Последние 8 лет держу видеонаблюдение на AvReg — в прошлом LinuxDvr. Если понимать, что именно надо от видеонаблюдения, то просто замечательное решение. Использую его на Intel NUC с безголовой Ubuntu именно для наблюдения, в т.ч. через интернет. Отдельно у меня стоит аппаратный NVR, он пишет полноценные H265 потоки от камер на винт в полном разрешении, для архива.
О да! Дисковая полка, я думал я один такой псих. Летом взял HUAWEI OceanSpace S2300 на 24 диска меньше чем за 4к рублей, но я почти знал на что я иду (кроме того что это чудо инженерной мысли имеет SAS контроллер, внутри себя разводку с разъемами под FC диски и конвертер из FC в SAS в салазках). Кончалось все это переделкой всей системы охлаждения с идеей что если не прокатит то сдам в металлолом, заменой кулееров в БП + два больших в верхней крышке, теперь не шумит. Кстати, если мне кто-нибудь расскажет что это за полка буду очень благодарен, похоже она из под какой-то большой backup системы huawei symantec и по ней нет никакой документации, видимо из-за этого так дешево.

Я в то время рассматривал так же huawei ocean store, кажется так назывались, но она была немного дороже.

я в 2014 взял HP Microserver gen7 за ~10 килорублей, добил туда памяти до 16 и воткнул пару дисков на 4тб и мелкий ссд на 64гига под систему, поставил убунту 16.04, собрал диски в mdraid 1 и с тех пор оно у меня так и работает 24/7. убунта обновлялась потом до 18.04 и 20.04, прошло гладко. Крутятся Самба, Home Assistant (воткнул zigbee usb донг), всякие Transmission, Couchpotato и прочие подобные штуки. Проблем не было, доволен.
убунта обновлялась потом до 18.04 и 20.04


Повезло, у меня убунта решила себе сделать харакири при обновлении с 18.04 до 20.04. Причем на тот момент про проблему было известно уже месяцев 5.

не только ubunta. там комьюнити огромное, сравнительно, и о распространенных багах так или иначе узнают все. а вот когда у меня после чего-ниб брикалось в bsod/вечный ребут/или оставляло 1 на 1 с терминалом. то проще было систему переставить с live usb. и никакого тебе восстановления системы как в 10ке( или gui настолько глюками начнет бесить, что переставишь систему и потом просто в настройки рабочего стола не лезешь. ну его, блин. но досадно. а так то афигенно. мелкая флешка какой-ниб слаксо подобный дистрибутив в live usb.. круть. настройки запоминает. ши

Фото вызвало восторг!
Вот это настоящий сервер умного дома — сколько разъёмов на передней панели, как на ЕС ЭВМ, но откуда у вас — синие?!?!



ps рзъёмы сборные, можно комбинировать из частей с разным кол-вом пинов, есть и двухрядные как на картинке.
Я вас огорчу. Это не разъёмы, а вентилляционные отверстия хотсвапных корзин жёстких дисков.
Понял к концу когда про полку пошло, но остановиться было уже нельзя:) Очень уж меня много воспоминаний о них)
У меня домашний сервер уместился в mini ATX, это корпус от самого обычного ПК, только поменьше. Тоже очень много думал, какой же все таки выбрать форм-фактор. Хотелось попробовать и совсем миниатюрные «флешки» и mini-ITX, да и заиметь б/у сервер тоже хотелось (проф. деформация наверное). Но от «флешек» толку почти ноль, с mini-ITX я уперся в охлаждение и размещение дисков, да и подобрать хороший и недорогой корпус так и не получилось. Старый б.у. сервер неплохой вариант, но в квартире его точно не поставишь, т.к. очень сильно шумит и много потребляет электричества.
Какое то время, в виде эксперимента, использовал старый нетбук на атоме и понял что домашний сервер мне необходим, но атом, для моих задач слишком слабый.
Все решилось, когда нашел место на антресолях.
Получились одни плюсы:
1. Любая материнская плата, любой процессор.
2. Охлаждение тоже любое, т.к. корпус стандартный, а значит 99% кулеров размещаются без проблем. На Pentium G4560 я поставил огромный DeepCool Gammaxx300, настроил минимальные обороты и проблем с температурой у меня нет.
3. Диски. В корпус mini-ATX, если убрать CD-ROM иил 5.25 дисководы и применить переходники(они есть в продаже), влазят 4x3.5" SATA диска или 4x2.5" SSD например. Кроме этого, я подобрал материнскую плату с 2мя M.2 слотами под диски. Итого 6 дисков и это все за 15 минут отверточной сборки. Сначала я хотел купить недорогой б/у RAID контроллер на 4 диска (10 RAID), но как то сразу не срослось, а позже я пришел к такому решению: 1xSSD — для быстрых операций и 2xSATA, один под архивы и один под бекапы. SSD у меня исторически с SATA интерфейсом, но по опыту знаю, что всего один хороший NVME SSD может выдать производительность, соизмеримую с производительностью профессиональных дисковых систем, прошлого поколения, на SAS дисках, так что если понадобиться у меня есть два M.2 под это дело.
4. Виртуализация. Я выбрал Qemu KVM. Но думаю подойдет практически любой гипервизор, тут дело вкуса или кому что удобнее. Виртуализация тоже дает одни плюсы: удобное разграничение сервисов между собой, удаленное управление аналогичное KVM для про сервера, резервное копирование (виртуалки проще и быстрее бекапить), стабильность. Производительность — хорошая.
Так же, хотел бы обратить внимание на рынок серверных б/у процесcоров на Aliexpress. Всего за 20-30$ там можно купить например Xeon e5-2650v2 — а это 8 ядер/16 потоков. Там же можно подобрать «десктопную» материнку. Да да, китайцы наштамповали специальные материнские платы в формфакторе ATX под серверные процессоры. В принципе за 200-300$ можно получить решение на 16-20 потоков с 32-64ГБ оперативки, по моему для лаб идеальный вариант.

M.2 я пока даже в домашний ПК не собрал, сервак имхо обойдется пока что, там правда и так то затыков по дискам не случается, хотя у меня там есть ныньче кеширование.
Да, китайцы хороши.
Уже наштамповали не только ATX, но и mATX и даже mITX.
Из процессоров для домашнего сервера сейчас более актуален 2630Lv3. Гораздо холоднее.
Круто, спасибо! Жду вторую часть с докером)
А себе я собрал сервак на убунте, правда, гораздо проще. Никаких рейд-массивов, ссд с системой и три терабайтника 7-8 лет стажа. Хватает крутить фрилансовые проекты на тестовых поддоменах, гитлаб тоже свой и, конечно, файлопомойка. Так привычно стало, что собираюсь уже серьёзный сервак поднимать и баловаться с умным домом.
У меня этим летом в жару была деградация массива, я очень был раз что в рейде был запас по прочности.

Xeon E5450 4 ядра по 3.6ГГц (разогнанный) на 775 сокете, ОЗУ: 16Гб DDR3 1600МГц. ESXI 6.0, на одну процессорную систему дают бесплатный ключ. 4, 5 виртуальных машин одновременно на 60Гб SSD под esxi и машины + 4 HDD по 512Гб разобраны по машинам, raid в этом случае излишен. В таком случае любой диск можно вытащить и поставить в десктоп экстренно. 3 серверных linux + windows 2016 server для домашнего домена с политиками, 1 часто меняемая временная песочница, то андроид, до дебиан, то 7ка. Для видеонаблюдения — xeoma, dlna — serviio, торент — qbittorrent. Ну и веб-админка на node js. Работает без bsod.

Неплохой вариант у вас вышел, про ESXi тоже будет во второй части =)

Интересует продолжение, т.к сейчас нахожусь в некоторых раздумьях по поводу разрастания домашнего сервера. Сейчас стоит "сервер" из
тонкого клиента hp t5745 с доработанной платой для подключения 2 sata 2,5 в софтварном RAID ,3gb ram и это добро шуршит под ubuntu server. В силу определенных причин переделано питание и заодно интегрирован малый ups. Стандартный набор для домашнего использования: qbittorrent + aria2 для качалок, motion eye для видеонаблюдения, samba и nfs шара для разноосных домашних, openhab2 для минимального умного дома и всяческие эксперименты программные. Удобно это добро тем что полностью пассивное охлаждение в комплекте с ноутбучными винчестерами дают минимальный уровень шума, что являлось одним из основных критериев при создании данной машинки. И бюджетность данного комплекта стала большим плюсом. Главной проблемой на данном этапе стало отсутствие х64 на процессоре и следовательно отваливается поддержка многих программ, да и уже тесноваты возможности Атома .

У меня было очень много данных, хотелось прям с запасом все бекапить, тут с пассивным охлаждением и маленьким корпусом не получилось бы ни как.

По поводу хранения больших объемов, пока такой задачи не стояло, но после прочтения статьи и комментов нашел для себя интересную идею с расширением через pci. Попробую на текущей сборке проверить.

Какое-то время держал сервер на убунту на железе обычного компа. Но посчитав потребление энергии стало немного грустно.
Потом мне попался комп на плате m itx со встроенным процом и с установленной ос OMV которое практически ничего не потребляло. Но встроенное железо было слабовато. И после этого я решил собрать новый и на таком-же форм факторе.
В итоге поставил мамку со встроенным процессором с 4 sata портами и дополнительно покупал pcie плату для увеличения sata разъемов до 6, 16 гигов памяти, бесшумный блок питания и корпус coolermaster elite 120. В качестве основной ос выбрал proxmox а для управления всего остального оставил OMV. В итоге на сервере торентокачалка, фтп, самба, нфс, облако, плекс, коди, unifi video и многое другое. И всегда есть возможность установить новую ось для экспериментов. И это все потребляет около 30 ватт.

Не знаю не знаю, имхо обычный комп без видеокарты и монитора жрет не больше 200-300руб в месяц.

Если принять что обычный комп потребляет около 120 ватт, то по нашим ценам (я из Латвии) это будет около 16 евро в месяц.

Напомнило моё творчество) AsRock H110M-DGS + QL3X + 16 Gb RAM + 256 SSD boot + 3x4Tb HDD. Работает всё на Proxmox с разделением на отдельные вирт. машины( OMV, ZoneMinder, NextCloud, OpenHAB). В планах самопальная дисковая корзина на LSI 3Ware 9650SE-24M8 + корзины на диски.
У меня этот путь занял 9 лет и, похоже, цели нет — самураю нужно идти. Все начиналось с остатков после очередного апгрейда. Core 2 Quad Q6600, 8GB DDR3, 200GB HDD. Старый-престарый корпус. Еще какое-то железо… Никаких Windows, только Linux (CentOS). Работало, в общем. Samba, MiniDLNA.

Потом захотелось немного поработать. Появился AMD A10-7700, 32GB DDR3 и первый RAID5 (mdadm). Jira, Confluence, Teamcity, Gitlab, ActiveMQ, OwnCloud, MiniDLNA. Ну, такое.

4 года назад конфигурация определилась окончательно. Xeon E5-2620v3, MSI X99A RAIDER, 80GB DDR4, RAID6. Все хорошо, но чего-то не хватает (мало? Мало!).

Сегодняшняя конфигурация: Xeon E5-2640v3, MSI X99A RAIDER, 64GB DDR4 ECC, 8x3TB RAID6, GTX 1070ti для транскодинга и опытов с TensorFlow, 250GB NVMe для системы (CentOS 8.2) и рабочего ПО (Jira, Confluence, Teamcity, Gitlab, Docker, ActiveMQ, OwnCloud, Transmission, Samba, Serviio PRO). Корпус — довольно старый, но надежный Chieftec, внутри 2 корзины на 3 и 5 дисков (большая — с охлаждением). Блок питания — новый SeaSonic на 550W. Все это живет под бесперебойником и apcupsd (выключение через 5 минут и автоматическое поднятие).

В общем, вот.
nas

Но цели нет. Есть только путь. ))
По доброму завидую такому железу, ух…
Сейчас уже 2698v3 — достался весьма недорого. ))

Разумеется, пришлось обновить охлаждение — be quiet! Shadow Rock 3 справляется на ура. Потом обновил и корпус — Gamemax Master M905 купил за гроши, абсолютно новый (продавец не знал, что 3-пиновые шнурки питания вентиляторов не позволяют регулировать обороты, поэтому считал, что корпус бракованный :))

Все остальное без изменений.

имхо обычное пк железо норм, если его через райзеры подключать. можно все расположить в одной плоскости. на проц кулер типо accelero s1. и тп от видеокарт или низкопрофильных. высота выйдет 4см+-. 3 не получится без спец кулеров, как в ноутах. там турбинки вбок дуют. как в intel thermal solution для thin mini itx. но тот та еще какаха, ибо только 60Вт макс. по нему видно что он почти ноутбучный. что им помешало отмасштабировть колво и длину тепловых трубок и радиаторов. не знаю. интел весьма бесноватая контора. видимо, чтобы не создавать лишнюю конкуренцию. они итак урезали по макс thin mini itx платы. sata мало, 1-2 sodimm, вот что мешало как в рабочих станциях 4-6 и чуууточку на см пошире мат.плату, тоже самое с m.2. их анрил мало. у меня теперь гирлянда с ssd-ми в адаптерах. морока, блин. аа. проц. 4ядра кэби лейк и у меня дикие помехи по usb, в наушниках и тп. старый бп большого ноута не справлялся. там под 200Вт+ пиково, реально. раньше была плата gigabyte thin mini itx s1150. там pcie x4 ,был вместо m.2 и mpcie. тоже мало, но питание 12-19В было, оч. удобно. можно видюху подключать и тп. сейчас же подобное только через райзеры. а они x1, те которые c usb3 кабелем, недорогие безпроблемные и тп. этого мало. остальные или опаснее и всегда дороже кратно(. кстати райзеры самодельные делал народ. тут один толковый инженер постил на хабре. у него же и групппа в вк есть. он через несколько lvds шлейфов одновременно.

Несколько раз имел несчастье иметь дело с виндовыми серверами, вы лишь подтвердили мой опыт — виндовые сервера это однозначный геморой. Разве что эта винда будет внутри виртуалки, где гипервизор будет линукс, которую ежели что можно перегрузить, поадминить.


А так, я тоже дома давным давно имел сервер под виндой. Геморой и не стабильность, тормознутость та еще. Перешел на линукс, и с тех пор не нарадуюсь — отменная стабильность, надежность, скорость и обслуживаемость. Если уметь правильно готовить, то все делается очень просто и быстро.


Я со временем из практики профессиональной деятельности в том числе пришел к модели использования: гипервизор, а все сервисы внутри виртуалок, платформа виртуализации kvm+lxc+libvirt. По возможности виртуалки контейнерные, чтобы потреблять минимум ресурсов. В качестве гипервизора использую Fedora — это позволяет использовать последние фишки в плане виртуализации. В качестве гостей если это линукс — Centos. В качестве видеонаблюдения Shinobi (раньше zoneminder), медиа — plexmediaserver, мониторинг zabbix и elastiflow, торрент качалка ruTorrent, еще есть nextcloud, synapse matrix. Я жутко доволен, много планов на будущее, использую уже больше 6 лет.


Насчет plexmediaserver — никаких там жестких требований к именам файлов нет, разве что по сериалам, а по самим фильмам соответствие всегда можно поправить.

Да я тоже пришел к выводу что даже на домашнее железо лучше ставить гипервизора, а уже внутри него развлекаться с машинками.
По Plex я не раз сталкивался когда ПО не понимает что в папке лежат 2 или 3 разных сезона мультфильмов и просто склеивают их в интерфейсе в один, либо не отображают второй и последующие вообще. Так же некоторые фильмы с кривыми названиями не определяет, либо один и тот же фильм скачен 2 раза в разном качестве, а в плексе отображается только один.
Плюс у меня на телевизоре в упор не хочет по умолчанию включаться английская дорожка, или включается русская или вообще кроме первой дорожки другие он не видит.
Насчет Plex: с сезонами проблема действительно имеет место быть, решается правильным именованием. Как правило я делаю так: папки «Season 1»...«Season n», файлы «S01E01 — Название.avi» — где S01...Sxx — номер сезона, E01....Exx — номер серии. Если фильм разные объединяет в одно их можно разбить. Так чтобы совсем не определяло фильм не было, но чтобы относило к неправильному фильму — сплошь и рядом, исправляется легко исправлением соответствия. Насчет дорожек — вроде как не сталкивался.
С именами надо просто один раз разобраться, чтобы ошибок не было, правила все описаны тут. Для любых сезонов есть библиотека с типом содержимого Сериалы, складируйте их туда, и проблем не будет.
С дорожками тут больше вопросы к исходным файлам, не все корректно языковые теги ставят.

просто это ваши "умные" тв тупы как пробка, еще тормозные анрил. имея опыт с 4k lg, 4k samsung... такое г!

повесил старый ноутопланшет msi s20 slider 2... ему только интерфейса норм и пульта и тп не хватало.

иногда думаю вообще все потроха со всех тв выкинуть к ч... оставить затычку с hdmi и чтобы отключалось cразу, когда нет сигнала по hdmi. еще бы автояркость и без шима. пару usb от хаба и выход на наушники. всё. от этой железки ничего более не надо. иначе она становится тормозным недопк. и вот тут уже хочется несколько юзеров с разными сеансами одновременно и изолированно.

В догонку (мож кому интересно):


Сервер в маленьком корпусе (без дисков). Можно и mini-ITX, но мне надо больше одного слота PCI-E:
Сервер


DIY дисковая полка:
Дисковая полка
Дисковая полка


LSI SAS SAS9207-8e (2 внешних порта) соединяется с HP SAS Expander, который запитан от PCI-E Expander Card. Все это дело запитано от отдельного БП, который включается параллельно серверу посредством add2psu платы.
Но корпус в обслуживании неудобен. Он то свою функцию выполняет хорошо, но манипуляции с винчестерами затруднены. Тяжело поставить HDD на место (направляющих нет), чтобы снять/поставить надо сверху прижимную планку откручивать. Апгрейдом планирую купить rackmount полку, отпилить и использовать только отсек с корзинами. Тогда манипуляции с дисками будут намного проще.

Подскажите плз, что за платки, в которые воткнуты винчи на полке?

Винчестеры подключены к SAS backplane. Эти backplane часть серверных корпусов с SAS hotswap корзинами. Выбирайте нужный вам форм фактор (6/8/12/16/24 слота, 2.5 или 3.5 дюймовые HDD). Плата стоящая вертикально — это SAS Expander, подключенный в PCI-E Riser Card.

Начал идти по вашим стопам только с i3 8100 и 16 gb пока радуюсь старому корпусу но думаю над переходом на cooler master elite 130. Хотелось бы больше узнать про нахождение сервера на балконе что по температуре и по влажности

Прочитал, вспомнил себя) Первый сервер был в корпусе mITX на амд Е350 с 16г оперативки, один ссд под систему и один диск под все остальное. Потом купил готовый нас на 5 дисков. Два гигабита в агрегации, один DOM под систему. Тихий. Для дома хватает за глаза. Виртуалками не увлекаюсь, на работе есть где поэкспериментировать. Крутятся файлопомойка, торренты, nextcloud, графана, influxdb, homeassistant. 5 дисков по 6тб. Сейчас 4гб озу, думаю апгрейдить до 8гб. Никаких прокси, медиасерверов и видеонаблюдений не держу принципиально. Придерживаюсь теории разграничиния обязанностей железяк. Для развлечений есть комбайн zidoo x10 (там plex-a тоже нет, не перевариваю его), яндекс станция детям, для видеонаблюдения есть nuuo, с raid. Все стоит на питании через онлайн упс. Для репликации есть второй нас, который включается по расписанию для репликации. Там естественно дисков поменьше. Микротик задублирован еще одним роутером irz ru21 с lte. Куча туннелей (дача, работа, родственники). Держать дома бу сервера и дисковые полки считаю моветоном.

Где же тут теория разграничения обязанностей железяк? У вас СУБД и аппликухи крутятся на чахлом файлере :) Просто вы не пожмотились на большие диски, а у автора изначально была гора старых хардов, которые хотелось пристроить. А так у вас точно такой же сервер с виртуалками/контейнерами, только в более компактном форм-факторе.

Ошибаетесь насчет виртуалок и докеров. Нет ни того, ни другого.

Крутятся файлопомойка, торренты, nextcloud, графана, influxdb, homeassistant


ну по тексту читается так, что именно на одном этом НАС всё это и крутится

Именно на одном насе. Но без виртуалок и докера. Про разделение железок я писал в плане того, что кодированием видео лучше справляется именно спец железка. И проигрыванием видео тоже спец железка справляется куда лучше наса.

Так функционал network storage использует диски и сеть, функционал application завязан на память и проц. Нет никаких причин не совмещать их в одном узле, если загрузка во всех подсистемах — следовая.
Разделить приложения по контейнерам для простоты управления — и дело с концом.

UFO just landed and posted this here

Видео наблюдение, постоянно синхронизиюрущиеся папки с 2 телефонов, и 2х ПК, резервные копии с хостинга, plex который стримит на телевизор, постоянно изменяющиеся лабы из виртуальных машин, что то мне подсказывает что пачкой карт памяти это заменить не получится. Я уже пишу следующий материал, получилось не мало, возможно после прочтения всей истории станет лучше понятно что сервер это сервер.

Для карт памяти придется городить какой-то хаб, чтобы одновременно были доступны сотня этих карт. Либо постоянно их перетыкать — «рабочее время» и риски угрохать карту статикой.
По объему/площади такой хаб будет не намного меньше ITX корпуса с 12Тб диском, или готового NAS.
Такой хаб придется куда-то подключать, чтобы остальные члены семьи могли пользоваться синхронизированным хранилищем. Если нет некоего «сервера», то к рабочему компу. Моя рабочая машина сожрёт электричества за пару часов такого простоя ради шары больше, чем сервер за сутки.
Плотность карт (со всей обвязкой) ни в рублях/гб, ни в килограммах или литрах не больше, чем у терабайтных HDD.
300к за домашний сервер (самодельный NAS) это перегиб на порядок. За 20к можно взять 8-ядерный Xeon 5-6 летней давности с 32гб ОЗУ, с материнкой, корпусом и БП. Диски примерно 10к за 4ТБ. Трудозатраты, если надо прям только файлохранилище — 1 выходной день, чтобы накатить и настроить какой-нибудь FreeNAS, OMV.
UFO just landed and posted this here
Вы слишком сильно доверяете картам памяти. Особенно если это, как вы предложили выше, карты памяти за 300 рублей.
UFO just landed and posted this here

Подвал на территории города Москвы боюсь будет стоить куда дороже чем купить готовый brand new backup server с новыми дисками.
Имхо карты памяти все же не для этого были изобретены, да и постоянно что то там ходить перетыкать совсем не тоже самое что сервер на hdd с рейдами который все время находится в режиме синхронизации и оперативного доступа к данным.
Вы предлагаете аналог ленточного хранилища, там принцип хранения данных таков что не предполагает оперативного доступа к данным, на ленточку записали копию и положили на полку, прошел год, копию перезаписали.
Те же мультфильмы для детей, у меня дочь открывает приложение plex и выбирает что будет смотреть, там несколько сотен гигабайт медиа контента или cctv на 2,5тб, о каких картах памяти может идти речь. Да и если вы читали статью, там многоженство таких же юскейсов, это не просто свалка один раз залитых файлов.

UFO just landed and posted this here

Очевидно вы не можете ввести конструктивный диалог, да ещё и на личности переходите.

+1. несколько раз карта памяти на 64, 128Гб уносила все с собой. потом никак не восстанавливалось. или восстанавливалось муторно и оочень неудобно. другое дело, что у меня и hdd 1Tb дохли только так. потом забил. сериалы в нете, фильмы в нете. только закладки браузере. игры особо не играю последние лет 10. но зато объем игр вврос страшно. но и iso для записи флешек с виндами распухли до десятков Гб.

По цене 4х mini-ITX берем Define 5/6/7
По цене четырех распаяных материнок берем мать на 3 PCI-e.
4*32GB ECC DIMM, Ryzen x9x0, 3 видеокарты.
Вместо восьми жужжалок по 3 ТБ берем 2*12 ТБ.


Получаем три компа по цене одного, с жирным хоронилищем и возможностью безболезненно его нарастить до астрономических размеров)

Если положить в сейф HDD с данными, на десять лет, через 10 лет вы получите свои данные. Если положить ssd/nvme/sd/флешку с данными в сейф, на 10 лет, через десять лет данные превратятся в тыкву. Учите матчасть, как говорится. Лучше уж тогда LTO предыдущих поколений взять. Сейчас и накопители и картриджи копейки стоят.
У InWin есть хорошие корпуса под домашние микросерверы, себе взял MS04, похож на HP microserver gen 8. В качестве ОС остановился на Proxmox и ZFS
Подскажите, в этот корпус влезит матплата 170x190мм — на 2 см больше, чем mini ITX, со стороны разъема видеокарты? (самые маленькие китайские платы под Xeon)
А крепятся они как к корпусу? Те что я видел совпадают по креплению с mini-ITX, а разница идёт в глубь корпуса. В принципе места много ещё. Нижная часть, куда крепится мат плата, выезжает как в HP microserver

Крепятся как обычный mini-ITX.
Разница в «высоту», т.е. под разъемом видеокарты еще 2 сантиметра. Почти mini-DTX.
И видеокарта втыкается на один слот ниже. Т.е. в корпусах mini-ITX, расчитанных под двухслотовую видеокарту, с такой платой вмещается только однослотовая в нижний слот.
Тогда не влезет. Данный корпус предназначен только для однослотовой видеокарты, LOW-профиль (которую я до сих пор найти не могу более менее нормального уровня)
1050ti вроде предел для этого форм-фактора.
Либо через райзер ставить в другое место корпуса.
Места нету другого. Да даже 1050ti подошёл был, но вот я не находил ни одной. Либо Low профиль, либо однослотовая. Ну и хотелось бы от amd
Мои пять копеек, т.к. на «самосборах» собаку хомяка слопал:

матплата, цпу, память, кулер — подбираем на xeon-e5450.ru (https://xeon-e5450.ru/socket-2011-3/aktualnye-sborki-na-2011-3-sokete/). Напр., Kllisre X99 D4 (8 SATA + 4 DDR4 + M.2 + 1 PCI-E x16 + 1 PCI-E x4)+ 32 Гб ECC DDR4 + Xeon E5 2620 V3 LGA2011-3 + Кулер можно найти дешевле 20К рос. рублей — али в помощь;
видеокарта — или одна недорогая (xeon-ы не имеют встроенного видео) или 2+, если надо по работе и кол-во разъемов на матплате позволяет (вторая видеокарта пробрасывается в вирт. машину);
HDD — ТОЛЬКО НЕ с SMR (ZFS не любит SMR), в сети есть целые ветки на форумах, где помогут выбрать hdd с CMR (WD Purple, напр.);
SSD — лучше nvm, ес-но. Можно устанавливать через переходники в слоты pci-e на матплате (Orient C299E можно купить локально или такой же на али);
БП — оч. важно, как и питание для человека, лучше с кабель-менеджментом;
корпус — на выбор;
ИБП\UPS — рекомендую что-то от cyberpower, т.к. недорого и умеет под linux (NUT + есть собственный софт);

ПО — Proxmox VE на ZFS. Всеядно и надежно, железный raid категорически не требуется.
Нужен NAS? Легко. Развертываем xigmanas\freenas\openmediavault на выбор как вирт. машину + пробрасываем в эту ВМ нужное кол-во hdd.
Нужен медиасервер? Plex-а в вирт. машине хватит всем.
Нужно что-то еще? Развертываете как ВМ или LXC-контейнер и вперед.

Развернули ВМ, сделали снепшот. Если что-то пошло не так- откатились за секунды назад. Красота же )

Итого, имеем полигон для экспериментов + NAS в одном флаконе.

Зы. Забыл добавить про Proxmox Backup Server, к-ый можно развернуть прямо на Proxmox-е и бэкапить ВМ или LXC ИНКРЕМЕНТАЛЬНО и быстро (да хоть каждые 15 мин)

Зы2. Надо IPMI? Вот на Raspberry Pi рабочее решение — github.com/pikvm/pikvm (обзор — DIY Raspberry Pi KVM-Over-IP Under $60 with Pi-KVM www.youtube.com/watch?v=plP9Y1likRg), к-ое гораздо интереснее всяких там ilo\idrac (можно даже usb-модем воткнуть для резервного канала в сеть и через него подкл. к серверу)
Советовать хороший БП, ИБП и ZFS, но при этом брать китайскую мать, собранную на коленке из б/у комплектухи — весьма и весьма странно. Лучше добавить баксов 100 и взять б/у supermicro. В конце концов такие вещи все равно не на последние деньги собираются.

Да и в качестве ИБП рекомендовать cyberpower… ну я знаю, последний раз когда я с ними имел дело они дохли как мухи. Может конечно неудачная модель попалась, не знаю, но у меня прямо из коробки каждый третий ИБП не стартовал вообще.

WD Purple для хранения советовать тоже не самый лучший вариант. У них прошивка на рандомную запись/чтение не рассчитана.
собранную на коленке
На тех же фабриках Foxconn'а, что и бренды среднего звена. Кустарно в подвале на коленке такое производство не организуешь.
Есть конечно откровенно неудачные модели. Но это обычно результат либо просчета дизайнера платы, либо тотальной экономии заказчика платы на комплектухе. Если не быть первопроходцем с покупкой неизведанных новинок, можно с ними не пересекаться. Есть вполне годные и надежные модели. Проблем и брака не больше, чем на форуме у какого-нибудь Гигабайта.
б/у комплектухи
Только чипсет.
Лучше добавить баксов 100 и взять б/у supermicro.
Ближе к $150 придется добавлять. Итого получится та же самая б/у комплектуха за 4 стоимости китайской платы. Только частоты оперативы будут ниже. Серверный корпус искать, с охлаждением что-то городить. И со всеми проблемами и нестандартными настройками останешься наедине с производителем, когда по китайцам сообществом энтузиастов уже всё изучено вдоль и поперек и существуют модифицированные биосы под любой каприз.
Если даже допустить, что с китайцами есть большая вероятность, что через пару лет что-то сломается или сгорит, заменить любую деталь стоит $30-50. Дома-то надежность и бесперебойность вообще не критичны. Главное хорошие бэкапы.

В конце концов такие вещи все равно не на последние деньги собираются.
Обычно не то что за деньги, а из хлама, который есть в кладовке. У половины домашние серваки на 775 и 1155 чипсете.
Обычно не то что за деньги, а из хлама, который есть в кладовке. У половины домашние серваки на 775 и 1155 чипсете.

Это точно) У меня домашний сервер для не особо важных вещей (типа торрентов и тестов всякого софта) на LGA 1156: 8 Gb DDR3, i5-750 (самый первый Core i5), есть гигабитный Ethernet, даже 2 порта USB3 есть. Досталось все это хозяйство совершенно бесплатно, когда-то трудилось сервером в офисе. Прикупил только простенький SSD на 120 Gb для ОС. Стоит без монитора, клавиатуры и мышки — все делается по сети. Думаю, что в такой конфигурации он еще долго проработает — для всех возложенных задач его хватает с лихвой.
X9DRL на ебее стоит плюс минус как две китайских матери и влезает в ATX корпус. Претензий по частотам не понимаю. 1866MHz, которые максимально тянут xeon'ы тех лет, эти матери вполне себе тянут.
2011 соккет уже год как не актуален, когда есть 2011-3 гораздо дешевле, производительнее и холоднее.

Насчет двухпроцессорных сборок соглашусь. Лучше за $200 брендовую мать взять, чем за $100 китайца. Но эти платформы обычно идут больше под рендер фермы, а не под недорогие домашние серверы.
Однослотовая материнка стоит $50. А за $200 можно собрать всё включая SSD и корпус.
Те же Kllisre, Huananzhi, Machinist ничем не хуже гигабайта или асуса.
Мир изменился, коллега. Цена перестала гарантировать качество. И это относится не только к комплектующим для ПК.

У меня 15+ ИБП от cyberpower. Прекрасно работают, умеют с NUT, умеют ХОЛОДНЫЙ старт (привет, APC). Уверен на 146%, что собираются на тех же линиях, что и APC.
UFO just landed and posted this here
Обычно в цену брендовой матери включается стоимость ее гарантийного обслуживания
У китайцев тоже есть гарантия. (Но действует только на территории Китая. Т.к. эти платы в основном не предназначены для некитайского рынка.)
Мил человек, гарантийное обслуживание — это и есть то, за что вы платите при покупке брендовых комплектущих. Но (неожиданно) не все живут в Мск или миллионниках.
В мухосрансках (пока) живут тоже. Как я, например. И мне это обслуживание не светит от слова совсем. Назревает вопрос, напуркуа мне брендовый сервер, только ОДИН БП к которому стоит как китайский КОМПЛЕКТ мать + проц + память, а то и как 2+ комплекта выше описанного? Не вижу смысла переплачивать. Может вы его увидите? Напишите.
Да, к сожалению от знакомых из мухосрансков маленьких городов не раз слышал о проблемах с получением гарантийного обслуживания. Помню работая в крупной компании занимавшейся логистикой, первое время не понимал, почему проще в некоторые филиалы отправить новый ПК из Мск/НН/Спб/Еката чем чинить по гарантии, приехав в один из филиалов в городе Чагода стало все понятно.
UFO just landed and posted this here

насчет гарантии. при мне несколько раз тупо придумывали на ходу отговорки. или отворачивались ... "ловкость рук и никакого мошейничества" и вот у тебя на hdd проткнут воздуховодный... что-то там, или на мат плате сокет погнут. и гарантию вам аннулируем. такие п#$%. крч. как повезет.

говнюки получают деньги +- как мошейники по телефону от банков и тп перекупы "небитанекрашена".

А вот как к примеру в openmediavault не прокидывать HDD, а подключить ZFS чтобы он сразу писал в RAID массив? Постоянно увеличивать в размере виртуальное место не очень удобно
Создавайте ВМ и не прокидывайте hdd — пользуйте готовый массив, создав столько вирт. hdd, сколько вам нужно.
Расширить raid-z-массив добавлением туда hdd пока нельзя, но можно создать новый пул.

Разверните omv в том же vbox-е и пробуйте
Я об этом и говорю, придётся постоянно мониторить виртуальный HDD и увеличивать в нём место, что не очень удобно. Удобнее было бы прокинуть ZFS pool, но хорошего решения я пока не нашёл
Мониторить свободное место Вам прийдется в любом случае. Оно само там не появится в случае чего. Дело добавления свободного места — деликатное и опасное в плане потери данных. Я бы не доверял такое скрипту.
Имхо пробрасывать физику вообще идея плохая и не гибкая, я за виртуальные диски, на самом деле если использовать тонкую провизию, то можно выдать диск с запасом и не особо заморачиваться с мониторингом.
Спасибо за подсказку с KVM-Over-IP Under $60 with Pi-KVM чую у меня скоро появиться такая коробочка.
Меня периодически пробивает на апгрейд домашней сети, но я пока что держусь, хотя 1 Гбит/с уже кажется маловато.
Если больше гигабита — D-Link DGE-562T — 2.5Гбит\с и относительно недорого. Или на али по Realtek RTL8125 поищите.
Коллеги, к понедельнику планирую закончить вторую часть. Решил не делить на 3, на мой взгляд не получается где то разделить статью не нарушая повествования, но из за этого материал получился огромным, за ранее извиняюсь >_<
Sign up to leave a comment.

Articles

Change theme settings