Комментарии 53
бедные железки... их ждёт недолгая жизнь и ужасная кончина от постоянного перегрева... но возможно автор выкинет их раньше с балкона из за дикого воя спаренных 40мм высокооборотистых вентиляторов..
Фото можно сохранить в недрах интернета, с назиданием потомкам - как делать не надо!
Кульки обслужены (вымыты и поменяны подшипники) как и все серваки (термопаста, термопрокладки) и вообще толком не шумят..а по темпам вот с beszel график одного из самых нагруженных серверов за 24ч (в среднем 40-60%):

А откуда перегрев? Это же вполне штатное расположение серверов, фронт и тыл открыты - значит охлаждение работает как задумано. И шума, если сервере не молотит на сто процентов, не так уж и много. Я недавно как раз покупал стоечную супермикру - и она оказалась на удивление тихой. Не уровня спальни, само собой, но в прихожей вполне мог бы поставить.
О, мои любимые сервера. Раньше можно было их взять по 30к за штуку.
А можете рассказать зачем такое оборудование потреболось для дома? Почему не взять одну OrangePi 6 Plus и запустить на ней вообще ВСЁ ? Шума нет, питается энергией космоса. Настраивать нужно всего один юнит, а не 4.
Здравствуйте, во первых, как и написал в самом начале - изучение. На нем я Docker Swarm, K3s, K8s учил. Ну и практиковал некую отказоустойчивость на гипервизорах и подах/контейнерах. Самое наверное прикольное было Nextcloud AIO Helm запускать на этом с монтированием БД, Redis на локальный SSD, а остального к NFS-харду и масштабировать если это можно так назвать (ну тут сложно назвать масштабированием..скорее в неком роде отказоустойчивость появляется с единой точкой отказа и чуть большая вместимость людей), а также Nextcloud AIO пихать в Swarm, тоже весело)
я не автор, но судя по его описанию он планирует научиться
различным решениям необходимых DevOps-инженеру
на OrangePi 6 Plus нет кровавого энтерпрайза, например IPMI.
Шум при старте как от истребителя F-35 или всего-лишь как от Боинга-737? Проект конечно классный, но запускать такое дома -- это ж все сбегут)
У меня мадам тут 19 летняя живет со мной, пока шо жалоб не было)))
А так, да - на старте звучит громковато, но потом - тишина даже при нагрузке (не ну если по приколу - могу гс записать :/
Это прям удивительно, обычно в серверных невозможно находится без наушников.
В серверных все таки и серверов больше и работают они как правило, при близкой к 100% нагрузке.
при близкой к 100% нагрузке.
разве это нормальный режим работы?)
Ну, да. Сервера на то и сервера что расчитаны на отказоустойчивость при высокой нагрузке, в отличии от неттопов и т.д. (нет, это не значит что неттоп сдохнет спустя год непрерывной работы)
А не думали эти лабы собирать в облаках? При вашем бюджете, кажется, можно полгода собирать стенды по требованию и разбирать их через пару дней.
Заодно познакомитесь с облаками и Terraform.
Я и с облаками играю периодически. Но как по мне - собрать стойку и застроить виртуализацию с нуля (а плюсом ради прикола изучить API и подключить к какому-нибудь самописному сайту для "покупки" виртуалок) - гораздо прикольнее чем наблюдать за надписью "VM Creating...Please Wait" на экране не видя даже на чем она запускается. Ну и плюсом - извините, но я крайне не люблю зависимости от чего-либо, буквально все что есть держу в локальных копиях (я из поколения где музыку еще скачивали и слушали с плееров))
Я предложил исходя из вводных, что вы изучаете DevOps. Поддержка виртуализации, всё же, немного другая область :)
Но конечно здорово, что вы учитесь и пробуете, это хорошее качество.
Блин, мне кажется сейчас вообще трудно судя по HH особенно понять кто такой DevOps..по ощущению это все в одном - от железа до CI/CD, автоматизаций.
Но вообще, как по мне с железом так и так интереснее..как конструктор, так и встретить определенные проблемы. Я к примеру как на k3s пробовал запускать проекты с единой точкой отказа (где три сервера держат чисто воркер-процессы, а на 1 и БД и Nginx) - как оказывается, 1гб сеть крайне быстро можно забить при таком раскладе, а решение - объеденить сервера в дополнительную физическую сеть куда вынести к примеру БД и NFS.
Такого VPS/VDS и облака не дают, поэтому и было выбрано железо)
мне кажется сейчас вообще трудно судя по HH особенно понять кто такой DevOps
Вам не кажется, это старый мем.
DevOps и SRE трактуют очень разнообразно. Потом получается, что у кого-нибудь SRE смотрит в zabbix 24/7 и будит кого-нибудь, а DevOps ничего сложнее строчек в yaml написать не может.
Я недавно пытался в Green-API устроится, у них тестовое задание - написать мелкий сайт с вызовом API.
Вообще, на сколько понял я - DevOps это "пограничник" между сис.админами и разработчиками, и его цель - автоматизировать процессы так, чтобы разрабы не тащили свой код прямо к сис.админам для выкатки на прод.
Но тут вопрос конечно - а если я хочу работу и с железом, и с CI/CD, настройкой ОС и т.д.? Что это за профессия уже получается?
У меня сдохло две x9scm-f подряд в домашнем сервере, перешёл на десктопную материнку и два года уже полёт нормальный
Как я понял общая цена 56к. Можно позанудствую..
За эти деньги можно было взять пару штук minipc(самому собрать) или неттоп на райзене и в каждом 32гб оперативы + видюха 680м или 760м (или что мощнее но 1 штука), это б.у.
Плюсом такой конфигурации можно было бы поставить proxmox и также llm-ки запускать локально
именно или ноут какой с такими же характеристиками.
Одни плоюсы - относительно новое железо, мощьное (уж быстрее суммарных этих серверов), маленькое, тихое, мобильное, не гемморойное, нет проблем отказа что железо старое, да еще ликвидное на вторичке или если надоесть играться, то можно использовать для чегото еще
Господа, не спорю - можно и такое решение использовать. Тут нет "правильного" варианта, каждому что понравилось - то и взял. Я мечтал именно о такой мелкой стойке у себя дома)
56к - это сегодня цена 32 гигов оперативы для миниПК :(
Я в свою супермикру модули ддр3 на 32 гига брал тысячи по четыре, по-моему. Так что, если не волнуют размеры, шум и энергопотребление, старые сервера ещё вполне поживут.
Плюс поставил, очень рад видеть железо, особенно серверное на хабре!
Но не проще было взять платы TOPC с процессором типа 7945HX, или Minisforum bd895 или 795i на 7945 и 8945 ? Они по тестам в 4-9 раз быстрее чем 1220 V3, (в зависимости от бенчмарка) при этом потребление райзена = 100W под нагрузкой. При желании он вместе с вентилятором от RTX4090 (дада, вентилятор от видеокарты но с рамкой 120мм, он тоньше обычных 25мм вертушек + сильно больше давления и обороты) он без проблем чувствует себя в 2U корпусе! При должной организации охлаждения, можно добиться гробовой тишины даже под половиной нагрузки. А без нагрузки оно ест ватт 20-30 с розетки.
На нем раскручиваем Proxmox, там хоть десяток виртуалок для экспериментов.
Я не спорю, опять же - можно. Но я хотел именно такой вариант, в котором еще и немного апгрейда пихнуть и колхоза можно)
Они по тестам в 4-9 раз быстрее чем 1220 V3
А по цене?
В районе 30к рублей за голую плату без памяти.
С 64гб ддр5 памяти уже не так весело но можно переплатить за производительность, тишину, современное железо итд.
Я собирал что то подобное на 1 литровых пк от HP, elitedesk 800 что то там, их можно купить за дёшево на ебее, энтерпрайз сливает их как только кончается 3х летняя гарантия. В них процессоры посвежее, и они тихие.
Древесный шкаф это не пожаробезопасно.
Я понимаю что лето настает, но сервера - не мангал :/
Это оборудование которое работает 24/7, потребляет нормальный ток, и проектировалось для работы в железной стойке, в помещении без людей и взрослой системой пожаробезопасности.
А чем стоечный сервер, потребляющий 300 ватт, отличается от десктопного ПК, потребляющего 300 ватт в плане "нормальности тока"?
Так же ни разу не видел каких-то особенных требований к наличию в помещении с сервером людей.
На счёт железных стоек тоже спорно - видел компанию, которая деревянные датацентры строит. С деревянными же серверными шкафами, прикрываясь заботой об экологии.
Никто конечно Вас не заставит думать о пожаробезопасности, для физических лиц и размещения серверов дома нет даже никаких правил.
Но Я например предпочитаю об этом думать. Железный шкаф это еще один барьер для огня и тепла. Вероятность что Ваш сервер загорится низкая но не нулевая. И кроме сервера многое может пойти не так, ослабленый разъём питания, повреждённый кабель который вы где то передавили, отказ системы охлаждения, брак в компонентах, накопившиеся куски пыли, электрики фазы перепутают итд.
Только Вы сами для себя решаете терпимый для Вас уровень риска с которым Вы можете спать спокойно. Есть люди которые спокойно спят рядом с 3 киловатным обогревателем на скрутках из тонкого провода который сам греется как обогреватель и им норм.
А я человек тревожный предпочитаю перебдеть.
А я человек тревожный предпочитаю перебдеть.
Тогда почему такая фиксация именно на серверах? Они ничем не отличаются в плане пожароопасности от обычных домашних ПК. Которые в железных шкафах не принято эксплуатировать.
Да и сервера не особо часто в шкафах стоят, в куче случаев - в открытых стойках.
В моем железном серверном шкафу стоят 10 обычных офисных неттопов. Сервера очень шумные. И Я взял сразу большой шкаф с расчётом на то чтобы держать там все оборудование, малинки и другие платки без корпуса, модем, роутер, упс, умный дом.
Разница в том что скажем рабочий макбук я не гоняю 24/7, я его выключаю когда ухожу из дома когда иду спать итд. Я их использую непосредственно, то есть я нахожусь рядом большую часть времени и могу заметить проблему на раннем этапе. А к серверам можно не подходить годами.
Я не фиксируюсь только на серверах, я тепловизором проверяю кабеля и соединения например, храню 18650 аккумуляторы в специальных негорючих сумках, стараюсь не оставлять приборы на зарядке без контроля.
Если к серверам можно не подходить годами, значит сервер в деревянном ящике безопасней ноутбука в железном?
Я не достаточно компетентен чтобы утверждать что из этих вариантов безопаснее. Я лишь говорю о том что возгорание внутри железного шкафа, вокруг и сверху которого нет материалов поддерживающих горение, безопаснее возгорания внутри деревянной тумбочки, в которой даже нет обработки антипиренами.
Распиши, что поднимал, как конфигурировал, что тестировал, какие сервисы на постоянку, какие периодически смотришь?
Какие CI/CD инструменты интегрировал, автоматизацию развертывания, возможно ansible+teraform уже настроил или планируешь, были ли эксперименты с open stack?
Вы молодец, но словно застряли в середине 10-х. Сейчас все эти лабы собираются в облаках. Коммутаторы и другое сетевое оборудование можно пощупать в EVE-NG.
Более того, сама сборка лабы в облаке даст вам актуальный опыт работы в нем.
За саму идею люто плюсую, но:
Ящик - это реально треш, есть куча готовых классных решений на любой вкус.
Дома втыкать промышленные сервера с их издержками в виде нагрева, ацкого шума и пр. - это не очерь хорошая идея. Есть куча альтернативных тихих и мощных "бытовых" решений (с упаковкой их в 19" 1U размер.
Серверная стойка без локальной СКС инфраструктуры - это как "свадебная пара без невесты" - большая часть удовольствия и удобства от использования отсутствует.
Ну и находиться всё это должно не в комнате, а хотя бы в отдельной вентилируемой кладовке (тут-то нам СКС и пригодится :)
Мне кажется все эти 4 пункта применимы к prod-ready решениям буквально, а тут именно цель была - немного колхозная домашняя лаба. По поводу ящика - он был выбран просто потому что:
1. Дешевле - 1к ящик стоит vs 3-10к в другом городе нормальный шкаф.
2. Даже если брать шкаф, нужно брать рельсы. Ибо вешать на ушки которые шли в комплекте мне лично стремно, есть ощущение что сервера сзади провиснут. Ну а рельсы для серверов такого формата как оказалось стоят почему-то дороже, чем обычные длинные рельсы для серверов с полкой под диски.
Ну и опять же - нагрева нет от слова совсем, как и шума. У меня нет цели на них 100% нагрузку 24/7 держать и т.д. - это именно хоум-лаба для изучения и возможно каких-то моих личных сервисов.
нормальная хоумлаба, плюсую)
у меня, например, подход еще более колхозный - китайские киты на х79/99 с ксеонами, купленные на озоне, как минимум два работает 24/7 уже года два или три, еще из одного сделан гамерский пека (современное ААА в 4К мне не нужно, а для остального за глаза). Полет пока нормальный и прям максимально бюджетный поход)
Тоже не плохое решение, скажу я вам)
Правда мне кажется тут срач начнется по x99/x79 из-за архитектуры которая сейчас вопросы вызывает по актуальности. Хотя сам также сижу на ПК x99 (был выбран из-за дешевизны и наличия): Xeon E5 2650v4, XZ-X99D4M4, GTX1060 6GB, 16GB DDR 4.
Опять же, хоум-лаба на то и хоум лаба - для кого-то просто микро-сервисы запустить для дома по типу Jellyfin и т.д., для кого-то вроде меня - площадка дабы поучиться чему-то и возможно разрабатывать что-то свое.
Как-то у вас все красиво и организовано.
Посмотрел на свой колхоз и нашел себе оправдание: Зато тихо. :)
7 Dell Precision и один старичок Asus затесался.
У всех от 32 до 128 GB RAM.
А как вы всем этим железом управляете?
Proxmox or VMware?
Вопрос не праздный.
После сотен часов в терминале я написал решение, которое объединяет в браузере чат-бот и SSH терминал.
Теперь подключаю удаленный сервер через SSH и наговариваю в чат-бот хотелки.
Домашний колхоз

Я так понимаю сервера 24/7 запущены? И сколько суммарное потребление в Вт?

Домашняя кластер-лаба с капелькой колхоза