Выше в комментариях уже ответил, но продублирую - цель была именно с железом поработать. Я не спорю что можно тупо VPS напокупать и сидеть, но оно не даст того-же опыта работы как с серверной стойкой.
Тоже не плохое решение, скажу я вам) Правда мне кажется тут срач начнется по x99/x79 из-за архитектуры которая сейчас вопросы вызывает по актуальности. Хотя сам также сижу на ПК x99 (был выбран из-за дешевизны и наличия): Xeon E5 2650v4, XZ-X99D4M4, GTX1060 6GB, 16GB DDR 4.
Опять же, хоум-лаба на то и хоум лаба - для кого-то просто микро-сервисы запустить для дома по типу Jellyfin и т.д., для кого-то вроде меня - площадка дабы поучиться чему-то и возможно разрабатывать что-то свое.
Мне кажется все эти 4 пункта применимы к prod-ready решениям буквально, а тут именно цель была - немного колхозная домашняя лаба. По поводу ящика - он был выбран просто потому что: 1. Дешевле - 1к ящик стоит vs 3-10к в другом городе нормальный шкаф. 2. Даже если брать шкаф, нужно брать рельсы. Ибо вешать на ушки которые шли в комплекте мне лично стремно, есть ощущение что сервера сзади провиснут. Ну а рельсы для серверов такого формата как оказалось стоят почему-то дороже, чем обычные длинные рельсы для серверов с полкой под диски.
Ну и опять же - нагрева нет от слова совсем, как и шума. У меня нет цели на них 100% нагрузку 24/7 держать и т.д. - это именно хоум-лаба для изучения и возможно каких-то моих личных сервисов.
Я недавно пытался в Green-API устроится, у них тестовое задание - написать мелкий сайт с вызовом API.
Вообще, на сколько понял я - DevOps это "пограничник" между сис.админами и разработчиками, и его цель - автоматизировать процессы так, чтобы разрабы не тащили свой код прямо к сис.админам для выкатки на прод.
Но тут вопрос конечно - а если я хочу работу и с железом, и с CI/CD, настройкой ОС и т.д.? Что это за профессия уже получается?
Ну, да. Сервера на то и сервера что расчитаны на отказоустойчивость при высокой нагрузке, в отличии от неттопов и т.д. (нет, это не значит что неттоп сдохнет спустя год непрерывной работы)
Господа, не спорю - можно и такое решение использовать. Тут нет "правильного" варианта, каждому что понравилось - то и взял. Я мечтал именно о такой мелкой стойке у себя дома)
Блин, мне кажется сейчас вообще трудно судя по HH особенно понять кто такой DevOps..по ощущению это все в одном - от железа до CI/CD, автоматизаций. Но вообще, как по мне с железом так и так интереснее..как конструктор, так и встретить определенные проблемы. Я к примеру как на k3s пробовал запускать проекты с единой точкой отказа (где три сервера держат чисто воркер-процессы, а на 1 и БД и Nginx) - как оказывается, 1гб сеть крайне быстро можно забить при таком раскладе, а решение - объеденить сервера в дополнительную физическую сеть куда вынести к примеру БД и NFS. Такого VPS/VDS и облака не дают, поэтому и было выбрано железо)
Я и с облаками играю периодически. Но как по мне - собрать стойку и застроить виртуализацию с нуля (а плюсом ради прикола изучить API и подключить к какому-нибудь самописному сайту для "покупки" виртуалок) - гораздо прикольнее чем наблюдать за надписью "VM Creating...Please Wait" на экране не видя даже на чем она запускается. Ну и плюсом - извините, но я крайне не люблю зависимости от чего-либо, буквально все что есть держу в локальных копиях (я из поколения где музыку еще скачивали и слушали с плееров))
У меня мадам тут 19 летняя живет со мной, пока шо жалоб не было))) А так, да - на старте звучит громковато, но потом - тишина даже при нагрузке (не ну если по приколу - могу гс записать :/
Здравствуйте, во первых, как и написал в самом начале - изучение. На нем я Docker Swarm, K3s, K8s учил. Ну и практиковал некую отказоустойчивость на гипервизорах и подах/контейнерах. Самое наверное прикольное было Nextcloud AIO Helm запускать на этом с монтированием БД, Redis на локальный SSD, а остального к NFS-харду и масштабировать если это можно так назвать (ну тут сложно назвать масштабированием..скорее в неком роде отказоустойчивость появляется с единой точкой отказа и чуть большая вместимость людей), а также Nextcloud AIO пихать в Swarm, тоже весело)
Кульки обслужены (вымыты и поменяны подшипники) как и все серваки (термопаста, термопрокладки) и вообще толком не шумят..а по темпам вот с beszel график одного из самых нагруженных серверов за 24ч (в среднем 40-60%):
Как же хочется простой темной темы..эх.
Выше в комментариях уже ответил, но продублирую - цель была именно с железом поработать. Я не спорю что можно тупо VPS напокупать и сидеть, но оно не даст того-же опыта работы как с серверной стойкой.
В ближайшее время подготовлю обширную статью, где постараюсь рассказать обо всем)
Тоже не плохое решение, скажу я вам)
Правда мне кажется тут срач начнется по x99/x79 из-за архитектуры которая сейчас вопросы вызывает по актуальности. Хотя сам также сижу на ПК x99 (был выбран из-за дешевизны и наличия): Xeon E5 2650v4, XZ-X99D4M4, GTX1060 6GB, 16GB DDR 4.
Опять же, хоум-лаба на то и хоум лаба - для кого-то просто микро-сервисы запустить для дома по типу Jellyfin и т.д., для кого-то вроде меня - площадка дабы поучиться чему-то и возможно разрабатывать что-то свое.
Да, верно. Потребление при нагрузке 100% всех четырех серверов в среднем было около 380W включая коммутатор (по информации от ИБП).
Мне кажется все эти 4 пункта применимы к prod-ready решениям буквально, а тут именно цель была - немного колхозная домашняя лаба. По поводу ящика - он был выбран просто потому что:
1. Дешевле - 1к ящик стоит vs 3-10к в другом городе нормальный шкаф.
2. Даже если брать шкаф, нужно брать рельсы. Ибо вешать на ушки которые шли в комплекте мне лично стремно, есть ощущение что сервера сзади провиснут. Ну а рельсы для серверов такого формата как оказалось стоят почему-то дороже, чем обычные длинные рельсы для серверов с полкой под диски.
Ну и опять же - нагрева нет от слова совсем, как и шума. У меня нет цели на них 100% нагрузку 24/7 держать и т.д. - это именно хоум-лаба для изучения и возможно каких-то моих личных сервисов.
Я недавно пытался в Green-API устроится, у них тестовое задание - написать мелкий сайт с вызовом API.
Вообще, на сколько понял я - DevOps это "пограничник" между сис.админами и разработчиками, и его цель - автоматизировать процессы так, чтобы разрабы не тащили свой код прямо к сис.админам для выкатки на прод.
Но тут вопрос конечно - а если я хочу работу и с железом, и с CI/CD, настройкой ОС и т.д.? Что это за профессия уже получается?
Ну, да. Сервера на то и сервера что расчитаны на отказоустойчивость при высокой нагрузке, в отличии от неттопов и т.д. (нет, это не значит что неттоп сдохнет спустя год непрерывной работы)
Мне кажется это на отдельную статью тянет, постараюсь выделить время. Хотя то что я там вытворяю вам больше покажется какой-то дичью)))
Я понимаю что лето настает, но сервера - не мангал :/
Я не спорю, опять же - можно. Но я хотел именно такой вариант, в котором еще и немного апгрейда пихнуть и колхоза можно)
Господа, не спорю - можно и такое решение использовать. Тут нет "правильного" варианта, каждому что понравилось - то и взял. Я мечтал именно о такой мелкой стойке у себя дома)
Блин, мне кажется сейчас вообще трудно судя по HH особенно понять кто такой DevOps..по ощущению это все в одном - от железа до CI/CD, автоматизаций.
Но вообще, как по мне с железом так и так интереснее..как конструктор, так и встретить определенные проблемы. Я к примеру как на k3s пробовал запускать проекты с единой точкой отказа (где три сервера держат чисто воркер-процессы, а на 1 и БД и Nginx) - как оказывается, 1гб сеть крайне быстро можно забить при таком раскладе, а решение - объеденить сервера в дополнительную физическую сеть куда вынести к примеру БД и NFS.
Такого VPS/VDS и облака не дают, поэтому и было выбрано железо)
Я и с облаками играю периодически. Но как по мне - собрать стойку и застроить виртуализацию с нуля (а плюсом ради прикола изучить API и подключить к какому-нибудь самописному сайту для "покупки" виртуалок) - гораздо прикольнее чем наблюдать за надписью "VM Creating...Please Wait" на экране не видя даже на чем она запускается. Ну и плюсом - извините, но я крайне не люблю зависимости от чего-либо, буквально все что есть держу в локальных копиях (я из поколения где музыку еще скачивали и слушали с плееров))
У меня мадам тут 19 летняя живет со мной, пока шо жалоб не было)))
А так, да - на старте звучит громковато, но потом - тишина даже при нагрузке (не ну если по приколу - могу гс записать :/
Здравствуйте, во первых, как и написал в самом начале - изучение. На нем я Docker Swarm, K3s, K8s учил. Ну и практиковал некую отказоустойчивость на гипервизорах и подах/контейнерах. Самое наверное прикольное было Nextcloud AIO Helm запускать на этом с монтированием БД, Redis на локальный SSD, а остального к NFS-харду и масштабировать если это можно так назвать (ну тут сложно назвать масштабированием..скорее в неком роде отказоустойчивость появляется с единой точкой отказа и чуть большая вместимость людей), а также Nextcloud AIO пихать в Swarm, тоже весело)
Кульки обслужены (вымыты и поменяны подшипники) как и все серваки (термопаста, термопрокладки) и вообще толком не шумят..а по темпам вот с beszel график одного из самых нагруженных серверов за 24ч (в среднем 40-60%):