Напишите список типичных задач админа за месяц и проставьте трудозатраты в человеко часах. Вряд ли там будет больше 5% на решение задач с серверным железом.
Если сервера брендовые типа HP — скорее всего цифра будет 1%.
Львиная доля времени уходит на настройку ОС, настройку бекапов, обновление ОС, настройка фаервола(ов), работа с пользователями и их ПК, следить/настраивать прикладное ПО.
Облака все эти задачи не решают.
По сути это аналог 4х сокетного сервера, только сокеты внутри корпуса процессора и скорее всего ему будут присущи недостатки 2х-4х сокетных архитектур — NUMA например.
Я все правильно понял? В статье железо посчитали на 17ТБ а облако на 12ТБ?
На мой взгляд, на 5 серверов и 17 ТБ, в ряде случаев хватит и MSA2xxx, а если в расчетах имеется в виду all flash массив — то это надо указывать т.к. сильно влияет на цену как железа так и облака.
Возможно это оффтоп, но очень хочется высказать такую точку зрения:
С точки зрения художественного восприятия, ценность музыкального произведения практически не зависит от качества аппаратуры.
Вряд ли художественный замысел автора музыки скрыт в нюансах, которые можно услышать только на аппаратуре с «прогретыми проводами».
Я помню как слушал Высоцкого на отцовском добитом катушечном монофоническом магнитофоне, помню как слушал Pink Floyd на проигрывателе с потрепанной акустикой и получал от этого огромное удовольствие.
Помню как дорвался до пиратских дисков с mp3 256-320kbps где то в конце 90х… это был настоящий прорыв, море музыки которое вдруг стало доступно простому смертному. Тогда слушал музыку прямо с компьютера на бюджетных лопухах-филипсах. Помню, что резали слух треки с битрейтом в 128kbps и собственный шум встроенной в материнку звуковой карты. Потом был куплен Creative Sound Blaster где то за 100$ — он не шумел и давал чистый звук. По мере обновления железа компа, Creative неизменно устанавливался и настраивался. Потом, со временем, перестал слышать разницу между своим дискретным Creative и звуковыми картами встроенными в материнки. После этого, я уже редко обращал внимание на качество звука на компьютере, в тех материнках что покупал я, звук меня всегда устраивал.
На всем протяжении этих моих экспериментов с музыкой я постоянно ловил себя на мысли, что чем сильнее я вслушиваюсь в «качество», тем меньше я слушаю саму «музыку».
У меня кроме nextcloud допонительно крутятся разные лабы на виртуалках, поэтому производительность процессора и максимальный объем памяти мне более важны чем энергоэффективность.
Pentium g4560 — сейчас справляется, но в будущем, при необходимости, можно будет поставить core i7 и нарастить ОЗУ до 64 ГБ.
Лично я использую для данных целей готовое решение — nextcloud.
Очень долго думал по поводу формфактора домашнего сервера. Для себя принял решение использовать стандартный мини atx и вот почему:
+Относительно дешево — все комплектующие в широкой доступности, соответственно последующие ремонты и апгрейды должны быть оптимальными по цене.
+Функционально: 4 места под 3.5" HDD (использую переходники 5" на 3.5"), +на материнке есть два слота m.2 — это еще два быстрых SSD HDD, итого максимальное количество накопителей без особых заморочек = 6шт. Недорогой десктопный процессор(например pentium g4560) — даст фору практически любому мобильному процессору и тем более атому. Память до 64 ГБ (у меня сейчас 16ГБ).
+Теплообмен. Приличные по сегодняшним меркам габариты мини atx позволяют разместить недорогие и тихие кулеры с вентиляторами 8-12 см.
— Габариты. У меня лично нашлось место на антресоли.
Резервное копирование, в моем случае, ведется скриптом на 3.5" HDD установленный в том же корпусе. Считаю маловероятным выход из строя сразу двух hdd разных вендоров, ну и в крайнем случае можно обратиться к мастерам по восстановлению убитых дисков.
Вот и я о том, что надо сначала корректно поставить задачу.
«Полноценный fileover с сессиями» — замечательно, но по факту мало кому нужен.
По моему скромному мнению 95% фирм легко переживет сутки простоя Интернета (да будут ныть, ворчать — но переживут), остальные 4,99% может и будут по настоящему страдать из за отсутствия интернета, но уж точно переживут обрыв сессий (Интернет сам по себе не гарантирует 100% доступности) и оставшийся 0,01% — это конторы с бюджетом на интернет железки более 100k$, там ни микротик ни pfSense (и их Linux аналоги) рядом не стояли.
Админы которые ратуют за pfSencse (или прочие *nix системы) — купите наконец железный микротик (хотя бы даже и за свои деньги, AC-lite стоит порядка 50$). Вам понравится :)
Виртуалка с RouterOS это конечно хорошо, но она не позволяет ощутить весь потенциал устройства, по размерам чуть меньше чем обычный домашний роутер.
Бывают случаи (я о маленьких конторах) когда ПК тупо физически не влазит в удобное для его размещения место (какая та полочка рядом с вводом интернета).
Я не призываю срочно менять существующее рабочее решение, но хочу акцентировать внимание на том, что микротик это один из полезнейших инструментов админа для работы с сетью.
Может кто нибудь объяснит о какой интерференции речь? Эти асики реально в эфир могут выдавать больше энергии чем профессиональное оборудование сотового оператора?
Помоему кто то «урот».
Польза от живых гипервизоров в момент Ч есть и огромная т.к. сокращается время восстановления. А ведь гипервизор это то что надо ставить ручками на голое железо и если нет KVM(ilo) — большой кусок работы.
Петя вроде да, ходил через SMB. Про RPC я написал т.к. все равно в нем есть и будут уязвимости и MS будет патчить эти уязвимости, а эти патчи придется накатывать и лишний раз перезагружать гипервизор.
Про устаревшие бекап копии давайте не будем, это отдельная тема. Но скажу так — есть гипервизор и есть бекап = 95% проблем решаемые в ситуации полного цейтнота.
Про Hyper-V на нано сервере ничего не слышал к сожалению.
Одним только тем, что выбирая гипервизор «не мастдай» — вы убираете часть своей инфраструктуры с пути наиболее распространенного вектора атаки хакеров.
Сарказм ли?
Если сервера брендовые типа HP — скорее всего цифра будет 1%.
Львиная доля времени уходит на настройку ОС, настройку бекапов, обновление ОС, настройка фаервола(ов), работа с пользователями и их ПК, следить/настраивать прикладное ПО.
Облака все эти задачи не решают.
На мой взгляд, на 5 серверов и 17 ТБ, в ряде случаев хватит и MSA2xxx, а если в расчетах имеется в виду all flash массив — то это надо указывать т.к. сильно влияет на цену как железа так и облака.
С точки зрения художественного восприятия, ценность музыкального произведения практически не зависит от качества аппаратуры.
Вряд ли художественный замысел автора музыки скрыт в нюансах, которые можно услышать только на аппаратуре с «прогретыми проводами».
Я помню как слушал Высоцкого на отцовском добитом катушечном монофоническом магнитофоне, помню как слушал Pink Floyd на проигрывателе с потрепанной акустикой и получал от этого огромное удовольствие.
Помню как дорвался до пиратских дисков с mp3 256-320kbps где то в конце 90х… это был настоящий прорыв, море музыки которое вдруг стало доступно простому смертному. Тогда слушал музыку прямо с компьютера на бюджетных лопухах-филипсах. Помню, что резали слух треки с битрейтом в 128kbps и собственный шум встроенной в материнку звуковой карты. Потом был куплен Creative Sound Blaster где то за 100$ — он не шумел и давал чистый звук. По мере обновления железа компа, Creative неизменно устанавливался и настраивался. Потом, со временем, перестал слышать разницу между своим дискретным Creative и звуковыми картами встроенными в материнки. После этого, я уже редко обращал внимание на качество звука на компьютере, в тех материнках что покупал я, звук меня всегда устраивал.
На всем протяжении этих моих экспериментов с музыкой я постоянно ловил себя на мысли, что чем сильнее я вслушиваюсь в «качество», тем меньше я слушаю саму «музыку».
Pentium g4560 — сейчас справляется, но в будущем, при необходимости, можно будет поставить core i7 и нарастить ОЗУ до 64 ГБ.
Но у меня кроме nextcloud развернуто еще 5 виртуальных машин.
Очень долго думал по поводу формфактора домашнего сервера. Для себя принял решение использовать стандартный мини atx и вот почему:
+Относительно дешево — все комплектующие в широкой доступности, соответственно последующие ремонты и апгрейды должны быть оптимальными по цене.
+Функционально: 4 места под 3.5" HDD (использую переходники 5" на 3.5"), +на материнке есть два слота m.2 — это еще два быстрых SSD HDD, итого максимальное количество накопителей без особых заморочек = 6шт. Недорогой десктопный процессор(например pentium g4560) — даст фору практически любому мобильному процессору и тем более атому. Память до 64 ГБ (у меня сейчас 16ГБ).
+Теплообмен. Приличные по сегодняшним меркам габариты мини atx позволяют разместить недорогие и тихие кулеры с вентиляторами 8-12 см.
— Габариты. У меня лично нашлось место на антресоли.
Резервное копирование, в моем случае, ведется скриптом на 3.5" HDD установленный в том же корпусе. Считаю маловероятным выход из строя сразу двух hdd разных вендоров, ну и в крайнем случае можно обратиться к мастерам по восстановлению убитых дисков.
«Полноценный fileover с сессиями» — замечательно, но по факту мало кому нужен.
По моему скромному мнению 95% фирм легко переживет сутки простоя Интернета (да будут ныть, ворчать — но переживут), остальные 4,99% может и будут по настоящему страдать из за отсутствия интернета, но уж точно переживут обрыв сессий (Интернет сам по себе не гарантирует 100% доступности) и оставшийся 0,01% — это конторы с бюджетом на интернет железки более 100k$, там ни микротик ни pfSense (и их Linux аналоги) рядом не стояли.
Виртуалка с RouterOS это конечно хорошо, но она не позволяет ощутить весь потенциал устройства, по размерам чуть меньше чем обычный домашний роутер.
Бывают случаи (я о маленьких конторах) когда ПК тупо физически не влазит в удобное для его размещения место (какая та полочка рядом с вводом интернета).
Я не призываю срочно менять существующее рабочее решение, но хочу акцентировать внимание на том, что микротик это один из полезнейших инструментов админа для работы с сетью.
Помоему кто то «урот».
Петя вроде да, ходил через SMB. Про RPC я написал т.к. все равно в нем есть и будут уязвимости и MS будет патчить эти уязвимости, а эти патчи придется накатывать и лишний раз перезагружать гипервизор.
Про устаревшие бекап копии давайте не будем, это отдельная тема. Но скажу так — есть гипервизор и есть бекап = 95% проблем решаемые в ситуации полного цейтнота.
Про Hyper-V на нано сервере ничего не слышал к сожалению.
Он очень даже платный.
В бесплатных версиях отключено очень много полезного функционала.
Сарказм ли?