Comments 50
"уберечь провода от вредителей" — эти вездесущие эко-менеджеры.
Чтобы обезопасить ваши сервера от главной опасности — проверяющих органов — лучше не делайте своих серверных.
Вторая была на «складе специй», полностью герметичная с фильтрами на воздухозаборнике кондея.
И тут стоит 10 раз подумать своя комната или проверенный провайдер услуг.
Свое оно хорошо. Доступ к “телу” в любое время, а не “по предварительной записи” с описанием всех манипуляций.
Но!
Оборудование это не: купил поставил и все работает… Смотрите, у нас тут серверная комната… Красота, диодики мигают… и забыл! За всем этим хозяйством надо следить, ухаживать, обновлять, менять оборудование и комплектующие которые вышли из строя, и лучше когда они только еще начинают как бы намекать, например бэды на жестких дисках появились, надо менять пока полностью не рассыпались. Но как это обычно бывает: “Денег нет, но вы там держитесь, работает ведь!”. Скупой платит дважды.
В статье написано про пару бесперебойников, да они помогут, практически безболезненно отключить ваши сервера, когда свет вдруг погаснет. Вопрос как долго здание вашего офиса будет сидеть без света и что будут делать пользователи которые не смогут получить доступ к сервису. Да, и по хорошему батареи в них надо менять раз в несколько лет, не дешевое удовольствие. И питание должно быть независимым от общего рубильника. И желательно с резервом.
Каналов связи тоже должно быть несколько. Но, как показывает практика, в офисных зданиях сейчас арендодатель предлагает услуги провайдера с которым у него есть договор и затянуть еще пару сетей задача не из легких. Да и стабильность предлагаемой сети оставляет желать лучшего. Опять же: Свет погаснет, связи нет.
Малому и среднему бизнесу проще и выгоднее купить пакет услуг у проверенных временем провайдеров. Здесь им будет предложена и поддержка 24/7/365, и резервирование данных, и стабильные каналы связи, и защита от атак, бекапирование, своё оборудование и ПО провайдер обновляет так что пользователь этого даже не замечает, и резервирование питания с аварийными генераторами, и системы пожаротушения. А главное ответственность!
Я понимаю, зачем может понадобиться серверная в крупной компании, где своя инфраструктура действительно может быть востребована. Но малому бизнесу как раз гораздо проще и пользоваться облачной информаструктурой. Тот же Azure/AWS/DO обойдутся гораздо дешевле, чем покупка всего необходимого оборудования, найм системного администратора (а возможно даже и нескольких) и собственно оборудование комнаты. Плюс еще переезды, которые у малого бизнеса могут случаться довольно часто — еще один фактор против такой вот "серверной в чулане".
Допустим сервера обновляются раз в 3-5 лет, админ приходящий, в комнате 2 метра квадратных есть.
Давайте по другому поступим. Вы приведете расчеты для серверной, со всем необходимым, оборудованием системой пожаротушения, охлаждения, сигнализацией, с учетом замены комплектующих, с возможностью делать бэкапы на расположенный в географически удаленной точке сервер бэкапов, с оплатой системного администратора, который действительно администратор, не приходящий эникей, который картридж умеет починить, а потом я вам представлю примерные затраты на тоже самое в облаке. Поверьте, дешевле будет.
Вот пример: офис 60 человек, VoIP телефоны у каждого + 4 конференц комнтаы, 15 принтеров (3 из которых общего польнования), пачка wifi точек по офису, видеоборудование. Не сложно догадаться, что есть точка всей этой сети, где это всё хозяйство должно собраться. Место не нужно? Даже самая маленькая стоечка не нужна? А куда сканы складывать от сканеров общего пользования? А пользователям обмениваться файлами, что бы лишний раз не грузить интернет канал (он знаете ли не безграничный), да и в целом не зависеть от доступа в интернет?
Вот то, что я описываю — это самый обычный клерко-офис. Программистов нет ни одного. И вот есть деятель «сложить всё в облака» в итоге сложили, а теперь выясняется, что без внутренней инфраструктуры пусть даже в её минимальном варианте жить как-то сложно. Управлять компьютерами пользователей без AD сложно, а Azure AD стоит ваще-то конских денег, 12.5 долларов в месяц / 1 пользователей и так далее и тому подобное. Поэтому я пока не могу себе представить (исходя из реальной эксплуатации в эту секунду) как полностью вывалиться в облака и нужно ли это вообще.
Да, есть преимущество — масштабируемость ресурсов в пару щелчков мыши. Что для разработчиков может быть очень актуально. Но нужно ли это для клерко-офиса?
Зачастую в нашей необъятной стране доступ к широкой полосе ограничен, крупные города — не исключение, к примеру промышленные зоны.
БД накорячил сейчас в облако, пока тестирую на пользователях задержку, но в запасе держу план по быстрой миграции в офис
Прикладное ПО, как оказалось… эксплуатировать через RemoteApp — это дорого и больно.
По-моему личному мнению — облака это хорошо, но взять и отдаться им беспамятства есть сущее безумие и безответственность к бизнесу компании.
И кстати, мне тут приводили аргумент, мол «там спецы в любом случае лучше, если что-то случится». Лучше, без проблем. У Гугл Клаудс минимальная поддержка стоит $300/monthly, так что может она и лучше, но кусаеЦЦо.
Чем больше штат и направлений деятельности у предприятия, тем больше сервисов прикручено к железу, тем выше требования к отказоустойчивости. И каждая минута простоя может стоить от нескольких тысяч до сотен тысяч рублей.
В этом случае удобнее обслуживать серверную внутри своей IT структуры. Где, помимо всего прочего, десятки десктопов/лэптопов и прочей сетевой обвязки.
… стоит оставлять интервалы в 1U для того чтобы обеспечить дополнительный поток воздуха.
Извините но, что за чуш?
Дополнительный поток воздуха между чем и чем?
Вендоры «заставляют» все промежутки между оборудованием заполнять заглушками, именно для того чтобы был «правильный» поток воздуха, и если вы будете сертифицироваться — нужно отвечать на такие вопросы правильно ;-)
1) Стойки это стойки. Стойки не могут быть звукопоглощающими по определению. Стойки бывают однорамные и двухрамные. Все что с панелями и «звукопоглощением» это ШКАФЫ.
2) Стойки и шкафы бывают не только 19", есть еще 23".
3) Когда покупаешь шкаф мерять нужно не только войдет ли юнитовый сервер в раму, но и полное расстояние от дверей потому что сервер то войдет, а провода уже нет. Большинство шкафов позволяют выставить раму под нужную глубину, но при этом имеют фиксированную глубину по дверям.
4) Ни о каком Dell/HP начинающим серверостроителям даже думать не надо. Это пустая трата денег. Ваш выбор только Supermicro. Выбирайте мат.платы с IPMI.
5) В юнитовых серверах ровно также скапливается пыль, они точно также подвержены воздействию со стороны и т.д.
6) Если вы молодая компания даже не думайте вкладывать деньги в rackmount и т.д. Покупайте Supermicro в тауерах и superquiet шасси. Если вам в конце концов приспичит — это легко засовывается в стойку или шкаф, большие корпуса имеют опционально шасси для преобразования в рэкмаунт.
7) Если вы доросли до шкафа и юнитовых серверов — покупайте PDU, кабельные органайзеры, мешок velcro, заглушки (бывают сразу на много юнитов), мешок болтов, и хотябы градусник/snmp модуль в UPS. Если сервера без IPMI(iDRAC/inSight) покупайте еще IP KVM.
8) Полки для клавиатуры колхоз из прошлого.
9) Не думайте об охлаждении если купили сервера. Думайте об ЭЛЕКТРОСНАБЖЕНИИ. Хороший UPS сопоставим по цене с сервером, а от перегрева большинство серверов защищено аппаратно.
10) Шкафы бывают антивандальными. При острой необходимости оборудование можно размещать в общедоступных местах.
11) Самый дешевый способ маркировки — фломастер.
12) «Поэтому не стоит заполнять полноформатную полку 42U оборудованием 1U до отказа, поскольку это создаст путаницу из кабелей и затруднит вентиляцию оборудования.» Вы датацентр хоть раз видели? Они именно так и делают. 48U заполняют 1U оборудованием до отказа. Именно для этого стойки и шкафы и предназначены.
13) «Стойки немного дороже напольных и не-стоечных аналогов, но с установленными в них серверами проще работать.» вы пробовали обслужить 1U сервер не на выдвижных салазках прикрученный в стойке? Тауер — со своим снял боковую крышку просто рай для обслуживания.
14) «Лучший способ управлять всеми проводами — использовать патч-панель (коммутационная панель) RJ-45 для Ethernet. Типичная патч-панель устанавливается в пространство 1U для обслуживания 24 портов. Использование патч-порта предполагает немного работы руками — протягивание кабеля к патч-панели, встраивание их в устройство, а также использование тест-устройства для проверки соединения. Если бюджет позволяет, можно нанять специалиста, который сделает всю работу меньше, чем за день.» А лучше купите кроновский пистолет и посмотрите видео на youtube.
15) Не слушайте никого
извините, мне лень продолжать
Ни о каком Dell/HP начинающим серверостроителям даже думать не надо.
Зависит от специфики, когда мало серверов с ответственными задачами tier 1 выручат быстрой квалифицированной поддержкой и простотой обслуживания. С траблшутингом Микры, Интела и Кванты всё не так гладко даже у «местных вендоров», а тариф на четырёхчасовой ремонт у них дороже контрактов IBM.
У разработчиков — другое дело, им нужно много максимально дешевых железок.
2) SLA c 4мя часами dell и hp тоже не дают просто так и бесплатно.
3) В чем проявляется простота обслуживания у брендов которая недостижимая на supermicro?
Теперь о преимуществах Supermicro над dell/hp/lenovo(ibm)/cisco и т.д.:
1) У supermicro адекватная цена. «крутые» бренды продают свое железо с дикой наценкой абсолютно без каких либо на то причин. Можно резервировать железо по принципу n+1 просто покупая supermicro вместо «тируанов» и экономить.
2) У supermicro нет vendor-lock-in. «крутые» бренды прописывают ID устройств в bios/efi, лепят кастомные сокеты под процессоры, кастомные прошивки hdd/sdd. В общем делают вашу жизнь яркой и насыщенной при любой попытке изменить конфигурацию.
3) У supermicro бесплатный IPMI. Цена лицензий на iDRAC/iLO неимоверно радует и соизмерима с ценой Windows.
Вся эта суета вокруг больших вендоров раздута только на мифе «они крутые» «у них надежнее» «у них качественней» и т.д. По факту это железо выпускается на одних и тех же заводах foxconn/quisda и т.д.
Для маленьких компаний все эти мифы про надежность и суппорт не работают ВООБЩЕ. Вас просто обдерут как липку.
Индусы level1, Индусы level2 и т.д… За 12 лет никакой помощи кроме «присылайте на замену», «попробуйте обновить»
Не знаю с какими индусами вам приходилось иметь дело, но меня русскоязычная поддержка Dell и IBM пока не разочаровывала.
В чем проявляется простота обслуживания у брендов которая недостижимая на supermicro?
Обновления прошивок, драйверов и дистрибутивов ESXi. Стандартизация запчастей и хоть какая-то гарантия совместимости с ПО. База знаний и статистика по неполадкам у поддержки, благодаря десяткам тысяч проданных серверов (чего очень не хватает местным сборщикам), плюс готовность отвечать на тупые вопросы.
К SMC нужен ЗИП и специалисты, а в мелких компаниях с ними беда. Это называется непрофильная деятельность, которую бизнес старается отдать подрядчикам.


Внизу находился нагнетательный вентилятор с фильтром. Включался при температуре выше 25С. Нагнетал отфильтрованный воздух внутрь шкафа, т.е. шкаф был под небольшим давлением (по танковому принципу). Воздух охлаждал всё железо и уходил через вентиляционные отверстия вверху на задней стенке шкафа-сейфа. Датчик температуры находился чуть выше монитора. Таким образом поддерживалась температура и не допускалась пыль внутрь шкафа. Так же ограничивался шум от сервера. SCSI диски тех времен всё-таки были шумноваты.
В самом помещении (4 кв.м) вверху находилась вытяжная вентиляционная решетка бизнес-центра. Там же был установлен датчик потока, который давал сигнал аварии, если центральная вытяжная система бизнес-центра вдруг по каким-то причинам переставала работать. Кроме этого была простейшая световая и звуковая сигнализация по перегреву или отсутствию электричества. Бумажная инструкция по типу «что делать» под всей этой «свето-музыкой» была наклеена на шкаф. Так же всё это мониторилось дистанционно. В штате сисадминов не было, т.к. была компания на аутсорсе, которая по-графику приезжала, проверяла состояние офисных компьютеров и самого сервера. Скидывала на ленту месячный бекап.
В самом офисе компании было своё автономное кондиционирование. Летом температура была в пределах 23С, зимой 21С. Поэтому шкаф с сервером «засасывал» для своих нужд приемлемую температуру.
Какой самый простой способ разметить серверную инфраструктуру? Купить маркировочный принтер.
Вы серьезно? Самый простой? Купить маркировочный принтер?
Админ (А): Нужен маркировочный принтер
Директор (Д): Это что такое?
А: Это такая штука которая печатает наклейки.
Д: Для чего?
А: На кабеля бумажки с IP наклеить, на сервера…
Д: Он что-то еще умеет, кроме наклеек печатать? Где мы его еще сможем применить? Как часто вам придется им пользоваться?
А: Ммм…
Д: Сколько стоит?
А: Я смотрел на я.маркете от 8000
Д:
1. Скотч + ножницы + бумага + принтер.
2. Ножницы + бумага для наклеек + принтер.
3. Малярный скотч + ручка
Вы уверенны в своем утверждении про самый простой способ?
См. Brother P-Touch.
Помимо маркировки кабелей, принтер может работать на благо инвентарных объектов: наклейка плотная, не стираемая и вследствие этого долговечная, в отличие от дедовского способа «Ножницы/бумага/скотч».
Директора выбирают порядок и долгосрочную перспективу.
В данном случае бизнес не уверен в своих вложениях на перспективу и таких всё больше — все экономят.
Но есть и другие непечальные истории, но уже не так часто.
Как сделать серверную комнату своими руками