All streams
Search
Write a publication
Pull to refresh
-1
0
Андрей Шац @a_shats

Инженер, пресэйл: серверы, СХД

Send message
>А если серьезно — такие цифры очень далеки от реальности. SSD не выдаст на 4k 300,000 iops'ов
Тут, я так понимаю, взяли цифры «с потолка», это да, обычная производительность для SAS/SATA 6G — это 500+ МБ/с и менее 100К IOps на чтение таким блоком.
Но есть реальные SSD (и SAS, и NVMe), которые выдают и более миллиона IOps, причем не только в синтетике.
https://www.hgst.com/ru/products/solid-state-solutions/ultrastar-ssd1600mm
Вот пример.
>Похоже, что слово «кэширование» существует еще с самого начала эпохи компьютеров.
Кэширование — это костыль, призванный сгладить разницу в производительности подсистем (в описанном в статье случае — дисковой подсистемы и ОЗУ). И существует он далеко не с «самого начала».
Я уже который год пытаюсь объяснить, что это выравнивание (наряду с «ручной» раскладкой нагрузки на диски и пр. подобными вещами) — оно давно уже перекочевало из вещей технических в область суеверий, потому как тестами это, как правило, подтвердить не удается.
>На любом жёстком диске или SSD первые 63 сектора по 512 байт зарезервированы для размещения файлов, которые создаются в процессе установки операционной системы или при выполнении операций управления дисками, а также с помощью специальных программ — менеджеров разделов жёсткого диска
Вот эта информация совсем чуть-чуть устарела. Не на десять лет, меньше, но около того.
Собственно, тот контроллер, что на жестком диске, представляет собой достаточно давно «черный ящик», транслирующий видение контроллера, к которому он подключен, в физику. С нынешними секторами в 4К или эмуляцией сектора в 512 байт — это уже всё совсем не так.
С SSD всё еще хуже — они, по сути, упрощенный вариант RAID-контроллера с накопителями и кэшем в одном корпусе.
В итоге результат такого «выравнивания» будет зависеть отнюдь не от воли администратора сервера, а от логики, причем с более, чем одним уровнем абстракции: уровень ОС — уровень дискового контроллера — накопитель. И при смене прошивки контроллера или диска, либо обновлении ОС можно вместо ожидаемых получить результаты весьма неожиданные.
И что, в отличие от более других (с) мест, неужели никто не проверил, что качает 127.0.0.1?
Насколько я понимаю — народ в их стойки эти серверы ставит )) Отсюда и это беспокойство по поводу.
Ну и сами, наверное, что-то предлагают.
NetRack не совсем перекупы, они хостеры, вообще-то :) И, видимо, тема обслуживания б/у серверов, которые отнюдь не всегда к ним заходят в хорошем состоянии, их ТП подзадолбала, раз они такое на Хабр написали.
А это в точности как с автомобилями — не было ли брака изначально, как эксплуатировали до попадания на вторичный рынок, разве что «сколько владельцев» вопрос уже не задать :) Или повезет — или нет.
Я-то это всё понимаю, но: все же писать вот так вот, что «не настолько надежно», не имея цифр и примеров (не единичных, разумеется — брак бывает у всех, включая брэндов 1 уровня) — не очень хорошо. По моему скромному мнению.
А что до требований к совместимости комплектующих — так они у всех есть, как и HCL — и у самой Супермикры, и у вендоров оборудования. И не одна Супермикра такое делает — этим занимаются еще много кто (ASUS, Tyan, Gigabyte и прочая, и прочая, и прочая).
Нормальный процент отказов по серверной отрасли — он 1% и менее.
Собственно, я и имел в виду, что Супермикра, как и подавляющее большинство вендоров серверного оборудования, в этот процент укладывается, без каких-либо аномалий.
Мимо этого высказывания про Супермикро пройти не смог.
>Однако по сравнению с «большой тройкой» эти серверы не настолько надежны: все же неспроста цена их в зависимости от конфигурации сервера ниже почти наполовину.
Что значит «не настолько надежны» в цифрах, конструктивных особенностях? В чем именно и насколько?
Что до техподдержки — для этого достаточно скромное знание английского (а иногда и гуглопереводчика хватает).
Отвечают они вполне оперативно.
>наглядно показано что в облаках не всегда стойки и сервера вылизаны как на маркетинговых фото.
Такие вещи и монтируются, и обслуживаются по принципу «чем быстрее и дешевле — тем лучше».
За всех, разумеется, сказать не могу — но многие хостеры и прочие владельцы ЦОДов с кучей серверов поступают схожим образом.
По кабелям: если какой-нито совет вдруг нужен — используйте для укладки патч-кордов
— кольца большого диаметра, относительно редко расположенные по высоте стойки
— патч-корды где-то до 60 шт. на стойку не жгутовать, больше — таки придется стягивать — но тогда надо прокладывать патч-корды «с запасом» процентов эдак в 50 и маркировать не только по концам, но и где-то посредине кабеля
— разумеется, питание и слаботочка — в разных рядах органайзеров
— коммутацию выносить в отдельные стойки

По поводу зоопарка — не думали унифицировать вот это вот всё, если большая часть всё-таки ваша? Этим же управлять в эксплуатации просто ужасно: у всех серверов свои интерфейсы управления (где-то IPMI/iDRAC/iLO/IMM и прочее, где-то нет и обходятся просто iKVM), все имеют свой набор spares и так далее.

По поводу дверей, куда пройдет в рост стойка: во-первых, брэнды первого уровня, эксплуатируемые у крупных заказчиков, имеют такой сервис — поставку стойкой в сборе и уже каблированной, во-вторых — есть чертовски большие и тяжелые штуки (всякие большие Power'ы, хай-энд СХД и прочие кошерные вещи), которые поставляются именно и только так. И которые в итоге у вас в ЦОДе разместить, скорее всего, не удастся.
Фото в статье — из серии «ад сисадмина», «я его слепила из того, что было» и пр.
За такое в тех самых компаниях, которые вроде как желают «улететь в облака», админов бьют канделябром, фигурально выражаясь.
Нет, я прекрасно понимаю, что если уложить кабели в стойке правильно — менять патч-корды быстро станет трудно. Видел уже подобное.
По жуткому серверному зоопарку — я правильно понимаю, что это сервера не ваши, а сторонних организаций?
Собственно, по применимости бомбоубежища под ЦОД — там самое главное «против» — это высота дверных проемов: стойку в сборе туда — выглядит, по крайней мере, может быть на фото размеры искажены — не затащить.
В разборе-да, но мне кажется, что такое отношение к кабельной прокладке может не понравиться хозяевам этой стойки.
Это в сильно редких ситуациях, КМК, есть возможность использовать дорогой (за объем) и ограниченный ресурс ОЗУ гораздо более разумным образом.
>Не на всех SSD хорошо работает TRIM если использовать RAID
В аппаратных RAID нет TRIM, там есть SCSI-команда UNMAP, она и используется. Уже писал в этой теме.
>Из практики, на E5-2637 1С будет быстрее отрабатывать транзакции, значит будет меньше шансов на блокировку.
Зависит от многих факторов, и в первую очередь — от количества активных пользовательских сессий.
Всё же 8/16 (с двумя процессорами) логических ядер маловато бывает — при всей их замечательной производительности.
>Если у вас действительно не будет хватать ядер, есть еще 2643.
У него цена несколько… не щадящая.
Но да, он разумнее.
>Пользователи меня чуть не убили, потому что новый сервер работал тупо медленнее почти в 2 раза
Ну, не в два. а в полтора :) Но да, есть такое дело.
Я почему и предлагал своими словами.
FYI: по умолчанию, в штатной схеме энергосбережения в Windows Server 2012 R2 TurboBoost включен.
В том-то и печаль, что мало того, что пихают в продакшн, так еще и людям рекомендуют.
Как бы местами даже серьезные франчайзи.
>При выставленном правильном режиме производительности на MS SQL результат должен быть в районе 25-30 на этом процессоре. Это один переключатель,
Будьте добры, аргументируйте пожалуйста вот это высказывание. Своими словами, если можно.
Вы исходите из целого ряда неверных предпосылок.
Во-первых, брали что было под руками свободное, скорее всего- производительность процессоров и их ядер как таковую в данном тесте ни с чем не сравнивали.
Сравнивали, если Вы не обратили внимание, варианты решения на разных программных платформах.
Во-вторых, E5-2637V4 будет производительнее, чем Е5-2670 отнюдь не в любых ситуациях, по вполне понятным причинам.
>Зачем из них RAID делать? Исходя из каких тестов и и результатов вы решили, что нужен RAID 10?
Вот по этим вопросам очень странно выглядит Ваш наезд. Если Вы не знаете, зачем в сервере базы данных RAID, почему именно RAID10 нужен под 1С — может быть, сначала сами для себя уточните этот вопрос?
Опять-таки, компания, представитель которой эту статью написал, не занимается массовой продажей тестовых стендов — а именно готовых решений.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity