• ЦОД на развалинах советской эпохи
    0
    Большая серверная. Тема пожаротушения не раскрыта, вероятно есть гидрант. Я думаю с таким оборудованием его оперативное применение это лишь вопрос недолгого времени, с GPU картами и ASIC — один плохо обжатый разъем и приехали. А так, сервера с такой вентиляцией испортятся за пару сезонов из-за черной грязи внутри.
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    0
    если кстати считать дальше, то можно очень четко понять сколько в себестоимость простых ЦОД добавляют батареи ИБП с сроком службы 3-5 лет и кондиционеры со сроком службы в 10 лет. Плюс, самое главное в РФ — цена денег в 20% годовых на вложенное.
    58 без НДС это дофига без сертификата, можно значит НДС торгануть. кВт по 7 это нормально, ведь надо же что-то заработать
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    0
    тут же не про маржинальность, а про все сопутствующее. Короче я вот про что, крупный ЦОД не будет бегать за одностоечными клиентами — ему не выгодно. Бывают исключения конечно, когда надо выбирать квоту по электричеству в формате «бери или плати» и берут всех с прицелом потом поднять цену, но чаще они работают от 5 стоек.
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    0
    1) тарифы МЭС как правило те же или даже выше.
    2) они хостеры, там будет ровно 4,5-5 — поверьте. Ориентироваться будут на автомат на вводе.
    3) розничные цены на рынке в Москве за 5кВт стойку в 2017 году с НДС:
    — говноцод без удобств — 35-45К
    — небольшой ЦОД в арендованом помещении без излишеств — 50-60К
    — приличный ЦОД средней руки в арендованом ОСЗ — 60-80К
    — сертифицированный ЦОД Тиер3 в своем здании- 80-100К
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    +1
    считаем на калькуляторе, 5 кВт стойка.
    электричество как обычно, возьмем 5р с НДС за кВт/ч — 5*24*30 *5= 18000р
    затраты на кондиционирование 30% в самом эффективном ЦОД, 23400р
    затрата на ИБП и прочие потери, +10% — 25700р
    итого, грубо 30000р прямых расходов только на электричество.
    Стойка и силовая обвязка в закупке стоят около 120К (хорошая стойка АРС + 2 ATS + 2 вертикальных PDU), предположим на год по 10000 в месяц.
    т.е. уже мы имеем 40К в месяц прямых затрат, без амортизации здания и оборудования, без ФОТ и прочего. А стойка сдается тысяч за 60 с НДС.
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    –1
    попробую описать как я себе это вижу из 15 летнего опыта работы с самыми разными ЦОД.
    1) в большом ЦОД высокого уровня всегда есть план размещения и техусловия. Их делают инженеры ЦОД, это занимает несколько дней. Подписать договор можно после согласования всех технических бумаг и коммерческих условий. Это примерно займет около месяца. В Европе и США — дольше. Может кто этого и не знает, но это до первого раза. Быстро бывает только в мелких лавочках, но это всегда в ущерб качеству — нельзя сделать мелкий ЦОД надежным за разумные деньги в пересчете на стойку.
    2) Не все деньги одинаково полезны. Быстро за полчаса сделать можно конечно, но не в ЦОД где 2000-3000 стоек и план работы у электриков расписан плотненько на пару недель — по существующим клиентам.
    3) Дело не в выходных, а в том что к выходным клиент оказался без согласованных бумаг и без разрешения на внос. Решать этот вопрос мимо регламента не позволяет большой сертификат и устав, на который нельзя класть. Если бы у клиента все бумаги были подготовлены и технические службы клиента делали это не в первый раз, результат был бы совсем другой. Они бы просто приехали с железом, разгрузились, описали его, подписали акты вноса и спокойно занялись бы монтажем. Но это требует аккуратной подготовки, без всяких эмоций — за пару недель стоит начинать.
    4) если клиенту надо быстро попадать в ЦОД, он просто вносится в списки на охране на круглосуточный доступ — четко по процедуре. Показывает паспорт и проходит дальше с карточкой. Та же фигня и с железками, есть четкая процедура — она позволяет в дальнейшем избежать недопонимания по имуществу и позволяет ЦОДу вести бухучет надележащим образом. Ведь по закону каждая ерундовина на территории предприятия должна быть в бухгалтерии помечена — поставлена на баланс или быть учтена на за-балансовых счетах. Если ЦОД позволяет таскать железо туда-сюда без бумаг — они НЕ ведут бухгалтерию как положено, нарушают закон — это может привести к отказу в обслуживании у клиента. У монетки две стороны.
    Я помню мне рассказывали поучительную историю — в ЦОД пришел присмотреться крупный иностранный клиент, а манагер что-то сказал охраннику и они пошли вовнутрь, не проверяя документы у потенциального клиента. После этого клиент немного походил, развернулся и ушел — насовсем. Как думаете почему? Правильно — если персонал кладет на регламент, то все остальное точно в таком же состоянии — не исключая инженерных систем и бухгалтерии.
    5) Датапро ничего не потерял, доход с нагруженной стойки тысяч 5-10р от силы в месяц. Ресурс ограниченный, она уйдет более подготовленным и аккуратно планирующим заказчикам. А еще более ограниченный ресурс у менеджеров, работать с неформатным заказчиком. Пустое стойко-место есть не просит, костов не генерит как мы знаем.

  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    –1
    я вообще не понимаю как можно чисто теоритически привезти оборудование без бумаг и без готовой, подключенной стойки. ДЦ работает по твердому регламенту, новых клиентов в выходные на запускают без предварительной проработки — это же не пивка в магазе взять. И если ДЦ работает по регламенту, то в выходные без бумаг не заезжают — но это так же значит что и кондиционеры в порядке и охрана работает как предполагается.
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    0
    т.е. я правильно понимаю что Ваша уважаемая компания начала переезжать в большой серьезный ЦОД, даже не подписав контракта и не подготовив площадку и не протестировав связь и оборудование? Сразу тащить туда живых клиентов? Мне вас жаль )
    У нас-то все с Датапро отлично, дело к 50 стойкам там идет — мы переезжали в 4 захода из двух ЦОД, все тщательно подготовив и объединив сети. Нас все устраивает, но всегда можно лучще. Нет ничего удивительного, что некоторые регламенты вноса/выноса сложны в исполнении и требуют тщательного исполнения, особенно когда речь идет про дорогостоящее оборудование.
  • Как выбрать дата-центр для ИТ-проекта в России: аптайм, деньги и общая адекватность
    0
    Есть нюанс, ребята заезжали в Датапро без подписанного даже договора, без собранного канала — просто вот так нахаляву привезли железки без оплаты, без бумаг и хотели их монтировать уже. Это просто подстава своих клиентов так поступать. Обычно сначала договор, стойки, кроссировки, тестовый прогон сети на неделю и потом плавный переезд по 5-6 серверов за раз.
  • Hurricane Electric: почему мы доверили наше оборудование этой компании
    0
    тот ЦОД что побольше я наблюдал лично — расположен в каком-то огромном здании-ангаре, там полный фрикулинг — кондиционеров нет, только вентиляция. Славен тем что там собирали видимо самолеты, а потом там была фабрика NeXT Стива Джобса. Прямо на берегу залива — всегда 20 градусов и сухо.
    HE славен очень низкими ценами на Интернет и очень плохой международной связанностью, по США может еще и норм, а вот чуть наружу уже будет непросто. Каждая такая голубенькая стоечка на 2,5Квт в пересчете на наши 220В.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    0
    тогда на цену ориентируйтесь, какая разница-то? регистровые по 12000р стоят — http://www.regard.ru/catalog/tovar199754.htm
  • Применение модулей LRDIMM в высокопроизводительных серверах
    0
    в ДДР4 на 32 есть только обычные регистровые, LR не бывает на такой размер.
  • ЦОД DataPro: системы охлаждения и пожаротушения
    0
    там двухконтурная система, водой орошаются мелкие пластиковые трубки через которые продувется воздух из машзалов. «накипь» к пластику не пристает и сразу отваливается. Соотвественно оборотная вода не поступает в машзалы. Гляньте еще раз схему, там воздух в замкнутом цикле ходит.
  • ЦОД с гарантией
    –2
    хм, любой путь к гуру начинается с послушания. Это начальная позиция, работая на которой, молодые люди учатся нормам, правилам и процедурам, принятым в нашей компании. Научившись выполнять нормы регламента, правильно вести себя в нештатных ситуациях и решив тысячи тикетов, установив 1000 серверов из самого разного железа, они получают вполне полное представление о происходящем.
    За 1-2 года они определяются какая из историй им более нравится и получают повышения — в NOC, в админы или в инфраструктурный департамент. На этом месте они перестают ходить в смену сутки/трое и их зарплата вырастает примерно в два раза от указанной суммы при работе на полный день. Через некоторое время они начинают получать выше рынка и растут вместе с компанией.
    Работая сутки/трое многие из ребят имеют вторую работу или приносящее деньги ремесло, типа студийной фотосъемки или традиционных админских промыслов по 1С и т.п. На круг выходит выше рынка.
    Это если вкратце.
    А сама вакансия вот тут http://hh.ru/vacancy/15982957
    тут каждый сам для себя решает, сидеть в уютненьком офисе и админить себе потихоньку офисную сетку и пару серверов, беря иногда заказы на фрилансе в спокойном режиме или делать 15 разных инсталляций в день с частичной пересборкой серверов, включая их настройку и тестирование + траблшутинг по тикетам, возникающим с парка в 2000 машин по 5 площадкам.
  • ЦОД с гарантией
    –1
    там два ввода с оптикой с разных сторон здания в кабельной канализации МГТС. как упавшее дерево может повлиять на это?
  • [Анонс] Kingston представляет новые твердотельные диски с интерфейсом M.2 SATA G2
    0
    а переходник на PCIe будет в комплекте? а то в очень малое количество матерей можно вставить длинный М.2
  • HPE Smart Cache: а вы уже ускоряете?
    +1
    выглядит что просто вся база в 100Гб комфортно расположилась в SSD-кэше и тест выдал ровно метрики одного S3700. Имело бы смысл размер базы сделать раз в 10 больше чем SSD, тогда бы стало понятно на что способен хитрый алгоритм контроллера.
  • Тестируем российскую серверную платформу E-Class от «Т-Платформы»
    +2
    он и заказан — мать длинее самой длинной ee-atx на 20 сантиметров почти. Поэтому китайцы и удлинили корпус, оставив все остальное на своих местах. Обратите внимание на расположение блока питания и на платку слева от матери на фотки. Это никак не серийный корпус — OEM заказ на несколько тысяч штук.
  • Тестируем российскую серверную платформу E-Class от «Т-Платформы»
    +1
    два SATA разъема спереди матери — для использования этой матери в V-класс, там корзина на 10 матерей с 2 не-хотсвапными 2,5" дисками на самом лезвии. Сама мать унитарная для V и E класса.
  • Тестируем российскую серверную платформу E-Class от «Т-Платформы»
    +2
    все серверные матери на Интеловских чипсетах одинаковы как близнецы-братья (за исключением может быть брендовых матерей — ibm/hp/dell). Биос одинаковый, AMI. Код IPMI одинаковый — AMI. рефдизайн матери — одинаковый. дрова в ОС одинаковые. так что разницы не будет, все одинаково.
    Ребята тестят мать, а не дисковую подсистему дисковой полки или редкий рэйд-контроллер.
  • Рынок Виртуальных АТС умер
    +6
    все операторы из большой тройкой работают по СИП и прекрасно отдают/принимают все звонки в SIP + бесплатно дают ВАТС + дают конвергенцию на мобилки и корпоративные тарифы хоть на одну трубку. А если уж у клиента кол-центр, то в 2015 году никто по E1 подключать его не будет — все сразу будет по SIP/H.323 в неограниченном объеме, очередь выстроится из желающих.
    Рынок очень жесткий и не получится зарабабатывать на всех компонентах сразу. А такая возможность есть только у очень крупных телко, для которых маржинальнось конкретного клиента в текущий момент времени вопрос несущественный.
  • Samsung приступил к производству модулей памяти TSV DDR4 128 Gb для серверов
    +3
    для этого есть PCIe SSD — значительно дешевле выйдет. http://habrahabr.ru/company/hostkey/blog/271661/
  • Samsung приступил к производству модулей памяти TSV DDR4 128 Gb для серверов
    0
    благодарю, поправил — речь идет про открытый гигабитный порт с 10Тб трафика, уже включенными в цену сервера.
  • Samsung приступил к производству модулей памяти TSV DDR4 128 Gb для серверов
    +3
    что бы не быть голословным http://www.ixbt.com/news/hard/index.shtml?14/09/54
  • Samsung приступил к производству модулей памяти TSV DDR4 128 Gb для серверов
    +1
    на самом деле все крупные чипы памяти на планках от 16Гб и выше идут на этой технологии. Так что будущее уже тут =)
    а такие крупные — как увидим в продаже и по мере формирования спроса.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    0
    мы обычно считаем от другого. норматив звучит так — сколько памяти надо поставить на 12 ядерную машину что бы процессоры не были загруженны более чем на 50% в обычном режиме и сколько емкости на SSD дисках должно быть в ней. Сейчас это порядка 128-196Гб, около 80-90 виртуалок на ноде работают одновременно. Но это машины не одного клиента, по этому с производительностью по процессору все ровно. При перегрузках — живая миграция на менее занятую ноду.
    Есть еще продукт «виртуальные выделенные сервера», там через проксмокс мы просто режем 1 к 1. Но цена выходит уже другая за ядро.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    0
    да, на 20 ядер только ожидаются. Пока из наличия:
    Процессор Intel Xeon E5-2699 v3 OEM Socket 2011-3, 18-ядерный, 2300 МГц, Haswell-EP, Кэш L2 — 4608 Кб, Кэш L3 — 46080 Кб, 22 нм, 145 Вт за 340000р.
    Процессор Intel Xeon E5-2690 v3 OEM более доступен, Socket 2011-3, 12-ядерный, 2600 МГц, Haswell-EP, Кэш L2 — 3072 Кб, Кэш L3 — 30720 Кб, 22 нм, 135 Вт за 15000р
    Завтра кстати выдадим клиенту сервер с парой E5-2698v3, это 32 ядра. Его альтернатива была 4-х процессорная машина на Intel Xeon E5-4620 v2 OEM (Socket 2011, 8-ядерный, 2600 МГц, Ivy Bridge-EP, Кэш L2 — 2048 Кб, Кэш L3 — 20480 Кб, 22 нм, 95 Вт) за те же деньги. Вероятно клиенту нужно что-то рендерить.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    0
    память работает однако быстрее чем 16Гб планки вставленные в 16 слотовую мать — скорость выше или так же. почитайте статью выше, LRDIMM работают так же или быстрее на больших объемах.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    +4
    В нашем случае это виртуализация и 20 ядерные процессоры. У нас например метрика для KVM виртуалок 10 гиг памяти на физическое ядро. Т.е. если ставим 12 ядер, надо 128Гб памяти. Теперь мы можем поставить в тот же сервер 40 физических ядер и 512Гб памяти. Было 4 сервера, стал один. 3 сервера в минус — 90000р в год экономии только на услугах ЦОД… Или поставить один проц на 20 ядер и на нем сделать 256Гб памяти. выгодно и пользователям дешевле выходит.
  • Применение модулей LRDIMM в высокопроизводительных серверах
    +1
    сейчас есть варианты с m.2 PCIe SSD, но если бюджет не проблема — то собрать сервер с 512Гб памяти и держать все индексы/справочники в ramdisk стало проще. раньше это было нетривиальной задачей на ксеонах серии Е5.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    на М.2 в его варианте с PCIe
    есть еще М.2 с SATA, там разницы не будет.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    +1
    давайте на пальцах. Вот диаграма чипсета стандартной матери .
    как из нее видно, вся дисковая подсистема встроенного чипсета подключена на 6Gb/s, т.е. искомые 600Мб в секунду. Не так важно сколько вы дисков туда воткнете, на круг будет всего 600Мб в секунду.
    А PCIe SSD втыкается на 4 линии прямиком в PCIe, каждая по 500Мб в секунду — итого 2Гб в секунду.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    так цимес в том что они не без SATA/SAS идут. а рэйд на матери это просто надстройка над sas/sata контроллером — ничего более. на PCIe SSD можно рэйд поднять, но в ОС — просто как блочное устройство.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    этот диск не совсем для домашнего использования. транскодирование, сапр, бигдата, справочники баз данных, индексы БД — все те места где альтенатива рамдиск или рэйд из ССД на кучу дисков. а дома я не вижу применения, только если уж хардкорно гамать и вопрос денег второстепенен =)
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    есть некоторые применения где альтернатива еще дороже, а это оказывается очень даже недорого.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    думаю быстрее проваливается, не нужна буферная память в таком объеме — нет узкого горлышка SATA3.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    это не так. вот сравним изделия одной группы — 256Гб 950 pro в регарде прямо сейчас 12860р, а 850 pro той же емкости 9900р. это не в два раза, на 20% примерно дороже.
  • Новый Samsung 950 Pro PCIe SSD: всё, что надо знать
    0
    как писали на Ананде, там не зря одна поверность платы пустая. Явно будет скоро заполненная, до 1Тб
  • Li-ion АКБ: еще один шаг к экономии
    0
    для этого мониторится температура в сборках, ток которой идет на каждую сборку и как они выглядят относительно соседей. Если что-то не так — все процессы по зарядке отключаются и контроллер дальше решает как быть дальше. Мы же не про батарейку для телефона сейчас, а про ИБП за 30К баксов.
  • Li-ion АКБ: еще один шаг к экономии
    0
    1) к сожалению видели, это очень тяжелое зрелище — перезаряд, раздувает и взрыв, причем самый натуральный — с осколками и серной кислотой облаком… особенно печально если это в одном помещении с серверами — у Мастерхоста я знаю был такой инцидент лет 5 назад. Еще слышали историю как рама с сотней АКБ перевернулась у при эксплуатации, что-то задели или перекосило. Это все очень печальные и дорогие истории. А истории когда в аккумуляторной из-за выхода из строя кондиционера за ночь стало 50 градусов и заметили это не сразу?

    Li-Po с защитой батарейки могут загореться теоритически если их разрушить. Это не Тесла, которой физически разорвало отсек с АКБ и нарушило их целостность, отчего случился пожар.

    2) там используются самые что ни на есть стандарные элементы Li-Ion — в магазине продаются. но из-за того что их надо очень точно подгонять по параметрам друг к другу эта идея не очень.

    3) 95% пользоватлей таких устройств на Винде, зачем им серийный порт? в 93 году все ИБП были на трансформаторах с КПД 70-80%, с 2005 примерно все на IGBT или на MOSFET что попроще и послабее, КПД превысил 90% под нагрузкой.