подставы нет, карта рассчитана на любителей хорошо поиграть и поработать на своей рабочей станции. не все задачи можно разнести на несколько гпу, вот и одна мощная часто полезнее чем пара попроще.
там одно предложение в самом начале. в вольном переводе дрова для игровой линейки нельзя использовать на системах установленных в датацентрах и удалённых локациях вне места, откуда работает оператор за исключением работ с блокчейн.
у нас огромный опыт эксплуатации такого и всякого. ни разу не видел сломанную турбину, а запасных вентиляторов для радеонов и прочих подобных карт на алике ящиками брали. иногда долго работает, а обычно перестаёт крутиться или разбивает за полгода примерно
если их можно поставить не-интерактивно, то без проблем. если инсталятор ручной, то будет не просто. но всегда есть вариант поставить все что надо заранее и разливать уже готовый образ с незначительными модификациями
да так же, import foreign config. Если повезет, то все заводится. Но серверов с аппаратным рэйд и их зоопарком все меньше и меньше. у нас остались только Megaraid в эксплуатации, но заказов новых почти нет - прошла, закончилась эпоха.
А так очень дорого. Надо все свое делать и кучу rnd изобретать. Плавали - знаем :) проще найти уже отбившийся цод и в нем взять машзал или корридор. Плюс-минус те же косты и никакого обслуживания с нашей стороны. Подобные решения себе разве что хетзнер и ovh могут позволить, порог входа тысяч 100 машин в одной точке что бы это имело осознанный смысл. Грубо- вы уже не можете найти себе ЦОД, вам в любом случае его строить.
А что делать-то? Сервера ломаются и наши и ibm и hp и dell и все другие. Сложная электроника, ничего не поделаешь. Хорошо что это происходит редко.
Обычно клиенту ничего делать не надо, максимум МАС адреса в конфиге поправить и убедиться что все завелась. Именно в этом центральный повод аренды, все это не головняк клиента.
Не, плохая идея. Очень плохая. Построить приличный ЦОД потребует минимум 15000 евро на стойку без учёта стоимости недвижимости. С учётом стоимости денег только проценты по затратам на цод из 100 стоек составят 150000 в год. На круг выйдет что-то типа 300-400 евро на стойку в месяц без электричества. Но в обычном коммерческом крупном ЦОД без розницы можно взять стойко-место за те же деньги. И вся это возня с обслуживанием больше не твой головняк :)
Неа. В ЦОД по стандарту Тиер3 лучи питания не должны нигде пересекаться кроме ввода. Это приводит к тому что ЦОД не гарантирует что электричество будет на обеих вводах, но на круг это даёт .999 в год. А хоть что-то стоящее в разрезе при сгорании сразу хорошо если .9 за год получится.
Там ставится пластинка с двумя гибами, приклепывается к корпусу снизу и фиксирует хвостовик у сервера. Я сомневаюсь что кто-то из уважаемых читателей будет этим заниматься.
На парке в 5000+ активных особей с возрастом от 0 до 12 лет и общем поголовье прошедшем через наши руки тысяч в 10 - на складе скапливается много тушек. Иногда штатный блок слишком слабый, его проще заменить на более мощный. Иногда на нем недостаточно выходов питания. Не знаю как у других коллег по цеху, а у нас есть целый стеллаж с такими корпусами.
Бывает. Это все сложная электроника, её работа не зависит от владельца - найти путем последовательной замены дающий сбой компонент обычно можно. Мы не делаем это на сданном сервере, даём замену и потом инженеры инфраструктуры разбираются что это было.
1) им запретили так делать
2) нет, их нет в продаже
3) конечно
подставы нет, карта рассчитана на любителей хорошо поиграть и поработать на своей рабочей станции. не все задачи можно разнести на несколько гпу, вот и одна мощная часто полезнее чем пара попроще.
там одно предложение в самом начале. в вольном переводе дрова для игровой линейки нельзя использовать на системах установленных в датацентрах и удалённых локациях вне места, откуда работает оператор за исключением работ с блокчейн.
на картинке норм, да вот на складах нет. нвидиа явно запретила делать такие корпуса своим партнёрам
у нас огромный опыт эксплуатации такого и всякого. ни разу не видел сломанную турбину, а запасных вентиляторов для радеонов и прочих подобных карт на алике ящиками брали. иногда долго работает, а обычно перестаёт крутиться или разбивает за полгода примерно
есть разные варианты использования, несколько не наш случай с нейросетями и транскодингом
если их можно поставить не-интерактивно, то без проблем. если инсталятор ручной, то будет не просто. но всегда есть вариант поставить все что надо заранее и разливать уже готовый образ с незначительными модификациями
HBA адаптер называется, он просто отдаёт диски как они есть. У Broadcom это lsi 9200, 9300, 9400 и т.п. иногда приходится повозиться, да.
да так же, import foreign config. Если повезет, то все заводится. Но серверов с аппаратным рэйд и их зоопарком все меньше и меньше. у нас остались только Megaraid в эксплуатации, но заказов новых почти нет - прошла, закончилась эпоха.
А так очень дорого. Надо все свое делать и кучу rnd изобретать. Плавали - знаем :) проще найти уже отбившийся цод и в нем взять машзал или корридор. Плюс-минус те же косты и никакого обслуживания с нашей стороны. Подобные решения себе разве что хетзнер и ovh могут позволить, порог входа тысяч 100 машин в одной точке что бы это имело осознанный смысл. Грубо- вы уже не можете найти себе ЦОД, вам в любом случае его строить.
Диски выпускают щупальцы и ползут в подменный сервер. Там в него заползают и присасываются изнутри
Это если софт позволяет иметь сервера в разных цод и админы одобряют
А что делать-то? Сервера ломаются и наши и ibm и hp и dell и все другие. Сложная электроника, ничего не поделаешь. Хорошо что это происходит редко.
Обычно клиенту ничего делать не надо, максимум МАС адреса в конфиге поправить и убедиться что все завелась. Именно в этом центральный повод аренды, все это не головняк клиента.
Не, плохая идея. Очень плохая. Построить приличный ЦОД потребует минимум 15000 евро на стойку без учёта стоимости недвижимости. С учётом стоимости денег только проценты по затратам на цод из 100 стоек составят 150000 в год. На круг выйдет что-то типа 300-400 евро на стойку в месяц без электричества. Но в обычном коммерческом крупном ЦОД без розницы можно взять стойко-место за те же деньги. И вся это возня с обслуживанием больше не твой головняк :)
Тысяч 5 примерно на круг в стойках и рядом
Они не влезут парой в стандартный корпус с АТХ матерью для начала.
Неа. В ЦОД по стандарту Тиер3 лучи питания не должны нигде пересекаться кроме ввода. Это приводит к тому что ЦОД не гарантирует что электричество будет на обеих вводах, но на круг это даёт .999 в год. А хоть что-то стоящее в разрезе при сгорании сразу хорошо если .9 за год получится.
И матери дохнут, и процессоры и память. Не так часто, но ящик с дохлыми матерями регулярно обновляется.
Там ставится пластинка с двумя гибами, приклепывается к корпусу снизу и фиксирует хвостовик у сервера. Я сомневаюсь что кто-то из уважаемых читателей будет этим заниматься.
На парке в 5000+ активных особей с возрастом от 0 до 12 лет и общем поголовье прошедшем через наши руки тысяч в 10 - на складе скапливается много тушек. Иногда штатный блок слишком слабый, его проще заменить на более мощный. Иногда на нем недостаточно выходов питания. Не знаю как у других коллег по цеху, а у нас есть целый стеллаж с такими корпусами.
Бывает. Это все сложная электроника, её работа не зависит от владельца - найти путем последовательной замены дающий сбой компонент обычно можно. Мы не делаем это на сданном сервере, даём замену и потом инженеры инфраструктуры разбираются что это было.