Не, это что бы вы могли поставить сервер в приличный ЦОД без использования стоечного АВР. Иначе при первом же переключении сервер ребутнется, а замена блока по выходу из строя это очень редкое происшествие. Оно обычно происходит при включении машины, иногда при этом выбивает всю ПДУ или весь распредилительный щиток, если не повезет
Потому что что бы использовать два таких блока питания придётся сделать корпус самостоятельно. Проблема в том, что пролёт стойки в 450мм и ширина АТХ матери делают установку двух таких блоков рядом невозможной. У нас есть 2Ю конструктивы на 2 матери и ГПУ сервера в которые ставятся два таких блока, но про это я напишу в другой раз. Переходник очень простой, два раза гнутая железка с парой вырезов.
Там все хотсвопное, не надо придираться к этой супермикро - так она пошла работать дальше, а не отправилась в металлолом.
Если блок питания при этом надёжно фиксируется на месте (как например существенная часть компонентов в ноутбуках и прочей современной электроники), то на скорость и надёжность это не влияет. Влияет на последующую замену, тут чуть менее удобно его потом отдирать оттуда.
когда мы их в массе закупали, в наличии были в основном они и цена получалась выгоднее. Сейчас цена примерно одинаковая, но были 970 pro быстрее при прочих равных.
Новые закупки пойдут уже в 980 pro и Samsung PM9A1, они почти близнецы-братья.
М.2 стики практически не греются в серверах - они хорошо продуваются турбинами охлаждения и в самом ЦОД хороший температурный режим. Мы обычно используем Samsung 970 pro, в эксплуатации несколько сотен - никаких проблем с перегревом не наблюдаю многие годы.
С переходником проблема ставить, но 95% клиентов обходятся одним стиком нужного размера. Это не слишком актуальный вариант, хотя на складе всегда есть самые разные переходники и райзеры
вероятно смотря чем заниматься, а так рынок требует что бы все было свежее - иначе не продать. Но они пока обратно совместимы, это радует. Стик m2 не превратится в закладку =)
"Должен сказать, что в 1981 году я чувствовал, что обеспечиваю пользователей достаточным пространством на десять лет вперёд. Произошёл скачок от 64 Кб к 640 Кб, и казалось, что этой памяти хватит надолго. Как бы не так: всего через шесть лет люди ощутили реальный дефицит. " Б.Гейтс. Этот мобильный процессор еще не вышел, а эксплуатироваться будет до 30-х годов явно.
понятно что 8 лучше чем один. вопрос насколько лучше или хуже. Например если использовать Xeon E5-26xx то в целом разница была не столь существенная как там память стоит. А тут разница радикальная, что мы наглядно и показываем.
это еще не приступали к эксплуатации, это еще не пытались что-то освежить из этого зоопарка софта по отдельности, это еще из-за какого-то мелкого глюка весь этот кластер не рассыпался по частям на мелкие кусочки, которые надо склеивать руками неделю с полным простоем. Это еще не расходился цеф, на само-восставление которого потребуется несколько дней с полным простоем. Лучше далеко не отходите, не планируйте много на выходные, не пейте ничего алкогольного вечером - может придется срочно выезжать ночью.
это все теория. а практика такова что я подумывал так сделать имея собственный ЦОД на 1000 серверов с которыми я могу делать все что захочу, посмотрел детально что к чему и отказался от этой затеи. В том числе и по соображениям обслуживания, имя такой опыт с погружным охлаждением сотни машин.
по поводу "найти предприятие" - ну-ну, удачи. Придется все самим делать, начиная от покупки станков или в Китае заказывать. Ценник правда будет такой что все это будет абсолютно бессмысленно.
Осмотритесь вокруг - много в ЦОД жидкостных проектов? Ни одного не видно? Это не зря так.
я очень даже одобряю, просто это дорого и весьма специфическая ниша для гиперскэйл-хостеров или компаний калибра яндекс-гугл-... со своими ЦОД и суперкомпьютеров. Тут у нас есть некий компромис, который позволяет предложить этот вариант и обычным клиентам ЦОД
https://www.coolitsystems.com/ - точно? 100М баксов выручки в год на коленке с 20-и летней историей? Вы сейчас про каких профессионалов, если эти не профессионалы?
Не, это что бы вы могли поставить сервер в приличный ЦОД без использования стоечного АВР. Иначе при первом же переключении сервер ребутнется, а замена блока по выходу из строя это очень редкое происшествие. Оно обычно происходит при включении машины, иногда при этом выбивает всю ПДУ или весь распредилительный щиток, если не повезет
Потому что что бы использовать два таких блока питания придётся сделать корпус самостоятельно. Проблема в том, что пролёт стойки в 450мм и ширина АТХ матери делают установку двух таких блоков рядом невозможной. У нас есть 2Ю конструктивы на 2 матери и ГПУ сервера в которые ставятся два таких блока, но про это я напишу в другой раз. Переходник очень простой, два раза гнутая железка с парой вырезов.
Там все хотсвопное, не надо придираться к этой супермикро - так она пошла работать дальше, а не отправилась в металлолом.
геоблок наверное, но вот скриншот
Если блок питания при этом надёжно фиксируется на месте (как например существенная часть компонентов в ноутбуках и прочей современной электроники), то на скорость и надёжность это не влияет. Влияет на последующую замену, тут чуть менее удобно его потом отдирать оттуда.
в pm9a3 в них нет кэша и они в формате U.2, что не удобно и дороже. а так хорошие ссд, почему нет
когда мы их в массе закупали, в наличии были в основном они и цена получалась выгоднее. Сейчас цена примерно одинаковая, но были 970 pro быстрее при прочих равных.
Новые закупки пойдут уже в 980 pro и Samsung PM9A1, они почти близнецы-братья.
М.2 стики практически не греются в серверах - они хорошо продуваются турбинами охлаждения и в самом ЦОД хороший температурный режим. Мы обычно используем Samsung 970 pro, в эксплуатации несколько сотен - никаких проблем с перегревом не наблюдаю многие годы.
С переходником проблема ставить, но 95% клиентов обходятся одним стиком нужного размера. Это не слишком актуальный вариант, хотя на складе всегда есть самые разные переходники и райзеры
вероятно смотря чем заниматься, а так рынок требует что бы все было свежее - иначе не продать. Но они пока обратно совместимы, это радует. Стик m2 не превратится в закладку =)
"Должен сказать, что в 1981 году я чувствовал, что обеспечиваю пользователей достаточным пространством на десять лет вперёд. Произошёл скачок от 64 Кб к 640 Кб, и казалось, что этой памяти хватит надолго. Как бы не так: всего через шесть лет люди ощутили реальный дефицит. " Б.Гейтс.
Этот мобильный процессор еще не вышел, а эксплуатироваться будет до 30-х годов явно.
это теория, а практика она выше с картинками. Если Вы это знаете и вероятно пробовали, то не значит что остальным это не интересно.
Например после тестов мы убрали возможность заказа таких эпиков с меньше чем 128 памяти, надо минимум 8 планок что бы он работал сносно.
понятно что 8 лучше чем один. вопрос насколько лучше или хуже. Например если использовать Xeon E5-26xx то в целом разница была не столь существенная как там память стоит. А тут разница радикальная, что мы наглядно и показываем.
однако странная нагрузка. Если хотите - выдадим сервер, попробуете и опубликуем результаты. Готовы заняться?
это еще не приступали к эксплуатации, это еще не пытались что-то освежить из этого зоопарка софта по отдельности, это еще из-за какого-то мелкого глюка весь этот кластер не рассыпался по частям на мелкие кусочки, которые надо склеивать руками неделю с полным простоем. Это еще не расходился цеф, на само-восставление которого потребуется несколько дней с полным простоем. Лучше далеко не отходите, не планируйте много на выходные, не пейте ничего алкогольного вечером - может придется срочно выезжать ночью.
А под них (OpenCL) толком нет библиотек для МЛ
У меня вот такой набор был, год примерно 85-87
Любая простая подойдёт, та что в ноутбуке с cuda тоже. А так публика охотно берет 1080 старые например.
это все теория. а практика такова что я подумывал так сделать имея собственный ЦОД на 1000 серверов с которыми я могу делать все что захочу, посмотрел детально что к чему и отказался от этой затеи. В том числе и по соображениям обслуживания, имя такой опыт с погружным охлаждением сотни машин.
по поводу "найти предприятие" - ну-ну, удачи. Придется все самим делать, начиная от покупки станков или в Китае заказывать. Ценник правда будет такой что все это будет абсолютно бессмысленно.
Осмотритесь вокруг - много в ЦОД жидкостных проектов? Ни одного не видно? Это не зря так.
я очень даже одобряю, просто это дорого и весьма специфическая ниша для гиперскэйл-хостеров или компаний калибра яндекс-гугл-... со своими ЦОД и суперкомпьютеров. Тут у нас есть некий компромис, который позволяет предложить этот вариант и обычным клиентам ЦОД
такой наколеночный что ATOS поставляет свои кластеры/суперкомпьютеры по всему миру с их системой охлаждения.
https://www.coolitsystems.com/ - точно? 100М баксов выручки в год на коленке с 20-и летней историей? Вы сейчас про каких профессионалов, если эти не профессионалы?