Я информацию беру с системы питания стоек в реальном времени. 54хх серию мы уже давно не используем. В основном HP и IBM, все 2-x процессорные. Не знаю как они могут по 100W. Если 4 диска берут не меньше 50.
Мы видимо с вами разные сервера используем. Только пара Xeon это уже больше 120W не считая, вентиляторов охлаждения — 30-50W, дисков каждый из которых 12-17W, raid контроллер, материнка, память, КПД БП особенно когда их два и они работают на 30% мощности каждый.
У меня по мониторингу в среднем по палате сервер берет от 350 и выше.
В простой оптике вам туда стекло не вставят. Посмотрите на кривизну оправы. Есть несколько компаний которые производят линзы под спортивные оправы, но не факт, что даже они туда подойдут. Не знаю как на данный момент, но полгода назад спортивные линзы с работой стоили от 18 000 до 32 000 руб. без стоимости оправы. Кроме этого спортивные линзы гораздо более выпуклые чем обычные. Как глазки рыбы-телескопа :)
К сожалению никто не стремится подавать сигнал в пригород. Как правильно пишет ниже AndreyF Чем больше зона, тем больше периметр. А я как раз и живу на периметре.
Все верно, периодически падает скорость/отваливается, после перезагрузки восстанавливается. Пробовал сбрасывать скриптом, но потом от этого отказался. Часто после сброса не находился модем и связь не восстанавливалась, плюс невозможно было вывести закономерность когда надо сбрасывать. Иногда и неделю работал нормально, а иногда и полдня не проходило. Часто связь не пропадает окончательно, а держится на уровне несколько десятков килобит. Сейчас просто отключаю питание на 5 сек когда есть проблемы, он питается из дома и через отдельный автомат.
Я бы тоже сейчас использовал Keenetic 4G. Но и DIR не самый худший вариант (хотя я D-Link не люблю). 3 года на открытом воздухе от +40 до -35, в тонком пластиковом контейнере и еще работает.
> Получается, сервер Cisco UCS C200 можно использовать как отличную замену самосборным серверам, таким как Supermicro и т.д.
Обычно те кто сам собирает сервера, делают это в первую очередь по экономическим причинам. А назвать сервера Cisco эконом решением… И поставить их в один ряд с системами за 1000-2000$
В данном случае охлажденная вода берется не из чиллера, а непосредственно из моря. Температура которого градусов 8-10. Технология известна давно. Смотрите Free cooling. Правда чаще используют внешний холодный воздух.
>даже если дата-центр будет отрезан от внешнего мира, его энергетических ресурсов хватит на то, чтобы функционировать еще лет десять
Интересно, это как? Собственный ядерный реактор? В среднем сервер потребляет 300-500 w. Допустим 100 стоек (маленький датацентр) по 40U. 1000-2000 kW/h нормальный дизель, это 100 гр соляры на kW/h. Т.е 200л/час. За 10 лет, 17 520 000 л + охлаждение. Где они хранят 25 000 тонн дизеля, на 25 000 000$?
У меня по мониторингу в среднем по палате сервер берет от 350 и выше.
Я бы тоже сейчас использовал Keenetic 4G. Но и DIR не самый худший вариант (хотя я D-Link не люблю). 3 года на открытом воздухе от +40 до -35, в тонком пластиковом контейнере и еще работает.
Обычно те кто сам собирает сервера, делают это в первую очередь по экономическим причинам. А назвать сервера Cisco эконом решением… И поставить их в один ряд с системами за 1000-2000$
Интересно, это как? Собственный ядерный реактор? В среднем сервер потребляет 300-500 w. Допустим 100 стоек (маленький датацентр) по 40U. 1000-2000 kW/h нормальный дизель, это 100 гр соляры на kW/h. Т.е 200л/час. За 10 лет, 17 520 000 л + охлаждение. Где они хранят 25 000 тонн дизеля, на 25 000 000$?