Pull to refresh

Comments 27

Молодцы, смотреть интересно, но ЦОД выглядит как-то не космично :) Чем-то напомнило обычный советский ВЦ.
Очень актуально. Молодцы. С нетерпением жду следующих серий.
Не время для экскурсий. Все на яндексе. )
вот какими должны быть статьи в блогах компаний
как мало нужно людям, оказывается!
Угу. Стараешься, пишешь, а на самом деле публике нужны картинки :)
«Хлеба и зрелищ», когда еще было сказано…
Хехе, NetApp детектед. Причем вроде даже еще дремучие 900-е их на ходу.

Красота то какая, ляпота ©

Стряхнул слезу и стараюсь больше к нам в серверную не заходить :(
Этот ЦОД для ИТ будет адом, когда что-то полетит в крупных масштабах…
а по сути практически ниче не показали. В дальнейшем ожидаем большего :)
Краткий, приятный обзор новых веяний в области организации ЦОД'ов. Хотя идеи рекуперации тепла и летают в воздухе, к сожалению внедряются слабовато.
Хостица надо в европе или штатах, а не в каких-то горожах на задворках восточной европы
Рад, что начали показывать ЦОДы публике в гораздо большем масштабе чем ранее. Обычно на это всё банально не даётся одобрения со стороны служб безопасности. (да и в этом ролике по-чесноку показали лишь общие кадры и то пару раз их зациклили)
В очень многих случаях там есть чем похвастаться и сделать пиар компании-содержателю. Но блин… это ведь опасно даже рассказать что у тебя есть такое, не то чтобы показать! ))
К сожалению обычная практика в России — у каждой компании свой собственный дата-центр.
Тогда как на западе гораздо чаще используют продаваемые пространства общего большого дата-центра.
Причина проста… у нас ещё эта практика не развита, хотя есть как минимум М1.
Про охлаждение — системы рекуперации надо закладывать ещё на этапе проектирования, менять уже существующие ЦОДы — это гигантские затраты. Соответственно это станет стандартом ещё очень и очень не скоро… хотя идеи витают уже лет пять как минимум.
Он там в обычной обуви и без комбеза, а как же пыль и т.п.?
Это-ж ЦОД, а не цех по производству CPU где пылинка может стоить пары десятков тыщ зелени.
Обычный ЦОД. Скучно. Мясо где? Где КИШКИ РАСЧЛЕНЁНКА?
Где железо Intel? В кадре были HP и IBM. Антипиар какой-то =)
А еще EMC (Clariion) и NetApp FAS980 и FAS6200.
Обычно. А вот самое интересное, как ори рекуперацию тепла используют, было бы занятно посмотреть. Остальные технологии уже достаточно распространенные и известные всем (горячий/холодный коридор, охлаждение чилерами и продув через фальшпол, зимний режим системы охлаждения, N+1 во всей инженерке).
Кстати, про единую точку отказа… Дизель то один. Хотя, N+1 ставят крайне редко, это тот случай, когда поднять еще несколько десятичных знаков после запятой очень дорого.

Другими словами, хотелось бы посмотреть не на то, какой там порядок и как все правильно, а какие новые и нестандартные решения использует такой гигант, как Интел.
А вот hot и cold aisle у них оно название. Для полноценного hot/cold aisle потоки воздуха не должны смешиваться нигде и никак, хоть бы пластиковые занавеси повесили между стойками, сразу бы был эффект.
Думал приду на работу, покажу сотрудникам как надо строить ЦОДы.
Хотелось увидеть что-то новое в организации, какие-то серьезные серверные решения.

Возможно они и есть, но их просто не показали.
Но на первый взгляд обычный ЦОД, при чем в Киеве есть на 3кU, полностью забитые.

В общем обычный промышленный ЦОД, просто правильно построенный.
«Для России и континентальной Европы это самый крупный центр обработки данных». 1000 серверов это самый крупный ЦОД для Европы? Наверное, имелось в виду среди ЦОД'ов Intel'а?
Sign up to leave a comment.