Вопрос статьи — нафига?
Я ответил. Где-то разве я упомянул что поможет ориентироваться? С высоты 1000 метров вам часто приходиться пытаться понять где вы и как добраться до библиотеки?
Вам хотелось бы посмотреть на эйфелеву башню с высоты? А повращать-повращать, а потом тыкнуть мышкой и увидеть ссылку на википедию? (ну там конечно кроме этого ещё будет реклама, но это не принципиально сейчас).
Спутниковой пользуюсь иногда, чтобы на незнакомой местности приблизительно понять как там дома будут выглядеть.
3D информативее. Собственно всё.
Ну как я вижу — это разный уровень детализации.
Streetview — на уровне домов. 3D — на уровне города. В дальнейшем это всё будет как часть одной общей системы. Как-то так.
Для этого нужен будет второй компьютер, в который добавить диск и посчитать хэш. Поскольку при загрузке с этого же диска хэш уже не будет совпадать (как минимум, логи же пишутся).
Специально будете покупать Windows, чтобы посчитать хэши для линуксовых серверов, когда их будут забирать? )
Рад, что начали показывать ЦОДы публике в гораздо большем масштабе чем ранее. Обычно на это всё банально не даётся одобрения со стороны служб безопасности. (да и в этом ролике по-чесноку показали лишь общие кадры и то пару раз их зациклили)
В очень многих случаях там есть чем похвастаться и сделать пиар компании-содержателю. Но блин… это ведь опасно даже рассказать что у тебя есть такое, не то чтобы показать! ))
К сожалению обычная практика в России — у каждой компании свой собственный дата-центр.
Тогда как на западе гораздо чаще используют продаваемые пространства общего большого дата-центра.
Причина проста… у нас ещё эта практика не развита, хотя есть как минимум М1.
Про охлаждение — системы рекуперации надо закладывать ещё на этапе проектирования, менять уже существующие ЦОДы — это гигантские затраты. Соответственно это станет стандартом ещё очень и очень не скоро… хотя идеи витают уже лет пять как минимум.
Спасибо. Действительно спасибо. Но я ожидал что это будет отражено в самой статье а не в комментариях.
Ответы на эти все вопросы действительно можно найти гуглом и поиском по ХПшному сайту.
Но смысл моих вопросов был не собственно в вопросах, а в желании чтобы если и писались профессиональные топики, то они были меньше рекламными и больше техническими.
Не в бровь а в глаз.
Тем не менее, если это не рекламная статья «тупо для вброса», то хотелось бы более подробного обзора.
В данном случае никакого отличия от маркетинговых статей не вижу.
1. Дали бы ссылку на офсайт с описанием продукта.
2. Какое максимальное количество драйвов в одном шкафу?
3. Давно ли механизм Automated Media Pool (AMP) стал новым? Мне казалось, логическое деление внутри библиотек было уже сделано достаточно давно у всех производителей.
4. Можно ссылку на анонс про второго робота?
5. Ваше сравнение с аналогами конкурентов IBM и SUN? (Я наверное требую невозможного, но тем не менее)
6. Что означает «установка в стандартные 19-дюймовые серверные стойки»? Поставка идёт не шкафами а отдельными блоками? Если да, то можно хотя бы парочку фото чтобы хотя бы приблизительно понять процесс?
ЗЫ: вопросы задаются не просто так — это именно профессиональный интерес.
Я ответил. Где-то разве я упомянул что поможет ориентироваться? С высоты 1000 метров вам часто приходиться пытаться понять где вы и как добраться до библиотеки?
Спутниковой пользуюсь иногда, чтобы на незнакомой местности приблизительно понять как там дома будут выглядеть.
3D информативее. Собственно всё.
Streetview — на уровне домов. 3D — на уровне города. В дальнейшем это всё будет как часть одной общей системы. Как-то так.
Сейчас это ещё не актуально, да.
напрмер как в скайсканнере
так что вариант другое.
Это не жёсткие диски. Это ленты.
IBM TS3500.
Не путайте людей. Диски «на горячую» меняются всегда только руками людей )
Специально будете покупать Windows, чтобы посчитать хэши для линуксовых серверов, когда их будут забирать? )
В очень многих случаях там есть чем похвастаться и сделать пиар компании-содержателю. Но блин… это ведь опасно даже рассказать что у тебя есть такое, не то чтобы показать! ))
К сожалению обычная практика в России — у каждой компании свой собственный дата-центр.
Тогда как на западе гораздо чаще используют продаваемые пространства общего большого дата-центра.
Причина проста… у нас ещё эта практика не развита, хотя есть как минимум М1.
Про охлаждение — системы рекуперации надо закладывать ещё на этапе проектирования, менять уже существующие ЦОДы — это гигантские затраты. Соответственно это станет стандартом ещё очень и очень не скоро… хотя идеи витают уже лет пять как минимум.
В Москве. В центре города.
спасибо вам в любом случае. И будем ждать более интересных статей от компании в будущем. )
Ответы на эти все вопросы действительно можно найти гуглом и поиском по ХПшному сайту.
Но смысл моих вопросов был не собственно в вопросах, а в желании чтобы если и писались профессиональные топики, то они были меньше рекламными и больше техническими.
Тем не менее, если это не рекламная статья «тупо для вброса», то хотелось бы более подробного обзора.
В данном случае никакого отличия от маркетинговых статей не вижу.
2. Какое максимальное количество драйвов в одном шкафу?
3. Давно ли механизм Automated Media Pool (AMP) стал новым? Мне казалось, логическое деление внутри библиотек было уже сделано достаточно давно у всех производителей.
4. Можно ссылку на анонс про второго робота?
5. Ваше сравнение с аналогами конкурентов IBM и SUN? (Я наверное требую невозможного, но тем не менее)
6. Что означает «установка в стандартные 19-дюймовые серверные стойки»? Поставка идёт не шкафами а отдельными блоками? Если да, то можно хотя бы парочку фото чтобы хотя бы приблизительно понять процесс?
ЗЫ: вопросы задаются не просто так — это именно профессиональный интерес.