Как стать автором
Обновить
-1
0

Пользователь

Отправить сообщение
Я вот когда читаю такие сравнения где «pfSense, Zentyal, ClearOS, Vyatta, Zeroshell» и PC hardware это то же самое что Cisco/Juniper у меня улыбка прям до ушей :) Это все равно как сравнивать китайский компьютер в магазине и майнфрейм IBM. Стоит дешевле, запускает linux/windows, меньше енергии требует меньше :)
С таким отношением PayPal еще долго будет считать нас банановой республикой. :(
вру, 3, 5, 6, 7, Можно: 1, 2, 4, 8
Каждое шасси имеет по два Fabric Extender, с возможностью подключения 4 либо 8 10GB линками каждый.

Одним и двумя тоже можно, ограничение только на 3, 5 и 7.
Вот только многохоповый FCoE не работает с VPC. То есть если у вас Fabric Interconnect подключен к вышестоящему Nexus 5/7K по Virtual Port Channel то для FCoE придется городить отдельный PortChannel.
Стул с серийником/абонплатой: www.youtube.com/watch?v=vlXh8RvvcuI
После того как увидел фотографию Джобса и Цукерберга понял что текст можно не читать.
Открою вам секрет, в ssd дисках больших размеров используеться больше внутрених каналов и работают они быстрей. RAID только портит всю малину так как отключает функцию TRIM.
Direct Server Return Нормальный механизм. Видел имплементацию на OpenBSD где DSR раздает 10гигабит контента.
По***чил Спасибо! :)
Меня видео порадовало тем что тетенька дистанционным обучением занимается.
У меня в универе есть точно такой же «праффесар дистанционнист» который осваивает бюджет, ставки в лабораторию и компьютерную технику :)
Оооо да, я так в детстве в полутьме маленькую швейную машинку разбирал. :)
А что за сервера используются у вас для IBRN?
Никогда раньше не видел что бы корзины для дисков были и спереди и сзади :)
Даже после такой диковинки как Sun Fire X4500 где диски вертикально внутри корпуса, такое расположение кажется весьма интересным.
Я вот не совсем понял по поводу свободного места слева в SL165s G7. Судя по информации с ХП сервер действительно поддерживает 6 3.5 дисков, но глаз так и тянется в пустое место еще 4 диска дорисовать :)
Если использовать один сетевой адаптер то да, но если это что-то больше чем предоставление dedicated серверов то вам нужно будет два адаптера для WAN и NAS сети. По поводу ценника который вы озвучили хотелось бы, но сильно сомневаюсь что такое вообще реально.
По поводу больших свичей и экономию тоже не совсем все понятно будет, без калькулятора не обойтись :)

Как пример:
Если взять pass through interconnect модули для c7000 с double density лезвиями то мы получим 64 порта х3 корзины в стойке это будет 192 порта. Есть подозрение что стоимость пачь панели для того что бы свести все это в центр к чему-то многопортовому будет гораздо больше чем разница в стоимости между 1-2u коммутаторами и одним эквивалентом в виде чего-то большого и модульного.

Да и если вспомнить последнюю тенденцию с nexus которую продвигает cisco, когда в дата центрах используются top of the rack коммутаторы именно для того что бы сохранить расходы на патч панели и кабели. Идея с использованием нескольких дешевых 1u dlink'ов уже не кажется такой бредовой :)
Честно сказать не понял что вы хотели сказать. У c3000/7000 интерконект модули стоят сзади, как коммутатор который будет занимать еще 2-3 юнита будет повышать плотность этих серверов?

На мой взгляд в именно в стоимости и преимущество блоки питания тут наверно классом по ниже будут чем в блейдах, вместо interconnect какойнить dlink и диски подешевле. Отказоустойчивость на уровне софта. Вот это должно быть дешево :)
Поморгать можно и на двух транзисторах :)
Кто меньше? :)
голову в смысле
Один я подумал что при аварии водителю голову солнечными панелями отрежет? :)

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность