Pull to refresh

Comments 27

Подскажите пожалуйста, у вас на картинке DAC кабель. Можно ли им подключить сервер напрямую к коммутатору Cisco?
У меня на картинке так называемый breakout кабель 40G — 4x10G. Если же говорить про DA, скажем 10G, то да, подключить можно, но небольшой процент несовместимости все-таки существует.
Есть вопрос про WDM: а сколько всего таких каналов в одном волокне? Речь идёт о CWDM, DWDM или HDWDM?
Если сказать проще — используя существующие технологии — сколько можно засунуть одно волокно с той же модуляцией и шириной полосы, что и в 40/100G?
40G LR4 использует стандартную сетку частот, и добавить к одному 40G LR4 другой канал 40G LR4 простым пассивным мультиплексором не получится.
А с помощью относительно недорогих транспондеров — там обычные потоки 10G прямой модуляции, до 96 каналов шириной 50ГГц в одном волокне — то есть 9.6Тбит/с :)
Наверное всё-таки 10Gx96=0,96 Тбит/с?
И ещё один вопрос — мультимодные линии обладают очень маленькой дальностью связи и требуют большого количества жил. Их использование не позволяет говорить ни о какой «сохранности инвестиций».
Но почему все крупные вендоры, например, Cisco, считают что именно из ММ надо делать внутриобъектовые линии?
400 метров это мало? Более чем достаточно для одного здания, не говоря уж о серверной.
Большое количество жил? Одна на RX, вторая на TX. Куда уж меньше?
Здесь же в статье указано 150 м максимум и по одной жиле на каждые 10G — 1 MPO разъём требует нескольких линий. Каждые лишние 10G — +1 линия в каждую сторону. В то время, как одно волокно SM 10 лет назад работало на 100 Мбит/с, так и сегодня оно же 100 Гбит/с может потянуть, если было правильно уложено и разделано.
Это в каком стандарте одна жила на 40G и 400 м?
Cisco QSFP-40G-CSR4 (http://www.cisco.com/c/en/us/products/collateral/switches/nexus-9000-series-switches/datasheet-c78-730160.html)
400м.
Да и 150 метров это очень серьезное расстояние. В СКС на меди ограничиваются 90 метрами, и вроде всем хватает, а здесь в 1.5 раза больше расстояние.

По жилам я промахнулся, перепутал по инерции с 10G, извините.

Хотя Cisco может помочь вам сэкономить жилы с трансивером Cisco QSFP-40G-SR-BD
www.cisco.com/c/en/us/products/collateral/switches/nexus-9000-series-switches/white-paper-c11-729493.html
The Cisco QSFP BiDi transceiver, shown in Figure 2, transmits full-duplex 40-Gbps traffic over one dual-fiber LC-connector OM3 or OM4 MMF cable. It provides the capability to reuse 10-Gbps fiber infrastructure. In other words, it enables data center operators to upgrade to 40-Gbps connectivity without making any changes to the previous 10-Gbps fiber cable plant.
Угу, Cisco-то поможет и 400 м. и жилы сэкономить.
Но у них очень грамотный маркетинг: указанные вами трансиверы стоят дороже. И применительно к мультимодной линии встанет вопрос: на проще ли эти 150-400 м полностью поменять, чем покупать такие трансиверы.

И, кстати, я имел ввиду восновном перспективы. Скажем 10 лет. Вполне возможно, что скорости придётся увеличивать. И вряд ли захочется менять СКС.

Так вот, зачем эти все навороты и усложнения, если можно тупо строить на SM? Дороговизна лазеров SM в фирменных прайсах мягко говоря преувеличена именно желанием продавать MM-комплектующие.
Все так же чужие sfp работать не будут?
modinfo ixgbe:

parm: allow_unsupported_sfp:Allow unsupported and untested SFP+ modules on 82599-based adapters (uint
А у кого не линукса?
Со стороны производителя делать такие локи — это блядство, я щитаю.
А все Intel адаптеры «82599-based»?
Пока не встречал другого. Хотя и не присматривался.
Что-то вы не то говорите на тему «раньше интел выпускала карточки только с фиксированными портами». Я ещё в 2010ом писал патч на ixgbe, чтобы она жрала те SFP, какие дали, а не по белому листу. Потом этот параметр в модули добавили.

Я вообще не помню ни одной ixgbe-based сетевухи интела без SFP.
В каждой линейке 10G карт Intel были модели с дырками под SFP, но они позиционировались исключительно как DA медные карты. Типа, вот вам оптика, пользуйтесь, а вот DA для интерлинков. А кто в DA будет что непотребное совать — тот сам себе злобный буратино.
Вы мне какие-то сказки рассказываете.

первая попавшаяся сетевуха: Ethernet controller: Intel Corporation Ethernet Controller 10-Gigabit X540-AT2

С SFP.
Вот этот вот?
ark.intel.com/RU/products/60020/Intel-Ethernet-Controller-X540-AT2
Он медный, 10GBASE-T. Но это, в принципе не важно, есть там и с разъемами под SFP, но только для Direct Attach кабелей.
Это называется маркетинг. Ну или позиция компании, кому как больше нравится.
Просто для меня эта позиция очень внезапная и я первый раз такое слышу. Ссылки вижу, да, но как-то эта позиция очень вяло озвучена.

С другой стороны, нареканий на них никаких (кроме тех, что без кулеров — те могут перегреваться).
У нас есть две карты разных вендоров на Intel XL710, в том числе и Intel XL710-QDA2 с родным DA кабелем. И у обеих карт проблема: через какое-то время работы карта просто сбрасывает все коннекты на пару минут. И потом их возвращает. Пробовали 2 версии драйверов i40e — результат один и тот же. Проблема возникает не только у нас, но и у других крупных трафикогенераторов. Прокомментируйте, пожалуйста, как Intel собирается решать эту проблему?
К сожалению, подразделение сетевых карт далеко от нас во всех смыслах. Так что вы быстрее получите фидбек если обратитесь как клиент (тем более крупный) в службу поддержки.
А с SFP+? Просто интересно, DAC это
— для экстремалов и «экономных» облачных провайдеров. Ну подумаешь моргнуло, при таких-то ценах клиент переживет.
— для стоящих двухузловой кластер с однотипным железом
— это мейнстрим, у каждого второго половина серверной DA завешана.
Анатолий, с новыми драйверами тоже не получается завести на стабильную работу?
Мы в ожидании новой ревизии карт, очень уж хочется завести версию 4x 10GbE.
Sign up to leave a comment.