company_banner

Оптика для дата центров. Новые веянья


    Медь как среда передачи сигналов все решительнее изгоняется из современных дата центров – ее характеристики совершенно не удовлетворяют требованиям сегодняшнего дня. На смену медным технологиям приходят оптические, однако приживаются лишь те, которые способны удовлетворять специфические потребности дата центров. Познакомимся со свежими новостями с переднего края борьбы за данные (или с данными – как смотреть). В этом посте: длинноволновый многомод, кремниевая фотоника, линзовые коннекторы, а также кое-что о сгибании оптических патч-кордов.


    Итак, медные линии обречены. Они потребляют слишком много энергии, слишком медленны и массивны. Медь, безусловно, еще уместна для офисной или домашней ЛВС, но в ЦОД ей уже не место. Там даже локальность теперь уже другая, не «медная». Посмотрим на размеры вводимых сейчас в эксплуатацию дата центров. Switch SuperNap в Лас-Вегасе – площадь почти 200 тысяч квадратных метров; ДЦ АНБ в Юте – 100 тысяч кв. м. Такие помещения в футбольных полях впору измерять, а не в метрах. И все эти поля пронизаны потоками трафика, которые несутся по линиям связи – естественно, оптическим.


    Дата центр Агентства национальной безопасности, построен в 2013 г.

    Исторически в ЦОД использовалась экономичная многомодовая оптика, однако с ростом их размеров и ее возможностей стало не хватать. Потери в многомодовом волокне при традиционной длине волны 850 нм слишком велики, чтобы решить проблему с помощью полумер. Оптимальным решением видится переход на 1310 нм – такой свет меньше рассеивается и в оптическом кабеле, и в кремниевых модулях сетевых адаптеров, активно разрабатываемых сейчас в Intel.



    Перейдя на волну 1310 нм, мы втрое увеличиваем дальнобойность многомодовой оптики. Естественно, любой кабель тут не подойдет. А подойдет не любой — например такой, который выпускает компания Corning. Форма сердцевины ее кабеля Corning ClearCurve оптимизирована под луч 1310 нм (в то же время она имеет стандартный диаметр 50 μм и совместима с 850 нм). Кроме того, у ClearCurve есть еще одна интересная особенность. Известно, что оптические кабели чувствительны к изгибу малого радиуса: «надлом» линии может легко вывести ее из рабочего состояния. Так вот, кабель ClearCurve в 10 раз менее чувствителен к загибу, что в условиях плотного кабельного монтажа в дата центрах весьма ценно.


    Затухание в стандартном многомодовом кабеле и кабеле Corning ClearCurve

    Intel и Corning совместно провели тестирование возможностей 1310 MMF технологии с использованием кремниевых сетевых адаптеров Intel Silicon Photonics и кабеля ClearCurve. Опыт показал, что при длине кабеля 300 м затухание составило всего 1 dB с учетом коннекторов. Для нужд дата центра таких характеристик вполне достаточно.


    Срез оптического кабеля под микроскопом

    Кстати, о коннекторах. Имевшие дело с оптикой, наверняка в курсе, что конечные разъемы – одно из главных слабых мест оптической линии. Качество торцевания, сила прижатия, чистота контакта – все это очень сильно влияет на производительность кабельной системы, что, конечно, беспокоит инженеров дата центров – проводов в их хозяйстве достаточно, а концов так еще в два раза больше. Можно ли принципиальным образом повысить надежность оптических соединений? Ответ положительный – например, с помощью коннектора МХС.


    Коннектор МХС

    Главное отличие МХС от других коннекторов состоит в том, что на конец проводника надевается коллимационная линза, расширяющая световой пучок с 50 микрон до 180. Расширение луча резко снижает чувствительность соединения к любым неблагоприятным факторам: геометрической нестыковке концов, погрешности шлифовки, попаданию посторонних частиц и так далее. Естественно, при этом уменьшается затухание на коннекторе и обратное отражение. Однако это еще не все.


    Коллимация лучей в разъеме МХС

    Повышенная допустимая «небрежность» при стыковке кабелей позволила разместить в одном коннекторе сразу несколько линий, и не 2 и не 10, а сразу 64. Нетрудно посчитать, например, что при скорости 25 Гбит/с на линию суммарная пропускная способность пучка составит 1,6 Тб/с – хватит для перемещения даже самых Больших Данных.

    Ну и, наконец, обещанная информация о разработках Intel в области кремниевой фотоники. Лучше один раз увидеть, чем сто раз услышать: просмотрите 5-минутное видео, включающее в себя выступление Джастина Раттнера на IDF этого года и небольшой фильм-демонстрацию 100-гигабитного кремниевого адаптера Intel.

    Intel
    217.56
    Company
    Share post

    Comments 27

      +6
      Медь как среда передачи сигналов все решительнее изгоняется из современных дата центров...


      Какая желтизна… И так далеко от реальности.
        +4
        В смысле — какие кабели желтые? :)
        А вообще это правда. Медь в новых больших ЦД осталась только на коротких интерконнектах, типа 10GBase-CX4 или пассивный Infiniband.
        Ну и в управляющих служебных сетях.
          +2
          10GBase-CX4

          SFP+ никто не отменял.

          Медь в новых больших ЦД осталась только на коротких интерконнектах

          И таких кабелей очень много — они в разы дешевле оптики.
            +1
            Какое отношение имеет типоразьём SFP+ к противопоставлению меди/оптики?
              +1
                +1
                Речь идёт про ЦД. Оптический QSFP кабель стоит в разы больше чем медный. SFP+ тоже самое. Когда расстояние больше 7 метров, кроме оптики выбора нет. Но на меньших расстояния медь никуда в ближайшее время не уйдёт.
                  0
                  «Оптический QSFP кабель»? Вы про LC одномод дуплекс?
                    0
                    Не LC.
                    QSFP
                      0
                      Так он стоит дорого только за счет оптических модулей. Возьмите их отдельно, они сейчас уже дешевые, можно найти по 3к за 10GBase-LR.
                        0
                        :)
                        1. QSFP 40GB не 10.
                        2. А теперь пробуем эти модули подключить, например, к Cisco или HP.
                          0
                          C HP не работал, а с Cisco все отлично работает(по крайней мере 10GE), даже китайские X2 и адаптеры x2/XFP
                            0
                            Мне кажется, что те, кто строят ЦД, не будут покупать китайские подделки.
                              0
                              Вы не поверите :)
                    0
                    Для меди нужны еще усилители/эквалайзеры электрических сигналов на печатной плате, и их как правило надо настраивать под разную длину кабеля. Для оптики усилители не нужны вовсе. Также медный кабель более массивный и занимает больше места. Цена конечно у меди ниже. Поэтому конечный пользователь выбирает между плюсами и минусами обеих технологий.
                      0
                      А в оптике тоже есть плата: с передатчиком и приёмником. QSFP и SFP+ без плат не делают.
            +2
            Оптические лучи в многомодовом кабеле — Вы бы постыдились, это же eye pattern.
            Лучше один раз увидеть, чем сто раз услышать — интереснее было бы datasheet почитать…
              0
              Оптические лучи в многомодовом кабеле — Вы бы постыдились, это же eye pattern.
              Ага, не то. Найду хорошую картинку — вставлю.

              Лучше один раз увидеть, чем сто раз услышать — интереснее было бы datasheet почитать…
              Вот на этой странице все, что Intel хочет нам рассказать о Silicon Photonics.
              –1
              Многомод не нужен.

              Я вообще не помню, когда последний раз работал с многомодовым кабелем.
                +1
                DWDM не нужен. Я с ним вообще никогда не работал :)
                  +1
                  DWDM — это не «in datacenter», точно. Не при текущих ценах.
                    0
                    Если честно, очень редко вижу одномод в дата центрах. Только в тех компаниях, где он заложен в стандарт архитектуры.
                      0
                      Могу сказать с точностью до наоборот. :) Почти везде жёлтые одномодовые провода и редко-редко где-то вкрапление оранжевого многомода. И сколько паял оптику — многомод не приходилось паять. Так что, видимо, у одномода и многомода достаточно разные сферы применения и в одних помещениях они почти не пересекаются.
                        0
                        Многомод весьма заметно дешевле, причём в первую очередь не за само волокно, а за SFP'шки, работающие с ним.
                0
                Естественно, при этом уменьшается затухание на коннекторе и обратное отражение

                За счет чего уменьшается обратное отражение?

                … при скорости 25 Гбит/с на линию...

                25 Гбит/с по многомоду? на какое расстояние?
                  +2
                  За счет чего уменьшается обратное отражение?
                  Насколько я понимаю, главным образом за счет криволинейности поверхности среза

                  25 Гбит/с по многомоду? на какое расстояние?
                  Тестировалось на 300 м, но при таком бюджете заведется и на больше.
                    0
                    криволинейная поверхность среза?? волокна? ну-ка, ну-ка поподробнее.
                  +1
                  Единственное преимущество многомода, это более дешевые трансиверы. Вот только проблема в том, что эти трансиверы как раз работают на длине 850нм (VCEL) и на малых расстояниях, а те которые на 1310 (DFB) стоят как раз уже существенно дороже. Вот и скажите, какой смысл использования многомодовой оптики, если можно брать одномодовую? Ведь многомод применяется только на short reach коннектах (сотни метров). А в сатитье прямой посыл 0 дата центры становятся больше, расстояния огромные, бла бла.
                  Ну ведь правда интересно, может быть есть какие-то нюансы? А в статье про это ни слова.

                  Only users with full accounts can post comments. Log in, please.