Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
начиная с моментальной сходимости (как только обнаружен сбойный участок
более интеллектуальном управлением ресурсами (нет необходимости в RSVP, с помощью которого резервируется ресурсы сети, а это всё-таки время)
более низким требованиям к мозгам отдельных устройств
и тому подобные плюшки
Ну одно дело передать пакет с информацией о новом потоке контроллеру и получить ответ, а другое дело ждать, пока каждый из маршрутизаторов на пути следования потока будет решать, сможет ли он выделить необходимые ресурсы, и пересылать RSVP пакеты дальше.
А в данный момент если у вас интеллектуальная сеть, то каждое устройство должно обладать не хилыми такими мозгами и поддерживать кучу фич.
попробуйте в него фуллвью влить и посмотреть, как он загнётся, так как пересылка пакета требует больших мозгов, нежели коммутация (которая выполняется на ASIC, поэтому и цпу мощный не нужен).
достаточно выполнить маршрутизацию для первого и единственного пакета из потока, после чего все остальные кадры, принадлежащие этому потоку будут коммутироваться теми же ASIC на всех устройствах сети на скорости порта.
в случае практического подтверждения всех характеристик, эти компании, а также Google готовы будут на нее перейти.
Cisco вообще начали разрабатывать отдельную платформу под Open Flow — Cisco One.
если все заявленные характеристики подтвердятся
Иначе коммутатор по защищенному каналу отправляет запрос на Центральный контроллер сети OpenFlow
прокладывать связи «каждый с каждым» на уровне L2, не прибегая к IP-маршрутизации
Но непосредственно управлять принятием решения нельзя – можно лишь конфигурировать контроллер, задавая определенные наборы правил и приоритетов.
Это позволяет оптимизировать продвижение пакетов данных, и, в частности, прокладывать связи «каждый с каждым» на уровне L2, не прибегая к IP-маршрутизации (рис. 2).
Протокол позволяет выделять IP-адрес на ограниченный период времени («время аренды») или до отказа клиента от адреса — в зависимости от того, что произойдет раньше. Это в какой-то мере решило проблему ограниченности IP адресов в сетях IPv4, но в результате появилась проблема другая проблема – назначение одинаковых IP адресов разному оборудованию в рамках одной сетевой инфраструктуры.
Можно для этого использовать 100 адресов, а можно 51
так что сомневающиеся в BGP ещё есть
И мне кажется в IT надо быть аккуратнее с фразой «Чушь какая-то…», особенно когда речь идёт об университетских исследования
А может действительно стоит прочитать эти жалкие 56 страниц
Лично у меня заявления о том как всё везде правильно должно быть настроено ассоциирутся только со следующим
А если этим занимается нечто, к которому вендор (кроме API) имеет мало отношения, кому конечный пользователь станет предъявлять претензии?
Количество сетевых адресов в новом протоколе IPv6 такое, что на 1 м2 поверхности Земли приходится 6,7*1023 адресов (фактически, это количество устройств, которое потенциально могут быть подключены к сетям).
Но про программную обработку — через ACL надо пропускать каждый фрейм
Или как в нем могут быть организованы системы — аналоги QoS или VLAN с централизацией и без потерь в производительности?
Но цена L3 коммутатора с ASIC весьма высокая.
При малой нагрузке и малых расстояниях передающих линий эта сеть наверняка обладает большим быстродействием и сходимостью.
Для падения линка — да, SDN будет реагировать медленнее. Но линки в современных сетях падают не слишком часто.
А вообще коммутация обрабатывается быстрее маршрутизации
В лабораторных условиях, где сервер находится недалеко от любого устройства, а коммутируемых потоков относительно немного.
Просто по моему мнению у SDN есть преимущества, но все они нивелируются при увеличении маштабов сети.
Для всего остального SDN тем более будет медленнее.
Включаю между двумя соседними железками BFD, и получаю время обнаружения аварии для любого классического протокола маршрутизации в 150-200мс (если не слишком закручивать гайки). UDLD для оптики будет быстрее.
С чего вы взяли?
(говоря об L3 свитчах)
Скучно.
Давайте в лабораторных условиях с каким-нибудь Spirent TestCenter. Который способен прожечь бекплейн примерно любого свитча, генерируя терабиты любого трафика с любыми характеристиками и выдавая детальную информацию о качестве передачи данных (включая время сходимости с точности до микросекунд).
То есть для ЦОДа не годятся. Для операторской сети — тоже. В мелких внедрениях запросто можно и софтовым роутером обойтись.
Так зачем же тогда нужен SDN?
Да, это преимущество. Но как часто падают линки в правильно построенных сетях?
Что проще — развернуть пакет, посмотреть инфу L2, обернуть пакет в новый L2 заголовок и переслать его или сначала вынуть L3 заголовок, обработать его, завернуть его в новый L2 заголовок и тоже переслать его?
Вы предлагаете нагрузочное тестирование лабораторных прототипов которые не существуют и двух лет?
Тем более, что за тот же Nexus создавали на существующей базе с проверенными наработками
а получается контроллер будет знать какой клиент с кем соединяется, значит проще следить за пользователями?
самому провайдеру эта информация не более чем статистика, а вот определенному кругу лиц она точно была бы интересна.
эта статистика в глобальных масштабах (теоретически) станет доступна кому то одному
что не отменяет коварного плана и замысла все централизовать у предполагаемого (надеюсь, вымышленного) узурпатора власти на Земле.
Вы понимаете, что глобальная маршрутизация по определению децентрализована?
Вы утверждаете это по отношению к SDN (на глобальном уровне контроллеры будет децентрализованы)?
про спецслужбы и паранойю я предпочту промолчать, ибо это оффтопик.
а обеспечить ровные задержки в распространении по столь широкой шине в кремнии — уже задача не тривиальная
Про ЦОД не могу сказать, там уже давно поселился Infiniband
кому надо тот уже все пароли знает
Программно-конфигурируемые сети — как это работает?