Как стать автором
Обновить

Комментарии 95

Спасибо!
Не хватает провайдера толкового =)
«эсэфпишка» или «gbic», обеспечивает преобразование электрических сигналов в световые

Не совсем это так, как и следует из текста ниже.
Вообще, в контексте статьи такого поверхностного представления о функциях SFP вполне достаточно, но соглашусь с вами в том смысле, что фразы «SFP преобразует электрические сигналы в световые» и «Есть SFP с портами RJ-45» без дополнительных пояснений очень странно смотрятся вместе.
> Твинакс – это медный кабель, соединяющий два SFP+ трансивера

трансиверы только в активных есть, а пассивных это просто сфп-разъём

> Для соединения 10-гигабитной Ethernet-карты c портом 10G SFP+… пара трансиверов MM SR, двухволоконный мультимод с LC-разъемами нужной длины.

До недавнего времени всю мелочь я тоже собирал на мультимоде/dac, но сейчас цены на одномод (не брендовый) практически сравнялись с мультимодом. А кабели/разъёмы на одномод дешевле и доступнее.

Так что перед покупкой стоит сравнить наличие и цены, может и SM будет лучше
трансиверы только в активных есть, а пассивных это просто сфп-разъём

А расскажите, пожалуйста, есть толк от коротких активных кабелей?
я не видел коротких активных кабелей, если честно.

длинные видел, но по сути это неразборный xcvr-оптика-xcvr, и проще (и часто дешевле) собрать на отдельных трансиверах и проводе нужной длины
P.S.:

>… Другой конец провода приходит в 8G FC трансивер, установленный в FC адаптер сервера. Мало того, что ошибка с типом оптики, так и вообще вся схема логически неверная. «Брат, что ты хотел сделать?» – «Поднять iSCSI.» Вот такая быль из цикла «админы шутят».

лол, а на первой картинке у нас что? ))

финисары на 10ге начинаются на ftlx, а ftlf — это как раз FC
а про 40G/100G будет?
… интернет… в квартиру… с собственноручным проведением кабеля от ближайшего узла маршрутизации города.
у меня нет квартиры :)
а вот из дома планирую уже все железки выселить в отдельно возведенную для них серверную…
и пока да — всего гигабит… но хочется чего-то большего… зачем апгрейдить на 1 шаг? лучше уж сразу на 2…
ну и да. не интернет. а скорость обмена между узлами сети
поэтому расстояния у меня маленькие :)
Если нет необходимости, то апгрейдить в два шага дешевле, чем сразу делать с запасом.
как ни странно, 18-20 лет назад так и было :)
У меня 40/56G Ethernet/Infiniband. Свитч 100$, HCA 50$. amarao по-моему, не очень дорого
Не знаю. Мне на кипрском интернете, что гигабит, что десять, что сорок — всё равно пинг за пределы острова не меньше 80мс.
А разница между 10G медью и оптикой на расстояниях меньше 300м есть вообще? Стоит ли заморачиваться со всеми этими SFP?
да, медь (которая 8P8C, а не твинакс, который тоже внезапно медь) жрёт больше, сетевухи дороже, и лейтенси у них конская (если это важно, конечно)
Ммм, а почему латенси вдруг зависит от типа кабеля?
на оптике меньше шумов, на меди чаще шумы и ретрансмиты.
На интерфейсе же показывается количество ошибок и ретрансмитов, сомневаюсь, что при нормальном линке там бывают цифры более одной ошибки в сутки.
это до л2 порта свитча исправляется, по сути. Т.е. чисто на физике, чипы именно физических портов.
При таких расстояниях оптика имеет огромное преимущество-нет наводки от молнии. По опыту некоторых знакомых-каждое лето сгорает хаб или сетевая карта. Так что оптика между зданиями-не каприз, а жизненная необходимость.

В нашей Солнечной Флориде, где летом сезон дождей, которые идут по три раза в день со всеми сопутствующими сценическими эффектами, у меня вылетало оборудование практически каждый год. Линия CAT-5 шла в трубе землей метров 100. Терять дорогй роутер было обидно, поэтому мы поставили оптику между дыркой в стене, откуда идет подземный кабель и раутер. 30 см. Помогло.


Теперь уже трeтий год собираемся проложить оптику вместо провода в земле, чтобы забыть об этих проблемах.

Вообще странно что молнии влияют на кабель, который в земле да ещё в трубе. Ну всякое бывает. Сейчас стоимость оптики такова что уже и нет смысла тянуть медь на большие расстояния. К тому же она и легче по весу.

Plastic conduit

Тогда понятно)
НЛО прилетело и опубликовало эту надпись здесь

Также стоить иметь ввиду, что direct attach cable и витая пара дают чуть большую задержку чем оптика, что может помешать интенсивным операциям, как при экспорте дисковых объемов

простите, а пассивный DAC какую задержку может вносить сверх физических лимитов?

скорость сигнала в меди примерно 2e8, скорость света в корнинге тоже примерно 2е8. Учитывая макс длину твинаксов, вся разница будет в пределах одной нано. Каким оборудованием вы её измерите?
И всё равно это фигня по сравнению с 200нс даже в самых дорогих cut-through свитчах.
> скорость сигнала в меди примерно 2e8, скорость света в корнинге тоже примерно 2е8.
Я могу ошибаться (не сталкивался с этим лет 10), но по-моему там идет разное кодирование сигнала, то есть у меди на каждый бит проходит больше импульсов
в DAC и оптике кодирование одинаковое (с точки зрения сетевухи, в среде очевидно разное), но.

а вот в витой паре другое, но не надо её мешать с DAC-ами.

P.S.: ссылка ниже, там норм инфа (DAC даже чуть быстрее, но незначительно)
В каком-то исследовании оптика была быстрее, а в другом DACи.
оптика быстрее была наверное по сравнению c 10Gbase-T а не твинаксами
На практике были случаи потери пакетов при использовании полуторометровых DAC-кабелей при соединении сетевая карта — маршрутизатор, в то время как полуметровые работали отлично или теже 1.5 метров между маршрутизаторами также отлично работали. Специалист из nag.ru объяснил это повышенным энергопотреблением DAC-кабелей, сетевая карта не вытягивала.
Прошу прощения, но вы так написали, что Трансивер, «в народе «эсэфпишка» или «gbic»» и я так понял, что как будто-бы одно и тоже. SFP выглядит: for-gsm.ru/publ/cifrovye_gadzhety/chto_takoe_sfp_transiver_i_zachem_on_nuzhen/3-1-0-2159

GBIC выглядит: ct-company.ru/catalog/cisco/Modul/100mbps-gbic/WS-G5487_.html

Разъемы для включения в коммутатор совсем разные. Я так лет 10 назад чуть не встрял с заказом SPF для Cisco 2980, которая «умеет» только GBIC. Поправьте меня если я не прав.
В общем-то, для этого и написал статью. Работал ранее в организации, где SFP трансиверы называли gbic-ами, что совсем не верно.
Всё равно спасибо, Вы заставили меня вспомнить те технологии с которыми я работал лет 5-7 назад))) Сейчас направление работы немного другое.
Стоило бы подробней осветить этот факт в статье. А то иные читатели как не знали, что gbic — это GBIC, так и не узнают.
> Существует возможность смены этих прошивок, при которой вы, конечно, теряете поддержку вендора, но получаете возможность работы оборудования с официально не совместимыми трансиверами.

Стоит немного поправить:

1. в трансиверы зашит обычно конфиг (из того, что можно поменять), его можно прошивать (если модуль даёт такую возможность) вполне безболезненно, гарантию (на свитч) это не испортит. А модуль в случае гарантийного случая можно перешить обратно (хотя я обычно выкидываю).

2. В свитчах в их софте («прошивке») обычно есть модуль, который проверяет что в железку сунули свой сфп-модуль. (Назвать _прошивкой_ кусок кода на питоне, который сравнивает 'Arista' == 'Arista' у меня как-то язык не поворачивается).
С не-родными модулями есть 3 варианта действий:
а) перешить имя трансивера на нужное
б) попросить вендора дать код разблокировки (это снимает свитч с гарантийных случаев связаных с сфп-портами)
ц) пропатчить этот кусок кода на свитче (тут в случае чего стоит не забыть всё вернуть обратно ;))

На моей практике, и по рассказам знакомых, ни разу проблем вызванных не-родными трансиверами не случалось (если использовать приличные модули, у меня всё финисары или аваги). Так что всё это видится просто как раскошеливание публики на $$$: ариста покупает у аваги модули по $10, ставит своё название, продаёт по $100.
P.S.: на пассивные твинаксы не жалуются Dell (force10), Mellanox, Cisco и Arista (работают с любыми), вероятно и другие вендоры тоже.
Cisco Nexus жалуются на неродные twinax-ы
С не-родными модулями есть 3 варианта действий

По-моему код разблокировки есть только у Аристы (с какой-то версии EOS), а раньше была опция в конфиге как у остальных.
На моей практике, и по рассказам знакомых, ни разу проблем вызванных не-родными трансиверами не случалось

У Селектела облако ложилось из-за левых трансиверов.
Интересно, что за модули селктел покупал.

У меня валяется несколько модулей SNR и ещё какой-то галимый китай. Один из них ушёл в несознанку в сетевухе, у другого RX работает, а TX не светит (хотя рапортует что всё ок).
Насчет очистки — при загрязнении очищать необходимо. Но, на фото инструмент для очистки разъёмов в оптических кроссах.
Для коннекторов можно использовать специальные салфетки. Например: skomplekt.com/tovar/7/1/9999957887
И обязательно закрывать не подключенные коннекторы колпачками.
очистка может привести к дополнительному загрязнению. И коннекторы удобно очищать указанным инструментом, обратите внимание на его многофункциональный колпачек — переходник. По колпачкам — обязательно! еще бы кто-то это делал :)
Наверное, стоит добавить, что с DAC кабелями несовместимость прошивок может добавить сильной головной боли, как правило, трансиверы на обоих концах имеют одинаковую прошивку и могут быть совместимы, например, с сетевой картой и не совместимы с коммутатором. На сколько я понимаю, производители не оригинальных кабелей умеют выкручиваться из этих ситуаций.
Сталкивался что некоторые коммутаторы Allied Telesis работают только на 1-Метровом DAC, на 3х метровом уже нет линка. Лечилось сменой прошивки коммутатора.
Косметическая поправка. Стандарт говорит про мм- до 250м. Но, разумеется, на 300м тоже поработает.
Да хотя бы гигабит начали нормально внедрять. А то даже в 2018 физ. абонентов подключают четырехжильным кабелем и никакого запаса по скорости нет.

Подход у нас потому что изначально идиотский: каждый пров тянет оптику до дома сам, развешивая сопли между домами, а потом еще и витуху в доме.


В Швейцарии, к примеру, оптическую сеть строит вообще местная гос. электро компания и потом сдает в аренду всем операторам. Причем оптика есть в каждой квартире почти — ты просто сообщаешь провайдеру номер своей оптической розетки и он тебя коммутирует на узле связи к себе.

НЛО прилетело и опубликовало эту надпись здесь
Ростелеком

Да, причины мне более или менее понятны. Но все равно напрягает превращение даже, святая святых, Москвы в подобие банановой республики, где неба не видно из-за проводов.

Получается монополист, как-то это настораживает

Подробностей не знаю, но насколько мне известно он это делает некоммерчески — все провы платят ему какую-то сумму фиксированную для поддержки работы кабельной сети.

Какие в сравнении цены на интернет в Швейцарии и в России?

Если брать 100мбит — сильно дороже.
Но при этом 100Мбит от 1Гбит не сильно отличается по цене. Я плачу ~65 франков (3900 руб) в месяц за гигабит. Но надо учитывать что и доход у людей тут несколько другой.
Просим статью про настройку порта с точки зрения софта/ОС, чтобы по такой-то физике хотя бы мегабит 8 в каждую сторону летело успешно!
А зачем дома может пригодиться 10Гбит?
Ну например работа с видео, 4к например. И хранение материала на NAS. Собрать на nas быстрый массив можно, ещё бы гонять быстро его на рабочую станцию и обратно.
Я очень слабо представляю массив, который сможет принимать и отдавать 10 гбит дома. Хотя с 4к видео работаю.
Это что за диски должны быть, если обычный HDD только ~гигабит забивает?
При линейном чтении/записи в один поток даже один диск может больше гигабита выдать. А RAID из многих — тем более.
Ну 10 конечно не надо, но сейчас в nas 2 массива, каждый из который может давать под 200Мб/сек. С nas'ом 2 больших компа работает (не считая ноутов на wifi). NAS висит на одном гигабитном линке, в который он соответственно упирается. Конечно и 3-4 Гигабита хватит за глаза, но следующий за 1 гигабитом стандарт сразу 10ка.
Для этой задачи на порядок дешевле сделать бондинг из 2 или 4 линков на 1Гбит. Коммутатор дешевле, и дополнительная сетевая стоит смешных денег (можно ставить двух- или четырех-портовые)
Шёл 2018 год, а люди продолжали выбирать между одномодом и многомодом.
… и витой парой Cat 3

Ну на 10Гбит это еще может иметь смысл т.к. СМ в квартире не нужен, да и в пределах небольшого ДЦ тоже, а трансиверы стоят прилично дороже.


На гигабите уже да, считай одинаково.

Простите, но контекст — он как гравитация: сука достаточно бессердечная.

Статья называется: «Советы новичку». Вы бы пустили новичка строить ДЦ? А уж если новичку пришлось строить сеть где-то, было бы неплохо рассказать, что выкраивать 100 долларов, подкладывая себе свинью, не стоит.

Поэтому все новички выбирают одномод.
Причем тут ДЦ? Новичку надо понять разницу между многомодом и одномодом, как минимум. И понять когда можно использовать тот или иной.

И если этот новичок строит 10Гбит для дома, то бери либо медь, либо оптику ММ, т.к. трансиверы раза в два дешевле в среднем.
Послушайте, давайте мы будем комментировать не собственные фантазии, а оригинальную статью:

А если хочется больше? Например, 10-гигабитное соединение для небольшого офиса или серверной.
Это ничего не меняет. Для небольшой серверной нет смысла делать одномод — трансиверы дороже (SFP-10G-LRM скорее исключение) и не для всего бывают, а фурнитура менее живучая.

Например, у NetApp лишь одна модель трансиверов под одномод для дорогущей A300. Все остальные под многомод.
Зачем внутри небольшой серверной вообще оптика? 10GBASE-T вполне хватит.
SFP+ более распространённый формат, но оптика действительно не нужна если хватает Твинаксов и нет проблем с HCL.
Я понимаю, что в этой статье не вывел бином Ньютона. Ее цель – помочь начинающим быстро разобраться в физической коммутации оборудования в 10-гигабитных Ethernet-сетях.

Я новичок в сетевой оптике, и если честно многое не понял. Очень много терминов без объяснения (синглмод? мультимод? FC? SFP? и т.д.) Понятно что можно нагуглить всё, но было бы удобно всё это иметь в одной статье, раз уж выбран формат для новчиков.


И даже дочитав статью до конца так и не понял наверняка, можно ли построить 10-гигабитную сеть на меди или нельзя.

SFP — стандарт портов для установки трансиверов в устройства, см фото выше.

SingleMode — вид оптического кабеля, обычно используется для передачи на дальние расстояния, оболочка преимущественно желтого цвета.
MultiMode — вид оптического кабеля, обычно используется для передачи в пределах ЦОДа, розовый, желтый, синий.
Подробно — habrahabr.ru/post/46818

FC — fibre channel — протокол, использующийся при построении SAN сетей.
Подробно — habrahabr.ru/post/214289

Да, вы можете построить 10G сеть на меди или на оптике.
Медь — вам нужен свич с медными портами, кабель указанных ваше категорий и карты с медными портами.
Оптика — вам нужен свич с оптическими портами, трансиверы на стороне свича и карт, собственно оптический кабель с разъемами, какрты с оптическими портами.
Предвижу вопрос — нет, вы не сможете самостоятельно установить оптические разъемы на оптический кабель, эта процедура требует очень специального дорогостоящего оборудования.

Спасибо!


Оптика — вам нужен свич с оптическими портами, трансиверы на стороне свича и карт, собственно оптический кабель с разъемами, какрты с оптическими портами.

вот про это не понял. Если порты оптические и кабель оптический, зачем нужен трансивер? У меня например в провайдерский роутер оптика заводится без всякого трансивера.

А можно фотографию этого дела? Обычно просто такое означает, что трансивер встроен. Либо мы говорим о технологии GPON, которая отличается от классического варианта и не предназначена для построения локальной сети.

Да, это GPON


Обычно просто такое означает, что трансивер встроен

А не подскажете, почему все оптические свичи не делают со встроенными трансиверами, если их в любом случае устанавливать в каждый порт?

Типы трансиверов зависят от расстояния. Какие именно вы предлагаете встраивать — самые дальнобойные и дорогие?
самостоятельно установить оптические разъемы на оптический кабель

Строго говоря, «на коленке» это возможно для FC в случае клеевого разъёма: оборудование недорогое, требуемая точность на уровне линз для телескопов. Только это всего лишь 1G, а не 10G
Спасибо автору.
Прошу дополнительно пролить свет на тему MTU, jumbo и прочего L2 на 10 гигах.
Народ, подскажите, какие модули и кабель для гигабитного аплинка, лучше использовать для mikrotik rb260gs, воздушка, расстояниях 60-120 метров? Впервые сталкиваемся с оптикой, не знаем с какой стороны подойти)
Любые, совместимые с микротиками (у вас их там два одинаковых?). Для гигабита нет особой разницы. Смотрите по стоимости, дальнобойные обычно дороже.
Технически удобнее пара одноволоконных модулей (single LC = SLC) — один *«T» и второй *«R» — по одному кабелю на разных частотах один передаёт, другой принимает, но они дороже двухволоконных (double LC = DLC).

www.google.ru/search?q=mikrotik+rb260gs+совместимые+SPF второй ссылкой даёт удобную таблицу, выбирайте один из трёх модулей в колонке SPF (500м DLC, 20км DLC, 20км SLC)

P.S. обязательно проложите кабель с большим числом жил, чем реально нужно: запас поможет, когда одно волокно «накроется».
На коротких расстояниях еще можно взять такую древность как CX4
на ebay сетевые от 30 уе. Правда кабели еще толще, чем DAC кабеля
тема не раскрыта про 10gb по меди)
Ох какая же нестабильная совместимость 10G оборудования от компании HPE…
Некоторые коммутаторы принимают SFP/SFP+ строго из своего списка совместимости, некоторые — всеядные. Даже «родные» DAC с одним(!) партнумбером, но от разных производителей, могут заработать а могут и нет… (дважды меняли комплект DAC-ов для свичей HP3500yl, только третий производитель поехал...), А вот свичи HPE5130 EI оказались всеядными (DAC и SFP/SFP+), так же всеядными оказались блэйдовые свичи HP6125G/XG и HPE6127XLG.
Отличная статья для новичков, и не только. Просто, кратко, доступно. Многие вещи в голове легли по своим полочкам.
Если бы её расписали ближе к реалиям, то вы бы наверное вообще счастливы были ) Некоторые вещи описаны довольно странно… В качестве одного из примеров вот есть отличный коммент: habrahabr.ru/company/dataline/blog/348358/#comment_10656206

Ещё SFP модули не обязательно должны быть двухволоконными… Сейчас полно одноволоконных модулей и это как бы сразу в двое уменьшает оптический бюджет.

Ещё к 10Gb конечно не относится, но как уже писали в комментариях, прошивку в модулях можно менять… это можно попросить сделать прям у поставщика (обычно они умеют). Так можно 1Gb модуль перешить под STM-4, или STM-1 (это если надо SDH передать). Это конечно ничего не даёт практически, но это показывает, что модуль «тупо» конвертит электрические импульсы в световые, а по какому алгоритму — это прошивается.

Ещё рассматривая 10Gb Ethernet и выше, надо обязательно уделать внимание оптике, расстояние и качество магистрали которой надо контролировать. Что бы контролировать — надо снимать рефлектограмму. И даже если вы не умеете с прибором работать, то разбор рефлекторам, как их читать и понимать, где могут быть затыки, если у вас куча сварки на магистрали с затуханием больше 0,3Дб каждая… И почему вы можете не увидеть такое затухание на отчётах от рефлектометра (связано с длиной импульса, расчётное расстояние и пр, когда при снятие измерений с кросса чел с прибором от подрядчика, который кабель укладывал и варил, имеет мотивацию не показывать вам что-то и выставляя импульс и расчётное расстояние побольше и на графике не будет действительно хороших сварок, а плохие отобразятся, как приемлемые.
Позвольте вас поправить в терминe.

Словосочетание «оптический бюджет» является устойчивым и означает допустимый уровень затухания, а вовсе не статью расходов.
Спасибо за отличную статью. Я уже все сам накопал в инете %(

Интересно было бы увидеть РЕАЛЬНЫЕ скорости в домашнем окружении.

Большинство вещей о которых тут говорят мне знакомо, давно работаю с оптикой, но есть один вопрос.
Если использовать одномод, у вас указано про LC двуглазые разъемы. А бывают одноглазые? SC например. Мне это очень важно в плане перехода с гигабита на 10гигабитную сеть. В данный момент волокно в аренде, хотелось бы знать про будущие траты.

Бывают и LC одноглазые на 10Гб. Это вообще дело производителя.
Если у вас волокна в аренде, то вам в любом случае одноглазые брать (или CWDM систему ставить, особенно если они все в одну точку идут). Что же касается типа разъёма — то нет смысла отталкиваться от коннектора на патч-корде. Его (патч-корд) проще и полезней заменить на новый, если он конечно не внутри здания уложен (но в таком случае можно и на тему переходничка из розеток задуматься или всё таки сделать правильно и разварить волокна на кросс. А так берите модули с тем разъёмом, с каким будет удобней (лучше единообразия придерживаться) + к ним патч-корды нужной длины (покупайте всегда двойные — стоят они не в два раза дороже одинарных (single), а разделяются за 5 секунд).
А так берите модули с тем разъёмом, с каким будет удобней (лучше единообразия придерживаться)

Самые распространённые сейчас LC и лучше использовать именно их, чтобы внезапно не пришлось искать переходник по всему городу.
это сугубо индивидуально и зависит от того, какое было оборудование раньше и каки модули получимся найти. По факту нужно накупить разных патч-кордов и десяток fc розеток для кросса. В случае чего можно и перейти через неё, но это прям на крайняк, потому что лишние соединения на оптике могут сыграть роль.

PS: три года назад я пытался ввести какую то жёсткую унификацию при строительстве первого узла… два года назад подумывал над этим на нашем втором новом узле… в итоге сошлись на том, что все кроссы в любом случае только на FC розетках, соответственно все патчкорды с одной стороны FC, с другой стороны — ничего конкретного… те же FC для перемычек, SC и LC много и тех и других… и никак выбрать один тип разъёма не получилось, потому что далеко не все производители модулей выпускают все типы, необходимые оператору связи… приходится пробовать разные…
По факту везде остались только LC.

Вы рассуждаете как некоторые подрядчики — вместо того, чтобы сделать хорошо они мычат «сделаем как скажете» и даже вариантов не предлагают. Хотя рецепт для небольшого офиса очевиден: от 8 волокон MMF (OM3/OM4) под LC.

P.S. Вспомнил про отличный пост от CBS на схожую тему.
Мне не очень приятно, что меня с «мычащими» сравнили. Не очень понимаю, зачем нужна была эта аналогия.

Лично я не вижу никакого смысла стараться унифицировать порты, если конечно закупка оборудования не происходит один раз в жизни, включая зип. В противном случае настанет тот самый момент, когда придётся согласиться на те модули, какие будут в наличие у поставщика оборудования. Например, пару лет назад мы покупали sdh мультиплексоры и нужны были STM-1 и 4 модули. Непосредственно у поставщика модули только от Alcatel… конских денег стоят. И вот беда, stm-4 у предпочитаемого OptiCin`a тогда не удалось найти, а у Modultech (тоже проверенный временем) в основном SC разъём… Мы посчитали, что лучше взять проверенный модуль, чем искать что-то другое. (а с STM фреймами вообще проблема, потому что под 622Mb/s их шьют из 1Гб/с и тут надо ещё и проверенного поставщика найти, что бы он оперативно дал попробовать модуль, потом оперативно перепрошил его и отдать). В какой то момент нам с заказчиком по STM1 прицепиться потребовалось. В его оборудование оптические порты встроены в плату… нам пришлось подбирать длины волн под него и в итоге это тоже оказался модуль с SC разъёмом (хотя stm-1 модули я все купил LC, в надежде на унификацию).
После того, как модули появляются разные (в нашем случае LC и SC), уже нет смысла что-то пытаться унифицировать. Если только тратить деньги на новые модули уже в вялотекущем режиме и менять их… ну только нафиг это надо, не понятно.

PS: дело тут не только в специфическом оборудование, вроде SDH и модулей к ним. Где то выколупаете оборудование в составе какого нибудь «программно-аппаратного комплекса» и поставщик ПО и железа поставляем вам только те модули, которые входят в его продукт. И нужно это для того, что если всё не заработает, то претензии были только к поставщику, без вариантов сослаться на чужеродные элементы в системе.
Мне не очень приятно, что меня с «мычащими» сравнили. Не очень понимаю, зачем нужна была эта аналогия.

Не принимайте на свой счёт. Хотел лишь высказать предположение про профессиональную деформацию тех, кто серьёзно занимается оптическими сетями и где «it depends» действительно имеет место.
SC широко применялся в прошлом, в том числе на серверных картах. В любом случае, вы можете подключить аплинки к свичам с помощью SC, а вот в сторону серверов\СХД уже использовать LC.
Можно уточнить на узком примере. Цель iSCSI.
Берем NAS, например TS-431XU + пара HP серверов (в них изначально только 1 Gb сеть). Надо их связать по 10 Gb.
В сервера покупаем что-то такое: 671798-001 Сетевой адаптер HP 666172-001/ MNPA19-XTR PCIe x8 NIC 10gbe Single Port SFP+ для сервера HP Proliant
Берем активку, например D-link DXS-1210-12SC
и все это просто связываем с помощью кабелей, например N280-05M-GN Кабель Tripp Lite 5M SFP+ 10Gbase-CU Twinax Copper Cable Green
После этого присваиваем IP адреса и должны работать?
или можно иначе?
Для тех, кто это читает в 2020 году: стоимость SFP+ трансиверов 10Base-T (на витую пару) сильно упала, уже меньше 100$, при этом тянуть кабель 6cat проще и разделать тоже проще, когда понадобилось соединить кроссовую на другом этаже с серверной, выбрал именно медь. По цене получалось примерно одинаково.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий