Как стать автором
Обновить

Эволюция сети Ethernet на витой паре

Уровень сложностиПростой
Время на прочтение20 мин
Количество просмотров51K
Всего голосов 138: ↑138 и ↓0+174
Комментарии109

Комментарии 109

зачем же он нужен, если для 10GBASE-T достаточно Cat 6a, а 25GBASE-T уже нужен Cat 8

Строго говоря, почему-то в нашем мухопердянске Cat6a ещё поискать надо, тогда как бесполезных Cat7 за оверпрайс - навлом. Ну и какого-то массово доступного железа с 10+ Гбит вокруг что-то не сильно много, тогда как 2.5Гбит уже вполне в роутерах, нормальных ноутах и материнках.

ИМХО, исходя из цены/возможностей/доступности сейчас при прокладывании эзернета оптимально закладывать везде по умолчанию Cat6 и не мучиться. Он даст запас для роста и он уже хорошо поддерживается. На коротких дистанциях он потом, при необходимости (и если удастся найти за адекватный прайс соответствующее железо) легко заменится, а на больших ждать каких-нибудь волшебных 40Гбит... бессмысленно, тогда уж оптику тянуть. Да и потребностей чего-то бодрее чем даёт Cat6 у SOHO нет

Использовать при прокладывании новых сетей витую пару в ситуации, когда оптика стоит три двадцать за метр — странное. Даже если не хочется искать сварочник, можно приделать пигтейл к кабелю механическим соединителем. Но для сети в офисе, мне кажется, найти сварщика дешевле (а для дома гигабита хватит для всех).

Интересно было бы сравнить современные объемы продаж UTP и оптоволокна в SOHO сегменте. Я, к сожалению, не нашел такой статистики в публичном доступе.

а там банально - 10 камер, 10 железок(всяких), 15 клиентов - это маленький шкафчик с PoE+ коммутатором на 48 портов и аплинком на 10G и ИБП - от него идет медь до клиентов и устройств, к нему оптика от этажной серверной - экономия против прямой прокладки меди до этажной серверной примерно в 10-12 раз перекрывает стоимоcть оптической линии (для полноценного кольца + монтаж) и стоимость шкафчика - просто все забывают что проложить дополнительные 35*X метров меди до этажной серверной тоже стоит каких-то денег и внезапно очень даже немалых...

Ну скажем так, медь имеет в некоторых случаях преимущества. То же PoE, например, очень удобная и часто используемая фича.

Ну и более простой монтаж без сложных сварочников никто не отменял.

Любимая собачка не сжует витую пару так быстро, как оптику. Витая пара может лежать под ковриком прямо у входной двери. На стене на нее можно повесить вешалку с курткой, на оптику нет. Это было бы смешно, если б не было реальностью.

Оптический кабель - не равен оптическому кабелю, который предназначен для патча (привычный желтенький). Есть еще подобные и более бронированные.

Дома, или в офисе любой бронированный кабель в конце концов закончится каким-нибудь LC-, или SC- коннектором около которого волокно кто-нибудь и переломит.

Nope.
Закончится розеткой с LC- или SC-коннектором, в которую втыкается патч-корд. Который уже, возможно, кто-нибудь и переломит.

... ведь вы же используете розетки? Правда?

Может мой домашний провайдер какой-то уникальный, а все остальные молодцы, но нет, никаких розеток.

Может мой домашний провайдер какой-то уникальный

Вполне может быть, что и уникальный, потому что типичный домашний провайдер заканчивается на медиаконверторе или, как максимум, на ультрадешевом бытовом роутере со встроенной точкой доступа. Ваш же, насколько можно предположить из вашего комментария, обеспечивает вам разводку по всему дому, но без розеток. Звучит странно, хотя какого-то противоречия или чего-то совсем невозможного нет - просто типичный домашний провайдер избегает монтажных работ у клиента сверх абсолютного минимума в принципе, а монтаж в местах общего пользования нередко отдает на аутсорс, поскольку это непрофильный для провайдера бизнес, влазить в который многие провайдеры не хотят и лишь вынужденно соприкасаются из-за специфики своего основного бизнеса. Ну или ваш комментарий допускает неоднозначность трактования и вы хотели сказать что-то другое, но понять удалось именно так.

Ну если рассматривать в таком ключе... То я наблюдал оптику после пожара, по обгорелым волокнам которой шел сигнап, пока я их не пошевелил)

Как показывает практика питание лучше тянуть отдельно и пригодное для разный вольтаж, потому что оборудование может меняться (с PoE не всегда самое лучшее и в наличии и по цене дороже), стандарт передачи данных может меняться, и тогда и PoE становится бесполезным. Лучше иметь уже питание любое к потребителю, а с передачей данных быть независимым как от выбора стандарта, так и от оборудования.

Поверьте, чертовски неудобно по складскому терминалу категории Б (да даже В) тянуть "силу" для точек доступа ТСД и камер видеонаблюдения.

Дома или в офисе - да, PoE - изрядный оверхед, но вот когда я по периметру дачного участка развешивал камеры (скорее для дистанционного наблюдения за погодой и отпугивания школоты, чем для реальной охраны), я однозначно выбрал PoE с управляемым коммутатором (чтобы подвисшую камеру можно было дистанционно перегрузить по питанию)... в общем, хоть и нишевое, но имеющее право на жизнь решение.

я добавлю, что POE дает еще и возможность дейзи-чейна, если использовать коммутаторы с POE-passthrough (они стоят нынче копейки).
Т.е. тянем один провод и питаем десяток камер через него - это безумно эффективно с точки зрения монтажа. из минусов - такие коммутаторы обычно неуправляемые, и перегружать если - только весь сегмент.

Но для сети в офисе, мне кажется, найти сварщика дешевле (а для дома гигабита хватит для всех).

Простите, а почему в офисе не хватит гигабита (не в ДЦ, и не между зданиями)? Реально интересно стало, какие такие задачи диктуют большие потребности. 100 офисных человек с веб или веб подобным приложением в сумме какой дают трафик?

А почему вы думаете что там такой мизерный траффик? В офисе бывают и РДП и документы по 500 мегабайт. Я видел как гигабитку затыкали 12 человек в мэрии, занимаясь своей работой прямой.

RDP на чисто офисных задачах изначально работает даже на модемных линиях в 19000 бод. Нагрузить его можно только если ютубик в 4к через него пропускать.

Документы по 500 мегабайт? Ок, возможно в Excel таблицу столько можно натолкать, но это будет и с SSD работать неприемлемо медленно, там дело не ограничивается задачами открыть-сохранить. Да и зачем эти файлы по сети гонять?

Пока потребность прокладывать каждому офисному компу 2.5 и более гигабит звучит сильно неубедительно.

RDP на чисто офисных задачах изначально работает даже на модемных линиях в 19000 бод.

Вы еще вспомните времена мониторов в 17 дюймов. Фуллхд по РДП с хорошей отзывчивостью для работы в экселеподобных задачах затыкает сотку, иначе начинается слайдшоу. Мы-ж про работу говорим, а не про мучение?

Документы по 500 мегабайт?

И больше бывает. И по 2 гига бывают всякие документации в папке с фотоотчетами и кучей доп файлов и приложений.

Да и зачем эти файлы по сети гонять?

А как вы передаете файлы с одной рабочей машины на другую? Общий доступ? Дык тоже загрузка сети.

Пока потребность прокладывать каждому офисному компу 2.5 и более гигабит звучит сильно неубедительно.

Не прокладывайте, я вас и не заставляю. Я прокладываю, я в потолок уперся.

Позвольте вам напомнить сейчас 2024 год не 1994. По поводу RDP на 19000. Попробуйте отредактировать документы Excel на сервере на скорости 256 килобит в секунду далее 128 и т.д. протестируйте о чем пишите.

Документы в 500 мегабайт не является чем то удивительным и с этой задачей справляется HHD.

На работе сотрудники определенных отделов копируют снимки машин объемом около 20 гигабайт с этажа на этаж. В таком случае гигабитной сети не хватает. По логике нужно менять кабель на 6a и коммутаторы.

Foxpro же! :)
Roaming profiles.
1C в файловом виде.
Да тысячи ихъ.

ЗЫ. Рассказывать мне про эффективное использование полосы не сто́ит, примеры придуманы по запросу.

Дизайнеры ещё же. Им как быстрые диски так и быстрая сеть строго необходима.

Foxpro же! :)

Он жив еще? Раньше просто летал на 10 мегабитных хабах, даже не коммутаторах, что изменилось?

Roaming profiles.

Изначально оптимизированы чтоб только дельту гонять, они не целиком при каждом logon/logoff туда-сюда гоняются. А так хранятся локально. И на 100 мегабитах вполне работают.

1C в файловом виде.

Это 1С 6.0 или 1С 7.0? Насколько я помню в 8.х там уже массово ушли в понятие веб серверов и прочих тонких клиентов, и никто уже не гоняет на десктопы данные гигабайтами.

Да тысячи ихъ.

Пока ни одной не озвучено, которая обосновала бы прям 10 гигабит и более каждой офисной персоналке. Реально, кто-то мерял трафик отдельно взятого типового офисного десктопа в вакууме? Сколько килобит в среднем потребление? А если интернет отключить? Без интернета трафик до почти в 10килобит в среднем по рабочему дню падает? Нет? Больше?

Бакап рабочих станций. Оно в любом виде - время от времени требует снятия (плюс-минус лапоть в виде самой OS) образа жесткого диска. А это - долго и печально даже на гигабите.

Зачем делать бекап рабочей станции, если его всегда можно развернуть из типового шаблонного образа и рабочий софт автоматом доставить через какой Software Center? А профили же пользователей и так хранятся на сервере со всеми настройками.

Но даже если и делать бекап (типа каждая рабочая станция уникальна в своих настройках) - то инкрементальный бекап делается за несколько минут (передаются только измененные блоки), и даже полный бекап целого терабайта (при сжатии в 2.5 раза) займет ночью 4166 секунд, чуть больше часа. В реальности же типовые офисные десктопы редко когда выходят за 120 гигабайт на софт и папку Мои документы. Хоть каждую ночь их бекапь полностью по нескольку раз, о чем там по ночам грустить и кому?

Иллюстраторы-верстальщики-фотокорректоры-видеомонтажники

Вот тут да, этой публике нужны и MacPro стоимостью по 20к евро каждый с терабайтом оперативки с 64 ядрами и прямое подключение на iSCSI стойки. А может и не нужны, и обычного ноутбука c WiFi или даже 3G вполне достаточно :) Но это скорее исключение из правил, так-то этим товарищам можно и отдельное помещение выделить и даже отдельное здание.

Но тянуть каждому бухгалтеру и кадровику по 10 гигабит? Зачем? Там и 100 мегабит всегда хватало, никаких новых задач, условий и требований за последние 20 лет не появилось, скорее наоборот, все улетело в облака и прочие тонкие-веб клиенты.

Единственное что изменилось - это ютуб к обычному вебсерфингу добавился, с FullHD и 4к. А они отлично работают на 100 мегабитах и даже меньше (31 мегабит вполне достаточно, чтоб прокачать за два часа типовой 4k фильм на 20 гигабайт весом).

Ну и видеоконференции в зуме или тимсе, но и они тоже не на 10 гигабит каждому рассчитаны, мягко говоря. Итого - зачем в офисе разворачивать более 1 гигабит - совершенно не понятно. Зачем между этажными или кампусными коммутаторами более 1 гигабита - там вполне понятно зачем (latency), но речь про конечный участок офисный письюк - свич на этаже. Кто-то мерял средний профиль нагрузки, сколько медиана и пик трафика по дню?

Зачем делать бекап рабочей станции, если его всегда можно развернуть из типового шаблонного образа и рабочий софт автоматом доставить через какой Software Center? А профили же пользователей и так хранятся на сервере со всеми настройками.

Потому что, увы, с моей колокольни выглядит так, что самый удобный с точки зрения восстановления системы "хочу чтобы все вернулось как было и чтобы побыстрее" - это снятие образа, с его развертыванием в случае выхода рабочего места из строя. Восстановление по шаблонам - это заметно не так выглядит.

А сетевых профилей (что позволяют не терять настроек при утере системы рабочей станции), живущих где-то на сервере и синхронизирующийся - я уже давно не видел.

Но даже если и делать бекап (типа каждая рабочая станция уникальна в своих настройках) - то инкрементальный бекап делается за несколько минут (передаются только измененные блоки), и даже полный бекап целого терабайта (при сжатии в 2.5 раза) займет ночью 4166 секунд, чуть больше часа.

Итого за 10 часов ночи - полный образ снимется не более чем с 10 машин. А если их сотни на этаже?

Итого за 10 часов ночи - полный образ снимется не более чем с 10 машин. А если их сотни на этаже?

а) Полный образ делается не каждый день, примерно раз в неделю? В остальные дни инкрементальный, нет? Расписание-распределение нагрузки по группам машин для отдельных дней (ночей) можно же сделать? Или каждый день полный бекап всем?

б) Речь выше была о том, что гигабитный аплинк нужен на последних метрах (там даже 100 мегабит вполне хватает, т.е. ничего лучше Cat5e реально и не нужно к рабочим столам тянуть), а вот межсвичи соединения - да, да там хоть 100 гигабит можно через SFP модули сделать, если сильно надо. Или у вас все эти сотни машин в один гигабитный порт по витой паре подключены?

в) Сотни уникальных машин со своими уникальными настройками - это конечно мощная организация сети предприятия, но реалии жизни звучат иначе - 99% пользователей обычно работают только с бразуером, Word, Excel и 1С клиент какой, и если их документы и профили хранятся на сервере - то никакого смысла бекапить их персональные Windows нет. А развернуть типовую word+excel+edge/chrome+1С машинку из образа через PXE ребут - элементарно быстрее, чем заниматься ерундой с backup/restore.

Да, отдельные категории пользователей требуют прям уникальных настроек и софта (к примеру CAD/CAM/CAE или разработчики), но таких обычно единицы.

Но что-то мне подсказывает - вы похоже просто не смогли заранее преднастроенные образы со всем нужным базовым софтом (в т.ч. Office) по сети автоматически разворачивать. Возможно даже каждую машину с нуля настраиваете - берем DVD/USB с Windows, потом ставим драйверы вручную, потом вручную ставим Office, WinRar, Касперского, прописываем вручную принтеры и так далее вручную по списку целый день, к каждой машине свой персональный и индивидуальный ручной подход.

Угадал?

Но что-то мне подсказывает - вы похоже просто не смогли заранее преднастроенные образы со всем нужным базовым софтом (в т.ч. Office) по сети автоматически разворачивать.

...

Угадал?

Не совсем. Я со стороны пользователя (один из толпы разработчиков и прочих причастных) наблюдал. В не очень маленькой конторе с очень стандартизированной техникой и автоматической раскруткой всего, включая системы, устанавливаемые в локальные виртуальные машины. Торможение из за скорости сети хоть и было терпимым, но все же было весьма заметным.

Реально интересно стало, какие такие задачи диктуют большие потребности.

Бакап рабочих станций. Оно в любом виде - время от времени требует снятия (плюс-минус лапоть в виде самой OS) образа жесткого диска. А это - долго и печально даже на гигабите.

iSCSI и снепшоты на стороне сервера — решают эту проблему )

Т.е. пользовательские данные (все что не система) подключены в виде блочного устройства по iSCSI? Но тогда скорость нужна именно для него. Иначе будет несколько тормозно и задумчиво.

Но она нужна короткими берстами, а не на постоянку несколько часов в полку.
До 10 компов, если на них не выполняются тяжелые дисковые операции, вполне комфортно живут на гигабите.

У кого-то может и живут, а кто-то готов заплатить за нормальную сеть, чтобы не ждать, пока у сотрудника на соседнем компьютере все скачается

Корпоративный интернет, все-таки, сильно медленнее гигабита.
А те, кто может себе позволить сравнимые скорости, имеют отдельную сеть для iSCSI — возможно даже с резервированием линков.

Иллюстраторы-верстальщики-фотокорректоры-видеомонтажники готовы с Вами не согласиться... ещё в начале нулевых довелось работать в компании, выпускающей фильмы на российский рынок, так видеоинженеры сидели в выделенном сегменте 1Gbit, равно как и верстальщики постеров...

Так потому и сделана оговорка про тяжелые дисковые операции )
Фотошоп на производстве баннеров (~2001) просто дико ускорялся включением сжатия на NTFS для его временных файлов — они там чуть ли не на порядок сжимались, и обрабатывались тоже кратно быстрее.
Видеомонтажники с появления первых PCIe-ssd, еще не nvme даже, берут самый топ под временные файлы, а то еще и raid-0 или 10 городят.

Цивилизованный бэкап - будет всё-таки инкрементным, а потому большая полоса нужна только для начального этапа, последующие будут достаточно компактны.

Инкримент редко бывает вечным. Все равно раз в n дней (где n, возможно, достаточно большое), будет происходить снятие полного образа.

потому что сейчас снова модно бездисковые рабочие станции.... и там гигабита на машину уже может не хватить - особенно при Старте с утра пока загрузочный образ в память подтягивается(загрузка облегченного линукса из рамдиска с учетом отсутствия лимита на ресурс памяти выходит конкретно так дешевле покупки Дисков уже расчете на 3 года на 100+ машин) - поэтому обычно в таких офисах включение машин расписано по слотам.....

отдельно активная работа с сетевыми дисками - открытие какого-нить масштабного проекта по сети и 10Г положить может из-за сонма мелких файлов и отсутствия в коде большинства таких софтин локального кеширования.....

ну и параноидальная безопасность которая съедает до 20% полосы......

Ну да, уже бегу менять витуху на оптоволокно к каждому хосту в офисе, к каждому принтеру, к каждому хабу, камерам с PoE, к NASам в которых есть только эзернет, к роутеру в который от провайдера приходит витая пара, к телику для презентаций и плойке в лаунже. Заодно скажу ребятам из отдела с IoT что они неудачники и весь мир, особенно IoT давно на оптоволокне.

И, главное, это удобно, доступно, дёшево, любой бух и любая домохозяйка в моё отсутствие смогут заменить уот этот хвост пожранный залётным мышом на любой принесённый из любого соседнего ларька, чтобы хоть что-то работало пока меня нет.

А гурманы из комментов ниже ещё и дома разведут короба по всем стенам, чтобы менять Cat6 на Cat8 каждые 2 недели просто потому что ветер поменялся, при практически полном отсутствии в SOHO железа способного в 40Гбит)

хвост пожранный залётным мышом

Мыш, способный пожрать бронированный кабель, достоин уважения!

на каждый хост смысла нет - а вот на стол 6-10 машин в опенспейсе поставить оптику и 10Г уже вполне вариант....

(а для дома гигабита хватит для всех).

А вот мне уже тесновато на гигабите. Подумываю над 2.5/5, ибо из доступного только медь.

ИМХО, исходя из цены/возможностей/доступности сейчас при прокладывании эзернета оптимально закладывать везде по умолчанию

... нормальные (пустые) трубы/кабель-каналы, из который и в которые можно легко кабель вынуть и положить по небоходимости. А не делать несъемную кабельную систему, ведущую ко всем местам, где может порт потребоваться, но не будет.

Вывод. Лучшим вложением в будущее был оптический кабель.

Со временем оптика меняет свои характеристики и мутнеет (в отличии от той же меди), так себе вложение в будущее. 5-7 лет и уже затухания пойдут.

Если (!) даже так, то "через семь лет мы обнаружили прибором, что затухание на километр кабеля увеличилось с 0.13 до 0.14 децибел" — это не приговор.

Сильно зависит от качества самого волокна. Какое-то меньше "стареет", какое-то через 3 года нужно перекладывать, тут как в русскую рулетку, как повезёт.... И даааа, разумеется производитель не скажет что мое волокно хлам который через 3 года станет мутный... Все в один голос заявляют, дескать наши волокна самые лучшие в мире. А еще некоторые волокна больше склонны к тресканию при низких температурах, а другие менее склонны; более того это сильно зависит от самой конструкции ВОК... В некоторых ВОК есть повив, некоторые прямые, приколебаниях температур очень сильно разные ВОК ведут себя по-разному. Это я к чему всё рассказываю... Крайне ненадежная инвестиция в оптические линии. Одни ВОЛС могут десятками лет стоять (привет линии между Липецком и Грязи), а некоторые тянут такой ежегодный опекс, что проще новую линию кинуть.

Мы тут собрались™ о ситуациях конкуренции с витой парой в локальных сетях, то есть на длинах до 100 метров без колебаний температур.

И линии обычного электропитания к каждому потребителю.

Месяц назад, тоже подбирал себе, в новый дом, витую пару. В итоге выбрал - Cat. 8 с экраном.

100 метровая бухточка за 20 606 руб.

Полгода назад брал бухту Cat. 6a за 30к рублей. Бухта Cat. 8 стоила 70к. Посмотрел сейчас и цены плюс-минус те же. Что же это за Cat. 8 такой за 20к?
Да и по меди больше 10 гигабит смысла уже нет, проще тогда оптику разводить.

Что же это за Cat. 8 такой за 20к?

Это 100 метровая бухта. https://www.etm.ru/cat/nn/2978094

Да и по меди больше 10 гигабит смысла уже нет, проще тогда оптику разводить.

Оптику не проще. Роутер, PoE-коммутатор, IP-камеры, IP-домофон, телевизор, стационарные компы - все это напрямую к оптике просто так не подключишь, тут нужна медь. А Cat. 8 - это чтоб в ближайшие 20 лет, про перекладку сетевого кабеля даже не вспоминать.

А, так Вы 100 метров брали, не 300. Ну тогда цена похожа на правду.

все это напрямую к оптике просто так не подключишь, тут нужна медь

Но вы же в курсе, что 10 гигабит и выше по меди - это тоже не просто?

чтоб в ближайшие 20 лет, про перекладку сетевого кабеля даже не вспоминать.

Ровно из этих соображений ограничился Cat.6a.

А камерам и домофону - и сотки за глаза по дешевой 5й категории. Даже если 4к толкать.

Вот уж подключение напрямую к оптике стационарных компов — точно не проблема.

А вы сперва эту оптику разведите по комнатам, сварите... Или вы предполагаете торчащие из стены мотки оптического кабеля? Это не вариант.

Оптика приходит на ввод от провайдера, а далее - "медно-вайфайная" раздача потребителям...

для коммутации в стойке проще и дешевле воспользоваться коаксиальным кабелем или оптоволоконным патч-кордом

Хм, не резал dac, но мне кажется, что там витая пара

Не, он твинаксиальный

Да, уже нагуглил. Но всё-таки это не коаксиальный кабель )

А можно пример?

Спасибо, что заметили ошибку! Исправил.

В итоге на рынке 10GBASE-T появился в виде реально существующих портов ещё через два года, в 2008-м. К сожалению, он, пожалуй, так до сих пор успешным и не стал.

Ну я бы не сказал. Сейчас много бюджетного северного железа с интегрированными 10G медными портами. Если свитчи тоже с встроенными медными портами, то не нужны трансиверы и DAC, и получается дешевле и проще в обслуживании. Ограничение по длине внутри стойки не играют роли.

DAC выгоднее 10G трансиверов (не важно, в виде модуля, или распаянных phy) как по стоимости, так и по потреблению энергии. По сути, DAC - это phyless соединение двух сетевых чипов.

Да, но ведь медный патч-корд еще выгоднее.

А sfp порт универсальнее. Хочешь дак, хочешь "медную флешку", хочешь оптику. Ещё AoC есть

Конечно нет, потому что для витой пары нужны уже PHY модули на обеих сторонах - а это дополнительное потребление электричества, дополнительные деньги и дополнительные задержки. Но существенно бОльшая длина кабеля, что не имеет большого значения для подключения серверов внутри стойки.

Ну, в описанном мной случае, по стоимости выходит не так.

  1. Используется железо, в котором уже есть 2x 10G ethernet, а для SFP надо докупать модуль или карту.

  2. Патч-корд стоит 200р, а ноунейм DAC-кабель 2м — 2000р.

  3. По свитчу разница не в пользу меди — если смотреть железо mikrotik, то по условной цене за 1 порт, RJ-45 примерно в 2 раза дороже, чем пустой SFP+.

При этом пункты 2 и 3 друг друга плюс/минус компенсируют. А вот пункт 1 влияет на стоимость.

Задержки, конечно не рассматриваю — если важна микросекундная разница в задержках, то это уже система другой ценовой категории.

Энергопотребление я не учитывал, может быть в зависимости от кейса, его стоит тоже посчитать.

если важна микросекундная разница в задержках, то это уже система другой ценовой категории

сейчас уже ценовая категория та же, 10г и 25г сетевухи предыдущих поколений продаются на ебее (и али) по 50 баксов за ведро (ну или поштучно можно за 10-15 найти), сфп на 10г тоже, на 25г чуть дороже (их придётся брать с али, потому что никто ещё не продаёт именитых брендов мешками на ебее). Свитчи тоже, полно вариантов, как новых так и б/у за приемлемые деньги.

Это прежде всего другие задачи, где настолько важна latency — соответственно, все железо другое, и ПО специфичное.

Ну и если смотрим в сторону 25 и выше, то медь, естественно, не обсуждается.

В 2001-м году я менял в одном офисе коаксиал на utp 100 Мбит. Это был совсем небольшой офис, свитч был то ли 8, то ли 16 дырок. После замены осталась кучка коаксиала и платы. Руководитель офиса спросил, что можно сделать с этим, думая, что может куда-то продать. Пришлось его расстроить, сказав, что максимум на что это годится - отдать детям, соединить компы в соседних квартирах, чтобы в квейк по сети играть, а через годик-другой выкинуть окончательно.

В 2001-м году я менял в одном офисе коаксиал на utp 100 Мбит. Это был совсем небольшой офис, свитч был то ли 8, то ли 16 дырок.

Свитч или хаб? То есть, если по-русски, коммутатор (неуправляемый) или концентратор? В 2001 это было уже (и ещё, если с другой стороны) неочевидно.

В статье, кстати, автор ограничился чисто физическим уровнем, не затронув революцию, произошедшую в начале нулевых - замену концентраторов на недорогие коммутаторы, то есть - замену полудуплекса (с методом множественного доступа CSMA/CD) на полный дуплекс (выделенной линии от коммутатора к каждому потребителю).

Конкретно в этом офисе был свитч. Точнее там из-за неразберихи купили и свитч и хаб, но поставили, конечно, свитч, а хаб договорились вернуть (почему помню - там пришлось менять счета, СФ, перекидывать часть железа из следующего счета и т.д.)

Это случилось с появлением 1000Base-T. В нём поддерживался только полный дуплекс. И, да, за счет этого фактическая пропускная способность нагруженной сети выросла чуть не двукратно.

Это не "случилось", это происходило постепенно, на моей памяти - в 2000-е годы, ещё на 10/100Mb/s сетях. В 1999 мы напрягались, как бы разместить два 100Mb/s хаба (одного не хватало - портов мало) для сети дружественной конторы, чтобы было по фэн-шую (ограничение - 5 метров ЕМНИП). А в 2008 была задача наоборот - я рылся в ЗИПе в поисках 100Mb/s хаба - для опытов WNLB с MAC из Unicast диапазона, свитч (неуправляемый) такое не терпит. И где-то в этом промежутке все хабы в той конкретной сети (в основном они были 10Mb/s, но сотка, в итоге, тоже нашлась) были постепеноо заменены на свитчи.

А начальное состояние, которое я застал - это единый Collision domain на нескольких 10Mb/s хабах с сотней (под конец существования) подключенных компьютеров, индикатор Collision в разгар рабочего дня на центральном хабе горел почти постоянно. Разгребание этой кучи началось с закупки коммутатора 10/100 MBs (тогда ещё - управляемого, хоть и подешевле, не Cisco) и подключении переферийных хабов в него вместо центрального. Ну - и серверов, благо карточки в них изначально были 10/100, по этому самому фулл-дуплексу. Но это уже совсем другая история.

Это не "случилось", это происходило постепенно, на моей памяти - в 2000-е годы, ещё на 10/100Mb/s сетях


10-мегабитные коммутаторы существовали еще в начале-середине 90-х. Правда, стоимость такого коммутатора в те времена была примерно равна стоимости 100-мегабитного хаба.

Так rg58 можно было отдать радиолюбителям наверно )

Наверное можно было. Но это же надо было их искать.

Пожёванный, помятый, полежавший — радиолюбителям? Эти люди — перфекционисты (часто вынужденные) покруче аудиофилов. Серебрёные оплётки, вот это вот всё.
Не, максимум, куда можно было приспособить — это спутниковые тарелки соединять с ресиверами на небольших расстояниях.

Эти люди — перфекционисты (часто вынужденные) покруче аудиофилов.

Тут, в радиолюбительстве, как и в, пожалуй, любом техническом хобби - есть продвинутые энтузиасты, которые хотят и могут получать максимум возможного, ну или как минимум сопоставляют затраты и ожидаемый результат, и готовые на понятные им компромиссы, а есть и слабо подготовленные, кто живет на мифах и легендах, будучи не в состоянии отделить фантазию от физики, иногда даже проводя псевдонаучные эксперименты и тем самым рождая новые мифы. Хотя и самые продвинутые невольно могут стать родоначальниками мифов, потому что глубоко понимая физику, могут без объяснений, безапелляционно выдать какое-то решение, которое работая не будучи понятым, в дальнейшем постепенно искажается и теряет физический смысл, но продолжает кочевать и будоражить неокрепшие умы вроде EH-антенн или уж точно общеизвестного мифа про ртутные антенны.

Пожёванный, помятый, полежавший

Помятый и пожеванный кабель приобретает неоднородности в силу чисто механических повреждений, следовательно теряет свои свойства как линии передачи. Полежавший кабель, в зависимости от конкретной марки, может утратить свои качества из-за химических процессов - неспроста у многих кабелей срок хранения, равный сроку эксплуатации, потому что кабель что в мотке на складе, что где-то проложен и точно так же просто лежит, а значит считается с даты выпуска, а не даты укладки, установлен в районе пятнадцати лет, пусть это и не значит, что на шестнадцатом году он непременно разуплотнится.

Серебрёные оплётки, вот это вот всё.

Это на СВЧ сильно хорошо. На частотах пониже - недостаточно критично, чтобы прямо упарываться в серебреные проводники, особенно если есть возможность взять кабель просто толще и, особенно, с диэлектриком с меньшими потерями.

Не, максимум, куда можно было приспособить — это спутниковые тарелки соединять с ресиверами на небольших расстояниях.

Смысла около нуля. И дело не в том, что в телевидении принят кабель 75 Ом, а RG-58 должен бы иметь ровно 50 Ом, чего на практике не всегда удается наблюдать в случае китайского кабеля - хотя это тоже минус, но он где-то последний в списке. А в том дело, что куда как более дешевый телевизионный кабель типа RG-59, сделанный из чего-то вроде CCA или CCS, зато с FPE диэлектриком, обеспечивает куда как меньшие затухания. Ну и механическая несовместимость с типичными в телеприеме F-разъемами тоже добавит неудобств - обжимать или припаивать что-то вроде SMA и добавлять переходники SMA-F теоретически можно, но практически глупо с учетом гуманной цены на RG-59 даже не самых дешевых модификаций.

И дело не в том, что в телевидении принят кабель 75 Ом

Ох, да.
Соответственно, и весь пассаж насчёт "отдать на спутник" не имеет смысла.
Спасибо.

еще пожалуй добавлю, что оный RG58 кроме общей убитости скорее всего еще и короткими кусками нарезан будет. там от BNCшек больше пользы будет, если они не одноразовые обжимные.

Руководитель офиса спросил, что можно сделать с этим, думая, что может куда-то продать.

Ну, если подержать ещё лет 20, то можно продать. В музей.

Шаттлы уже того, ффсё.

Шаттлы конечно уже давненько ффсё, но вот его наследие живущее в SLS вполне таки ещё актуально :)

И не только она глючит, теперь регулярно при попытке открытия колокольчика с непрочитанными темами вываливается ошибка формата "Я не смог прочитать свойства объекта" :)

А в промышленности вроде уже Ethernet используется. Profinet это разве не оно?

Я не эксперт в пром. сетях, но насколько мне известно, Profinet использует Ethernet как транспорт, являясь набором протоколов более высокого уровня. При этом, то, что используется как транспорт обычно именуется Industrial Ethernet, который, как я понимаю, хоть и в основе использует IEEE 802.3 стандарты, но может быть очень vendor specific. И NBASE-T1L серия стандартов как раз и является попыткой унифицировать физический уровень передачи, очистить его от патентных ограничений и упростить интеграцию.

Я не знаю как у России, но какое счастье заходить в магазин как потребитель и видеть тонкие прекрасные 20метровые кабели вместо вот этого толстого страшного ужаса, который наверняка нужен компаниям, - прекрасно.

Речь о низкого качества китайских соплях, вроде плоского кабеля? Я в Германии вижу в продаже чаще всего толстые патч-корды Cat.6.

В ходе этой статьи посмотрел на Amazon - превратился в площадку не лучше AliExpress. Неподготовленному человеку невозможно будет настоящий Cat N купить.

У нас на десятке работают 28awg кабели 6a категории. Толщиной как оптика.

Продают novality siemon да почти все.

На удивление, отличный пост вышел. Довольно легко и приятно читается, к тому же довольно информативно.

Спасибо за похвалу!

Про коаксиальный Ethernet. Тогда ещё использовались такие штучки, как "терминаторы". Для подключения к толстому кабелю применялось устройство "зуб вампира" (отсюда и обиходное "вампирчики").

Здравствуйте. Было интересно прочитать вашу статью, узнал пару интересных вещей.

Но вот чего не нашел это ПРАКТИКИ применения высокоскоростных интерфейсов на "старых" проводах. Вами указан только один пример как я понял где был 1гбит стало 2.5 но для меня это было как бы даже логично и сомнению не подлежало.

Но гораздо интереснее вопрос сможет ли работать 5 и 10 гбит на категории 5 (5е), если да то на каких пределах по длине.

Было бы инетерсно услышать ваш опыт.

Но в целом вопрос так же ко всему сообществу кто занимался экспериментами.

По стандарту 10g не должен работать. На практике на одиночных обычных (5e) в меру длинных патч-кордах всё работает. На дальние расстояния и в толстых жгутах не проверял

Ну про стандарт мы и не говорим. Хотя как по мне эти все "стандарты" с запасом сильно взяты. Я помню как 20 лет назад на 60 метров превышал длину кабеля (при 100 мбит) с дешманским б.у. кабелем. - все работало. Поэтому интересует именно практика. Уточните. патчкорды заводские до 5 метров комп-свитч? Или всетаки стандартные 25-40 метров офиснорго кабеля лично обжатого?

Стандарты дают гарантии: бери вот этот соответствующий стандарту кабель и на таких длинах он будет работать. Это не означает, что другой подешевле не будет, ну или подлиннее. Может вам и повезет, но уже без гарантий. А еще очень важна температура. К примеру, начиная с 20℃ в кабеле усиливается затухание сигнала (вот тут, к примеру есть табличка). Поэтому то, что вроде как работало на 10Гбит ранее, в период включения батарей почему-то может и перестать. Или базовую станцию на крыше запустили и опять то, что хорошо работало, почему-то перестало.

Я хочу сказать, что особого смысла в этих экспериментах не будет – они исключительно индивидуальны: right here, right now.

Непонятно про 1000BASE-T. Вы пишете:

Каждый байт передаваемых данных разбивается на четыре части по два бита, и эти части передаются параллельно по четырём парам (пришло из 100BASE-T4).

А как в этой схеме организуется дуплекс?

За счет специальной обработки сигнала т.н. гибридными схемами. Каждая пара работает в полном дуплексе. Таймеры обеих сторон синхронизированы по одной из них. Они одновременно отправляют информацию в канал. При этом получатель видит как свой сигнал, так и отправленный другой стороной наложенными. Но он знает, что и когда отправлял сам. Это позволяет убрать собственный сигнал из полученного и восстановить то, что было передано другой стороной.

лучше подвести хотя бы два кабеля, чтобы можно было при необходимости объединить их в один логический порт (port channel) и в некоторых случаях удвоить доступную пропускную способность.

Интересно узнать, какие требования к сетевому оборудованию нужны, чтобы объеденить две витых пары cat5e в один логический порт (port channel).

Обычно возможность организации транка указана к используемому оборудованию (как сетевой плате так и коммутатору).

Ключевые слова lacp, 802.1ad

802.1 ad например.

Ну или софтовые решения по аналогии с iphash, которым не нужен свитч поддерживающий это.

Гуглить open switch и netplan bonding

Микрот умеет ad за дешево

Шикарный пост. Вспомнил про брелки из терминаторов.

питание и данные по 2 проводам - очень полезно.

Тот же модбас/канбас с дейзичейном и хотя бы 50 ватт питания сложно переоценить для пром или домашней автоматики.

Однако, я надеюсь что питание и данные по 2 проводам приведут к развитию поверлайна а не только эзернета.

С изумлением обнаружил, что в столь подробной и детальной статье автор совершенно оставил без внимания тот момент, когда логическая (подчеркиваю) топология сети из "шины" превратилась в "звезду". И то, чем отличается хаб от свитча/коммутатора. Как следствие, не упомянуто то обстоятельство, что полный дуплекс в шинной топологии (по крайней мере в те времена, когда он появился) был невозможен.

Не упомянуты, как будто их совсем не существовало, такие понятия, как CSMA/CD и домен коллизий. Не проговорено, что физическая топология "звезда" в StarLAN (и 10Base-T) предпологала, тем не менее, логическую топология "шина" — ровно тем же способом, что и предшествующие коаксиальные варианты.

А ведь это принципиальные моменты, фундамент, так сказать. Обескуражен, если честно.

P.S. Впрочем, выше в комментах на это тоже обратили внимание.

Спасибо за замечание, добавил и эту часть истории.

Супер! Спасибо.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий