Комментарии 21
Можете объяснить, как "разбить шину на несколько корневых контроллеров"? И что такое корневой контроллер? Если вы имеете ввиду pci(e) host bridge/root port, то как вы собираетесь добавлять кусочки в io hub на процессоре?
Практический вопрос, где вы берете карты расширения с oculink? Те как из мини-pc с oculink сделать расширяемую машину. Такой же вопрос про tb 3/4.
Встроенный контроллер PCIe RK3588, например, может работать в режимах один в x4, либо два в x2, либо четыре в x1
Карты M.2 | OCuLink заказываю с Али, также Озон возит. Что такое tb 3/4 ?
Thunderbolt 3 и 4, он туннелирует pcie.
Можете набросать линков на oculink-карты? Вообще было бы идеально что-то наподобие корпуса расширения со слотами PCIe, втыкаемого в oculink или tb. Это звучит как корпус для внешней видеокарты, и в принципе им и является. Но вот приличных устройств на али я не находил (нужно не для видео).
Про тандерболт пока не думал, просто не до него было
Про линки не очень понял, зависит от коммутатора же ведь, сейчас самый простой использую. В планах на 12-портовом сделать аналогичный модуль, на 24 портовый пока задачи не было
Про внешний кейс, имеет смысл OCuLink 8 ставить сразу. Точно видел адаптеры, а что касается внешнего корпуса, то вроде ничего сложного, но скорее всего надо будет уже ретаймеры ставить
Под линками я имел ввиду ссылки на позиции товаров.
Я и хочу готовый внешний корпус с ретаймерами, со свитчем (для нескольких слотов), с блоком питания, и с oculink для апстрима.
А не подскажете, есть ли реализации подобного для pci-e 5.0? Соответственно, на сколько я понимаю, нужен oculink для 5.0 и, главное, коммутатор. Существуют ли такие (5) и стоит ли вписываться в такую реализацию (не будет ли дешевле второй системник просто?)?
Классная штука.
Сам чип хаба не нагревается? Не отваливается, если его нагрузить в 100%? Просто на майнерских платах на хабах стоят нефиговые такие радиаторы, тут же ничего нет...
Ух ты, спасибо за ликбез! Правильно я понимаю, что нужно что-то одно: ИЛИ поддержка PCIe-бифуркации на мат.плате ИЛИ "коммутатор PCIe"? У меня в домашнем насе бифуркации нет, какие слова гуглить в конечной плате расширения? Пробовал добавить вот такую штуку себе - https://www.amazon.com/dp/B0B7BHM954 но ей-таки необходима бифуркация
Коммутатор более универсальное решение, так как он подходит абсолютно к любой материнке, независимо поддерживает проц/контроллер бифуркацию или нет. К тому же бифуркация все равно будет ограничена количеством доступных лэйнов, а в варианте с коммутатором, число лэйнов может только расти. Так в данном модуле, на входе два лэйна, а на выходе четыре лэйна, причем эти четыре лэйна могут работать как четыре отдельных порта, либо как один сдвоенный и два по x1. Также, как в моем примере было с тремя модулями, коммутаторы можно включать один в другой, как бы дерево получается. Проблема только в джиттере, но тут уже технический вопрос скорее будет
Комбинация бифуркация + коммутаторы = самое оптимальное решение
По ссылке это обычный адаптер для материнок, поддерживающих бифуркацию. Адаптеры с коммутаторами стоят от 10тр и выше в зависимости от производителя
Забавно только то, что никто это ни черта не покупает. Даже один заказчик у нас требовал мост-разветвитель на 2 mini PCIe от одного тайваньского производителя, с которым мы уже 9 лет не поддерживаем отношений, но когда ему было сказано, что "мы можем сделать, если вы оплатите разработку или закажете минимум 20шт", они заткнулись. Купили бы, если бы было "со склада". В итоге мы сделали такой мост в инициативном порядке, сделали две рассылки по клиентской базе и только через год получили один заказ на 15 штук. Много ли денег можно заработать на пятнадцати мостах? Другие модели вообще не заказывают.
Прекрасно понимаю вас. Думаю надо проталкивать не отдельные компоненты, а систему, создавать сервис, поддержку, нацеливать на решение в целом задач. Например, собрать модульный NAS, модульный софтовый маршрутизатор, комбинацию этих модулей чтобы NAS+Router получился. Можно и как отдельную свою систему на основе своих модулей, а также как систему апгрейда для существующих компов. Если еще и софт свой, сборки готовые, то тогда и модули можно будет продавать нормально, а не только тем, кто и сам софтину накатить может
Я вам ещё в прошлой статье откомментировал, что рынок сего не понятен. Подключая 12 или 16 SSD-модулей к одному root-порту, вы создаёте бутылочное горлышко. Раздавать контент сотне клиентов по сети? надо ли для этого вписываться в конструктив mini ITX? А NAS корпоративного класса работает с другими размерностями и другими скоростями. В космос - не пустят, там куча всяких сертификаций и др и пр.
Ну какой то здравый смысл всегда должен быть. Вешать все на один порт и при этом думать что скорость останется прежней не очень разумно. С другой стороны скорость лэйнов очень приличная, коммутатор использует несколько лэйнов, что позволит компенсировать большое количество устройств. Также как в примере у меня, некоторые устройства используются редко, карта памяти, например. При этом она занимает до двух лэйнов, в тут она их "освобождает" пока ей не пользуются.
Я вот несмотря на 40 лет стажа о такой штуке первый раз услышал!
Очень мало документации и описаний.Например что на x99 материнках разъем pcie x1 работает в режиме 2.0 только опытным путем определил!
Кстати, очень интересно на какой скорости в этой связке ссд будут работать? Сейчас у меня система на сата диске, м2 для работы и можно ещё один добавить в адаптер pcie - m2
Я тестил пока зеркало, результаты очень хорошие, в некоторых случаях при копировании по Самбе упираюсь в сетку десяти гигабитную. Синхронизация массива тоже быстро проходит практически не отличается от вариантов с прямым подключением
Как я понимаю, в проекте используется ASM2806 - единственный чип 3-го поколения, на который доступна документация. Если на каждое устройство PCIe выделяется одна линия, то пиковая скорость передачи будет близка к 8ГТ/с, или 7 с копейками Гбит/c. Cредняя скорость зависит от количества подключенных устройств и от распределения запросов на доступ между ними. А ещё от того, какого рода коньтент передаётся, скажем, при раздаче видео в многопользовательской сети узким местом будет не передача от SSD к ЦПУ, а упаковка и раздача разных потоков разным пользователям.
По документации у меня особых проблем нет, так как я получил ее официально на все семейство, включая 2824. С чего то надо было начать чтобы понять можно ли будет работать с Asmedia. Оказалось можно, есть и поддержка, и интерес компании к новым разработкам на основе их чипов. Также и по другим контроллерам проблем не возникало, в основном это PCIe / SATA, для которых также удалось получить доступ к документации и фирмварю
Мосты PCIe-PCI появились в ширпотребе уже довольно давно, в начале 2010х - когда Интел отказался от поддержки параллельной шины PCI, производители мат.плат стали встраивать мост на ASM1083 прямо в мат.плату, чтобы там появился разъём PCI. Юзеры на эти мат.платы регулярно ругались, т.к. пытались использовать с ними профессиональные звуковые карты, которые через этот мост регулярно глючили. Но это всё дела минувших дней. А коммутаторы что Ethernet, что PCIe это всё примерно одного поля ягода, т.к. все они занимаются коммутацией пакетов. Неудивительно что ассортимент таких коммутаторов самый богатый у Broadcom. Только они дорогущие и документации на них нет.
Конструктор шины PCIe