Да не вопрос — ebay.com :)
2х портовый qsfp (40 гигабит) — Mellanox CX354A-FCBT (ebay)
QCBT можно пережить в fcbt, но китайцы по-моему и так все перешивают в старшие модели и продают уже как старшие модели.
Есть еще однопортовый (cx353a), но смысла нет — деньги те же, а порт один. дока1дока2
Для подключения лучше использовать пассивные медные патчкорды (dac кабели)
dac кабель — MC2207130-001 (1 метр) или MC2207130-002 (2 метра).
Никакие трансиверы в этом случае не нужны. Смотреть на ebay, хотя на авито может что-то интересное пролетать
IB свитч mellanox is5022 (ebay)
Для Eth смотреть свитчи с qsfp портами. Скорее всего это будут большие железки для установки с стойку. На ебее есть интересные (и относительно недорогие) варианты, но из-за размера/веса и возможных проблем с таможней тащить их не очень интересно.
Еще особенность 40 гигабит — по сути это 4*10 гигабит агрегированных линка. Есть кабели которые позволяют разбивать 40 гигабитный порт на 4 по 10 гигабит (пример) но только со стороны свитча + требуется поддержки свитча
Также у мелланокса есть переходники для подключения в 40 гигабитный порт 10 гигабитных модулей (sfp+) MAM1Q00A-QSA
Да, 354a мелланокс относительно не дорог (немного дороже 10 гигабитных sfp+ карт). Может работать как IB так и Eth.
Потребуется еще dac кабель примерно такой MC2207130-001
Основной затык, пожалуй, в свитче. Eth свитч с QSFP будет довольно дорог.
Как вариант если нужно объединить несколько серверов (gpu/data), то можно их залинковать по IB, а для доступа к остальной сети использовать встроенные гигабитную сетевуху. В этом случае можно посмотреть на бюджетную IS5022 (свитчи с гетвеем IB<->Eth стоят на порядок-полтора дороже). Но сам такое не пробовал.
Там вроде есть BIFURCATED RISER X16 TO 2X8 (SET) — или я чего-то в упор не вижу?
да, чего-то не туда сначала посмотрел
как вариант брать гибридные карты просто
но их не купить просто так
не. ну вот будет допустим 6 карт, у ним 6 радиаторов и 12 патрубков определенной длины. Как все это хозяйство размещать я не представляю. А оставлять тепло внутри корпуса — тогда не очень ясно зачем вода :)
У майнеров есть корпуса на 6 карт для размещения в стойке. с ними одна проблема — карты устанавливаются не над материнкой, а за ней и райзеры в виде шлейфов подключить не получится. А вот райзеры из ссылки выше — довольно интересны (те что x8), но дадут еще +$50-60 на карту. На 6 карт — $350. Может лучше эту сумму добавить чтобы купить что-то типа такого?
С водой есть свои приколы — нужно обеспечить герметичность внутри корпуса, по-хорошему радиатор и вентиляторы нужно выносить за пределы корпуса, а для этого надо вывести трубки, причем так, чтобы они не перегибались, продумать возможность долива жидкости и слива/залива при необходимости обслуживания и т.п.
Но в эксплуатации вода в очень хороша
tf.config.experimental.set_virtual_device_configuration (нынче tf.config.set_virtual_device_configuration) позволяют разбить даже 1080ti, причем как угодно. Единственное ограничение — объем памяти.
Вот что-то эти два утверждения режут мне слух и не кажутся тождественными.
Представьте, что мы живем в мире, где среднее время доставки всегда составляет 30 минут или меньше
Поскольку мы всегда верили пиццерии, что она может выполнить свое обещание доставить пиццу за 30 минут или меньше
Поэтому либо все же либо переводчик не сильно разбирается в теме, либо автор.
И что-то мне кажется, что P(налажал переводчик) > P(налажал автор | переводчик разбирающийся в теме выбрал материал с ошибкой)
В принципе здесь и нулевая гипотеза и альтернативная. Можно попробовать посчитать p значение :)
Тем более, сравниваете вы ее с P620, на которой имею удовольствие работать. Не знаю какой САПР вы используете, но Inventor в 3-4к деталей вызывает в ней лаги, и упирается она не в память =). Есть мнение, что какая-нибудь 1030\1060 даст примерно такой же или лучший результат. Найду адекватный тест, обязательно проверю. Т.е. проще взять сервак и навтыкать туда видях =)
Не прокатит. GeForce в RDP не работают и в виртуалки не пробрасываются (если точнее то не включаются драйвера). В Linux (kvm) вопрос решается, а вот в Винде — вроде как нет.
Почему RDP а не виртуалки — а как вы предлагаете одну железку расшарить между несколькими виртуалками? а карты где работают виртуальные gpu каких-то безумных денег стоят (по сравнению не только с бытовым сегментов, но и с квадрами). Квадры в RDP работают вполне себе нормально.
Не совсем понял вас, что значит сингловая карта и почему квадра является такой. Если с точки зрения количества клиентов — то фигня. даже на бытовом сегменте можно нагрузить кучей задач (пока памяти хватает). Если нагрузка упрется в 100% по GPU, ресурсы будут примерно равномерно распределяться по задачам.
Так что предложенное решение с точки зрения использования GPU видится вполне приемлемым.
2х портовый qsfp (40 гигабит) — Mellanox CX354A-FCBT (ebay)
QCBT можно пережить в fcbt, но китайцы по-моему и так все перешивают в старшие модели и продают уже как старшие модели.
Есть еще однопортовый (cx353a), но смысла нет — деньги те же, а порт один. дока1 дока2
Для подключения лучше использовать пассивные медные патчкорды (dac кабели)
dac кабель — MC2207130-001 (1 метр) или MC2207130-002 (2 метра).
Никакие трансиверы в этом случае не нужны. Смотреть на ebay, хотя на авито может что-то интересное пролетать
IB свитч mellanox is5022 (ebay)
Для Eth смотреть свитчи с qsfp портами. Скорее всего это будут большие железки для установки с стойку. На ебее есть интересные (и относительно недорогие) варианты, но из-за размера/веса и возможных проблем с таможней тащить их не очень интересно.
Еще особенность 40 гигабит — по сути это 4*10 гигабит агрегированных линка. Есть кабели которые позволяют разбивать 40 гигабитный порт на 4 по 10 гигабит (пример) но только со стороны свитча + требуется поддержки свитча
Также у мелланокса есть переходники для подключения в 40 гигабитный порт 10 гигабитных модулей (sfp+) MAM1Q00A-QSA
И еще здесь можно много интересного найти
Потребуется еще dac кабель примерно такой MC2207130-001
Основной затык, пожалуй, в свитче. Eth свитч с QSFP будет довольно дорог.
Как вариант если нужно объединить несколько серверов (gpu/data), то можно их залинковать по IB, а для доступа к остальной сети использовать встроенные гигабитную сетевуху. В этом случае можно посмотреть на бюджетную IS5022 (свитчи с гетвеем IB<->Eth стоят на порядок-полтора дороже). Но сам такое не пробовал.
да, чего-то не туда сначала посмотрел
не. ну вот будет допустим 6 карт, у ним 6 радиаторов и 12 патрубков определенной длины. Как все это хозяйство размещать я не представляю. А оставлять тепло внутри корпуса — тогда не очень ясно зачем вода :)
С водой есть свои приколы — нужно обеспечить герметичность внутри корпуса, по-хорошему радиатор и вентиляторы нужно выносить за пределы корпуса, а для этого надо вывести трубки, причем так, чтобы они не перегибались, продумать возможность долива жидкости и слива/залива при необходимости обслуживания и т.п.
Но в эксплуатации вода в очень хороша
Вот что-то эти два утверждения режут мне слух и не кажутся тождественными.
Представьте, что мы живем в мире, где среднее время доставки всегда составляет 30 минут или меньше
Поскольку мы всегда верили пиццерии, что она может выполнить свое обещание доставить пиццу за 30 минут или меньше
Поэтому либо все же либо переводчик не сильно разбирается в теме, либо автор.
И что-то мне кажется, что P(налажал переводчик) > P(налажал автор | переводчик разбирающийся в теме выбрал материал с ошибкой)
В принципе здесь и нулевая гипотеза и альтернативная. Можно попробовать посчитать p значение :)
Не прокатит. GeForce в RDP не работают и в виртуалки не пробрасываются (если точнее то не включаются драйвера). В Linux (kvm) вопрос решается, а вот в Винде — вроде как нет.
Почему RDP а не виртуалки — а как вы предлагаете одну железку расшарить между несколькими виртуалками? а карты где работают виртуальные gpu каких-то безумных денег стоят (по сравнению не только с бытовым сегментов, но и с квадрами). Квадры в RDP работают вполне себе нормально.
Не совсем понял вас, что значит сингловая карта и почему квадра является такой. Если с точки зрения количества клиентов — то фигня. даже на бытовом сегменте можно нагрузить кучей задач (пока памяти хватает). Если нагрузка упрется в 100% по GPU, ресурсы будут примерно равномерно распределяться по задачам.
Так что предложенное решение с точки зрения использования GPU видится вполне приемлемым.
RAID это не про надёжность, это про доступность. Схватите шифровальщика и не будет ни инфы ни бекапов