Pull to refresh

Comments 16

А где фото super керамического разъёма, что бы случайно не поплавился?

Где-то читал, что на суперах будет уже ATX 3.1 разъем, который 12V-2x6. Они уже не плавятся. Но нужен будет поддерживаемый БП.

12VHPWR отличается от 12V-2x6 по сути только укороченной длиной sense-пинов. Защита от дурака, чтобы пользователи до конца вставляли штекер.

Со стороны БП разъём не претерпел никаких изменений.

Нет. Там ещё 0-Ватт настройка со стороны БП.

Вот здесь дядька подробно объясняет.

What do I need to get the complete protection that 12V-2×6 offers?

An ATX v3.1 PSU with a high-power (12+4 pin) cable plug and a graphics card with a 12V-2×6 PCB header.

Пора уже такие видеокарты выселять в старый добрый пятидюймовый слот, каким-нибудь гибким x16-кабелем, максимальной длины экспресса должно хватить. Рядом чистый воздух (забрала, прососала и выдула немного вверх, не в рожу юзеру), масса карты слот из материнки не выламывает, питание можно подводить хоть отдельной шиной в палец толщиной, хоть от отдельного БП в соседнем слоте…

И опять видеопамяти мало... Так нейронки толком дома не погонять...

Я вот кстати не понимаю: почему до сих пор никто не сделал видеокарту с возможностью доставлять туда дополнительную память? Вот как в компьютер ставят планки RAM, так и на видеокарте слоты под планки VRAM сделать. Пусть она будет медленнее, для нейронок это не так важно. Ведь очевидно же, что в современном мире, когда популярность нейросетей растёт как на дрожжах, видеопамяти много не бывает. Хоть терабайт поставь - всё равно больше захочется.

Потому что вставка NVMe накопителя в видеокарту по бизнесу NVidia/AMD не ударит, а вот вставка ОЗУ - ударит.

Потому что такая карта будет конкурировать со старшими или специализированными моделями.

Зачем продавать вам более дешёвую карту с возможностью модернизации, если сразу можно продать более дорогую ? Правильно, незачем.

В последних версиях драйверов видеокарта начинает использовать системную память при переполнении видеопамяти. И кстати нейронки на это очень отрицательно реагируют. Например, я как-то LORA для Stable Diffusion обучал с немного неправильными параметрами и при переполнении видеопамяти и переходе в обычное ОЗУ скорость обучения снизилась примерно в 70 раз. Причем это не вылечилось закрытием программ и убийством задач в диспетчере - только перезагрузка.

Но непонятно или обычная память для нейронок медленная или они просто не умеют работать с системной памятью или это пока такая кривая реализация драйверов.

Обычная память для нейронок медленная, по тому что доступ к ней происходит через PCIe. Процессор с памятью чуть получше соединён, по этому иногда выгоднее запустить нейронку на многоядерном процессоре с большим количеством каналов памяти - каком нибудь AMD EPYC, чем в таком режиме. Собсвенная память GPU доступна, во первых, на огромных скоростях, во вторых, с минимальной латентностью, в третьих, там ещё и кэш есть, тоже огромный.

Пусть она будет медленнее, для нейронок это не так важно.

С чего бы это не важно?

Там даже разработка более-менее унифицированного разъёма потребует нешуточных усилий, ибо гигагерцы. Да и чипы памяти там кто в лес, кто по дрова — никто не планировал взаимозаменяемости. Есть одна модель, к ней подходят несколько чипов, отличающихся фактическим размером, она выпускается с одними, другими или третьими. Максимум можно рассчитывать перепаять-перешить. А сделать так, чтобы подошли чипы «от чего угодно» — потребует суровой стандартизации геометрии/таймингов или не менее суровой адаптации карты к непредсказуемой геометрии/таймингам. Тут оправдан «заводской ремонт» — сдохла память, поменял с доплатой на карту с максимальной памятью, а они старую отпаяли в помойку и «перепаяли-перешили». Но как-то надо урегулировать попытки юзеров подсунуть карту с горелым GPU, помимо памяти.

Справедливости ради, я тоже хотел такую карту, но мои мечты сразу пошли по более-менее инженерному пути боли и компромиссов :) Взять кучу дешёвых мобильных GPU, изначально умеющих работать с обычными планками DDR, каждому дать по два слота DDR3 (её на вторичном рынке за пучок пятачок) и, возможно, поставить один «продукт процессоросодержащий» (чтобы инициализировать весь этот цирк), если через шину не получается. Графику как таковую они не очень хорошо смогут считать (между ними связь слабовата), но какие-нибудь нейросетки — вполне. Если их штук 8, на каждом два слота, в каждом по древней копеечной гигабайтной планке (можно даже бучной) — уже 16 гиг. А если сделать слот под десктопную и два под бучную (не помню, что там с шириной, но вроде бы так можно) — то ещё веселее, собрал туда все объедки с апгрейдов и получил 24, а то и 64 :) Любая ЛоРА будет довольна :)

Кстати, неплохо было бы, если бы какой-нибудь хабрагений попробовал «перепаять-перешить», тут люди иной раз такое творят…

UPD: пересмотрел старый каммент, там я сначала размечтался об одном бучном GPU, но знающие люди поправили: длинные линии до дальних планок всё положат. Поэтому несколько совсем слабеньких GPU и каждому по 2-4 слота рядом. Жаль, нет никакого «кикстартера наоборот», где можно было бы заказать несуществующую вещь за сумму, которую считаешь разумной, а если наберётся кворум и её кто-то сделает — получить её. Если нет — все получают деньги назад, кроме инициатора, ибо нефиг мутить народ заведомо неосуществимыми хотелками и/или за заведомо нереальные деньги.

Кстати! Сейчас на avito появились nvidia tesla P40 с 24ГБ VRAM позиционируется как "вычислитель" и nvidia Tesla P100 с 16ГБ VRAM но с двое большей пропускной способностью памяти примерно по 20 000 рублей за штуку. Чиg пам Pascal GP102 и GP100 соответственно - это не хуже чем в 1080ti но памяти больше и дешевле. У этих карт нет nvlink

но есть и мезозинные аналоги с полноценным nvlink, они стоят в районе 30 000 рублей, но платформы куда бы их можно было установить я пока не видел. Но если появится - это будет "бомба" для домашних экспериментов с ИИ где нужно много VRAM.

Впрочем отсутствие nvlink не мешает запускать нейросети на нескольких GPU разделяя их по слоям.

У GPU довольно простой и дубовый контроллер памяти по сравнению с CPU, делать возможность произвольного количества памяти на произвольном количестве чипов не так просто.

Sign up to leave a comment.

Other news