Pull to refresh

Comments 17

Извините, не понимаю, в чем практический смысл покупать V100 16Gb SXM2 за 15 плюс корпус, если, с одной стороны, существует готовая V100 PCIe с таким же объёмом VRAM, а с другой, существует V100 32Gb SXM2 примерно за 40 уже в адаптере, и, с третьей, мало какая модель влезает на 16 гиг.

Tesla V100 вместе с корпусом от RTX 4090 в сборе обошлась примерно в 15 тр, она и пришла в коробке от RTX 4090. Проблема PCI-E версии Tesla V100 в пассивной системе охлаждения и перегреве в рабочих задачах и играх из-за чего происходит сброс частот и падение производительности. Видел в продаже небольшие турбины для них, но пользователи пишут, что они малоэффективны и издают неприятный свист. Tesla V100 на 32 Гб стоит кратно дороже, хотя для запуска и работы с ИИ выглядит предпочтительнее. По моделям ИИ, которые можно на ней запустить напишу отдельный обзор. На ютубе есть видео с тестами Tesla V100 в работе с ИИ.

На авито rtx 2080 стоит примерно тех же денег. v100 как раз по уровню ядра и памяти соответствует rtx 20ХХ. Но в 2080 памяти 8 Гб, а тут в два раза больше. Ну, ждем тестирование, желательно и в играх, и в LLM.

По тестам в 3D Mark Tesla V100 ближе к RTX 2080 Ti.

Здесь надо сказать, что этот древний GPU умеет критически мало: он не поддерживает практически ничего из современных типов квантования. Нативно поддерживается лишь FP64 / FP32 / FP16 и INT32 / INT16 / INT8 (ограниченно) — в этих типах примерно околонулевой выбор для скачивания моделей. Вам придётся искать FP16, а это приличные объёмы, которые тяготеют хотя бы к 4 штукам V100 32GB на NVlink (суммарно ~250-300 рублей). Этот бюджет рациональнее потратить на что-то типа Ryzen AI 395 или NVIDIA DGX Spark — та же производительность, но максимальная поддержка и всеядность, энергопотребление на порядок меньше, ликвидность на рынке. На мой взгляд, основная ценность Tesla V100 раритетная: это эпохальный GPU, с которого во многом начиналась нынешняя эпоха ИИ. Его достойное место — под стеклом, на видном месте. Но это совсем другое.

Да, это старый серверный ускоритель из далекого 2017 года. Однако на нем можно запускать небольшие современные модели ИИ. На huggingface большой выбор квантованных GGUF моделей с эмуляцией 16 бит (FP16), которые без проблем запускаются в lmstudio. Главная проблема на мой взгляд в недостатке памяти - 16 Гб мало, а использование RAM сильно замедляет работу модели ИИ.

Вопрос в том как долго. vLLM дропнули поддержку. llama.cpp ещё поддерживает, но разработчики сосредоточились на следующих поколениях.

В играх температура Tesla V100 не поднимается выше 60 °C, а обороты вентиляторов не выше 35%.

Такое хорошее охлаждение? У меня вариант с турбиной и до 83 градусов доходит. Турбина ревёт на максимальных оборотах.

Спасибо Вам за обзор на ютубе! Смотрел Ваш обзор и у Мой компьютер c "турбированной" версией Tesla V100. В итоге отказался потому что многие жаловались на сильный шум и высокие температуры. У RTX 4090 огромный радиатор с тепловыми трубками и три вертушки, поэтому с охлаждением нет проблем. Но зато версия с турбиной тоньше моей раза в два, и скорее всего я бы не столкнулся с проблемой перекрытия слотов PCI-E на материнской плате.

Я сейчас Titan V заказал. Попробую её. :) Это та же Tesla V100, только с видеовыходом, немного урезанной шиной памяти и объёмом ОЗУ 12 ГБ.

Самая мощная видеокарта того времени. Tesla V100 и Quadro GV100 все-таки для других задач.

Шина памяти 1024 бит

4096 бит.

Поскольку у Tesla V100 объем памяти составляет 16 Гб, система должна поддерживать адресацию памяти выше 4 Гб.

Вычислительные модули до V100 могли работать в двух режимах: графический и вычислительный. Разница в окне общения с картой - в графическом карта косит под видеокарту. В графическом режиме там окно 256 МБ. В вычислительном память доступна напрямую в полном объёме. Так вот, Tesla P100 можно перевести в графический режим командами (и она будет работать где угодно):

nvflash64 --gpumode compute - в вычислительный.

nvflash64 --gpumode graphics - графический режим

nvflash64 --save backup.rom - сохранить (на всякий случай) прошивку.

Но Tesla V100 не имеет графического режима. Он удалён. Её перевести в этот режим нельзя.

Поправил, спасибо!

В Кибер Кузнице на youtube вроде перевели 32GB версию в графический режим и на свежие драйвера. Или это не то?

У меня получалось устанавливать последнюю версию драйвера таким способом и система стабильно работала, но после одного из недавних обновлений Windows 11 - пк перезагрузился и тесла перестала определяться в системе. Теперь если удалить драйвер и повторно установить по этой методике последнюю версию, драйвер работает пока не перезагрузишь или выключишь/включишь пк. С версией 553.74 проблем нет.

Вообще, в документации на V100 в pci-e исполнении написано так:

То есть, Compute only. Мне так же не удалось её перевести в графический режим. Посмотрите на BAR1. Он аж 16 ГБ. Это и есть причина, почему нужно включать адресацию выше 4 ГБ на матплате.
А вот такая же таблица для P-100.

Здесь есть Graphics Mode и BAR1 для него указан в 256 МБ. Это работает на любых матплатах.

Не знаю, что там сделали в Кибер Кузнице, надо посмотреть. Но, полагаю, сменой прошивки на самодельную, вероятно, можно реализовать графический режим.

Серверные (grid) драйверы от google поддерживают режим WDDM.

https://docs.cloud.google.com/compute/docs/gpus/grid-drivers-table

Чтобы скачать драйвер вставляем в строку URL - https://storage.googleapis.com/nvidia-drivers-us-public/GRID/<Имя файла>

Например, https://storage.googleapis.com/nvidia-drivers-us-public/GRID/vGPU19.4/582.16_grid_win10_win11_server2022_server2025_dch_64bit_international.exe

Что касается канала Кибер Кузница, то там сначала установили оф драйвер для tesla v100 (v.566.03) с сайта nvidia и попытались через терминал винды (cmd) перевести ее в режим WDDM командой nvidia-smi -g 0 -dm 0. Появилась ошибка, так как оф драйвер от nvidia не поддерживает режим WDDM. Потом они скачали самый свежий серверный (grid) драйвер от google. Открыли установщик драйвера архиватором и распаковали содержимое в папку. Потом зашли в диспетчер устройств и установили драйвер вручную, указав папку в которую распаковали содержимое дистрибутива драйвера. Потом снова открыли cmd и командой nvidia-smi -g 0 -dm 0 успешно активировали режим WDDM. Мне например, не нужно было активировать режим WDDM командой в терминале, так как драйвер от google устанавливается в этом режиме по умолчанию. Как я писал выше на моем ПК эта методика больше не работает. Вернулся на grid драйвер от google версии 553.74. Устанавливал его через инсталятор (без распаковки и ручной установки) и он тоже по умолчанию работает в режиме WDDM.

Sign up to leave a comment.

Articles