Как стать автором
Обновить

Nvidia представила решение для ChatGPT — ускоритель Hopper H100 NVL с 188 ГБ памяти на базе двух H100

Время на прочтение1 мин
Количество просмотров8.2K
Источник: Nvidia
Источник: Nvidia

Nvidia представила новое решение, разработанное под ChatGPT и аналогичные массивные языковые модели — ускоритель Hopper H100 NVL. Он представляет собой пару ускорителей H100, объединённых интерфейсом NVLink. Как указывает Nvidia, ускоритель идеально подходит для масштабного развёртывания массивных языковых моделей по типу ChatGPT, обеспечивая в 12 раз большую производительность при работе с GPT-3 по сравнению с предыдущим поколением A100.

H100 NVL использует все шесть стеков памяти HBM3, обеспечивая в общей сложности 188 ГБ памяти против 80 ГБ у предшественника. Также Nvidia заявила о пропускной способности до 7,8 Тб/сек и производительности 68 TFLOPS (FP64), 134 TFLOPS (Tensor Core FP64) и 7916 TOPS (INT8). Ниже приведена сравнительная таблица H100 NVL и H100 (в SXM и PCIe).

Nvidia не предоставила дополнительных подробностей об ускорителе. Компания планирует запустить его во второй половине 2023 года.

Теги:
Хабы:
Всего голосов 12: ↑11 и ↓1+16
Комментарии7

Другие новости

Ближайшие события