Как стать автором
Обновить

Nvidia выпустила флагманский ускоритель A100 c 80 ГБ памяти

Время на прочтение3 мин
Количество просмотров21K
Всего голосов 9: ↑8 и ↓1+12
Комментарии23

Комментарии 23

Где то плачет Илон Маск Tesla

Энергопотребление пока неизвестно, но на пресс-конференции, заявили, что рабочая станция «работает от обычной розетки».

System Power Usage 1.5 kW at 100–120 Vac
Можно предположить, что возникнет дополнительный шум, связанный с подключением компрессора.

System Acoustics <37 dB
www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/dgx-station/nvidia-dgx-station-a100-datasheet.pdf

А за что NVM2e так перевели?

То есть это не «эйч-би-эм»?

Простите, кажется, я всех запутал. Память там, вероятно, HBM2e, хотя в спеках этого не нашёл. А накопители NVMe, это в спеках есть.
https://www.nvidia.com/ru-ru/data-center/a100/

теперь все моды на скайрим пойдут

Зашёл за этим комментом. И да, в вопрос надо добавить «на максималках».

… в 8к разрешении с рейтрейсингом

Не надо, в каноничном меме этого нет.

But can it run Minecraft RTX?

жалко, что в историю бенчмаркинга пекарного железа крепко вошёл именно неоптимизированный и скучный высер от крайтек

Интересно, когда уже эти чипы/модули перестанут называть видеоускорителями? Фактически, обработка именно видео для них стала далеко не первоочередной задачей.

НЛО прилетело и опубликовало эту надпись здесь
Цена на pci-e версию на 40Gb с пониженным энергопотреблением и явно скоростью (пусть будут заявленные 125 tensorflow tflops) в розницу 10к баксов.

Уже устаревающий rtx2080 с 11Gb памяти дает 58 tensor tflops и обойдется в $1.2к

Флагманский rtx3090 с 25Gb памяти и чуть лучше характиристиками (по бенчмаркам он ровно в 2 раза лучше 2080) — $2к

Т.е. за главную фичу — учетверение gpu памяти придется пятикратно завышать оплату.
так бывает за нишевый продукт. маркетинг и мелкопартийность.
НЛО прилетело и опубликовало эту надпись здесь
Если не секрет, что именно хотя бы приблизительно требует такой объем памяти именно в gpu? это ведь актуально если доступ к памяти практически рандомный иначе может хватить потока через cpu.
НЛО прилетело и опубликовало эту надпись здесь
Задача классная, но вопрос был больше как определили что вам нехватает именно оперативной памяти? постепенно усложняли модель до сходимости а она не сходилась?

зы или вы обучающую выборку целиком туда заливали?
80 ГБ это прям огого! Наконец то у жирных моделек можно будет батчи делать больше чем размера 1
При работе с ГПУ Nvidia заметил, что они улчшают координально архитектуру только через поколение. Так Volta не сильно то отличается от Pascal. Поэтому работаем на P100 и не стремимся получить доступ на V100, хотя такие давно есть в датацентрах. А вот архитектура Ampere это очень большой шаг вперед — пропускная способность и объем памяти существенно увеличены. Мы как то не используем тензорные модули (конечно необходимо глянуть их возможности), но вот очень бы хотелось протестить наработки на A100. Переход на P100 с пердыдущей архитектуры был очень результативным для нас.
640 GB ought to be enough for anybody
Зарегистрируйтесь на Хабре, чтобы оставить комментарий