Комментарии 11
ну вот и реализовали хохму с баша:
xxx: Ты девственница?
НЕРВАНА: Да а как ты догадался
xxx: Ну, значит с орфографией у тебя все в порядке
НЕРВАНА: Чего
xxx: Нирвана через «и» пишется…
xxx: Ты девственница?
НЕРВАНА: Да а как ты догадался
xxx: Ну, значит с орфографией у тебя все в порядке
НЕРВАНА: Чего
xxx: Нирвана через «и» пишется…
+4
Быстрый гуглёж вида «Intel Nervana NNP-I vs GPU» подсказывает, что эти девайсы в 100 раз быстрее (каких-то) GPU. Порядок действительно верен?
И что у них по ценам (хотя бы приблизительно)?
И что у них по ценам (хотя бы приблизительно)?
0
Отвечая на свой же вопрос, на сайте Nvidia нашёл, что если сравнивать по TOPS, то их Tesla T4 может 130 TOPS (INT8), Tesla P40 — 47 TOPS, Tesla P4 — 22 TOPS. Не знаю, правда, одинаковые ли при измерениях использовались попугаи.
0
Да вроде те же самые попугаи. Количество операций, только при перемножении матриц определенного формата с данными очень низкой точности — целочисленных 8 битных (INT8). Что даже для нейросетей только для некоторых годится.
На более-менее универсальных FP16 вычислениях тут только около 7-8 TFLOPS будет (по 5x512 битных векторных модуля в ядре для операций с плавающей точкой), против ~30 TFLOPS у V100. Т.е. V100 существенно мощнее этих решений от Intel, как и предыдущий P100.
Впрочем и энергии Tesla жрет в несколько раз больше под полной нагрузкой — до 250-300 Вт на плату.
А для экономичных встраиваемых решений NV разработали серию отдельных чипов, например: NVIDIA Jetson Xavier NX
14-21 TOPS (на INT8 операциях) и ~1.5 TFLOPS (FP16) при потреблении энергии всего 10-15 Вт
На более-менее универсальных FP16 вычислениях тут только около 7-8 TFLOPS будет (по 5x512 битных векторных модуля в ядре для операций с плавающей точкой), против ~30 TFLOPS у V100. Т.е. V100 существенно мощнее этих решений от Intel, как и предыдущий P100.
Впрочем и энергии Tesla жрет в несколько раз больше под полной нагрузкой — до 250-300 Вт на плату.
А для экономичных встраиваемых решений NV разработали серию отдельных чипов, например: NVIDIA Jetson Xavier NX
14-21 TOPS (на INT8 операциях) и ~1.5 TFLOPS (FP16) при потреблении энергии всего 10-15 Вт
0
А как обстоят дела с поддержкой актуальных фреймворков для машинного обучения (Tensorflow, MXNet и т.п.)?
0
Я очень надеюсь что будет удобнее Movidius Neural Compute Stick. Ну и что на них сейчас ценник упадет заодно. хотя бы до 20-25$
0
НЛО прилетело и опубликовало эту надпись здесь
Еще бы бенчмарки ;) и желательно на основе каких-нибудь опенсорс библиотек, а то теоритическое улучшение 'производительности и потребления' это какие то слишком абстрактные попугаи.
Цены на железо в студию ;)
Цены на железо в студию ;)
0
При проектировании Intel Nervana NNP-I преследовалась цель обеспечить максимальную энергоэффективность при инференсе в масштабах больших дата центров — порядка 5 TOP/Вт.
Максимальная производительность составляет 92 ТОРS, TDP — 50 Вт.92/50 = 1.84 TOPS/Вт
Это надо расценивать как признание «Ну не шмогла я, не шмогла!» (с)?
Или маркетологи Intel какие-то новые Ватты изобрели при делении на которые получится 5 вместо <2?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Intel Nervana NNP-T и NNP-I — специализированные чипы для AI