Comments 24
«Компания не планирует продавать свои процессоры кому-либо» — обидно, однако
+2
Наверняка так будет ровно до тех пор, пока кто-нибудь другой не выйдет на рынок с аналогичным продуктом.
Правда Google, возможно, сможет задушить конкурентов патентами. Без детального анализа трудо сказать наверняка.
Правда Google, возможно, сможет задушить конкурентов патентами. Без детального анализа трудо сказать наверняка.
+1
Мы предлагаем ими воспользоваться как сервисом: https://cloud.google.com/ml-engine/. По задумке, использование сервиса будет дешевле, чем запуск аналогичных моделей на CPU. https://cloud.google.com/speech/ тоже использует TPU.
+1
Так биткойны теперь продавать или покупать? )
-2
"Специализированный ASIC" — это как "масляное масло". Сама аббревиатура ASIC уже обозначает Application-Specific.
+5
>> до последнего времени, когда внедрила машинное обучение для ряда практических задач, и на эти нейросети начала расти нагрузка с миллиардами запросов от пользователей
А я думал основные мощности во время обучения идут, а потом нет. А тут оказывается от к-ва запросов к обученой сети зависит
А я думал основные мощности во время обучения идут, а потом нет. А тут оказывается от к-ва запросов к обученой сети зависит
0
>>в то время как в более новой версии Broadwell Xeon E5 v4 количество инструкций на цикл увеличилось на 5% благодаря архитектурным улучшениям, а в версии Skylake Xeon E5 v5, которая ожидается летом количество
инструкций на цикл может увеличиться ещё на 9-10%.
И все? Вот берем Бродвель, сравниваем со Скайлейком и получаем только +10%? Странно что их кто то покупает…
инструкций на цикл может увеличиться ещё на 9-10%.
И все? Вот берем Бродвель, сравниваем со Скайлейком и получаем только +10%? Странно что их кто то покупает…
-2
Сравнивают плавающее умножение на CPU и GPU с умножением 8 битных целых на TPU. Конечно, в итоге будет сравнение по теплу будет в сто раз. Но что интересно, заявлено что на Haswell пускали также целочисленное 8 битное умножение и оно дало в два раза большие цифры, чем плавающие операции. Что странно, ибо в AVX2 есть инструкции для умножения векторов с 8 битными элементами, что даёт 4 кратное увеличение пропускной способности по сравнению с 32 битным FP умножением, а не двукратное.
Размышления про Skylake тоже странные, ибо в серверной версии будут AVX512 инструкции, которые дадут вдвое большую ширину вектора, чем доступно в Haswell.
Размышления про Skylake тоже странные, ибо в серверной версии будут AVX512 инструкции, которые дадут вдвое большую ширину вектора, чем доступно в Haswell.
+2
в статье все цифры сравнения производительности только с процессором, но многократно повторяют что превосходит GPU до 70 раз
GPU по сравнению с CPU дает 10-кратный прирост, без какой либо привязке к архитектуре сети (ограничения только на объем памяти, но она измеряется в гигабайтах, а не 64к страничках)
Я не сомневаюсь что ASIC даст очень большой прирост, но сравнивать нужно все же не с процессором
GPU по сравнению с CPU дает 10-кратный прирост, без какой либо привязке к архитектуре сети (ограничения только на объем памяти, но она измеряется в гигабайтах, а не 64к страничках)
Я не сомневаюсь что ASIC даст очень большой прирост, но сравнивать нужно все же не с процессором
0
По идее, всё то же самое можно сделать на инстансах F1 в амазоновском EC2. Причём кастомного типа, под свою конкретную задачу.
Как знать, может это не сильно хуже по эффективности будет.
Как знать, может это не сильно хуже по эффективности будет.
+1
тут все про архитектуру, даже стесняюсь спросить…
Чем жёлтенький тантал от чёрненького на плате отличается?
Чем жёлтенький тантал от чёрненького на плате отличается?
0
Sign up to leave a comment.
Специализированный ASIC от Google для машинного обучения в десятки раз быстрее GPU