Комментарии 14
Ждали или нет не так важно. А вот формат карты с этим ускорителем — M2 (судя по слайдам), весьма неожиданное решение.
Где там AI в процессоре?! Что за бредовые заголовок и формулировки в статье?! Всего лишь оптимизированный проц для тенировки/инференса нейронок.
AI в процессоре у них в инструкциях AVX512 VNNI — Vector Neural Network Instructions https://www.intel.ai/vnni-enables-inference/ https://en.wikichip.org/wiki/x86/avx512vnni (векторное умножение 8 и 16 битных целых с суммированием результата в более широком формате)
А под названием NNP представлено два специализированных ускорителя Nervana https://www.intel.ai/nervana-nnp/ https://en.wikichip.org/wiki/nervana/nnp —
- NNP-T (Spring Crest) для тренировки: 24 специальных тензорных процессора "Tensor Processing Clusters" на чипе и 4 стопки HBM2 памяти; bfloat16 и float32; 150-250 Вт https://newsroom.intel.com/wp-content/uploads/sites/11/2019/08/Intel-Nervana-NNP-T-HotChips-presentation.pdf
- NNP-I (Spring Hill) для инференса: 2 ядра CPU (с AVX VNNI) + 12 отдельных блоков ускорения "ICE", "Inference Compute Engine" на едином чипе и LPDDR4; FP16, INT8, INT 4/2/1; 10-50 Вт https://newsroom.intel.com/wp-content/uploads/sites/11/2019/08/Intel-Nervana-NNP-I-HotChips-presentation.pdf https://3dnews.ru/992809
Презентации со страницы https://newsroom.intel.com/news/hot-chips-2019/
Возможно я не распознал сарказм, но инструкции для векторного умножения с суммированием — это уже AI?
АИ — это софт все таки по большей части. Тренировать его можете хоть на ардуинках. И внукам потом завещаете «не выключать, оно обучается».
А эти железки аппаратно заточены под характерные операции для алгоритмов. Так понятнее?
А эти железки аппаратно заточены под характерные операции для алгоритмов. Так понятнее?
А какой у этих процессоров порядок байтов? :)
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Intel выпустил свой первый чип с искусственным интеллектом для дата-центров в Израиле