Pull to refresh

Comments 7

>> Например, Intel Xeon v4 с поддержкой AVX 2.0 способен выполнять 16 32-битных инструкций на ядре за такт, в то время как одна видеокарта NVIDIA GeForce GTX 1080 отрабатывает 8 228 аналогичных инструкций.

Т.е. вы сможете прям вот так распараллелить, чтобы вот GeFroce GTX 1080 прям в реальном коде работала на 100%? Чтобы вот прям алгоритм разрезать на 8228 параллельных действий?
А почему нет? Важно, что на CPU как не изворачивайся, быстрее не получится. На GPU же возможность имеется, а будет ли она реализована — уже другой вопрос.
У ксеона 16 за такт, у видеокарты 8228 за секунду, ай да маркетинг, ай да сукин сын.
Тут ещё есть хитрость — «на ядре». Так-то у ксеона их несколько, а у видеокарты тоже есть аналогичние ядрам вычислительные блоки.
Напутал с цифрами, но, если точнее, то у GF1080 9 теоретических TFLOPS, а у ксеона их же 0.5. То есть, разница в ~18 раз, но никак не в 500 (~8000/16)
UFO just landed and posted this here
Зачем резать алгоритм, когда можно нарезать данные?
UFO just landed and posted this here
Sign up to leave a comment.