Comments 7
>> Например, Intel Xeon v4 с поддержкой AVX 2.0 способен выполнять 16 32-битных инструкций на ядре за такт, в то время как одна видеокарта NVIDIA GeForce GTX 1080 отрабатывает 8 228 аналогичных инструкций.
Т.е. вы сможете прям вот так распараллелить, чтобы вот GeFroce GTX 1080 прям в реальном коде работала на 100%? Чтобы вот прям алгоритм разрезать на 8228 параллельных действий?
Т.е. вы сможете прям вот так распараллелить, чтобы вот GeFroce GTX 1080 прям в реальном коде работала на 100%? Чтобы вот прям алгоритм разрезать на 8228 параллельных действий?
+2
А почему нет? Важно, что на CPU как не изворачивайся, быстрее не получится. На GPU же возможность имеется, а будет ли она реализована — уже другой вопрос.
0
У ксеона 16 за такт, у видеокарты 8228 за секунду, ай да маркетинг, ай да сукин сын.
Тут ещё есть хитрость — «на ядре». Так-то у ксеона их несколько, а у видеокарты тоже есть аналогичние ядрам вычислительные блоки.
Тут ещё есть хитрость — «на ядре». Так-то у ксеона их несколько, а у видеокарты тоже есть аналогичние ядрам вычислительные блоки.
+2
Зачем резать алгоритм, когда можно нарезать данные?
+1
UFO just landed and posted this here
Sign up to leave a comment.
Crysis на максималках, или зачем серверу видеокарта