Комментарии 7
>> Например, Intel Xeon v4 с поддержкой AVX 2.0 способен выполнять 16 32-битных инструкций на ядре за такт, в то время как одна видеокарта NVIDIA GeForce GTX 1080 отрабатывает 8 228 аналогичных инструкций.
Т.е. вы сможете прям вот так распараллелить, чтобы вот GeFroce GTX 1080 прям в реальном коде работала на 100%? Чтобы вот прям алгоритм разрезать на 8228 параллельных действий?
Т.е. вы сможете прям вот так распараллелить, чтобы вот GeFroce GTX 1080 прям в реальном коде работала на 100%? Чтобы вот прям алгоритм разрезать на 8228 параллельных действий?
А почему нет? Важно, что на CPU как не изворачивайся, быстрее не получится. На GPU же возможность имеется, а будет ли она реализована — уже другой вопрос.
У ксеона 16 за такт, у видеокарты 8228 за секунду, ай да маркетинг, ай да сукин сын.
Тут ещё есть хитрость — «на ядре». Так-то у ксеона их несколько, а у видеокарты тоже есть аналогичние ядрам вычислительные блоки.
Тут ещё есть хитрость — «на ядре». Так-то у ксеона их несколько, а у видеокарты тоже есть аналогичние ядрам вычислительные блоки.
Зачем резать алгоритм, когда можно нарезать данные?
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Crysis на максималках, или зачем серверу видеокарта