Ну на отдельный пост (который привлёк в два раза больше внимания, чем этот) десятиминутного разговорчика с Хуаном хватило. Ничего против этого я, конечно, не имею. Упоминание вызвано тем, что появление Маска намекало на какое-то сотрудничество с nVidia (а Tesla сама очень плотно работает над беспилотными автомобилями), но ничего такого не случилось.
Правильно ли я понимаю, что Titan X не во всех показателях «самая мощный GPU в мире», ведь, например, 5700 ядер CUDA предшественника «Titan z» лучше, чем 3072 CUDA ядер TITAN X так ведь? или на новой архитектуре эти ядра CUDA быстрее, чем на предыдущей архитектуре?
Самый мощный GPU в мире уже приблизился по показателям в применении крипографии к не самым мощным GPU?
Предыдущая версия топов для специфических задач не оставляла выбора — hashcat.net/forum/thread-3687.html
Есть серьезное недопонимание между потребителем и представлением nVidia о рынке, по порядку:
CUDA не заточена под real-time, ее классическое место применения — сервер. Ее примеры использования тоже тяготеют к серверу. Здесь же другой случай
openCL намного ближе к стандарту как мне кажется и изначально позиционировался и для мобильных платформ, даже для embedded, его разделяли на полный профиль и урезанный. Он как мне кажется легковеснее и проще в реализации для собственно того, что работает непосредственно с графическими ядрами. Мало кто говорит, но у тех же имгтек есть неплохие подряды по консалтингу с крупными вендорами приложений под мобильные платформы, среди которых можно заметить даже instagram. Попытки использовать мобильную графику для задач обработки изображений на наладоннике — достаточно скрытая, но горячая тема. Там openCL.
В курсе обучения по CUDA нет ничего для hardware инженеров. Как заточить мобильный кристалл для того, чтобы он использовал другой блок памяти, другой тип памяти и как сделать так, чтобы общая производительность не упиралась в память — очень актуальная задача. Компании, которые занимаются распознаванием речи, к примеру, делали попытки портировать движки на CUDA и говорят, что быстрая память, много памяти — вот что им было нужно. Варианты с разделяемой памятью отвергались такими компаниям еще на подходе. Почему до сих пор нет мобильных архитектур в виде связок чип GPU + чип CPU?
Что делать, если AMD тоже выбрала openCL как гетерогенный подход к вычислениям?
Ситуация не в пользу nVidia, CUDA скорее всего умрет и сохранится в основном в серверном ПО, будет таким же раритетом как архитектура Itanium, которая в свое время осталась тоже только там. Ведь OpenCL еще и Intel развивает. Ей в попытке уместить все на кристалле нечего больше выбрать.
Зачем компания nVidia следует очень рисковой стратегии "один в поле воин"?
nVidia показала платформу для беспилотных автомобилей и самый мощный GPU в мире