nVidia показала платформу для беспилотных автомобилей и самый мощный GPU в мире

    На сцену выходил глава Tesla Илон Маск


    Во вторник компания nVidia показала новый мощнейший (среди систем с одним графическим процессором) видеоускоритель Titan X с 12 гигабайтами памяти. Розничная стоимость новинки составит от 999 долларов. Также в руках главы nVidia Жэнь-Сунь Хуана появился автомобильный компьютер Drive PX, который призван стать ядром автономных машин.

    Новый Titan X показали ещё 4 марта, две недели назад, но то объявление выглядело скомкано и слишком бессодержательно. На тот момент проходила конференция GDC, и во время рассказа представителей Epic Games о своём игровом движке Unreal Engine и его требовательности к «железу» на сцене в качестве особого участника внезапно появился Хуан. Там исполнительный директор nVidia и рассказал о новой видеокарте, не слишком вдаваясь детали.

    Конкретные характеристики тогда не разглашались, техническим изданиям, которые могли познакомиться с новой карточкой вплотную, было запрещено распространять какие-либо данные, кроме фотографий. Было сказано, что видеопамяти будет 12 гигабайт, а в чипе 8 миллиардов транзисторов. Лишь две недели спустя на GPU Technology Conference произошло полноценное объявление, на котором прозвучали характеристики и цена нового видеоускорителя, а сразу после этого в сети появились обзоры и тесты Titan X (1, 2, 3, 4, 5).



    Titan X уже поступила в продажу. Ядром видеокарты является чип GM200 с 3072 ядрами CUDA, 192 текстурными блоками и 384-битной памятью. Выше изображено упрощённое устройство этой микросхемы. 4 марта на игровой конференции GDC звучала мысль о том, что эта мощь нужна для шлемов виртуальной реальности, а в этот вторник много времени уделялось системам машинного обучения и нейросетям.

    Titan X GTX 980 Titan Black R9 290X
    Графический процессор GM200 GM204 GK110 Hawaii XT
    Ядер GPU 3072 2048 2880 2816
    Базовая частота 1000 МГц 1126 МГц 889 МГц 1000 МГц
    Текстурных блоков 192 128 240 176
    Блоков ROP 96 64 48 64
    Объём памяти 12 ГБ 4 ГБ 6 ГБ 4 ГБ
    Частота памяти 7000 МГц 7000 МГц 7000 МГц 5000 МГц
    Шина памяти 384-битная 256-битная 384-битная 512-битная
    Пропускная способность памяти 336 ГБ/с 224 ГБ/с 336 ГБ/с 320 ГБ/с
    Тепловыделение 250 Вт 165 Вт 250 Вт 290 Вт
    Пиковая производительность, гигафлопс 6144 4612 5121 5632
    Количество транзисторов 8,0 млрд 5,2 млрд 7,1 млрд 6,2 млрд
    Техпроцесс 28 нм 28 нм 28 нм 28 нм
    Рекомендуемая цена 999 $ 549 $ 999 $ 359 $
    Дата запуска 2015-03-17 2014-09-18 2014-02-18 2013-10-24

    В Titan X используется та же архитектура Maxwell, что и в GTX 980, GTX 970 и GTX 960. Грубо говоря, по производительности это полторы GTX 980: на 50 % больше ядер, блоков ROP, текстурных блоков, разрядности шины памяти и кэша второго уровня. Во время презентации Хуан также упомянул пиковую производительность в 7 гигафлопс, что отличается от того, что указано выше. Эта производительность достигается на максимально возможной частоте. Предшественники Titan и Titan Black имели производительность с двойными вычислениями в три раза ниже, чем у обычных с одинарной. У Titan X такой особенности нет, и вычисления с двойной точностью в 32 раза медленее — всего лишь 192 гигафлопс.

    Кстати, память не поделена на две части, как это случилось с GTX 970. У памяти Titan X нет деления на сегменты, некоторые из которых могут оказаться медленнее других, заверяет nVidia.

    Конфигурация чипа GM200 максимальна, в ней стоят 24 модуля SMX, то есть другого более производительного варианта ожидать не стоит. Чип достаточно большой, 8 млрд транзисторов умещаются на площади в примерно 25×25 мм или 625 мм². Для сравнения: у считавшегося крупным GK110 (7,1 млрд транзисторов) площадь достигала 561 мм². Стоковые частоты Titan X незначительно (≈13 %) ниже, чем у GTX 980. Базовая частота равна 1000 МГц, максимальная достигает 1075 МГц, у 980 эти стоковые значения равны 1126 и 1216. nVidia утверждает, что теоретически возможен оверклок до 1,4 ГГц при охлаждении воздухом. Частота памяти та же — 7 ГГц. Самая удивительная характеристика Titan X — это 12 гигабайт видеопамяти, это в три раза больше GTX 980 и в два раза больше GTX Titan Black. В презентации nVidia затронула проблемы игр в 4K, но пока что будет трудно представить игры и конфигурации мониторов, которые потребуют 12 ГБ видеопамяти.



    nVidia также говорила о том, как космическая компания Америки номер один SpaceX использует видеоускорители в своей работе. Глава отдела разработок SpaceX Адам Лихтль рассказал, как симуляция сложных физических моделей стала возможной именно на видеокартах. Выполнение этой задачи могло потребовать тысяч обычных процессорных ядер — речь идёт о иоттабайтах (эта приставка означает 1024), которые образуются при анализе моделей возгорания компонентов топлива.



    Но без соответствующего софта использовать мощь видеокарт невозможно. nVidia рассказала о DIGITS, это программное обеспечение создания нейросетей для исследователей. Нейросети могут использоваться для обучения распознаванию объектов, но их создание часто вызывает трудности и занимает много времени. Как утверждает nVidia, их продукт может всё изменить. DIGITS доступен для скачивания на странице https://developer.nvidia.com/digits. Ситема обладает интуитивно понятным интерфейсом и поддерживает версию фреймворка Caffe, которая обрабатывается видеокартой.



    DIGITS DevBox — это проект самой мощной настольной «молотилки» данных. В компьютер установлено четыре карточки Titan X. При этом вся система остаётся относительно тихой и энергоэффективной. DevBox поставляется с предустановленными программными продуктами, используемыми в исследовательской работе по построению нейросетей: это собственно DIGITS, cuDNN 2.0, Caffe, Theano и Torch. Машинка работает под Ubuntu.



    Она очень производительна: обучение AlexNet может занимать лишь 13 часов. Система с одной видеокарточкой потребует больше 2 суток, а на не самом слабом процессоре эта задача займёт более месяца. Стоимость DIGITS DevBox составляет 15 тыс. долларов — это не игровой компьютер для Crysis, а научное оборудование.



    Жэнь-Сунь Хуан также обсудил будущую архитектуру Pascal. Она будет базироваться на 16-нм техпроцессе FinFET+ — nVidia пропускает 20 нм. Производительность Pascal на ватт будет в два с лишним раза выше, чем у Maxwell. Другим важным улучшением является использование более производительной памяти, которая называется High Bandwidth Memory. nVidia утверждает, что будет доступно до 32 ГБ памяти на графический процессор, а пропускная способность увеличится в три раза. Таким образом, теоретически возможна пропускная способность до терабайта в секунду.



    Карты на основе Pascal впервые будут использовать NVLink, высокоскоростную шину между центральным и графическим процессором или между графическими процессорами. Скорость NVLink значительно выше, чем у PCI Express. Память новой архитектуры будет использовать 3D-технологии, то есть чипы будут иметь и вертикальную ориентацию. В результате всех этих нововведений Pascal может обрабатывать некоторые процессы в 10 раз быстрее. Особое внимание уделяется оптимизациям задач машинного зрения, распознавания изображений, построения и функционирования нейросетей.



    Хуан показал Drive PX и назвал его цену. Это компьютер автопилота автомобиля, о котором впервые говорили ещё на CES 2015 в январе этого года. На плате установлены два мобильных чипа Tegra X1 общей производительностью 2,3 терафлопса, которые в состоянии обрабатывать в реальном времени видеопоток с 12 различных HD-камер с использованием 630 млн соединений нейросети. Этот компьютер создаётся для самообучающихся систем ADAS и будущих беспилотных автомобилей.

    Drive PX поставляется с упомянутым выше программным обеспечением DIGITS, а также библиотеками захвата и обработки видео. Продукт предназначен как для реальных автопроизводителей, так и исследовательских проектов. Автономные машины — это пока будущее, но компьютер nVidia может его приблизить. Продажи Drive PX начнутся в мае, стоимость платформы составляет 10 тыс. долларов.



    Незадолго до объявления Drive PX на сцену приглашали Илона Маска. Он обсуждал вопросы машинного зрения и автономных автомобилей. Хуан подколол Маска: глава Tesla боится искусственного интеллекта, но в то же время считает, что беспилотные автомобили куда безопаснее водителей-людей. Маск объяснил свою позицию: опасность лишь потенциальна, а автономная машина обладает узкой формой ИИ. Маск уверен, что в будущем на необходимость водить свои автомобили мы будем смотреть так же, как сегодня мы воспринимаем бесполезность оператора в лифте. К сожалению, каких-либо слов о сотрудничестве nVidia и Tesla не прозвучало.



    По материалам ExtremeTech (1, 2), блога nVidia (1, 2, 3, 4), Re/code, PC Perspective, Techgage, HotHardware (1, 2, 3, 4), ITworld, CNET, AnandTech и The Register.
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 11

      +10
      Это так мило: судя по заголовку, презентация безвестной компании nvidia была бы никому неинтересна, но выступление Маска спасло положение :)
        0
        Ну на отдельный пост (который привлёк в два раза больше внимания, чем этот) десятиминутного разговорчика с Хуаном хватило. Ничего против этого я, конечно, не имею. Упоминание вызвано тем, что появление Маска намекало на какое-то сотрудничество с nVidia (а Tesla сама очень плотно работает над беспилотными автомобилями), но ничего такого не случилось.
        +10
        трудно представить игры и конфигурации мониторов, которые потребуют 12 ГБ видеопамяти

        Трудно представить игры и конфигурации мониторов, которые потребуют 640 КБ оперативной памяти.
          +2
          12 гб текстур наверное долго будут с жесткого диска закачиваться
            +8
            SSD? =)
            +7
            И то, что этот монстр все равно не может держать 60фпс в 4к-играх, немного напрягает.
              0
              Правильно ли я понимаю, что Titan X не во всех показателях «самая мощный GPU в мире», ведь, например, 5700 ядер CUDA предшественника «Titan z» лучше, чем 3072 CUDA ядер TITAN X так ведь? или на новой архитектуре эти ядра CUDA быстрее, чем на предыдущей архитектуре?
                0
                У Titan Z было два чипа, а речь идёт о самом быстром GPU, видеопроцессоре.
                +2
                Самый мощный GPU в мире уже приблизился по показателям в применении крипографии к не самым мощным GPU?
                Предыдущая версия топов для специфических задач не оставляла выбора — hashcat.net/forum/thread-3687.html
                  0
                  Кроме Маска в этом мире разве нет больше достойных людей?
                  Куча постов о нём!
                  Извините, наболело…
                    0
                    Есть серьезное недопонимание между потребителем и представлением nVidia о рынке, по порядку:
                    1. CUDA не заточена под real-time, ее классическое место применения — сервер. Ее примеры использования тоже тяготеют к серверу. Здесь же другой случай
                    2. openCL намного ближе к стандарту как мне кажется и изначально позиционировался и для мобильных платформ, даже для embedded, его разделяли на полный профиль и урезанный. Он как мне кажется легковеснее и проще в реализации для собственно того, что работает непосредственно с графическими ядрами. Мало кто говорит, но у тех же имгтек есть неплохие подряды по консалтингу с крупными вендорами приложений под мобильные платформы, среди которых можно заметить даже instagram. Попытки использовать мобильную графику для задач обработки изображений на наладоннике — достаточно скрытая, но горячая тема. Там openCL.
                    3. В курсе обучения по CUDA нет ничего для hardware инженеров. Как заточить мобильный кристалл для того, чтобы он использовал другой блок памяти, другой тип памяти и как сделать так, чтобы общая производительность не упиралась в память — очень актуальная задача. Компании, которые занимаются распознаванием речи, к примеру, делали попытки портировать движки на CUDA и говорят, что быстрая память, много памяти — вот что им было нужно. Варианты с разделяемой памятью отвергались такими компаниям еще на подходе. Почему до сих пор нет мобильных архитектур в виде связок чип GPU + чип CPU?
                    4. Что делать, если AMD тоже выбрала openCL как гетерогенный подход к вычислениям?
                    5. Ситуация не в пользу nVidia, CUDA скорее всего умрет и сохранится в основном в серверном ПО, будет таким же раритетом как архитектура Itanium, которая в свое время осталась тоже только там. Ведь OpenCL еще и Intel развивает. Ей в попытке уместить все на кристалле нечего больше выбрать.
                    6. Зачем компания nVidia следует очень рисковой стратегии "один в поле воин"?

                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                    Самое читаемое