Pull to refresh

Comments 115

Многие пользователи Linux замечают, что скорость интегрированной видекарты Intel Corporation Mobile GM965/GL960 в Windows работает гораздо быстрее.
Планирует ли кампания Intel стать более дружелюбной к Linux?
Не только этой видеокарты, а наверное, вообще всех :)
UFO just landed and posted this here
Вообще-то, многие пользователи Линукс замечают что Гуи там в принципе работает медленнее, чем в Windows!
Для Intel Все ОС равны. Нельзя сказать, что мы дружим с одними больше, чем с другими. Другое дело — количество пользователей разных OC различно — у Windows их больше. Поэтому, просто исходя из количества пользователей, за счет эффекта массовости, проблемы драйверов для Windows обнаруживаются, и соответственно, фиксятся чаще. Кроме того, самые известные -распространенные графические бенчмарки тоже под Windows. Поэтому проблемы с производительностью бывают видны и решены прежде всего, здесь.
И я бы согласилась с предложением ctrlok взять драйвера с intellinuxgraphics.org/ возможно, это поможет.
И еще — поскольку *nix очень много, протестировать все возможные конфигурации очень тяжело. А значит, нет никакой гарантии, что производительность портит именно драйвер IIG, а не сама операционная система, или какой-то сторонний софт.
Упустила один интересный момент — сейчас Интел очень активно развивает направление MID = Moile Internet Device, на платформе Moblin -фактически, на *nix системе. В MID стоит именно мобильная интегрированная графика. Так что драйвера к ней точно будут развиваться.
Может быть вы имели введу Moblin for Netbooks и активность Intel на рынке Netbooks:)

Потому, что чаще всего в Смартфонах и Moile Internet Device (которые становятся очень близки к смартфонам) используется энерго-эффективные процессоры ARM-архитектуры (от развития которой Intel почему то отказалась).
Как пример Moile Internet Device можно привести Internet-планшеты Nokia N810 (в Wikipedia он отнесен к классу MID) и как их логичное развитие новые смартфоны Nokia N900.
Оба с операционной системой Maemo (на основе ядра Linux) и в них как раз используются процессоры ARM-архитектуры.

Intel и Nokia подписали соглашение о сотрудничестве в котором, кроме всего прочего речь идет и о совместном развитии Linux-ОС Moblin (продвигаемую Intel) и Maemo (продвигаемую Nokia).
Из этого соглашения многие сделали выводы, что Intel перестает развивать Linux-ОС Moblin для MID и смартфонов, а дальнейшее развитие и поддержку, как ОС для MID, получит Linux-ОС Maemo, продвигаемая Nokia.

И мне показалось странным, что вы говорите о развитие ОС Moblin в котором Intel принимает участие.
Ведь это было раньше, а сегодня Intel отдала развитие ОС Moblin независимому Linux Foundation, который выбрал вариант развития ОС для рынка Netbooks — Moblin for Netbooks:
«The project release of Moblin v2.0 for Intel Atom Processor based netbooks.» — www.moblin.org/

И я так понял (может я не прав), что у Intel сегодня нет энерго-эффективных процессоров для современных MID-устройств, способных конкурировать с процессорами ARM-архитектуры и соответственно этот рынок утекает из рук Intel.
Ведь у Intel сегодня нет конкурента энерго-эффективному процессору NVIDIA Tegra, в котором совместно работают ARM-ядро и мощный графический процессор?
А появится ли такой конкурент от Intel, для рынка MID с мощным графическим ядром, в ближайшем будущем?
Вы правы, я имела в виду Netbooks.
Что касается Atom, то к выходу готовится его новая модификация (поищите данные в сети), которая по параметрам производительности-энергопотребления вполне подходит в MID
Вы о Silverthorne?
Не верю (я как Станиславский).

— Я считаю, что на рынке смартфонов ARM`ы уже победили Intel и туда никак Intel x86 пробиться не сможет.
— В MID-устройствах тоже шансы у Intel x86 тают прямо на глазах и уже скоро там будут господствовать ARM`ы.
— Конечно же и рынок Планшетных ПК скоро так же будет успешно покорен ARM-процессорами (посмотрите какое толстое уродство получается когда внутри планшетника стоит Intel Atom — "«Атомная» тройка: TabletKiosk представила три планшетных ПК на процессорах Intel Atom").
— А потом через пару лет процессоры с архитектурой ARM одолеют процессоры Intel Atom и на рынке смартбуков и нетбуков — см.: «Texas Instruments OMAP3530 — такие процессоры вытеснят Atom?».

Ну, а домашние десктопы тогда уже будут больше не нужны — см.: «К 2020 году главным веб-инструментом станет мобильник», все будут пользоваться исключительно мобильными устройствами.

И в результате для процессоров Intel x86 останется скромный рынок серверов и рабочих станций, ну и + 3D-графики со своей технологией Larrabee (точно такой же конец как и у мощных процессорных архитектур — Sparc и Power).
Будущее за маленькими, простыми и энерго-эффективными процессорами ARM-архитектуры
(зря Intel рассталась с ARM-процессорами Intel XScale — просчитались, хотя нет не просчитались, а чувствуя внутренний потенциал ARM`ов никак не захотели пригреть на груди змию, которая убьет дряхлого старика — Intel x86).

Это мое частное мнение, конечно я могу ошибиться, и поэтому прошу строго не судить:)
UFO just landed and posted this here
Безусловно Intel со всей серьезностью относиться к вопросам энергопотребления и Larrabee не будет здесь исключением. По поводу лабораторных чипов, на только что прошедшем IDF Sean Maloney и Renee James показали первые системы с Larrabee.
сейчас неделя «Диалоги о графике», но у меня возник вопрос
Не знаю, задавался ли он:
Компания Intel устремилась в направлении параллельных вычислений и многоядерности систем. До какого периода это будет продолжатся? Существуют ли ограничения, когда многоядерность становится не эффективной. Т.е. когда график — с увеличением количества ядер (потоков) начнет выпрямляться по отношению к производительности.

Я уже давно интересуюсь многопоточностью. И представлял себе многоядерность (многопроцессорность) еще до Core.
Не все алгоритмы распараллеливаются в принципе. Некоторые последовательны по своей природе, для них, увы, многоядерность не поможет.
Некоторые алгоритмы легко распараллеливаются на фиксированное небольшое число потоков (ядер), но при дальнейшем увеличении числа потоков рост производительности прекращается. Это — непреодолимо.
Представить бесконечно распараллеливаемую задачу вообще тяжело. Возьмем, например, обработку картинки. Даже если в идеале (недостижимом, кстати) каждое ядро будет обрабатывать один ее пиксель, то при превышении чесла ядер над числом пикселей картинки, лишние ядра останутся без работы.
Поэтому ответ — эффективность многоядерности зависит от задачи. 1000 ядер в десктопных компьютерах я не представляю, но числа порядка сотни — вполне возможны. 80 ядерный прототип процессора был создан Интел еще пару лет назад.
К пикселям и ядрам: как распараллеливается обработка в случае обратной трассировки лучей?
По потоку на луч?
Лучей может быть больше или меньше, чем пикселей?
Мне известен общий принцип обратной трассировки лучей, но не детали его реализации. Таких реализаций существует много — вы тоже можете написать свою :) И каждый автор выбирает свой метод распараллеливания. Полагаю, что сейчас основной (распространенный) принцип — это каждое ядро обрабатывает группу лучей, но сказть точно не могу.
Спасибо за ответ.

Я знаю задачу которая требует большого числа потоков, а значит и ядер. Реализовывал ее на 4х ядрах, в 8 потоков. И там идет распараллеливание по данным и данных очень много, затем освободившиеся ядра идут на вторую волну обсчета. В общем тот самый 80и ядерник не помешал бы. )) Реализация позволяла преобразовывать алгоритм под дальнейшее увеличения потоков (до бесконечности в теории, на практике конечно чуть меньше).
UFO just landed and posted this here
UFO just landed and posted this here
Я думаю достаточно написанных драйверов :)
Direct3D широко используеться при отображении интерфейса уже в Windows Vista и так как Larrabee поддерживает Direct3D, он в полной мере будет задействован системой как в Windows Vista так и в Windows 7. Полный список поддерживаемых систем будет анносирован ближе в выходу продукта.
UFO just landed and posted this here
По моему личному мнению наиболее серьезными отличиями Larrabee от продуктов конкурентов является IA архитектура и практически полный програмные стек, позволяющий программистам самим строить свой pipe-line исходя из их нужд и быть минимально ограниченным API.
UFO just landed and posted this here
Поддержка Windows обусловлена тем, что только там есть полноценный Direct3D на PC. OpenGL (Mac OS, *nix) — рассматривается, но сейчас в планы не входит. Веские причины — высокая стоимость поддержки множества его расширений, и значительно меньший, чем с D3D, процент приложений (игры), для которых оптимизация жизненно важна.
По поводу консолей — там есть свои мощные инструменты, подобные GPA (PIX, например), и Интел не производит чипов для консолей.
насколько я понимаю, в драйвере от Intel для Linux есть memory leak.
https://code.fluendo.com/pigment/trac/ticket/325
интел в курсе? будет-ли это когда-нибудь зафикшено?
Упомянутое вами место (https://code.fluendo.com) -это не официальное место подачи багов для драйверов Интел. Так что ответить на остальные вопросы я затрудняюсь. Следите за выходом новых версий драйверов.
Вопрос, по Larrabee и SDK. Так как сама штучка обещает быть весьма вкусной, сразу же будет соблазн использовать ее для вычислений, скажем, того же Folding@Home. Насколько будут открыты спецификации, и планирует ли Intel способствовать развитию Larrabee-модуля и оптимизатора для GNU C Compiler?
Спецификации Larrabee по открытости будут соответствовать спецификации CPU, которые Intel предоставляет разработчикам :) Мы также очень серьезно относимся к Larrabee Native компилятору и его возможности генерировать оптимизированный код.
Вот, кстати, на этом моменте возникает вопрос. Что будет представлять собой Larrabee Native компилятор? Языки/возможности? Будет ли поддержка компиляции для Larrabee со стороны GCC/LLVM и кем она будет реализована?
С/C++/inline assembler, автовекторизация, поддержка p-threads, TBB и OpenMP… Наверное все что сейчас могу сказать :)
Когда я впервые услышал, что Larrabee основан на x86, мне вот стало интересно: а зачем тогда вообще будет нужен CPU? Почему бы вообще всю работу компьютера не переориентировать на такой вот многоядерный блок, который будет обрабатывать и команды общего назначения, и графику, и физику?

PS: За новостями я слежу вполглаза, так что если подобный вопрос уже освещался, запросто мог пропустить. Если так, то прошу кинуть ссылкой.
Ваш вопрос из серии — зачем предприятию нужен начальник. Хотя, в некоторых случаях начальник явно мешает, но в компьютере -начальник CPU, обладающий множеством возможностей (ядра CPU гораздо мощнее, чем ядра GPU), точно нужен. Для очень многих задач можно обойтись без GPU. Без CPU обойтись нельзя.
Другое дело, что развитие идет в сторону «коллективного управления»- т.е. кол-во ядер CPU растет.
А можете уточнить, какие функции CPU отсутствуют в GPU-ядрах? Собственно, изначально моя мысль заключалась не столько в отказе от CPU как такового, сколько в назначении роли CPU одному или нескольким ядрам GPU.
Сегодняшние GPU оптимизированны на выполнение небольших функций на большом массиве ядер. Если вам нужно реализовать сложный алгоритм, то GPGPU задача превращается в серию запросов к GPU, во многих случаях с синхронизацией данных между CPU и GPU. Простой пример — любой рекурсивный алгоритм.
Но, однако, наблюдается тенденция усиления роли GPU? Как думаете, как скоро «начальник» будет выполнять минимум функций, а все остальное уже будет лежать на «подчиненных»? :)
Я бы сказал, наблюдается тенденция параллельного программирования :) Количество ядер увеличивается и на CPU и на GPU… Пока в GPU может быть гораздо больше ядер, но их сложность растет с каждым новым поколением. Когда «подчиненные» станут толще начальника они перестанут быть эффективными даже на тех задачах, которые сейчас им лучше удаються.
А что будете делать, когда допилите Larrabee? Улучшать безопасность, производительность и осуществлять всяческую поддержку? Или есть какой-нибудь задел на будущее?
И я так понимаю CPU гораздо быстрее упрется в ограничение по ядрам? Что тогда? Как будете дальше увеличивать производительность? Раньше мощность процессора определяли по частоте, теперь ядра… :)
Есть еще планы? И вообще, интересно, будут ли ноутбуки и компьютеры в ближайшем будущими такими, как они есть сейчас (с теми же основными компонентами и т.д.) или же что-то может кардинально измениться? Стоит ли ожидать пятого поколения компьютеров? :)
Если вопросы показались слишком наивными, то извините. :)
Я думаю этот вопрос очень интересный, но достаточно глобальный и выходит за пределы компьютерной графики. Intel огромное внимание уделяет научным разработкам, уверен что-нибудь придумаем ;-)
Да, если поставить вопрос так, то в Larrabee никаких принципиальных отличий ядер от CPU нет (хотя последние гораздо мощнее). Но есть устоявшаяся с годами архитектура PC, где CPU управляет всем, а GPU может вообще отсутствовать за ненадобностью (интергированная графика). Отказа от этой архитектуры ждать не стоит, зато есть тенденция к другому варианту — интеграции графических ядер в сам CPU.
Сможем ли скоро увидеть микросхему Intel в которой будет, например пару CPU-ядер Core i7 и + 16-ть GPU-ядер от Larrabee?
вектор развития CPU — именно такой. Хотя говорить не только о точном количестве ядер, но даже об их модели (возможно, это тогда уже будет не i7 и не Larrabee), я бы не стала.
С вами нельзя полностью согласиться:)
Потому, что мы имеет практический пример совместной разработки IBM & Sony & Toshiba — процессор Cell — используемый сегодня как в игровых приставках Sony PlayStation 3, так и в серверах IBM BladeCenter QS22!

В основе сервера IBM BladeCenter QS22 находится современный многоядерный процессор IBM PowerXCell 8i с тактовой частотой 3,2 ГГц – процессор нового поколения на основе архитектуры Cell/B.E.
В каждом процессоре IBM PowerXCell 8i имеются процессорный элемент на основе ядра Power (Power Processor Element, PPE) и восемь синергетических процессорных элементов (Synergistic Processor Elements, SPE), оптимизированных для выполнения операций с плавающей точкой.
Это инновационный многоядерный процессор асимметричного типа, оптимизированный для ускорения параллельной обработки данных и потоковых приложений, в котором PPE выступает в качестве контроллера для восьми основных вычислительных блоков SPE.

Так, что вот мы имеем пример когда в одной микросхеме используется и начальник — CPU-ядро (в нашем примере PPE) и его 8-мь подчиненных ядер похожих на GPU (в нашем примере SPE)!

Сможем ли мы когда-нибудь увидеть микросхему Intel в которой будет одно CPU-ядро, например Core i7 и + 16-ть GPU-ядер от Larrabee ?
Или это даже теоретически невозможно?
Я думаю мы вряд ли увидим микросхемы с всего одним CPU ядром в отдаленном будущем ;-)
>>девушка и два молодых человека
а девушка у вас не молодая или не человек?
Здравствуйте, Человек. Я — специальная модель биоробота, созданного Intel в экспериментальных целях. Потому и подчеркнуто «девушка и два молодых человека».

А вообще, вы правы — фраза дико корявая, и вообще Intel не свойственная, тут у нас с этим (дискриминацией по любому признаку) очень строго.
Пара вопросов:
1. Сейчас очень много началось движений в сторону применения графических ускорителей в вебе, отсюда вопрос о безопасности, есть мнение, что данное распространение откроет новое направление атак на пользовательские компьютеры:
1.1 Известны ли вам уже прецеденты данных атак?
1.2 Существуют ли общие сквозные требования по безопасности, затрагивающие все уровни архитектуры (h/w->drivers->OS->app)?

2. И совсем общий вопрос: В чем не устроил обычный CPU и почему ведутся разработки таких направлений как GPGPU?

Заранее прошу прощение за глупые вопросы=)
Отличный вопрос! Безусловно с усложнением графических процессоров вопрос безопасности будет вставать все острее и острее и возможно скоро мы станем свидетелями первых вирусов на GPU :) Поэтому мы внимательно изучаем все возможности для обеспечения безопасности при работе с Larrabee, как на уровне API так и на уровне драйверов. По поводу последего вопроса. Я считаю, что Larrabee не уход в сторону GPGPU, а шаг в сторону создания максимально гибкой архитектуры для параллельных вычислений. На данном этапе это отдельная Larrabee карта, но никто не запрещает в будующем создавать CPU с сотнями ядер :)
А с какими-нибудь антивирусными компаниями вы сотрудничаете в этом плане?
Думаю, что антивирус для Larrabee писать пока рановато :)
У меня несколько вопросов, если Вы не против.

1. Можно ли расценивать интерес компании Intel к GPGPU как признание ограничений в развитии CPU?
2. Ограничиваются ли возможные сферы применения GPGPU играми, обработкой видео и графики? Что мне, как разработчику десктоп приложений, может дать использование GPGPU? Ограничиваются ли его возможности только возможностью ускорения вычислений?
3. Планируется ли выпуск средств разработки, с использованием Larrabee SDK, интегрирующихся с Visual Studio. И самая «темная» для меня часть вопроса — как будет происходить отладка CPU будет эмулировать GPU?
1. Нельзя. Ограничения в развитии CPU -невозможность бесконечно увеличивать частоту из за физических проблем привели к развитию многоядерности в самих CPU. А GPU — просто еще одно интересное направление деятельности, в котором, кстати, Интел уже двигался в 90-ые годы.
2. Конечно же, нет. Даже исходя из названия — GPGPU= General Puprose GPU, т.е. GPU — не только для графики и видео. Но вот это -«Ограничиваются ли его возможности только возможностью ускорения вычислений» — правда. GPU будет именно ускорять вычисления для многопоточных задач. При этом, делать это максимально user friendly. Т.е. ваша программа будет выглядеть так же, как и для CPU без использования графических терминов и прочих аттрибутов GPU. Соответственно, GPU SDK будет максимально интегрирован со средами разработки, и, прежде всего, VS.
3. Да, при отсутствии GPU, его, конечно, надо эмулировать. А поскольку ни жесткий диск, ни bluetooth модуль, я уж не говорю о CD приводе, с эмуляцией самостоятельно не справятся, то делать это будет CPU. :))
3. Я имел ввиду отладку при установленном GPU. Стало интересно, код, в отладке, будет выполняться на GPU или «прогоняться» через CPU? Подозреваю, что во втором случае (когда CPU при отладке эмулирует GPU) могут возникнуть проблемы. Т.к. код на CPU будет выполняться не совсем так, как бы он выполнялся на GPU. Надеюсь Вы понимаете, что я имею ввиду.
В этом отношении Intel GPU ничем не отличается от GPU других компаний. Точно так же, как происходит разработка\отладка драйверов для них (а драйвера выполняются на реальном железе), будет происходить отладка и для Larrabee. Но согласна, это — нетривиально, так же, как нетривиальна отладка любого многопоточного приложения.
Параллельные вычисления, как средствами CPU, так и Larrabee безусловно затребованы не только в компьютерных играх, но и в научных, HPC, медицинских приложениях, при визуализации о обработки самых различных данных. По поводу Larrabee SDK, я думаю стоит немного подождать с приоткрытием завесы тайны со всех “темных” вопросов, но уверен что вы будете приятно удивлены простотой использования :)
Будем ждать и гадать, а что нам еще остается? :)
Здравствуйте, Виктория, Филипп и Владимир. :)
Вопросы адресую всем троим, а уж отвечайте как вам удобнее.

1. Совершенно не технический вопрос… Как переводится/что значит Larrabee? Какой скрытый смысл затаен в названии? Почему назвали именно так? Ну, и вдогонку. Larrabee — это он или она? :)

2. Основной конкурент для LB (сократил, как мог) NVidia Tesla? Или все-таки AMD Fusion? Как на счет VIA CoreFusion? Или вы нацелены на другие сегменты рынка?

3. Сколько вы итоге ядер? На википедии в одном месте написано «от 8 до 48», в другом «от 24 до 48» (в статье про AMD Fusion)…

4. Какая ценовая категория будет у продуктов? Сколько их выйдет? На каких системах вы их тестируете? По предыдущим топикам, я узнал, что вы не обделяете вниманием основные операционные системы, но все же. :)

5. Cell или LB? В LB, я так понимаю, «все равны», а Cell чем хуже? Кстати, планируете внедрить LB на приставки?

Пока все, пока писал и обдумывал вопросы — проголодался. Пойду, покушаю. А то на пустой живот что-то интересных вопросов не придумывается. :)
А конкурент случайно не Nvidia Cuda будет?!
Cuda — технология, а Tesla — серия GPU…
Tesla поддерживает CUDA, позволяя снимать нагрузку с ЦП.
Поправьте, если не прав. :)
Правильно ли я понял, что аббревиатура LB в вашем комментарии это Larrabee? Если да, то тогда конкурент LB это Cuda или AMD (ATI) streaming computing.
«Технология NVIDIA CUDA™ — это единственная среда разработки на C, которая позволяет программистам и разработчикам писать программное обеспечение для решения сложных вычислительных задач за меньшее время благодаря многоядерной вычислительной мощности графических процессоров. В мире уже установлены миллионы GPU с поддержкой CUDA, и тысячи программистов уже бесплатно пользуются инструментами CUDA для ускорения приложений – от кодирования видео и аудио до поисков нефти и газа, моделирования продуктов, вывода медицинских изображений и научных исследований.
Возможности технологии:
* Стандартный язык C для параллельной разработки приложений на GPU
* Стандартные библиотеки численного анализа для быстрого преобразования Фурье и базового пакета программ линейной алгебры
* Специальный драйвер CUDA для вычислений с быстрой передачей данных между GPU и CPU
* Драйвер CUDA взаимодействует с графическими драйверами OpenGL и DirectX
* Поддержка операционных систем Linux 32/64-bit, Windows XP 32/64-bit и Mac»
Цитата с сайта: www.nvidia.ru/object/cuda_what_is_ru.html

Intel Larrabee — это железо (микросхема) — конкурент для nVidia GeForce GPU.
А вот Intel C++ Larrabee Prototype Library (или Larrabee SDK) — будет конкурировать с NVIDIA CUDA.
Я так понял:)
Спасибо за пояснения=), я думал, что в этом посте идет речь только про SDK, а про железку вообще не знал.
Отвечу на первую часть вопроса, хотя я и не Виктория-Филипп-Владимир.

Откройте Google Maps и посмотрите названия американских местечек на западном побережье, в особенности – штат Орегон и соседнюю Калифорнию. Вы обнаружите там практически все кодовые имена продуктов Интел. В том числе, на юге Калифорнии расположен городок Larabee. Впрочем, быть может, это какое-то другое место, например – в штате Вашингтон. Не уверен. Но можно утверждать, что почти все кодовые имена Интел (как мы называем продукты до того, как маркетологи придумают свою маркетинговую программу) просто-напросто точки на географической карте.

А само слово larrabee — это фамилия французского происхождения. Этим, кстати, и объясняется вариации на тему: LARABY, LARRABY и даже LARBRE. Сами знаете, французский – язык непростой. Но те, кто его знают, поговаривают, что фамилия означает что-то вроде «человек, который живет на берегу».
Для именования прототипов Intel обычно использует географические названия, так что за разгадкой я бы пошел в Google Maps  По поводу конкурентов безусловно это и GeForce и Radeon и Tesla и Fusion… На вопрос о количестве ядер и о ценовом диапазоне Вика уже написала, конечно мы не может ответить на такой вопрос, до выхода продукта. Cell или Larrabee? Конечно Larrabee  Если вы помните в PS3 в дополнению к Cell стоит графический чип, не задумывались почему?
Для именования прототипов Intel обычно использует географические названия, так что за разгадкой я бы пошел в Google Maps  По поводу конкурентов безусловно это и GeForce и Radeon и Tesla и Fusion… На вопрос о количестве ядер и о ценовом диапазоне Вика уже написала, конечно мы не может ответить на такой вопрос, до выхода продукта. Cell или Larrabee? Конечно Larrabee :) Если вы помните в PS3 в дополнению к Cell стоит графический чип, не задумывались почему?
Вопрос для Виктории: есть система со встроенной графикой, устанавливаем видеокарту и встроенная графика становится бесполезной. Входит ли в планы компании Intel создание технологий (программных, аппаратных), которые позволят с пользой использовать незадействованную встроенную графику?

UFO just landed and posted this here
В анонсе говорилось, что они собирают вопросы до среды и в среду, начиная с 15.00, начинают на них отвечать.
Так что запасаемся терпением и ждем. :)
Вопрос очень хороший, спасибо. Да, мысли о параллельном использовании интегрированной и дискретной графики в Intel есть. Но сделать это эффективно очень непросто…
И еще один момент — в грядущих процессорах Интел планируется интеграция графических ядер в сам процессор. Это упростит задачу одновременного использования всей имеющейся графики.
Я имел ввиду не сколько возможность совместного использования интегрированной и дискретной графики, сколько возможность использовании «простаивающей» интегрированной в качестве «помощника» процессора, когда интегрированная берет часть работы на себя. На мой взгляд это было бы интересно даже с точки зрения маркетинга. Материнская плата с младшим братом центрального процессора. :)
Здесь надо пояснить для несведующих. Интегрированная графика отличается тем, что абсолютное большинство операций делает на самом CPU. Потрму она такая дешевая, надежная и тп.
На железе делается не так много, иначе это была бы дискретная графика, просто намертво вделанная в материнскую плату :)
Поэтому предлагаемый вами вариант использования нерационален, если не сказать «невозможен»
Спасибо, прояснилось :)
Еще один вопрос — а почему компания Intel пошла по пути интеграции графики в процессор? Что это дает, какие преимущества? Не лучше ли было бы пойти по пути создания внешней, мощной интегрированной графики?
Ответ: скорость обмена данными. Одно дело, когда обрабатываемые данные уже в процессоре — в его кэш, а другое — когда их еще надо передать для обработки вовне -на интегрированную графическую карту. Разница есть.
Вопрос к Филиппу Герасимову. Совсем не о Intel :) Интересны взгляды Филипа на жизнь.
Филип вы много ездили по Европе, много кого виделиДжоне Кармаке и и общались. Мне вот интересно, что вы думаете о Джоне Кармаке и его увлечении летающими штуками? Что вы видите в этом его увлечении?
Не знаю даже, что произошло с текстом вопроса :(
Честно говоря с Джоном Кармаком я лично не был знаком, если говорить о ребятах из ID Software я общался с легендарным Джоном Ромеро и довольно хорошо знаю Каса Еверетта :) К Джону Кармаку отношусь с глубочайшим уважением и считаю его наверное самым авторитетным 3D гейм-девелопером, к мнению которого прислушиваються разработчики GPU. Его интерес к космическим разработкам мне кажеться просто замечательным и еще раз доказывающий его неординарнось. Только представьте как вы выходите из офиса ID Software, садитесь на Ferrari или новенькую Tesla и отправляетесь разрабатывать новый ракетный двигатель для полетов на Луну!!!
1. недавно intel показал ролик работы программы трассировки лучей в реальном времени на larrabee. ролик кажется был основан на переделанной Quake Wars так что хотя ролик и был красивым, но не сказать чтоб уж «вау», движок игры все же не новый. Будет ли показано что то на larrabee+ray traycing что действительно перевернет всю игровую индустрию и оставит уровень графики современных игр далеко позади (вплотную приближась к кино образцов final fantasy и аниматрицы сюжет 1), или трассировка в том виде, в каком её может выдать чип larrabee это не более чем пара новый красивых эффектов в русле дальнейшей постепенной эволюции игровой графики. И ведут ли какие либо игровые студии разработку игр, использующих ray traycing.
2. планируется ли на основе larrabee создать игровую консоль, или использовать решение в следующих поколениях известных консолей?
Первый вопрос интересный, хотя ресурсов требует такая графика много…
А вот второй я уже задал. :)
UFO just landed and posted this here
Значит придется читать ответ в комменте к вашему комменту. :)
Основная задача Intel — это создать платформу, на которой разработчики смогут реализовать все свои задумки и
идеи. Ray-tracing, GPU-like rendering, воксельная графика, микрополигоны… я думаю что это и являеться
переворотом и уверен что мы увидим очень интересные решения от различных разработчиков.
По поводу консолей, наверное логично адресовать этот вопрос разработчикам конслолей. Лично я думаю что Larrabee — идеальная платформа для приставок :)
В прошлый раз я что то перепутал с тематикой поэтому продублирую тут, может ответят.

Наслушался тут от «осведомленных источников» что Larrabee нечто иное как распил денег и ни на что не способная платформа, разубедите меня?
Не знаю уж, огорчит вас это известие, или обрадует, но такая вещь, как «распил денег» в Интел просто невозможна. Не потому, что нет денег, а потому, что нет пилы :) Этот механизм просто не предусмотрен. Т.е. в Интел сотруднику\группе сотрудников получить какой-то дополнительный доход от факта разработки нового продукта просто невозможно. Никак.
Другое дело, что если продукт будет выпущен и принесет прибыль, то пропорционально этой прибыли заработают все сотрудники Интел. Если прибыли не будет, то — сами понимаете. Поэтому разрабатывать заведомо ни на что не способную платформу никто не будет.
Вопрос, наверное, ко всем.
В последнее время стала очень модной тема использования видеокарты для вычислений (GPGPU). На данный момент прослеживается некая дупликативность идеи использования для этого стандартных вещей типа процессора. Отсюда возникает вопрос, не сотрется ли со временем разница с процессором? Вообще, взаимозаменяма ли GPGPU со стандартными средствами, или все же одно в итоге победит другое? В чем принципиальная разница сейчас, каковы основные направления вычислений.
Предлагаю почитать ответы на многие вопросы выше. Думаю, ответ на ваш вопрос — именно там.
Вопрос Владимиру. Практикуете ли вы в своей команде телесные наказания?
Мне почему-то вспомнился флюгергехаймер из фильма «Евротур» )))
Компания Intel уже не один десяток лет работает в области суперкомпьютеров.
Когда то давно Intel самостоятельно изготавливала суперкомпьютеры, а последние годы в тесном сотрудничестве с Intel изготовлением суперкопьютеров занимались такие партнеры как например SGI.
См. статью: «Intel и SGI построят суперкомпьютер для NASA»

Компания NVidia, в частности последнее время проявляет большую активность и на рынке суперкопьтерных вычисления продвигая различные варианты своих систем nVidia Tesla, построенные на GPU nVidia и предлагая строить суперкомпьютеры на основе карт nVidia Tesla.

Будет ли компания Intel возвращаться как активный игрок на рынок суперкомпьютерных вычислений используя системы на основе технологии Larrabee, создав конкурента для системам nVidia Tesla или же компания Intel будет продолжать развивать суперкомпьютерные вычисления классическим путем наращивания количества CPU-ядер?
Насколько я знаю, вижу и ощущаю, Интел с рынка суперкмпьютеров никуда не уходит, поэтому термин возвращаться тут «неприменим».
Да, Larrabee может и должен использоваться для суперкомпьютерных вычислений, этот процесс будет идти в параллель с увеличением количества ядер и их усложнением\развитием. Эти два процесса друг друга дополняют, а не исключают.
СпасиБо:)

А можно еще вопрос по Larrabee:
А почему в Intel решили использовать в системе предназначенной для ускорения вычислений для 3D-графики именно ядра с архитектурой Intel x86?

Почему компания Intel не захотела построить Larrabee, например на ядрах процессоров ARM-архитектуры?


Ведь компания Intel в свое время развивала самые разные архитектуры процессоров, например:
~ с 1988 выпускались процессоры серии Intel i860 / i960, которые использовались в Unix-workstations для ускорения обработки 3D-графики;
~ с 1994 — выпускался процессоры Intel i750, на основе которого делались карты для ускоренной обработки видео и 3D-графики;
~ c конца 1990-х Intel активно развивала процессоры ARM-архитектуры.
Я это все к тому, что принцип построения систем Larrabee — это использование как можно большего количества процессорных ядер.
И соответственно максимума можно достичь если ядро процессора будет как можно более простой архитектуры, а иначе будет бесконечная борьба с энергопотреблением и тепловыделением.
А вот насчет архитектуры Intel x86 никак нельзя сказать, что она самая простая и соответственно самая энерго-эффективная.

Я не могу принят как рациональный ответ, который я чаще всего слышу, что Intel x86 проще программировать:(

Ведь на Larrabee будут выпускаться дискретные графические платы, для которых никто, кроме программистов Intel, не будет напрямую писать Софт.
С такими платами обычно принято работать через драйвера и все программисты 3D-графики будут использовать DirectX или OpenGL и OpenCL-драйвера.
Неужели Intel весь этот огород городит лишь только для того, что бы программистам Intel было проще писать драйвера для ядер Intel x86-архитектуры, и что они никак не в силах написать драйвера если ядра Larrabee будут использовать ARM-архитектуру!
> И соответственно максимума можно достичь если ядро процессора будет как можно более простой архитектуры, а иначе будет бесконечная борьба с энергопотреблением и тепловыделением.

Далеко не факт. Максимума в чём можно будет достичь на процессоре самой простой архитектуры?

> Ведь на Larrabee будут выпускаться дискретные графические платы, для которых никто, кроме программистов Intel, не будет напрямую писать Софт.

Разработчики, безусловно, смогут сами писать софт для Larrabee, используя для этого привычные инструменты и языки программирования. Это — часть задумки.

> А вот насчет архитектуры Intel x86 никак нельзя сказать, что она самая простая и соответственно самая энерго-эффективная.

С другой стороны, особенности данной архитектуры, включая производство процессоров, хорошо известны, что даёт потенциально бОльшую гибкость для эволюции будущих решений на базе Larrabee
> Разработчики, безусловно, смогут сами писать софт для Larrabee, используя для этого привычные инструменты и языки программирования. Это — часть задумки.

Вы имеете введу разработчика физического движка Havok — Havok Inc., которого 2 года назад купила Intel и который пишет физику используя ресурсы процессоров Intel x86?

Непросто так Дэвид Коглан (David Coghlan) — вице-президент по разработке Havok, поет дифирамбы:
«Эффективная работа с потоками высвобождает всю мощь процессоров Intel® Core™2 Duo и четырёхъядерных процессоров Intel® Core™2 Extreme, что позволяет добиться невероятно масштабируемых и реалистичных физических эффектов и достоверной анимации персонажей.
Вычисления с применением многоядерной технологии крайне наглядно увеличивают производительность для игроков».

Так Larrabee сделан специально под физический движок Havok?
Вы хотите сделать «виртуальную реальность» реальной?
Нет, Larrabee — универсальное решение, а не продукт, «заточенный» под Havok. В основе концепции Larrabee — дать свободу разработчикам использовать всю мощь многоядерного чипа вместе с гибкостью, присущей CPU.
СпасиБо!

А в Intel есть отдел в задачи которого входит внедрить «виртуальную реальность» в реальный мир?
Мы скоро в кинофильмах и на телевидении сможем увидеть за место живых актеров 3D-персонажей просчитанных в реальном времени на платах Intel Larrabee?
«Технология NVIDIA CUDA™ — это единственная среда разработки на C, которая позволяет программистам и разработчикам писать программное обеспечение для решения сложных вычислительных задач за меньшее время благодаря многоядерной вычислительной мощности графических процессоров. В мире уже установлены миллионы GPU с поддержкой CUDA, и тысячи программистов уже бесплатно пользуются инструментами CUDA для ускорения приложений – от кодирования видео и аудио до поисков нефти и газа, моделирования продуктов, вывода медицинских изображений и научных исследований.
Возможности технологии:
* Стандартный язык C для параллельной разработки приложений на GPU
* Стандартные библиотеки численного анализа для быстрого преобразования Фурье и базового пакета программ линейной алгебры
* Специальный драйвер CUDA для вычислений с быстрой передачей данных между GPU и CPU
* Драйвер CUDA взаимодействует с графическими драйверами OpenGL и DirectX
* Поддержка операционных систем Linux 32/64-bit, Windows XP 32/64-bit и Mac»
Цитата с сайта www.nvidia.ru/object/cuda_what_is_ru.html

Так Intel Larrabee с своими библиотеками Intel C++ Larrabee Prototype Library,
это в первую очередь противопоставление технологии NVIDIA CUDA для nVidia GeForce GPU?
«принцип построения систем Larrabee — это использование как можно большего количества процессорных ядер» — это НЕ так. Принцип построения Larrabee — обеспечение максимальной производительности как графических (первый приоритет), так и просто вычислительно сложных приложений общего назначения.
Имея опыт работы с ARM (xsale), зная его возможности, я могу утверждать, что х86 соответствует вышеприведенному принципу\целям гораздо лучше.
Плюс — у вас еще одно заблуждение — «на Larrabee будут выпускаться дискретные графические платы, для которых никто, кроме программистов Intel, не будет напрямую писать Софт»
Софт писать не просто будут, его сейчас за пределами активно пишут, а многое уже и написано. И основной плюс тут — действительно простота написания программ в знакомых средах, языках и методах распараллеливания. Larrabee — GPGPU, этим -все сказано.
СпасиБо за ответ:)
Я уже тут поЯдексил и понял, что окромя драйверов напрямую с Larrabee будут работать как минимум физический движок Havok, правильно?

Ну, и Intel Larrabee SDK (включая Intel C++ Larrabee Prototype Library) будет конкурировать со средой разработки NVIDIA CUDA для nVidia GeForce GPU, правильно?
Havok -просто один из сотен примеров. Intel Larrabee SDK -средство создания именно native приложений для Larrabee. Intel C++ Larrabee Prototype Library — это эмулятор так называемых интринсик-функций (функций, работающих с векторными инструкциями процессора) для новых 512битных векторных инструкций Larrabee. Как вы можете представить, для многих приложений эти инструкции — просто спасение производительности.
>… для новых 512-битных векторных инструкций Larrabee. Как вы можете представить, для многих приложений эти инструкции — просто спасение производительности.

Вы имеете введу суперкомпьютерные вычисления:
вычислительное моделирование ДНК, ядерных и термоядерных реакций и т.д.
или игрушечную 3D-графику тоже?
а извините когда отвечать будут? и где?
Уже отвечают, посмотрите выше.
habrahabr.ru/blogs/hi/71788/#habracut
Возможно ли такое, что скоро видеокарта станет более приоритетным компонентом при ПК, чем процессор?
Сейчас многие геймеры отдают большее предпочтение видеокартам, но когда на видеокарты будет идти основная нагрузка не только в играх, но и в обычных ресурсоемких программах, то тогда роль видеокарты еще более увеличится?
Будущее за видеокартами? :)
Рынок дискретных видеокарт — довольно узкая ниша. Для PC основная масса графических чипов — интегрированная графика, и её доля будет неуклонно расти, в основном за счёт мобильного сегмента, а сегмент дискретной графики будет в стагнации.

В дополнение к ответу Владимира скажу, что даже среди геймеров (если речь не идет о самом-самом hi-end) видеокарта не всегда главное — в играх сейчас есть и физика и искусственный интеллект, да и немалая часть того же d3d — runtime выполняется на CPU, а не на GPU.
И еще — по правилам игры доп. вопросы (после 15:00 сегодняшнего дня) не принимаются, так что этот ответ — вне конкурса.

Виктория, это просто мое любопытство, спасибо что ответили. :)
Просто сам люблю поиграться в игры, а игры все требовательнее и требовательнее.
А я, даже когда выбирал ноутбук, ориентировался по видеокарточке, т.к. процессорной мощности зачастую хватает, а вот по видеоресурсам возникает нехватка. А некоторые игры (типа GTA 4), даже вводят ограничения на графику по объему видеопамяти.
P.S. А я и не знал, что это игра. Что ж, приятно было с вами поиграть, узнал много интересного. ;-)
Здравствуйте, хочется отдельно поблагодарить за саму возможность задать вопросы напрямую сотрудникам Intel, а не читать различные слухи на многочисленных сайтах. Несколько вопросов от себя:

1. Будет ли Larrabee (Intel) поддерживать OpenCL.
2. Делая упор в Larrabee на ускорения вычислений связанных с вычислениями в том числе графики для 3Д игр не считаете ли вы что компания опоздала с выведением такого продукта в том смысле что компании конкуренты давно и на более серьёзном уровне сотрудничают с разработчиками игр делая оптимизации драйверов своих устройств. И насколько вообще можно сравнивать уровень разработки драйверов для текущих интегрированных графических решений Intel, уровня драйвера будущего Larrabee и уровень разработки и поддержки в драйверах NVIDIA GeForce (в частности ту же программу The Way It's Meant To Be Played) и схожие работы по оптимизации в AMD/ATI Catalyst.
3. Что вы думаете о потенциале Larrabee после обнародования ключевых архитектурных возможностей NVIDIA Fermi, а так же комплекса средств для разработчиков Nvidia Nexus. Прокомментируйте ваше мнение относительно сильных и слабых сторон этих двух продуктов и архитектур.
4. Известно, что в мире не «реалтайм» компьютерной графики для фильмов, мультипликации и дизайна выдающееся качество фотореалистичной картинки достигается во многом благодаря техникам трассировки и физически максимально правильным моделям освещения — для этого используются так называемые программные рендереры ( Mental Ray (Mental Imeges by NVIDIA), ChaosGroup V-Ray, Cebas FinalRender, Pixar Renderman, Illuminate Labs Turtle, Nextlimit Maxwell, Feversost Fryrender, SplatterFish Brazil и многие другие). При этом для достижения приемлемой скорости обработки такого рода вычисления в крупном производстве всегда приходится использовать кластеры и «рендерфермы» на базе многочисленных многоядерных CPU х86. Многие из этих разработчиков рендереров уже сейчас заняты над воплощением своих алгоритмов силами например GPU разными моделями программирования. То есть эта индустрия явно оценила новые предоствленные возможности вычислений на GPU и постепенно отказывается от годами используемой кластерной обработки на х86 в пользу каких то гибридных моделей куда всё больше включаются GPU или специально разработанные для этого ускорители. Меня интересует как Intel видит будущее вычислений в этой индустрии, как позиционируется в этом ключе Larrabee и ведутся ли какие-либо конкретные работы Inlel c конкретными выше названными разработчиками рендереров по воплощению архитектуры вычислений Larrabee в их ПО.
Вы, вроде как, маленько опаздали… Но, возможно, вам ответят, хотя и не уверен. :)
Очень хотелось что бы всё таки ответили. Об этой теме мне рассказали только вчера а зайти появилась возможность только сегодня. Жаль что из недели для вопросов выделялось только несколько дней — это неимоверно мало и актуально только для тех кто каждый день посещает habrahabr :(
Я не представитель Intel, но участник дискуссии в данном топике, и насколько я понял:
Физический движок Havok (компании Havok Inc., 100% владельцем которой является корпорация Intel) абсолютно точно будет напрямую (native приложение) работать с железом Intel Larrabee, но не он один!
Об этом см. комментарий: habrahabr.ru/company/intel/blog/71512/#comment_2055936

Havok использовался для создания спецэффектов в таких фильмах, как «Посейдон», «Матрица», «Троя», «Царство Небесное», «Чарли и шоколадная фабрика» и др.
Подробнее о Havok см.:
1. www.havok.com/
2. ru.wikipedia.org/wiki/Havok

А о сотрудничестве Intel с киностудиями см.:
3. «Intel берется за физику всерьез, покупая Havok. PhysX отправляется в компьютерный музей?».
4. Блог Виктории Жислиной: «Монстры против Пришельцев. Но – за 3D! Или «Как Интел идет в кино»».
Спасибо, уже написал вопросы там :) Будем надеяться на ответы.
Sign up to leave a comment.