Pull to refresh

Comments 22

UFO just landed and posted this here
Честно говоря, изначальная идея графики на X86 процессорах выглядит вполне безумной. Всё-таки X86 — это архитектура компромисса. А единственный компромисс GPU — интерфейс подключения к материнке.
Здесь больше желание не в реализации графики, а создание альтернативного конкурентного продукта рассчётов на GPU для приложений, требующих высокую производительность. У Nvidia GPU рассчётов есть ряд ограничений по части реализуемых алгоритмов. Intel обещал их обойти и многие действительно ждали с нетерпением результата.
Ну Acceleware давно продет решения на базе Geforce: и карты и софт для моделирования кучи разных штук от CMOS до аэродинамики.
Но, видимо, процесс написания приложений под GPU не такой и прост, потому что про их конекурентов я не слышал.
Ограничения у AMD/nVidia снимаются намного лечче: убрать «связанность» SP, использую по 1 декодеру инструкций на каждый SP вместо 1 на 16. Собственно, в новой nVidia это и собираются сделать, круг алгоритмов радикально расширится.
В Fermi это ограничение останется (если не считать того, что на одном и том же блоке SP (32 штуки) смогут выполнятся одновременно 2 инструкции от разных потоков). Или вы про какую-то еще более новую видеокарту?
Да, вы правы…
Ввел в заблуждение один и ранних анонсов, где говорилось о том, что это ограничение снимается…
LRB вектора по 16 Float-ов.
Их гораздо сложнее программить чем «прозрачно» связанные скалярные SP.
В частности разворачивать данные в SOA.
LRB? общепринятое сокращение от Larrabee
SOA — structure of arrays — способ организации данных оптимальный для SIMD
в отличии от AOS — array of structures
Да, конечно.
Но Интел давно уже, судя по их действиям делает ставку на массовую паралеллизацию. Не загорами момент, когда в desktop компьютеров будут десятки ядер. Так что, возможно, идея слить вместе ядро и графику (вернее много ядер и много графики) не так и странна.
Странна идея использования архитектуры Х86.
Возможно, что отсутствие в продаже этой штуки — из-за дороговизны.
Реально «Larrabee будет использоваться как платформа для разработки софта, а также как компонент высокопроизводительных компьютеров».
То есть тема не заброшена, втихую доведут и выкинут в продажу после подешевения и доводки.
нда и nvidia что то отложила свою новинку куда то на март, как то все кисло в этой индустрии. да и игр нового поколения (по графике и требованиям к железу) давно не было — все затачиваются под приставки, которые уже очень давно не обновлялись.
А подробней про нвидию можно? Ссылочку, там, еще чего?..
Шла шаша по шошше и шошала шушку… (с)

Больше смахивает на грамотную PR акцию.
а по моему, изначально идея использования обычного процессора для подобной задачи была неудачна, все-такие у GPU своя специфика работы
Да там и не обычный процессор, а, имхо, интересный подход к решению такой задачи. Они обещали обойти те ограничения, которые поставила Nvidia в GPU расчетах.
Многоядерный x86 — это как восьмиколёсная телега — цена выше, проходимость ниже.

Если уж смотреть в сторону GeneralPurpose ядер, то почему-бы что-то RISC'овое не клепать, тот-же OpenSPARC.
Думаю от «видеокарты» с десятком-другим SPARC'ов или PPC'шек будет больше пользы, чем от сотни x86 при гораздо меньшей стоимости и тепловыделении.
> Интересно, что всего два месяца назад сотрудники Intel рассказывали на Хабре о скором появлении чипа в продаже

скорее всего, он действительно готов, но зачем продавать всё сразу, когда в отсутствии конкуренции можно ещё лет двадцать добавлять по ядру-два в год и продавать как эксклюзив
Sign up to leave a comment.

Articles