Не шмогла…

    Компания Intel объявила об отказе от разработки потребительской версии своего перспективного general purpose GPU чипа Larrabee.
    Разработки, впрочем, пока не совсем заброшены: Larrabee будет использоваться как платформа для разработки софта, а также как компонент высокопроизводительных компьютеров. Но купить для домашнего компьютера видеокарту, построенную на основе большого количества х86 процессоров, в обозримом будущем нам не светит.

    Жаль, что революция в области графических акселераторов провалилась (пока), однако подобное развитие событий было ожидаемо: постоянные задержки разработки уже отложили выход чипа на год, а в полупроводниковой индустрии год — это обычно навсегда. В то же время не удивительно, что столь амбициозный проект не получилось довести до финального продукта и массового производства сразу. Наверняка, если при использовании GPGPU в высокопроизводительных компьютерных системах будет достигнут прогресс, то Intel вернется к разработке чипа для «простых людей».

    Интересно, что всего два месяца назад сотрудники Intel рассказывали на Хабре о скором появлении чипа в продаже. Интересно, они так хорошо соблюдают NDA или это политика компании — не делиться со своими сотрудниками, работающими над проектом, планами по его закрытию?

    источники 1, 2
    Поделиться публикацией

    Похожие публикации

    Комментарии 22

    • НЛО прилетело и опубликовало эту надпись здесь
        +5
        Честно говоря, изначальная идея графики на X86 процессорах выглядит вполне безумной. Всё-таки X86 — это архитектура компромисса. А единственный компромисс GPU — интерфейс подключения к материнке.
          +1
          Здесь больше желание не в реализации графики, а создание альтернативного конкурентного продукта рассчётов на GPU для приложений, требующих высокую производительность. У Nvidia GPU рассчётов есть ряд ограничений по части реализуемых алгоритмов. Intel обещал их обойти и многие действительно ждали с нетерпением результата.
            0
            Ну Acceleware давно продет решения на базе Geforce: и карты и софт для моделирования кучи разных штук от CMOS до аэродинамики.
            Но, видимо, процесс написания приложений под GPU не такой и прост, потому что про их конекурентов я не слышал.
              0
              Ограничения у AMD/nVidia снимаются намного лечче: убрать «связанность» SP, использую по 1 декодеру инструкций на каждый SP вместо 1 на 16. Собственно, в новой nVidia это и собираются сделать, круг алгоритмов радикально расширится.
                +1
                В Fermi это ограничение останется (если не считать того, что на одном и том же блоке SP (32 штуки) смогут выполнятся одновременно 2 инструкции от разных потоков). Или вы про какую-то еще более новую видеокарту?
                  0
                  Да, вы правы…
                  Ввел в заблуждение один и ранних анонсов, где говорилось о том, что это ограничение снимается…
                  0
                  LRB вектора по 16 Float-ов.
                  Их гораздо сложнее программить чем «прозрачно» связанные скалярные SP.
                  В частности разворачивать данные в SOA.
                    0
                    Что за LRM и SOA — непонятно :-)
                      0
                      LRB )
                        0
                        LRB? общепринятое сокращение от Larrabee
                        SOA — structure of arrays — способ организации данных оптимальный для SIMD
                        в отличии от AOS — array of structures
                  0
                  Да, конечно.
                  Но Интел давно уже, судя по их действиям делает ставку на массовую паралеллизацию. Не загорами момент, когда в desktop компьютеров будут десятки ядер. Так что, возможно, идея слить вместе ядро и графику (вернее много ядер и много графики) не так и странна.
                    +1
                    Странна идея использования архитектуры Х86.
                  0
                  Возможно, что отсутствие в продаже этой штуки — из-за дороговизны.
                  Реально «Larrabee будет использоваться как платформа для разработки софта, а также как компонент высокопроизводительных компьютеров».
                  То есть тема не заброшена, втихую доведут и выкинут в продажу после подешевения и доводки.
                    0
                    нда и nvidia что то отложила свою новинку куда то на март, как то все кисло в этой индустрии. да и игр нового поколения (по графике и требованиям к железу) давно не было — все затачиваются под приставки, которые уже очень давно не обновлялись.
                      0
                      А подробней про нвидию можно? Ссылочку, там, еще чего?..
                    –1
                    Шла шаша по шошше и шошала шушку… (с)

                    Больше смахивает на грамотную PR акцию.
                      0
                      а по моему, изначально идея использования обычного процессора для подобной задачи была неудачна, все-такие у GPU своя специфика работы
                        0
                        Да там и не обычный процессор, а, имхо, интересный подход к решению такой задачи. Они обещали обойти те ограничения, которые поставила Nvidia в GPU расчетах.
                        +3
                        Многоядерный x86 — это как восьмиколёсная телега — цена выше, проходимость ниже.

                        Если уж смотреть в сторону GeneralPurpose ядер, то почему-бы что-то RISC'овое не клепать, тот-же OpenSPARC.
                        Думаю от «видеокарты» с десятком-другим SPARC'ов или PPC'шек будет больше пользы, чем от сотни x86 при гораздо меньшей стоимости и тепловыделении.
                          0
                          > Интересно, что всего два месяца назад сотрудники Intel рассказывали на Хабре о скором появлении чипа в продаже

                          скорее всего, он действительно готов, но зачем продавать всё сразу, когда в отсутствии конкуренции можно ещё лет двадцать добавлять по ядру-два в год и продавать как эксклюзив

                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                          Самое читаемое