Intel скоро представит «графический» процессор

    Да, все идет к тому, что вскоре появится новый тип процессора от Intel. Этот процессор отличается от остальных — графические возможности, по словам производителя, встроены в главный кристалл ЦПУ. Данный чип является ответным решением Intel на разработку AMD, Fusion. Данная платформа представляет собой систему, объединяющую процессор и видеокарту. Стоит отметить, что новый процессор уже готов, это не простая концепция, и будет представлен на следующей неделе исполнительным директором Intel Полом Отеллини. Демонстрация процессора пройдет в Сан-Франциско, на форуме Intel Developer Forum. Кстати, оригинальный процессор получил название Sandy Bridge.

    Понятно, что после известия о подобной новинки аналитики очень оживились — ведь действительно, процессор с графическими возможностями поможет сделать такие устройства, как ноутбуки и нетбуки еще более мобильными — можно будет вовсе отказаться от видеокарты (да, конечно, есть и встроенные решения).

    Аналогичным проектом занимается и компания AMD, разработавшая проект, который уже упоминался выше. Правда, компания не спешит отказываться от видеокарт вообще, так что Intel поступает довольно смело. Разработчики последней утверждают, что процессор со встроенной графической системой будет настолько мощным, что позволит удовлетворить требования даже тех пользователей, кому нужны действительно производительные системы. Аналитики из Intel утверждают, что подобное решение позволит значительно снизить общую стоимость ноутбуков, для которых более не нужны будут видеокарты.

    Стоит отметить, что такие компьютеры и ноутбуки станут потреблять меньше энергии, а вот производительность их будет несколько выше, ведь ликвидация одного из узлов системы ускорит передачу и обработку информации.

    Есть и скептики, которые считают, что объединение графической системы и процессора может значительно подорвать позиции производителей — ведь видеокарты до сих пор являются неплохой статьей дохода. Интересно, что представители AMD не верят в то, что Intel предложит действительно что-то кардинальное, в этой компании довольно скептично настроены по отношению к процессору с графическими функциями.

    А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро, поскольку системы, подобные той, что предлагает Intel, далеко не так производительны, как дискретные графические системы.

    В общем, ждем полноценной презентации от Intel.
    Поддержать автора
    Поделиться публикацией
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 52

      –6
      Такими темпами через N лет системный блок будет дисководом с одним общим процессором внутри :)
        0
        Та не, думаю будет моноблочный монитор с невероятно тонкой глубиной и возможность сделать матрицу прозрачной
          0
          Да, скорее всего так :) Моноблоки и сейчас не особо толстые :)
            +2
            Ещё проще: будет просто стол. Рабочий стол. Он же мультитач монитор.
              0
              Microsoft Surface? :)
                0
                надеюсь, не за такие деньги :)
              +1
              >>и возможность сделать матрицу прозрачной
              Это чтобы посмотреть на пыль и провода за этим «моноблоком?
                +1
                Дань моде
                  0
                  всё будет беспроводным ) включая питание
                +22
                Вы думаете что дисководы останутся? Я вот уже забыл когда последний раз пользовался своим приводом.
                  +1
                  У Вас он все еще есть? о_0
                    0
                    а что такое дисковод? ))
                    +1
                    А вы заметили? В каждой теме на Хабре, где упоминают дисковод, обязательно появляется как минимум один человек, который произносит фразу: «Я вот уже забыл когда последний раз пользовался своим приводом.»

                    Вы так говорите об этом, как будто это повод для гордости ;D

                    P.S. Да и кто знает. Может человек говорил о последних моделях zip-драйвов, которые ещё лет 10 послужат благодаря надежности (в отличии от…)

                    P.P.S. А у меня есть 3,5-дисковод. Он так клёво тепло лампово шумит при чтении/записи.: )
                    +3
                    да вообще никакого блока не будет, будет мобилка, подошел дома к столу она автоматом законнектилась с монитором и клавой и сидишь работаешь, аналогично на работе, удобно и синхронизировать ниче не надо.
                      0
                      … с телевизором законнектилась
                        0
                        С любой панелью, отображающей картинку. Телевизоров, как таковых, не будет. Картинка в столе, на стене, в руках (в виде листка). Всё сенсорное, конечно.
                    +3
                    >Да, все идет к тому, что вскоре появится новый тип процессора от Intel
                    Хммм, а разве Интел не создала процессоры с видеокартой в одном чипе, тот же новый Атом N450?

                    >А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро, поскольку системы, подобные той, что предлагает Intel, далеко не так производительны, как дискретные графические системы.
                    Ну некоторым достаточно и дискретные видеокарты, раз все что чтоб они желательно умели декодировать HD видео.

                    • НЛО прилетело и опубликовало эту надпись здесь
                      0
                      Этот процессор готов и продается как Intel Core i5-661, к примеру. Или мне подсунули китайскую фальшивку?
                        +3
                        Видимо, имеется в виду, что GPU будет на одном кристалле с CPU, а не как в i3/i5 на отдельном кристалле.

                        Но да, пафоса немного многовато для такого сугубо технического изменения.
                          +2
                          Основная фишка Fusion не в том что вот у нас будет GPU на том же кристале, а в том что его можно использовать не только для кручения графики и будет наличествовать унифицированный доступ к памяти.
                            0
                            и заметим, к памяти с более медленным доступом и трафиком, чем в дискретных видеокартах.
                              0
                              В случае работы с данными в основной памяти это как раз таки туда будет медленнее.
                                +2
                                1. Видеокарты разные. Бывает какая-нибудь серия 5450, которой на многое хватает (Splinter Cell последний игрался), а память у неё DDR3 с 64-битной шириной канала.

                                2. Не забывайте про большой (по меркам стандартных GPU) кэш L3.

                                2.5. С другой стороны, доступ в память придётся гнать через IOMMU, потому что иначе шейдерами можно будет снести систему.

                                3. Вообще, достоинства и недостатки Fusion совсем не очевидны. Много плюсов и минусов, не понятно, как оно выстрелит в итоге. Но проект офигительно, imho, интересный. Особенно в контексте архитектуре Bulldozer, где FPU разман по паре недоядер. Кажется, что всё оно идёт к тому, что описал в своё время Olik: особенности GPU постепенно перекочуют в CPU… Вообще, для этого, логически, надо не так много: научиться делать scatter-gather операции с длинными векторами. Но технически это головная боль, потому что нетривиально это всё скрестить с виртуальной памятью и внеочередной суперскалярностью. Может, AMD вынесением FPU в некий достаточно отдельный блок как-то пытается решать эту проблему?

                                В общем, замечать тут надо много факторов.
                                  0
                                  Да, я согласен, что GPU постепенно перекочуют в CPU. Это очевидный тренд интеграции. Лет двадцать назад пределом мечтаний были системы на кристалле, а сегодня они повсюду. Сейчас только мечтают, чтобы всего побольше было и всё на одном чипе. Но есть ограничение — предельное кол-во транзисторов на чипе, ограниченное топологией, их размерами и тепловыделением.

                                  >… внеочередной суперскалярностью…
                                  Я не понимаю, почему зациклились на этом? Да, есть x86 который нужно разгонять, но ведь уже есть системы команд VLIW/EPIC (Elbrus/Itanium). Почему бы не перенести эти наработки в систему команд GPU? Зачем использовать площадь/транзисторы/тепловыделение, громоздить блоки предсказания ветвлений и прочие сложности суперскаляров, если можно явно указать зависимости в потоке команд?
                                  Впрочем, я уже больше десяти лет не интересовался нюансами архитектуры процессоров и могу заблуждаться в современных нюансах.
                                    0
                                    Эта :) У AMD и так GPU VLIW'ные. Но VLIW не особо помогает, когда дело доходит до ветвлений и работы с памятью (это опыт работы с Itanium (там с памятью вообще тихий ужас, как мне кажется) и с некоторыми встраиваемыми DSP).

                                    Вообще, мне тоже внеочередные суперскаляры не особо нравятся, есть такое ощущение, что там действительно куча лишнего, и проблемы, которые они решают, надо бы решать как-то иначе.

                                    Но нельзя оспорить тот факт, что таки проблемы они действительно решают. И на настоящий момент это самая высокопроизводительная для однонитевых тестов архитектура.

                                    Может быть, с постепенным переползанием на параллельность, эти тесты забудуться. Но пока показатели в них важны, и внеочередные суперскаляры уделывают в этих тестах всех.

                                    Поэтому вряд ли AMD или Intel вдруг скажут: мы отказываемся от out-of-order в пользу упрощения и интеграции GPU-шных возможностей в ядро (имеется в виду в архитектуру ядра, а не просто рядышком на кристалл).

                                    Вон даже ARM на этот out-of-order пошла в Cortex-A. Что лично мне показалось архистранным, со всей любовью ARM к экономии и транзисторов, и электропотребления. Я всё ждал от них SMT какого-нибудь типа Atom'ного. Тем более, что они делают многоядра. Но нет… Сделали внеочередное исполнение.

                                    Вот. А насчёт непосредственной разметки в самих командах — это хорошо, конечно, только там проблема с прерываниями возникает, а прерывания обрабатывать нужно. А если думать, как их обрабатывать, всё равно мы придём к идее о том, что надо некое состояние хранить в регистрах… Ну а дальше опять получается внеочередной суперскаляр.

                                    Поэтому тут скорее альтернатива именно в какой-то помеси CPU, GPU и SMT. Но пока такой гибрид не селекционирован. Поэтому out-of-order важен.
                            –1
                            Вот когда они для GPU SDK аналогичное CUDA или OpenCL выпустят тогда и поговорим.
                              +1
                              Так OpenCL разве нет у них? Вроде, они его недавно анонсировали и даже с оптимизацией под свои обычные CPU.
                            –1
                            хм, а Core i3 и Core i5?
                              +2
                              Думаем. Внимательно читаем. Ещё думаем.
                              Очень хорошо помогает от зуда в конечностях, заставляющего писать комментарии.
                              –1
                              Аналогичным проектом занимается и компания AMD
                              в этой компании довольно скептично настроены по отношению к процессору с графическими функциями
                              facepalm.jpg

                              А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро
                              Логика повествования ввергает в шок. Кто говорил, что они умрут-то?
                                0
                                тут Энгельс нужен
                                0
                                Хм, думал все знают про него
                                Вот, кстати, видео, которому три с половиной месяца, где на sandy bridge показывают такую же картинку, как на машине с дискретной графикой.
                                Промо-тесты в Cinebench тоже очень впечатлили. Интересно, как скоро они появятся в ноутбуках, а то думал C2D менять на i5, может и не стоит спешить.
                                  0
                                  Был какой-то проект Larra Bee (или что-то такое) — это он?
                                    0
                                    нет не он, larrabee — это дискретная видеокарта, тут речь о том, что в sandy bridge gpu и cpu поместили на один кремниевый кристал, вот и все.
                                    –3
                                    Так вроде уже сделали, например Core-i3м уже идет с встроеной видеокартой. Это какая-то старая новость…
                                      0
                                      А еще туда же звук перенести! И будет еще круче!
                                        0
                                        Soc- это хорошо, особенно в финансовом плане.
                                          0
                                          Я уж думал Larrabee для десктопов представят. Они кстати забили уже на эту идею что ли?
                                            0
                                            К сожалению, да: https://encrypted.google.com/url?sa=t&source=web&cd=1&ved=0CA8QFjAA&url=http%3A%2F%2Fwww.anandtech.com%2Fshow%2F3738%2Fintel-kills-larrabee-gpu-will-not-bring-a-discrete-graphics-product-to-market&ei=QjOKTPK5IMaAswbBvZm9Ag&usg=AFQjCNFNCZbv8fgtJ-7kz5Ek3kfZ9zZUUw&sig2=ney_gFQlcu6GabNz_-CBRA
                                              0
                                              Хех, вот и спалился, что пользуюсь https://encrypted.google.com/
                                                0
                                                На самом деле очень жаль, сильный игрок на рынке был бы не лишним. А то nvidia и ati и все, выбор закончился.
                                            0
                                            Скоро админы будут носить серверы в кармане…
                                              0
                                              И сегодня можно уже поставить сервер на смарте. Android ведь линукс, не? ;)
                                                0
                                                И много же ваш сервер сегодня сделает на андроиде? )
                                                  0
                                                  Сайтик поднять можно.
                                                  Сайтик впрочем поднять можно и на роутере.
                                                0
                                                … И останутся без потенциальных детей с помощью беспроводной 40-гигабитки.
                                                –2
                                                Сначала математический сопроцессор объединили на одном кристалле с целочисленным процессором, сейчас туда же переносят графическое ядро. Что будет следующим шагом? Поддержка портов ввода/вывода? Оперативная память?
                                                  0
                                                  Пока всё экспериментально. Чтобы графика легко упаковывалась в процессор, необходима полная достаточность такого решения, а сегодня даже с шейдерами играм не помешало бы хотя бы в десять раз больше полигонов. Дискретные же решения имеют больше возможностей к развитию.
                                                  0
                                                  Вот примерная их производительность, эти процы уже пощупали многие…
                                                  Ничего в них революционного нет вроде как, да быстро, но не более…

                                                  images.anandtech.com/graphs/sandybridgegpu_082710013731/24425.png
                                                    –1
                                                    твою мать, вы читали комментарии выше? все ведь уже разъяснили
                                                    +1
                                                    Максимум что из этого выйдет — «бюджетный класс», либо встроенное ядро будет помогать дискретному решению / отрисовывать 2D.

                                                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                    Самое читаемое