Как стать автором
Обновить

Комментарии 52

Такими темпами через N лет системный блок будет дисководом с одним общим процессором внутри :)
НЛО прилетело и опубликовало эту надпись здесь
Да, скорее всего так :) Моноблоки и сейчас не особо толстые :)
Ещё проще: будет просто стол. Рабочий стол. Он же мультитач монитор.
Microsoft Surface? :)
надеюсь, не за такие деньги :)
>>и возможность сделать матрицу прозрачной
Это чтобы посмотреть на пыль и провода за этим «моноблоком?
НЛО прилетело и опубликовало эту надпись здесь
всё будет беспроводным ) включая питание
Вы думаете что дисководы останутся? Я вот уже забыл когда последний раз пользовался своим приводом.
У Вас он все еще есть? о_0
а что такое дисковод? ))
А вы заметили? В каждой теме на Хабре, где упоминают дисковод, обязательно появляется как минимум один человек, который произносит фразу: «Я вот уже забыл когда последний раз пользовался своим приводом.»

Вы так говорите об этом, как будто это повод для гордости ;D

P.S. Да и кто знает. Может человек говорил о последних моделях zip-драйвов, которые ещё лет 10 послужат благодаря надежности (в отличии от…)

P.P.S. А у меня есть 3,5-дисковод. Он так клёво тепло лампово шумит при чтении/записи.: )
да вообще никакого блока не будет, будет мобилка, подошел дома к столу она автоматом законнектилась с монитором и клавой и сидишь работаешь, аналогично на работе, удобно и синхронизировать ниче не надо.
… с телевизором законнектилась
С любой панелью, отображающей картинку. Телевизоров, как таковых, не будет. Картинка в столе, на стене, в руках (в виде листка). Всё сенсорное, конечно.
>Да, все идет к тому, что вскоре появится новый тип процессора от Intel
Хммм, а разве Интел не создала процессоры с видеокартой в одном чипе, тот же новый Атом N450?

>А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро, поскольку системы, подобные той, что предлагает Intel, далеко не так производительны, как дискретные графические системы.
Ну некоторым достаточно и дискретные видеокарты, раз все что чтоб они желательно умели декодировать HD видео.

НЛО прилетело и опубликовало эту надпись здесь
Этот процессор готов и продается как Intel Core i5-661, к примеру. Или мне подсунули китайскую фальшивку?
Видимо, имеется в виду, что GPU будет на одном кристалле с CPU, а не как в i3/i5 на отдельном кристалле.

Но да, пафоса немного многовато для такого сугубо технического изменения.
Основная фишка Fusion не в том что вот у нас будет GPU на том же кристале, а в том что его можно использовать не только для кручения графики и будет наличествовать унифицированный доступ к памяти.
и заметим, к памяти с более медленным доступом и трафиком, чем в дискретных видеокартах.
В случае работы с данными в основной памяти это как раз таки туда будет медленнее.
1. Видеокарты разные. Бывает какая-нибудь серия 5450, которой на многое хватает (Splinter Cell последний игрался), а память у неё DDR3 с 64-битной шириной канала.

2. Не забывайте про большой (по меркам стандартных GPU) кэш L3.

2.5. С другой стороны, доступ в память придётся гнать через IOMMU, потому что иначе шейдерами можно будет снести систему.

3. Вообще, достоинства и недостатки Fusion совсем не очевидны. Много плюсов и минусов, не понятно, как оно выстрелит в итоге. Но проект офигительно, imho, интересный. Особенно в контексте архитектуре Bulldozer, где FPU разман по паре недоядер. Кажется, что всё оно идёт к тому, что описал в своё время Olik: особенности GPU постепенно перекочуют в CPU… Вообще, для этого, логически, надо не так много: научиться делать scatter-gather операции с длинными векторами. Но технически это головная боль, потому что нетривиально это всё скрестить с виртуальной памятью и внеочередной суперскалярностью. Может, AMD вынесением FPU в некий достаточно отдельный блок как-то пытается решать эту проблему?

В общем, замечать тут надо много факторов.
Да, я согласен, что GPU постепенно перекочуют в CPU. Это очевидный тренд интеграции. Лет двадцать назад пределом мечтаний были системы на кристалле, а сегодня они повсюду. Сейчас только мечтают, чтобы всего побольше было и всё на одном чипе. Но есть ограничение — предельное кол-во транзисторов на чипе, ограниченное топологией, их размерами и тепловыделением.

>… внеочередной суперскалярностью…
Я не понимаю, почему зациклились на этом? Да, есть x86 который нужно разгонять, но ведь уже есть системы команд VLIW/EPIC (Elbrus/Itanium). Почему бы не перенести эти наработки в систему команд GPU? Зачем использовать площадь/транзисторы/тепловыделение, громоздить блоки предсказания ветвлений и прочие сложности суперскаляров, если можно явно указать зависимости в потоке команд?
Впрочем, я уже больше десяти лет не интересовался нюансами архитектуры процессоров и могу заблуждаться в современных нюансах.
Эта :) У AMD и так GPU VLIW'ные. Но VLIW не особо помогает, когда дело доходит до ветвлений и работы с памятью (это опыт работы с Itanium (там с памятью вообще тихий ужас, как мне кажется) и с некоторыми встраиваемыми DSP).

Вообще, мне тоже внеочередные суперскаляры не особо нравятся, есть такое ощущение, что там действительно куча лишнего, и проблемы, которые они решают, надо бы решать как-то иначе.

Но нельзя оспорить тот факт, что таки проблемы они действительно решают. И на настоящий момент это самая высокопроизводительная для однонитевых тестов архитектура.

Может быть, с постепенным переползанием на параллельность, эти тесты забудуться. Но пока показатели в них важны, и внеочередные суперскаляры уделывают в этих тестах всех.

Поэтому вряд ли AMD или Intel вдруг скажут: мы отказываемся от out-of-order в пользу упрощения и интеграции GPU-шных возможностей в ядро (имеется в виду в архитектуру ядра, а не просто рядышком на кристалл).

Вон даже ARM на этот out-of-order пошла в Cortex-A. Что лично мне показалось архистранным, со всей любовью ARM к экономии и транзисторов, и электропотребления. Я всё ждал от них SMT какого-нибудь типа Atom'ного. Тем более, что они делают многоядра. Но нет… Сделали внеочередное исполнение.

Вот. А насчёт непосредственной разметки в самих командах — это хорошо, конечно, только там проблема с прерываниями возникает, а прерывания обрабатывать нужно. А если думать, как их обрабатывать, всё равно мы придём к идее о том, что надо некое состояние хранить в регистрах… Ну а дальше опять получается внеочередной суперскаляр.

Поэтому тут скорее альтернатива именно в какой-то помеси CPU, GPU и SMT. Но пока такой гибрид не селекционирован. Поэтому out-of-order важен.
Вот когда они для GPU SDK аналогичное CUDA или OpenCL выпустят тогда и поговорим.
Так OpenCL разве нет у них? Вроде, они его недавно анонсировали и даже с оптимизацией под свои обычные CPU.
Думаем. Внимательно читаем. Ещё думаем.
Очень хорошо помогает от зуда в конечностях, заставляющего писать комментарии.
Аналогичным проектом занимается и компания AMD
в этой компании довольно скептично настроены по отношению к процессору с графическими функциями
facepalm.jpg

А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро
Логика повествования ввергает в шок. Кто говорил, что они умрут-то?
тут Энгельс нужен
Хм, думал все знают про него
Вот, кстати, видео, которому три с половиной месяца, где на sandy bridge показывают такую же картинку, как на машине с дискретной графикой.
Промо-тесты в Cinebench тоже очень впечатлили. Интересно, как скоро они появятся в ноутбуках, а то думал C2D менять на i5, может и не стоит спешить.
Был какой-то проект Larra Bee (или что-то такое) — это он?
нет не он, larrabee — это дискретная видеокарта, тут речь о том, что в sandy bridge gpu и cpu поместили на один кремниевый кристал, вот и все.
Так вроде уже сделали, например Core-i3м уже идет с встроеной видеокартой. Это какая-то старая новость…
А еще туда же звук перенести! И будет еще круче!
Soc- это хорошо, особенно в финансовом плане.
Я уж думал Larrabee для десктопов представят. Они кстати забили уже на эту идею что ли?
К сожалению, да: https://encrypted.google.com/url?sa=t&source=web&cd=1&ved=0CA8QFjAA&url=http%3A%2F%2Fwww.anandtech.com%2Fshow%2F3738%2Fintel-kills-larrabee-gpu-will-not-bring-a-discrete-graphics-product-to-market&ei=QjOKTPK5IMaAswbBvZm9Ag&usg=AFQjCNFNCZbv8fgtJ-7kz5Ek3kfZ9zZUUw&sig2=ney_gFQlcu6GabNz_-CBRA
Хех, вот и спалился, что пользуюсь https://encrypted.google.com/
На самом деле очень жаль, сильный игрок на рынке был бы не лишним. А то nvidia и ati и все, выбор закончился.
Скоро админы будут носить серверы в кармане…
И сегодня можно уже поставить сервер на смарте. Android ведь линукс, не? ;)
И много же ваш сервер сегодня сделает на андроиде? )
Сайтик поднять можно.
Сайтик впрочем поднять можно и на роутере.
… И останутся без потенциальных детей с помощью беспроводной 40-гигабитки.
Сначала математический сопроцессор объединили на одном кристалле с целочисленным процессором, сейчас туда же переносят графическое ядро. Что будет следующим шагом? Поддержка портов ввода/вывода? Оперативная память?
Пока всё экспериментально. Чтобы графика легко упаковывалась в процессор, необходима полная достаточность такого решения, а сегодня даже с шейдерами играм не помешало бы хотя бы в десять раз больше полигонов. Дискретные же решения имеют больше возможностей к развитию.
твою мать, вы читали комментарии выше? все ведь уже разъяснили
Максимум что из этого выйдет — «бюджетный класс», либо встроенное ядро будет помогать дискретному решению / отрисовывать 2D.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации