Комментарии 52
Такими темпами через N лет системный блок будет дисководом с одним общим процессором внутри :)
НЛО прилетело и опубликовало эту надпись здесь
Да, скорее всего так :) Моноблоки и сейчас не особо толстые :)
Ещё проще: будет просто стол. Рабочий стол. Он же мультитач монитор.
>>и возможность сделать матрицу прозрачной
Это чтобы посмотреть на пыль и провода за этим «моноблоком?
Это чтобы посмотреть на пыль и провода за этим «моноблоком?
Вы думаете что дисководы останутся? Я вот уже забыл когда последний раз пользовался своим приводом.
У Вас он все еще есть? о_0
А вы заметили? В каждой теме на Хабре, где упоминают дисковод, обязательно появляется как минимум один человек, который произносит фразу: «Я вот уже забыл когда последний раз пользовался своим приводом.»
Вы так говорите об этом, как будто это повод для гордости ;D
P.S. Да и кто знает. Может человек говорил о последних моделях zip-драйвов, которые ещё лет 10 послужат благодаря надежности (в отличии от…)
P.P.S. А у меня есть 3,5-дисковод. Он так клёво тепло лампово шумит при чтении/записи.: )
Вы так говорите об этом, как будто это повод для гордости ;D
P.S. Да и кто знает. Может человек говорил о последних моделях zip-драйвов, которые ещё лет 10 послужат благодаря надежности (в отличии от…)
P.P.S. А у меня есть 3,5-дисковод. Он так клёво тепло лампово шумит при чтении/записи.: )
да вообще никакого блока не будет, будет мобилка, подошел дома к столу она автоматом законнектилась с монитором и клавой и сидишь работаешь, аналогично на работе, удобно и синхронизировать ниче не надо.
>Да, все идет к тому, что вскоре появится новый тип процессора от Intel
Хммм, а разве Интел не создала процессоры с видеокартой в одном чипе, тот же новый Атом N450?
>А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро, поскольку системы, подобные той, что предлагает Intel, далеко не так производительны, как дискретные графические системы.
Ну некоторым достаточно и дискретные видеокарты, раз все что чтоб они желательно умели декодировать HD видео.
Хммм, а разве Интел не создала процессоры с видеокартой в одном чипе, тот же новый Атом N450?
>А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скоро, поскольку системы, подобные той, что предлагает Intel, далеко не так производительны, как дискретные графические системы.
Ну некоторым достаточно и дискретные видеокарты, раз все что чтоб они желательно умели декодировать HD видео.
Этот процессор готов и продается как Intel Core i5-661, к примеру. Или мне подсунули китайскую фальшивку?
Видимо, имеется в виду, что GPU будет на одном кристалле с CPU, а не как в i3/i5 на отдельном кристалле.
Но да, пафоса немного многовато для такого сугубо технического изменения.
Но да, пафоса немного многовато для такого сугубо технического изменения.
Основная фишка Fusion не в том что вот у нас будет GPU на том же кристале, а в том что его можно использовать не только для кручения графики и будет наличествовать унифицированный доступ к памяти.
и заметим, к памяти с более медленным доступом и трафиком, чем в дискретных видеокартах.
В случае работы с данными в основной памяти это как раз таки туда будет медленнее.
1. Видеокарты разные. Бывает какая-нибудь серия 5450, которой на многое хватает (Splinter Cell последний игрался), а память у неё DDR3 с 64-битной шириной канала.
2. Не забывайте про большой (по меркам стандартных GPU) кэш L3.
2.5. С другой стороны, доступ в память придётся гнать через IOMMU, потому что иначе шейдерами можно будет снести систему.
3. Вообще, достоинства и недостатки Fusion совсем не очевидны. Много плюсов и минусов, не понятно, как оно выстрелит в итоге. Но проект офигительно, imho, интересный. Особенно в контексте архитектуре Bulldozer, где FPU разман по паре недоядер. Кажется, что всё оно идёт к тому, что описал в своё время Olik: особенности GPU постепенно перекочуют в CPU… Вообще, для этого, логически, надо не так много: научиться делать scatter-gather операции с длинными векторами. Но технически это головная боль, потому что нетривиально это всё скрестить с виртуальной памятью и внеочередной суперскалярностью. Может, AMD вынесением FPU в некий достаточно отдельный блок как-то пытается решать эту проблему?
В общем, замечать тут надо много факторов.
2. Не забывайте про большой (по меркам стандартных GPU) кэш L3.
2.5. С другой стороны, доступ в память придётся гнать через IOMMU, потому что иначе шейдерами можно будет снести систему.
3. Вообще, достоинства и недостатки Fusion совсем не очевидны. Много плюсов и минусов, не понятно, как оно выстрелит в итоге. Но проект офигительно, imho, интересный. Особенно в контексте архитектуре Bulldozer, где FPU разман по паре недоядер. Кажется, что всё оно идёт к тому, что описал в своё время Olik: особенности GPU постепенно перекочуют в CPU… Вообще, для этого, логически, надо не так много: научиться делать scatter-gather операции с длинными векторами. Но технически это головная боль, потому что нетривиально это всё скрестить с виртуальной памятью и внеочередной суперскалярностью. Может, AMD вынесением FPU в некий достаточно отдельный блок как-то пытается решать эту проблему?
В общем, замечать тут надо много факторов.
Да, я согласен, что GPU постепенно перекочуют в CPU. Это очевидный тренд интеграции. Лет двадцать назад пределом мечтаний были системы на кристалле, а сегодня они повсюду. Сейчас только мечтают, чтобы всего побольше было и всё на одном чипе. Но есть ограничение — предельное кол-во транзисторов на чипе, ограниченное топологией, их размерами и тепловыделением.
>… внеочередной суперскалярностью…
Я не понимаю, почему зациклились на этом? Да, есть x86 который нужно разгонять, но ведь уже есть системы команд VLIW/EPIC (Elbrus/Itanium). Почему бы не перенести эти наработки в систему команд GPU? Зачем использовать площадь/транзисторы/тепловыделение, громоздить блоки предсказания ветвлений и прочие сложности суперскаляров, если можно явно указать зависимости в потоке команд?
Впрочем, я уже больше десяти лет не интересовался нюансами архитектуры процессоров и могу заблуждаться в современных нюансах.
>… внеочередной суперскалярностью…
Я не понимаю, почему зациклились на этом? Да, есть x86 который нужно разгонять, но ведь уже есть системы команд VLIW/EPIC (Elbrus/Itanium). Почему бы не перенести эти наработки в систему команд GPU? Зачем использовать площадь/транзисторы/тепловыделение, громоздить блоки предсказания ветвлений и прочие сложности суперскаляров, если можно явно указать зависимости в потоке команд?
Впрочем, я уже больше десяти лет не интересовался нюансами архитектуры процессоров и могу заблуждаться в современных нюансах.
Эта :) У AMD и так GPU VLIW'ные. Но VLIW не особо помогает, когда дело доходит до ветвлений и работы с памятью (это опыт работы с Itanium (там с памятью вообще тихий ужас, как мне кажется) и с некоторыми встраиваемыми DSP).
Вообще, мне тоже внеочередные суперскаляры не особо нравятся, есть такое ощущение, что там действительно куча лишнего, и проблемы, которые они решают, надо бы решать как-то иначе.
Но нельзя оспорить тот факт, что таки проблемы они действительно решают. И на настоящий момент это самая высокопроизводительная для однонитевых тестов архитектура.
Может быть, с постепенным переползанием на параллельность, эти тесты забудуться. Но пока показатели в них важны, и внеочередные суперскаляры уделывают в этих тестах всех.
Поэтому вряд ли AMD или Intel вдруг скажут: мы отказываемся от out-of-order в пользу упрощения и интеграции GPU-шных возможностей в ядро (имеется в виду в архитектуру ядра, а не просто рядышком на кристалл).
Вон даже ARM на этот out-of-order пошла в Cortex-A. Что лично мне показалось архистранным, со всей любовью ARM к экономии и транзисторов, и электропотребления. Я всё ждал от них SMT какого-нибудь типа Atom'ного. Тем более, что они делают многоядра. Но нет… Сделали внеочередное исполнение.
Вот. А насчёт непосредственной разметки в самих командах — это хорошо, конечно, только там проблема с прерываниями возникает, а прерывания обрабатывать нужно. А если думать, как их обрабатывать, всё равно мы придём к идее о том, что надо некое состояние хранить в регистрах… Ну а дальше опять получается внеочередной суперскаляр.
Поэтому тут скорее альтернатива именно в какой-то помеси CPU, GPU и SMT. Но пока такой гибрид не селекционирован. Поэтому out-of-order важен.
Вообще, мне тоже внеочередные суперскаляры не особо нравятся, есть такое ощущение, что там действительно куча лишнего, и проблемы, которые они решают, надо бы решать как-то иначе.
Но нельзя оспорить тот факт, что таки проблемы они действительно решают. И на настоящий момент это самая высокопроизводительная для однонитевых тестов архитектура.
Может быть, с постепенным переползанием на параллельность, эти тесты забудуться. Но пока показатели в них важны, и внеочередные суперскаляры уделывают в этих тестах всех.
Поэтому вряд ли AMD или Intel вдруг скажут: мы отказываемся от out-of-order в пользу упрощения и интеграции GPU-шных возможностей в ядро (имеется в виду в архитектуру ядра, а не просто рядышком на кристалл).
Вон даже ARM на этот out-of-order пошла в Cortex-A. Что лично мне показалось архистранным, со всей любовью ARM к экономии и транзисторов, и электропотребления. Я всё ждал от них SMT какого-нибудь типа Atom'ного. Тем более, что они делают многоядра. Но нет… Сделали внеочередное исполнение.
Вот. А насчёт непосредственной разметки в самих командах — это хорошо, конечно, только там проблема с прерываниями возникает, а прерывания обрабатывать нужно. А если думать, как их обрабатывать, всё равно мы придём к идее о том, что надо некое состояние хранить в регистрах… Ну а дальше опять получается внеочередной суперскаляр.
Поэтому тут скорее альтернатива именно в какой-то помеси CPU, GPU и SMT. Но пока такой гибрид не селекционирован. Поэтому out-of-order важен.
Вот когда они для GPU SDK аналогичное CUDA или OpenCL выпустят тогда и поговорим.
хм, а Core i3 и Core i5?
Аналогичным проектом занимается и компания AMD
в этой компании довольно скептично настроены по отношению к процессору с графическими функциямиfacepalm.jpg
А вот представители Nvidia утверждают, что видеокарты «умрут» еще не скороЛогика повествования ввергает в шок. Кто говорил, что они умрут-то?
Хм, думал все знают про него
Вот, кстати, видео, которому три с половиной месяца, где на sandy bridge показывают такую же картинку, как на машине с дискретной графикой.
Промо-тесты в Cinebench тоже очень впечатлили. Интересно, как скоро они появятся в ноутбуках, а то думал C2D менять на i5, может и не стоит спешить.
Вот, кстати, видео, которому три с половиной месяца, где на sandy bridge показывают такую же картинку, как на машине с дискретной графикой.
Промо-тесты в Cinebench тоже очень впечатлили. Интересно, как скоро они появятся в ноутбуках, а то думал C2D менять на i5, может и не стоит спешить.
Был какой-то проект Larra Bee (или что-то такое) — это он?
Так вроде уже сделали, например Core-i3м уже идет с встроеной видеокартой. Это какая-то старая новость…
А еще туда же звук перенести! И будет еще круче!
Soc- это хорошо, особенно в финансовом плане.
Я уж думал Larrabee для десктопов представят. Они кстати забили уже на эту идею что ли?
К сожалению, да: https://encrypted.google.com/url?sa=t&source=web&cd=1&ved=0CA8QFjAA&url=http%3A%2F%2Fwww.anandtech.com%2Fshow%2F3738%2Fintel-kills-larrabee-gpu-will-not-bring-a-discrete-graphics-product-to-market&ei=QjOKTPK5IMaAswbBvZm9Ag&usg=AFQjCNFNCZbv8fgtJ-7kz5Ek3kfZ9zZUUw&sig2=ney_gFQlcu6GabNz_-CBRA
Скоро админы будут носить серверы в кармане…
Сначала математический сопроцессор объединили на одном кристалле с целочисленным процессором, сейчас туда же переносят графическое ядро. Что будет следующим шагом? Поддержка портов ввода/вывода? Оперативная память?
Вот примерная их производительность, эти процы уже пощупали многие…
Ничего в них революционного нет вроде как, да быстро, но не более…
images.anandtech.com/graphs/sandybridgegpu_082710013731/24425.png
Ничего в них революционного нет вроде как, да быстро, но не более…
images.anandtech.com/graphs/sandybridgegpu_082710013731/24425.png
Максимум что из этого выйдет — «бюджетный класс», либо встроенное ядро будет помогать дискретному решению / отрисовывать 2D.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Intel скоро представит «графический» процессор