Как стать автором
Обновить

Комментарии 278

Прекрасно помню время, когда казалось, что интел захватил рынок. Причём такое было не раз. И ничего, AMD снова «выныривали» с качественными продуктами и ценами «чуть ниже». Думаю всё будет в порядке!
intel выпускал более инновационные продукты, но и amd тогда не делала лажу и достаточно оперативно догоняла. Выпуск sandy bridge как-то слишком сильно подкосил amd, ее решения были похожи на трепызания intel в эпоху начала выпуска p4 (только не частотой берет а кукурузными ядрами). Надеюсь, выкарабкаются, но сейчас ситуация выглядит более плачевно, чем когда бы это ни было. Ни в одном сегменте процессоры АМД не являются более интересными (ну, может, кроме суперкомпьютеров).
По-моему, лажали и Интел и АМД: слажает Интел — АМД на коне, и наоборот. А потом пришёл лесник и всех прогнал Эппл со своими планшетами, затем подтянулись андроиды, и даже Микрософт портировал ОС на ARM, a ПК стали не в моде. У Интела, конечно, дела намного лучше, но тоже похвастать особо нечем — их процессоры покупают всё меньше, от этого падают доходы и прибыль.
Та как меньше. Ультрабуки, серверов опять-же покупают все больше (потому, что данных и пользователей все больше), тот-же Эппл продает не только планшеты с телефонами. Intel отлично себя чувствует. И если бы небыло Интела, хорошо бы дела шли у АМД. Они именно конкурентную борьбу проиграли, по цене/качеству их продукты уже совсем не такие, как были раньше (я был фанатом АМД еще с момента выхода гигагерцового Атлона, который они сделали первым).

ARM может откушать долю рынка только у самых маломощных x86 решений, так что он тут не при чем.

Эх, помню Атлон 2.5 Бартон + radeon 8500 на тряпки рвал даже существенно более дорогие решения на Intel+nvidia, а сейчас уже наоборот, скорее.
blogs.wsj.com/marketbeat/2012/10/16/intel-3q-earnings-slide-from-2011-top-street/:
Intel reported earnings of $3 billion, or 58 cents a share (60 cents, non-GAAP), a comfortable beat over Street views of 49 cents (51 cents, non-GAAP), and while it’s still a drop from last year’s numbers, it’s a narrower slide than most people expected. Revenue came in at $13.5 billion, which was also above expectations of $13.22 billion, albeit below last year’s $14.23 billion.

Despite the good-ish numbers, shares are down 2.2% in late trading at $21.87.

Sales at the company’s PC Client Group, its largest by revenue, came in at $8.6 billion, about even with Street views, but down 8% from a year ago.


ARM может откушать долю рынка только у самых маломощных x86 решений, так что он тут не при чем.
Не в мощности дело — всё больше людей покупают планшеты вместо новых ПК.
В мощности. Планшеты это замена нетбукам в лучшем случае. И их покупают для потребления контента. Да, многие люди поменяли ПК или нетбук на планшет. Но вот для работы, часто, нужен хотя-бы ноутбук, часто ПК и довольно мощный. Т.е. компании вряд ли уменьшили закупку компьютеров, скорее дают планшет дополнительно (заменили им КПК на WM).
А серверов так вообще стали больше продавать. А их вряд ли сильно меньше, чем десктопов (а стоят серверные процессоры дороже). Так, что не думаю, что прям так повлиял приход планшетов на производителей x86 процессоров.
Ну ок, дело в мощности, продажи процессоров Intel растут, и вы правы, а статья Wall Street Journal с данными квартального отчёта Intel о сокращении продаж на 8% — неправда.
Так продажи может и сокращаются. Но компания получает намного больше прибыли от дорогих серверных процессоров, а не дешевых нетбучных, которые уходят почти по себестоимости. Продажи серверных процессоров, на сколько я помню, растут стабильно.
OK.
Так ведь общая стагнация.
Планшет не замена ПК и никогда ей не будет.
Приятное дополнение, не более того, ну и ридер.
Для многих — замена.
Вот я работаю программистом.
Для меня планшет — замена домашнего ПК. У меня дома два или три компа. Но для своих домашних нужд (интернета) включаю я их практически только когда жена забирает планшет, а на смартфоне (с которого я набираю этот комментарий), садится батарейка.

Я не представляю как на планшете можно программировать, рисовать, играть, писать музыку, делать чертежи, 3х-мерные модели, физические расчеты.
Думаю этот список можно пополнить.
Браузинг — для этого даже мой 3х летний смарт неплох
Программирую я на работе, дома руки не доходят.
Рисовать и писать музыку я не умею.
Играл на PS3, но слишком редко, так что и её подарил, теперь изредка играю на планшете или смартфоне.
Чертежи, модели, расчёты — это всё работа. Дома в 95% случаев достаточно планшета. Текстового редактора на планшете с внешней клавиатурой оказалось достаточно для набора официальных писем, только распечатывать их приходится пока через комп.
Я рад за Вас, но насколько я вижу у Вас просто нет прикладного использования инструмента «компьютер» дома. Так что Вы не таргет группа. Вы из разряда бабушек, что сидят на Делле с «ядерным реактором» внутри из ммх процессора за ос Win98.
Без обид. Все что нужно — это браузер.
Думаю, таких бабушек как я — 90% домашних пользователей.
Это понятно, но не 90, а 80. Вы новый рынок, а не старый рынок гиков и работников ПК.

Вы не влияете на производства массовых процессоров, серверных процессоров и т.п.
Кроме как косвенно (как потребители контента, который создают на этих системах).
Поймите, я — не против компьютеров. На компьютере я пишу программы для компьютеров, чем и зарабатываю на жизнь.
Но «широким массам» компьютеры в виде дорогого мощного суперкомбайна умеющего всё — не нужны.
Печатная машинка, фильмы, музыка, игры, интернет — это всё можно делать и без компьютера в его нынешнем виде. Специализированные устройства зачастую дешевле и удобнее.
> Но «широким массам» компьютеры в виде дорогого мощного суперкомбайна умеющего всё — не нужны.

Так уже сказал один дядя из DEC в 1976 году про компьютеры вообще. А потом другие умные дяди в конце 90-х заявляли, что с появлением интернета ПК себя исчерпал и ему на смену для «широких масс» идут дешевые интернет-приставки типа Audrey (помните?) и прочее говно для потребления контента. Я еще тогда предсказывал, что все это говно вымрет как динозавры, а ПК будет жить, так и вышло.

Почему же выжил ПК и почему производители говнодевайсов его хоронили? Да потому что они рассматривали интернет как нечто готовое, застывшее и статичное и не понимали простой вещи, что Сеть непрерывно развивается усилиями самих пользователей. В данном случае пользователи привыкли, что из Сети можно, например, скачивать файлы — потреблять контент онлайн тогда было дорого или невозможно, а сейчас все чаще становится ненадежно, потому что его пытаются блокировать копирасты или цензоры. Сайты в те времена представляли собой статичные хоумпаги, а редкие блоги никто не называл блогами и не предполагал, что их можно комментить, вообще что-то писать; юзер тогда чаще тупо кликал мышью и ждал загрузки страниц. И те, кто пророчил, что вследствие краха доткомов Сеть «загнется», воспринимали ее именно как доступный уже в 2000 году функционал, а не как перспективу высоких скоростей, миллиардов пользователей, новых применений и классов устройств, — того, чего еще нет, но что будет. Так вот это самое то, чего еще нет, нередко создается на именно ПК и распространяется в первую очередь на ПК же, поскольку это самая универсальная и мощная платформа для реализации любых новых функций ИТ — даже если производительности более чем достаточно, стационарный ПК может иметь такой козырь, как диагональ монитора, с которой наиболее удобно активно работать с контентом (даже если тупо его комментить), а не только пассивно потреблять. В общем, планшету планшетово, а десктопу десктопово.
Так вот это самое то, чего еще нет, нередко создается на именно ПК и распространяется в первую очередь на ПК же, поскольку это самая универсальная и мощная платформа для реализации любых новых функций ИТ...

Что-то в этом утверждении мне не нравится. Вероятно, слова «самая универсальная и мощная». Все-таки, ПК в их нынешнем форм-факторе слабоваты. И то, что на них удаётся разрабатывать и отлаживать приложения для каких-нибудь сильно распределенных вычислений, несколько настораживает. Скорее всего, эти приложения далеко не настолько хороши, как могли бы быть, если бы разрабатывались на более подходящей платформе, с более адекватным инструментарием и интерфейсом.
Программировать Метавселенную, не живя в ней, с моей точки зрения, не совсем правильно.
Кстати, что в своё время народ говорил про перенос разработки из пачек перфокарт для БЭСМ-6 и ЕС-10хх на «игрушечные» СМ-4?
Да ладно? Samsung SmartTV, у которого огромная диагональ и можно комментировать всё, что угодно. Вы не учитываете прогресс, достигнутый и в «недокомпьютерах». Раньше под потреблением контента имелось в виду именно потребление. А сейчас подразумевается Web2.0, то есть потребление в виде вконтактиков и перепостов. И народу этого хватает. Если 5 лет назад все «некомпьютерные» знакомые мучились выбором ноутбука, то сейчас их мучает выбор планшета (при чём опыт работы с ними у них есть уже), несмотря на то, что они за те же деньги могут купить очень продвинутый PC или хороший ноутбук. Постить вконтактик с iPad-а (хоть нам и не понять этого :) гораздо гламурнее, социально важнее и нужнее обывателю, чем возможность посидеть дома в Blender, подизайнить чего-нибудь. Люди в своей массе не такие продвинутые, как Вам кажется.

Сейчас, фактически, единственное, для чего необходим компьютер дома, это всякий разный файлошаринг через p2p (хардкорные игры, на самом деле, интересные не такому уж и большому количеству людей, и добрая доля их играет на приставках). Но с файлошарингом справляется и компик 10-летней давности.

Рынок x86-PC сужается в любом случае. То есть, либо он вообще загнётся, либо комплектующие станут дорогими, но в последнем случае, ARM в лице AMD и nVidia с удовольствием отожмёт этот кусок пирога у Intel, если сама Intel не поменяет свою политику.
И чё? А теперь посчитайте, сколько людей используют вычислительную технику для потребления, а сколько для сложной работы (для office вполне хватит ARM). Кроме того, процентов 60 нужд работы удовлетворяется тем или иным облачным способом, когда у клиента всего лишь интерфейс в браузере. Картинка для x86 крайне печальная. Небольшим рынком не окупить огромные затраты на R&D. Лично мне сложно представить, что x86 продержится ещё 5 лет, ключевые слова: энергоэффективность и цена.
Полагаю, все кто используют компьютер на работе, так или иначе, генерируют контент, а не только потребляют (хотя-бы на уровне отчетов). И тут планшет пригодится далеко не всем. Я думаю, что количество пользователей x86 особо и не уменьшается, просто сейчас софт начали снова оптимизировать и пропала нужда в регулярном апгрейте.

Иначе обстоят дела на серверном рынке. Тут стабильный рост и это самый вкусный рынок для производителей, ведь тут больше всего маржа. И альтернатив x86 тут вообще не заметно.
Почему не заметно? UltraSPARC, PowerPC, MIPS, ARM — всё живое, всё используется. В Китае вот вообще нельзя на предприятиях что-то, кроме отечественных MIPS использовать. В Ubuntu используют серверы на ARM. И т.д. Альтернатив много. Другое дело, что Intel могла демпенговать на серверном рынке благодаря рынку потребительскому. Но этот ресурс, как я понимаю, у них скоро закончится: AMD и nVidia сделают гибридные процессоры с ARM-ами на борту для высокопроизводительных домашних систем (им обеим просто некуда деваться: nVidia теряет рынок из-за роста мощи встроенных GPU, AMD из-за проблем с энергопотреблением процессорных ядер, консорциум для таких разработок AMD уже создала). Windows и Linux уже для этого готовы. Какова будет ниша x86 тогда? Совсем не очевидно.
Я не говорю, что нет других процессоров, я говорю что на серверах x86 нет альтернативы. Нет никаких причин сейчас менять x86 на другую архитектуру в серверах. Производительность, цена и тепловыделение на уровне, а софта написано намного больше. Да и на ПК, ноутбуках, ультрабуках альтернативы очень слабые (даже ARM). А в то, что мощные компьютеры перестанут пользоваться спросом, не особо верится. Да, теперь вместо атома некоторые берут arm (пусть даже многие). Но вот даже мобильному i7 замен нет, не говоря уже о старших десктопных процессорах.

Станционарные рабочие места еще долго никуда не денутся, и если даже вымрут системники для основной массы, все равно будут неттопы именно на x86 (под него есть софт и он быстрее, а прожорливость в стационарнике не критична).
Собственно, а почему обросший костылями x86 пока быстрее ARM?
Вылизанная архитектура с кучей микро-оптимизаций, только и всего.

Со временем технологии (out-of-order execution, branch prediction, etc) будут переползать на ARM, тем более последний ближе к RISC, которую эмулирует ядро x86. ARM лучше подходит на роль высокопроизводительной архитектуры, но пока находится в детском возрасте.
Как по мне, причина та-же, что и непопулярность x86 на мобильных устройствах: arm стремится к максимальной энергоэффективности. И если отклонится от этого курса, может потерять лидерство в мобильных девайсах.

ДЕтский возраст ARM продолжается уже очень давно, пока не появится процессоров, сранимых хотя-бы с средними десктопными x86 (i5 2500K, например), нет смысла даже говорить об ARM, как альтернативе x86 на рынке производительных решений. А чтобы такие процессоры начали вытеснять 86е, нужно, чтобы они работали серьезно быстрее и был смысл переписывать под них софт.
По моему вы не понимаете, о чем говорите.
Что значит «ближе к RISC»? ARM-архитектура это надмножество RISC-архитектуры. Это не что-то другое, это просто развитие. Это не «ближе», это оно и есть.

RISC, которую эмулирует ядро x86

Полный бред. Открою вам глаза. Внутри x86 сидит RISC-ядро. Которое уже софтварно эмулирует CISC, на котором и основана x86-архитектура. Так конечно не всегда было.

Поэтому не вижу большой проблемы, в том что бы Intel убрал эмуляцию и выпустил RISC-процессоры. Просто это пока никому не надо.
Это тоже бред :) Внутри и x86, и любого большого (по меркам RISC) RISC сидит потоковый процессор, это совсем другая архитектура с кучей всяких модулей, которые не видны снаружи. Никакой там программной эмуляции нет, есть аппаратные декодеры. Если Intel уберёт этот frontend у процессора, то в итоге получится железяка, которую невозможно программировать стандартными средствами. Проблем, возможно, нет в другом: заменить frontend x86 на frontend ARMv8, но Intel на такое не пойдёт, есть ощущение, у них странная нежная любовь к x86.
Нет эмуляции? Что тогда такое микрокод?
Так я не утверждал, что внутри сидит ARM или что-то подобное. Внутри там RISC, а как он выполнен мне не известно. RISC != ARM.
И да, появись ARM сегодня, его тоже бы невозможно было программировать стандартными средствами.
Любовь полне понятная, x86 — это интеллектуальная собственность intel, и нет опасности что кто-то потребует лицензионных отчислений и прочих патентных неприятностей.

Ваше и fshp замечания вполне уместны, запутался пока писал и не сформулировал правильно. Основная мысль была — производительность core-i7 достигается не благодаря архитектуре x86, а несмотря на все её legacy-костыли. При желании, на архитектуре ARM можно сделать процессор не слабее i7 и сложность схемы будет меньше, т.к. «frontend» для ARM проще
Станционарные рабочие места еще долго никуда не денутся, и если даже вымрут системники для основной массы, все равно будут неттопы именно на x86 (под него есть софт и он быстрее, а прожорливость в стационарнике не критична).
У нас собираются переводить всех на thin client — это такой маломощный терминал с одним или двумя мониторами, клавиатурой и мышкой, а ОС и весь софт работают в виртуальной машине на сервере. Зачем этому терминалу х86? Один х86_64 процессор на сервере тянет десяток офисных виртуализированных машин.
А что даст этому клиенту не-x86?
Энергопотребление и простоту обслуживания. Либо у вас 500 коробочек, которые тратят 10W, либо 500 коробочек, которые тратят 100W энергии. И проблема даже не в том, чтобы оплачивать потребляемую энергию, а в том чтобы сделать соответствующую проводку.

Либо у Вас дырявые коробочки, которые шумят и затягивают кучу пыли из окружающего пространства, либо у Вас наглухо закрытая коробочка, которая при этом и звуков не издаёт.

ARM-ы дают преимущества в физическом мире.
fit-PC2 (до 8W при полной загрузке процессора)
image

Xiilun
image

Это всё х86 на процессорах Atom Z серии
Терминалам уже более полувека. И каждый раз волна поднимается с одними и теми же лозунгами. И до сих пор терминалы — отдельная область применения, персоналки — тоже отдельная. Плюс сейчас появляются всякие планшеты и т.д.
Про софт я вообще не понимаю. Что означает: софта написано намного больше? Компиляторов не существует? Microsoft не перенесла .Net? Oracle отказалась от JVM? По-моему, времена, когда всё писали на ассемблере давно ушли в прошлое. Если у кого-то и остался legacy-код с тех времён, то он всяко не код для x86, скорее уж для IBM-овских мэйнфреймов всяких. Кстати, насчёт веры в мощные компьютеры… Кто там HP или Dell не поверили в то, что никому не нужны «маломощные» компьютеры Apple? Проблема в том, что все эти поделки на ARM уже достаточно мощные, чтобы решать 90% задач пользователя. Люди не думают ни о какой замене, им просто не нужен i7.

Конечно, ARM пока не сравнится с i7 по мощности. Но i7 существует же не только по той причине, что Intel может разработать именно i7, продавать его по цене i7, и загружать заводы производством i7. Нет же. i7 существует благодаря сказочно массовому спросу на x86 процессоры. Спрос упадёт, и не будет никаких i7, а будет какой-нибудь аналог ARM, потому что развитие этой архитектуры будет поддерживаться массовым спросом.

В этом огромная проблема. Может быть, Intel справится за счёт техпроцесса. Но верится слабо :( Чисто архитектурно гибридный ARM гораздо круче, а технологии производства можно и у IBM купить.
Ой. Dell или HP не поверили в то, что кому-то нужны «маломощные»...
Спрос упадёт, и не будет никаких i7...

Как-то пессимистично оно звучит. Что же делать тем, кому всё-таки будет нужно что-нибудь помощнее? Или имеется в виду, что останется только ARM (маломощный) и i11+?
Хотя и сейчас за лишнюю сотню мегагерц (или циферку после «i») на ноутбуке надо готовить лишнюю тысячу долларов. Так что те времена уже пришли.
Софт для серверов далеко не всегда пишут на .net. Основная часть ПО, для которого берутся мощные сервера, это как раз нативный код, пусть и через прослойки. И далеко не весь такой код открыт и далеко не весь так уж просто переносим (во многих задачах, типа кодирования видео, до сих пор встречаются асм вставки для повышения быстродейсвтия).

Да и архитектура многих программ оптимизирована именно под x86, от простой перекомпиляции под arm, они не станут там работать сколько либо оптимально.

Я сейчас не говорю о блокнотах или оболочках для формочек. А именно о серверном софте.

Даже открытая Убунта весьма со скрипом сейчас работает на arm в плане стабильности. А что говорить о софте с закрытыми исходниками или написанном на ЯП, для которых пока нет оптимальных компиляторов под ARM в принципе?

Насчет не будет i7, я сонласен с тем, что если упадет спрос, их не будет. Вот только, не падает что-то. Всякие Атому конкурируют с arm, а i7 как продавался так и продается. Не такими большими партиями но стабильно и с большой маржой.
Пока что ARM для офисной работы слабоват. Комп должен откликаться максимально быстро, ибо рабочее время сотрудника стоит куда дороже, чем очень мощный x86.
Офисная работа, это не только текст в Word, который, кстати, работает со стилями, проверкой орфографии, встроенными картинками и другими объектами.
Я ещё не видел, чтобы на ARM какой нибудь Linux достаточно адекватно шевелился.
Это будет. Потом. Через 2 года.
Ну, насколько я мог потрогать ARM-овский Surface на выставке — там вполне всё откликается быстро. Интернет и Офис, по крайней мере. Слабостей особо заметно не было. На PandaBoard вполне адекватно шевелится ArchLinux ARM (ну и Ubuntu тоже, вроде как).
Попробуйте это всё использовать в повседневной работе.
Любые тяжелые сайты уже заставляют систему тупить. Например engadget. Я видел достаточно видео про 4х ядерные ARM A9 на 1,4-1,6ГГц, чтобы говорить, что этого не достаточно. Как бы хорошо они не показывали 3Д игры, под них заточенные.
Это пока недостаточно универсальные системы. Банально, почти никакие из них не работают с SATA или более чем 2GB оперативки (и то на низких скоростях). О чём можно дальше говорить?
Ещё рано.
Повседневно я тыкаюсь по интернету при помощи Galaxy Nexus (не 7, не 4, просто Nexus, там 2 ядра всего), тормозов с производительностью CPU вообще никаких не замечал. Конечно, я не смотрел на нём таблицы, в которых 10 миллионов записей и тысячи формул, но интернет любой сложности и PDF показывается вполне себе без тормозов, по личным ощущениям даже быстрее, чем на Atom. А люди работают на Atom-ах. Понятно, что и память не самая быстрая, и ещё куча ограничений. Но уже сносно работает и, главное, дешевле… Причин, по которым x86 сможет выжить в массовом сегменте вообще не заметно уже. Intel же не зря активно диверсифицируется.
Вы просто не юзаете фильтры рекламы. Вот если добавить AdBlock с 30 тыс. правил, то тут уже некоторые слабые ПК садятся в лужу, в планшетах все будет еще печальней.
Не знаю, как на армах, но мой HP625 не очень быстро справлялся с редактированием вордовского документа с десятком формул и вставленными изображениями. Куда там третьей тегре до двухъядерного ноутбучного процессора

Боюсь surface будет хорош для простых «домашних» документов, а не для бизнеса
Но в Tegra-3 же 9 ядер (если GPU считать, а считать надо, потому что вся отрисовка вполне может быть возложена на него). Вообще, надо просто попробовать, взять Ваш документ и попробовать редактировать его на Surface.
Ну хорошо, прошли два года. Чем еще крыть?
Наверное тем же, что и сейчас MiniITX. x86 тоже не стоят на месте. А пока, я вижу, что за одинаковые деньги можно собрать х86 систему сравнимого с ARM размера, но со в несколько раз более высокой производительностью. Причём без проблем с загрузчиками, драйверами, софтом, ограничениями и т.д.
И зачем мне ARM в качестве офисного компа? Энергопотребление у них растёт вместе с производительностью, а у х86 наоборот падает.
Вот и посмотрим, что будет через два года.
Кстати, что касается цены, то х86 вы обычно покупаете с возможностью выбора материнской платы и апгрейда. А ARM пока таких возможностей не предоставляет.
Причём, если взглянуть на стоимость процессоров ARM, то цены на них сравнимы с х86 процессорами, и дороже их.
Я пока не вижу нигде примеров низкой цены, о которой многие говорят.
Примеры высокой привести могу, а низкую мне покажете?
Мощная система — $129 без доставки
и ещё одна
крутая свежая плата, $249 без доставки
У все это с относительно сырыми дровами, которые в основном нормально работают под Android и их допиливают для обычного Linux.
Так именно в этом проблема. x86 — открытая система, и это очень большая печалька будет, если этот рынок закроется. Потому как ARM-ы будут продаваться, либо в виде потребительских SoC, в большинстве случаев залоченными под что-нибудь, либо в виде отладочных плат, но тоже на SoC. С периферией вопрос не понятен и т.д. В общем, хреново будет, если pc-экосистема не выжевет. Поэтому я и переживаю за AMD и Intel. И мне кажется, у Intel шансов мало с подходом «x86 везде», потому как да, они показывают впечатляющие результаты, но, ведь, OoO x86 очень сложный, у них R&D безумно дорогая по сравнению с ARM-ом. Плюс сложности с этой концепцией в сегменте SIMD-вычислений, а что бы там ни говорили, эта технология очень эффективна во многих приложениях и научных, и домашних. Про Xeon Phi рассказывают на конференциях по супервычислениям, и результаты, мягко говоря, не впечатляют. Поэтому мне и кажется, что у x86 будущего нет, что лично меня печалит и настораживает. Даже со всякими этими Secure Boot-ами, на x86 свободы гораздо больше всегда было.
Не тревожьтесь. Intel уже начала наступление на рынок мобильных SOC с х86. ARM очень далеко до инфраструктуры PC. Так у х86 все достаточно хорошо.
R&D стоит дорого, потому как х86 значительно сложнее чем ARM. И с ростом сложности ARM их R&D тоже будет расти.
Пока что ситуация с ARM просто в том, что они догоняющие и «все» им сочувствуют и типа болеют за них. Народ любит зрелища. И когда говорят про ARM на замену PC не учитывают выше описанного.
Так что я понимаю, что уже в следующем году Интел процессоров в мобильных устройствах станет больше и будет расти дальше, а доля ARM процессоров в десктопах если и увеличится, то за счёт некоторых энтузиастов.
А в чем особенности инфраструктуры PC и что вы понимаете вообще под этим термином?
Открытость и модульность.
Т.е. возможность выбрать отдельно материнку, процессор, память и её объём, а так же, подключить от 1го и больше SATA. Кроме этого — модульность предполагает общие шины для подключения дополнительных плат расширения. Вы можете воткнуть в комп профессиональную звучку или просто чуть лучшую, чем встроенная.
В обычном офисном компе можно элементарно сделать RAID массив.
Пока всего этого нет у ARM. А когда всё это будет, так уж сильно они будут отличаться от PC?
Это будет тот же PC, просто с другим процессором.
ARM точно такой же открытый, но пока чуть менее модульный. Правда, это не всегда и нужно. PC платформа тоже стремится к SoC, перенесли северный мост поближе к процессору, интегрировали контроллер памяти, со временем все остальное тоже туда перекочует.

Почитайте про Calxeda, занимательная платформа.

Сервер на Calxeda


А вот и техническая спецификация. Как видим, ничем особо от x86 платформы не отличается, все те же SATA, все та же память, все тот же PCIe
Я знаю про Calxeda. Как бы процессоры в PC не стремились к SOC варианту, у вас есть возможность делать то, что я написал. А когда такая возможность будет с ARM, в чём будет отличие между x86 и ARM? Только в процессоре?
Чем сейчас SOC Atom Z2760 отличаются от ARM SOC процессоров, кроме исполняемого кода?
Ничем.
Тогда к чему было возражение «ARM очень далеко до инфраструктуры PC.»?
Потому что SOC Atom Z2760 это не PC, это как раз инфраструктура мобильников, т.е. сфера ARM.
Т.е. вы, как частный или корпоративный потребитель, не можете сейчас делать то, что я описал тут на платформе ARM.

Ну если только вы не считаете, что покупка серверов Calxeda для офисной работы рядовых сотрудников, это подходящее решение.
Ну Интелу кагбе пофиг, в отличие от АМД. У Интела очень много интеллектуальной собственности на всё на свете, у них очень много бабла и всяких ликвидов, и самое главное — процы не единственная их ниша. Поэтому для Интела не так страшно облажаться. Даже два-три раза подряд. У них есть ресурсы, которые позволят всё исправить если что.

У АМД ресурсов всегда было мало и теперь они почти всё израсходованы. Для АМД сейчас надо очень аккуратно действовать.
Люблю бренд «АМД», потому что он позволяет купить «Интел» дешевле,… теперь у «Интел...» другие конкуренты (слава Богу)
НЛО прилетело и опубликовало эту надпись здесь
Да, с дровами от Радионов всегда какие-то сложности были.

До сих пор помню что я довольно сильно мучался пытаясь завести свой радеон тогда еще под slackware.
Это на старых карточках. У меня новые карточки >2010 год отлично работают под Ubuntu, например. А вот старый Radeon 9550 вообще вызывает дискомфорт с Ubuntu, но на Windows XP тянет ещё игры.
отлично? я не помню отлично, вечно лаги были, а вот нвидиа писала норм дрова
речь про линукс, естественно
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Пока вы не написали «вконтактика», я даже не знал что там так выражаются. Зачем вы это слово сюда принесли?
НЛО прилетело и опубликовало эту надпись здесь
«изъясняться подобающе» это такая невероятно субъективная штука, что даже смешно.
Не вижу ничего плохого в том, что люди пытаются экономить свое и чужое время, сокращая некоторые слова, не теряя при этом ни смысловой нагрузки, ни однозначности в интерпретации этих слов.
Просто не нужно быть таким снобом, и проблема исчезнет сама собой.
НЛО прилетело и опубликовало эту надпись здесь
Однажды Ломоносова пригласили на приём. Когда он стоял среди вельмож, один из них обратил внимание, что шов на камзоле Ломоносова прорвался и выглядывает вата. Вельможа спросил: Что это, господин академик, — ваша учёность выглядывает? Ломоносов ответил: Нет, это дурость заглядывает.
НЛО прилетело и опубликовало эту надпись здесь
Сливать это не ко мне. Будьте кем хотите…
Просто я считаю, что язык, это нечто более сложное и изменчивое, чем то, чему вас научили в школе 20 лет назад. И мало того, что ваше возмущение надуманно, так вы еще умудрились и контакт обухом приложить. Я просто не cмог пройти мимо :)
НЛО прилетело и опубликовало эту надпись здесь
Теперь вы из крайности в крайность бросаетесь.
Достаточно не возводить свое мнение в абсолют, и быть готовым это мнение менять если на то есть основания.

Лично для меня, заметное неодобрение моих действий некой аудиторией к которой я прислушиваюсь, как минимум, служит сигналом того, что возможно я в чем-то не прав и ситуация требует более глубокого анализа. Не это ли (в том числе) отличает разумного, адекватного человека, от того, кто по вашим представлениям обитает вконтакте?
НЛО прилетело и опубликовало эту надпись здесь
«норм», это скорее сокращение от «нормальные», но никак не «чмоки» вконтактика.
Приберегите желание заработать дешевую популярность для другого раза.
НЛО прилетело и опубликовало эту надпись здесь
Тогда уж «нормик», как думаете? Я просто не силен в терминологии вконтакта.
Можете хоть обминусоваться, если вам станет легче, не держите в себе.
НЛО прилетело и опубликовало эту надпись здесь
Это было и до слияния ATI с AMD, а вот последние как раз открыли спецификации на радеоны, в разы ускорив разработку свободных драйверов.
Посмотрел релиз slackware 9
Боже мой, как не умолимо быстро летит время…

Да скорее всего вы правы, беру свои лова обратно.
Есть пару карточек серии Radeon, они не имеют поддержки в Windows 7 и под всякими Ubuntu и ей подобные. В новых картах всё намного лучше работает. Ну и AMD всегда был, и как я понял до сих пор остался производителем «горячих процессоров».
НЛО прилетело и опубликовало эту надпись здесь
Как раз в те же времена занимался подобной работой, большую часть железа продавали именно с атлонами 1700+, 1800+ и дальше вплоть до Бартонов — никаких жалоб на само железо не помню. В 2003-04 они были идеальны по соотношению цена-качество, когда интел давил кукурузой. Где вы такое глючное Г умудрились доставать, из Китая?
Карточки были плохие, процессоры горячие. Но процессоры нормальные в те времена были.
Карточки AMD сейчас уже не хуже, чем у NVidia. А вот драйвера как писали индусы, так и пишут до сих пор. Реализация OpenGL у AMD настолько негуманоидная, что просто диву даёшься, как вообще можно было так интерпретировать стандарт.
Как следствие, новые демки постоянно ловят глюки: то шейдеры отвалятся, то странные вылеты…
Драйвера AMD пишут немцы :) Там куча всякого GMBH в коде, ну и стиль тоже это подтверждает.
а каков же немецкий стиль написания кода? оО
> Реализация OpenGL у AMD настолько негуманоидная, что просто диву даёшься, как вообще можно было так интерпретировать стандарт.
linux.slashdot.org/comments.pl?sid=3006647&cid=40776403
> You are behind the times, and should really be firing your complaints at Nvidia. For the last couple of years I've used ATI cards for GL development exclusively. Unlike Nvidia cards they actually implement the GL spec to the letter. With Nvidia cards you can pretty much call any old combination of GL functions, and something will appear on screen. They never fail! This is a problem because you never find out errors in your GL code until after you've shipped the product. With ATI, if you pass an invalid arg, or call a method at the wrong time, they will generate the correct error. This sadly leads to a situation where a developer uses an NVidia card for development, ships, and then it won't run on ATI or Intel cards. The upshot is that people incorrectly assume that ATI drivers suck. They don't. Nvidia drivers are the ones that suck!
НЛО прилетело и опубликовало эту надпись здесь
Потому что хватало в своё время жутких P4 печек, под разъёмами которых расслаивались материнские платы спустя 1-2 года. И кулеры на них шумели не меньше. У всех такие периоды были.

А вы показали паршивое отношение к клиентам, заведомо устраивая им подлянку.
НЛО прилетело и опубликовало эту надпись здесь
Вы сами написали: «Мы тогда сами собирали компы».
НЛО прилетело и опубликовало эту надпись здесь
Речь о том, что вы впаривали клиенту проблемы:
«и когда покупатель заказывал AMD а менеджер не переубеждая впаривал самый простой кулер — тогда и начинались проблемы»

Поддержу Radon'ы, как пользователь всех линеек, что были доступны, начиная с 9000ой заканчивая текущим 7970.

Ни с дрвоами проблем не испытывал, не с производительностью. Хотя и на нвидии сидел одно время.
НЛО прилетело и опубликовало эту надпись здесь
Radeon 9600 Pro — вечные проблемы, даже под Windows, не говоря под Linux. Под Windows помнится куча проблем была с двухмониторными конфигурациями, как-то там очень хитро выходы определялись.
9600 рабочая сидит. 8800гт от нвидии сгорела сама по себе.
Да с выходами и на нвидии проблемы были.
Сейчас на семерке сижу с 6770 и отлично все. И выходы работают как часы без сюрпризов и параллельная работа/видео.
Про сейчас я ничё не говорил, сам сейчас сижу на каком-то A* с каким-то встроенным Radeon — фиг знает, в игры сто лет уже не играю

Долго сидел на Радеон 9600 под ХР, правда, не про. С пассивным охлаждением.
Никаких проблем не было, в том числе с двумя мониторами.
Емнип, именно у про была какая-то фишка, типа чтобы они работали и под макосью и под виндой. В итоге под линуксом тольком вообще не работало.
НЛО прилетело и опубликовало эту надпись здесь
Но ассоциации были именно с Атлонами, на них в роликах яичницу жарили. Возможно, дело в том, что у Интелов боксовый куллер был лучше и перегрева было меньше в принципе у пользователей (хотя тепла выделялось больше)
У интелов была защита от перегрева. Они просто вырубались.
Да, это тоже важно. Помню, горели тогда именно АМД, потом уже встроили защиту и туда.
Помню я этот кулер. Шумел так, что на всю квартиру было слышно.
Это все предубеждения.
Процессоры от AMD были начиная от am386, заканчивая стоЯщим сейчас Х3 460. Никаких проблем никогда не было. Радеонами начал пользоваться начиная с модели Radeon 7200 (это год 2002 был). Тоже особых проблем не замечалось. Впрочем Интелы и НВидии тоже стояли — все ровно.
В студенческие годы работая продавцом в компьютерном магазине неопределившимся в основном продавал на AMD, но без фанатизма. Правда тогда серия Athlon XP была на коне, а Pentium IV был обогревателем.
НЛО прилетело и опубликовало эту надпись здесь
У меня phenom x6 1100Т, боксовый куллер шумит ужасно, но вытягивает. Правда, в 1U корпусе завести его не удалось (да, я извращенец, но i7 2600 заработал без троттлинга).
У меня стоит FX-8120. Со штатным кулером. Работает нормально, не отрубается, почти не шумит (хотя на 65C выходит довольно быстро — надо будет все-таки поставить что-нибудь помощнее). А Интел i5, который на ноутбуке, выключается после 10 минут работы со 100% загрузкой.
У детей на десктопе стоит Radeon X1950 (и процессор AMD 5200+). Проблема появилась только сейчас — Space Engine требует версию OpenGL, которую драйвер этой карты не поддерживает.
Вообще, в AMD я встречал проблемы только во времена 1400+ (не помню, какой год это был — 97-й?). Тогда в одной из вычислительных программ возникала загадочная ошибка, для борьбы с которой пришлось вставить задержку «для охлаждения процессора».
НЛО прилетело и опубликовало эту надпись здесь
Да, пожалуй в 97-м это был K6 233 (разогнанный) или что-то в этом роде. Давно было. А Pentium Pro… вот не помню у него 150. 133, 166, 200 — было. Но от 200 я уже отказался в пользу AMD.
Да, был 150. Действительно. Перепутал с каким-то P54…
НЛО прилетело и опубликовало эту надпись здесь
А я уже не помню, что у меня было между 233 и 1400+. Может быть, действительно, что-то в районе 500-700. Но это точно был AMD :)
У меня есть к6-2-500. на шкафу стоит.
Да, было дело :) Некоторые (адекватные) покупатели сами же и отшучивались по поводу отопления квартиры зимой!
НЛО прилетело и опубликовало эту надпись здесь
Не только про отопление шутили. Были ролики, где на Дюроне яичницу жалили)
НЛО прилетело и опубликовало эту надпись здесь
Ну эмоции или нет, ходил слушок, что АМД перегревается и прочее. И ваши данные о том, что разница была на 25Вт при общем тепловыделении 54 (т.е. почти в 2 раза) эту информацию подтверждает. Правда, скорее всего, это все нивелировалось в P4 и AthlonXP, с которых я и начал знакомство с процессорами вживую.

По ощущениям, Intel всегда уделял больше внимания не столько тепловыделению, сколько регулированию мощности в зависимости от задач. Потому, у них, например, всегда с ноутбуками лучше было.
НЛО прилетело и опубликовало эту надпись здесь
Я не говорил что оно всегда работало идеально, я говорю что в принципе этими вопросами занимались плотнее (субъективно, создавалось такое впечатление). На десктопах это не так важно, как на ноутбуках.

Если даже это не совсем правда, Интел смог донести именно такую мысль до многих людей (в том числе и поклонников АМД, которым до недавнего времени был я).
НЛО прилетело и опубликовало эту надпись здесь
У меня до сих пор если процессор то интел, если видеокарта то нвидиа. Альтернатив нет. стабильность работы в целом куда лучше.
А в чем выражена нестабильность процессоров AMD?
Только конкретику пожалуйста, а не дешевые понты и досужие домыслы.
Да какие уж понты. Практика и не более.

Так уж случилось, что у меня было ровно 2 компа AMD, всегда зарекался брать, по опыту товарищей, но именно оба раза с AMD было следующее.

первый проц Турион работал как-то тяжело. Именно на тех же задачах аналогичей интел о 800 Мгц бегал шустрее. (Да возможно потому что кеши у интела больше, но не думаю что столь разительная разница из-за них), периодически вис без объяснения причин, дело точно не в материнке (менял дважды), точно не в памяти, планки без косяков работали на других компах. Продал забыл как страшный сон. Более 4 суток не работал, или повиснет или вылетит синий экран смерти.

Второй проц Атлон ХР 1800+ если память не изменяет. Вот с ним было еще грустнее. Если Турион мне достался с рук. То этот был куплен в магазине, новье. Проблемы аналогичные что и Туриона, плюс периодические перезагрузки внезапные. Я конечно же отнес по гарантии. Потестили погоняли, сказали проблема есть. Скорее всего мать. Поменяли мать. Глюки продолжились, грешил на оперативку, пошел купил которая была рекомендована производителем матери, ничего не изменилось. Всячески пытался убедить себя что это предубеждение и косяк в железе. Все планки памяти на других компах работали. Две косячные матери? Вообщем сдал по гарантии обменял на пентиум.

Кто-то скажет охлаждение, ан нет, ставились не дешевые залмановские кулеры на термапасту.

Вот я за свою жизнь сменил компов 20. Всякое было. и водой заливал так что половина слотов не работало и винты хватало ума машинально стопочкой поставить так что замыкало платы нафиг. Но все работало.

Всем знакомым советую обычно Интел + нвидия, все кто покупали — проблем не испытывали. С амд все как обычно или охлаждения не хватает или еще что. Ну такой вот у меня опыт. Не верю я АМД после этого. Сколько с тех пор систем собираю ни с одними системами таких проблем не было.

Радеоны — отдельная песня. Я не могу сказать как сейчас, но в то время у меня было два радиона, вечно глючащие драйвера, вымотали.

Ничего личного, просто опыт. Может я конечно криворукий..., но почему тогда системы на интеле работают как часы? вон на работе машинка уже 8 месяцев аптайма. И никаких проблем. Может конечно что то и изменилось, но амд как покупателя меня потерял абсолютно точно.
Вы что-то путаетесь в показаниях.

Как можно было сначала купить подержанный Turion, а потом новый Athlon XP, если Athlon XP выходил в 2001-2005 годах, а Turion в 2005 году только начали выпускать. К тому же никак не мог он конкурировать с «аналогичными интел о 800 Мгц», т.к. частоты в то время уже были порядка ~2 ГГц и тогдашние интеловские прескотты были не айс, мягко говоря.
Извиняюсь! Дюрон, а не Турион. Не разбираюсь в АМД.
Ну так сравнили ультрасупербюджетный дюрон с полноценным пентиумом.
По-честному нужно с продуктами той же категории сравнивать — то бишь с селероном.
Ну селероны тоже были, работали себе и работали.
Это заметно.
НЛО прилетело и опубликовало эту надпись здесь
Я могу: себе и всем друзьям (с десяток компов было куплено) всегда покупались AMD+nVidia. За это время нареканий было два: изначально дохлая мать (ASUS M3N-HT Deluxe, у неё это вообще болезнь) и какая-то полудохлая топовая видюха которая показывала снег в 3D. А во времена Pentium 4 это ещё и самое холодное решение было. А, есть ещё одно нарекание, но тут уже ATi постаралось с дровами, так что в заслуги себе не записываю.
Если вы застали эпоху материнок на базе чипсетов от via серии kt133/km133 и их собратьев, то чипсеты у них сыпались будь здоров. Чаще всего контроллеры памяти.

P.s. некогда владелец AMD 486 Dx4, k5 133 MHz, k6-2, duron 950, athlon 64 3000+ (socket 939, Venice), amd athlon II p360
Ни один из этой серии (кроме указанного дюрона) у меня не глючил и радовал своей работой
Очень может быть =) знакомые буквы по крайней мере
Когда вам захочется поставить 5 SATA III SSD в комп, у вас не останется выбора, кроме как купить ненавистную вам платформу AMD :)
Это почему же?
Потому что платформа — это не только CPU, но и 3-4 полезных контроллера в чипсете. У AMD вообще-то с системной обвязкой гораздо лучше, чем у Intel, поэтому в серверном рынке Opteron-ы очень любят, вообще-то не понятно, почему в статье сказано, что на серверном рынке у AMD неудачи.
Есть наверно такие штуки, рейд контроллерами называются…
Ну. AMD же не только по RAID-контроллерам Intel опережает. На самом деле, там много всяких приятных мелочей. Например, там есть стандартный, верифицированный HyperTransport, который на моей памяти никогда не глючил, в отличии от закрытого QPI. Есть IOMMU, который архиполезен для виртуализации. У Intel подобная технология есть, но она жутко корявая, как, собственно, и сама технология виртуализации от Intel. Есть возможность энергопотребление ограничивать программно. Есть различные сетевые контроллеры, которые подцепляются прямо к HyperTransport, минуя менее производительный PCI. И т.д. Поэтому, на самом деле, в серверном сегменте AMD любят, у них основной доход оттуда. И Buldozer тот же, прежде всего, для этого рынка делали, и он там очень хорошо себя показывает.
НЛО прилетело и опубликовало эту надпись здесь
Зато 12% от TOP500 и ещё больше от TOP100 :)
Любовь не измеряется в процентах! :) Понятно, что у Intel и производственные мощности больше, и политика продаж гораздо более агрессивная, но машины на AMD гораздо удобнее. Все знакомые покупают именно AMD-шные серверы, если есть такая возможность. С ними проблем намного меньше в эксплуатации.
НЛО прилетело и опубликовало эту надпись здесь
Потому что чипсеты Intel имеют только 2 SATA III порта. Даже самый модный Q77. Дополнительными контроллерами можно добить еще, но их редко ставят и они используют PCIe шину со всеми вытекающими последствиями.

AMD платформа уже пару лет назад давала возможность подключать 6-8 SATA III устройств. Даже на бюджетных мамках.
А чем плох доп.контроллер от marvell как обычно тыкают для поддержки многих SATA III?
(Интересуюсь чисто для себя, сейчас выбираю систему новую и очень часто вижу 2x SATA III intel, 2x SATA III Marvell и таком духе).
Вы вот здесь подобное сказали, тут у вас просто ник, имени вашего настоящего, господин, r счастью вашему, никто не знает, так что прошу, не говорите такое на людях, дабы они не подумали, чего плохого — того что вы не в себе. А касательно дела, у меня с 2008 года стоит Intel Quad 6600, греется ужас… с хреновым куллером, кстати который тоже Intel, летом доходил до 90 градусов. Сейчас кулер слава богу нормальный, в нагрузке еле до 60 доходит. Инвидиа карточка у меня сгорела через два года, воткунул вместо неё затычку Радеон 5450 за 1000 руб, стоит работает до сих пор, но в августе амд выпустили кривые новые драйвера, после установки которых, комп вываливался в синий экран, месяц назад скачал их еще раз — все видать поправили…
ну Intel в то время дороже был, никто не хотел переплачивать, а то время, как мы помним, не простое было…
Ну были проблемы с перегревом у серии K6 (а точнее у K6-II и K6-3). Но это тоже можно рассматривать как лидерство АМД: в данном случае по приросту TDP в десктопных процессорах. :) По современным меркам не такие уж они и горячие были, просто рынок систем охлаждения не поспевал, юзеры и сборщики не сразу поняли ситуацию, ну и встроенной защиты от перегрева не было. Четвёртые пни грелись всяко сильнее.
Зато AMD производит хорошие видеокарточки. Ну и давно уже переходить на 64, у меня только в старых компьютерах стоит 4 gb оперативки, на компе 8gb — среднее оптимальное в последнее время. Но процессоры only intel, но опять, это на десктопах. Помню времена, когда были горячие Athlon в 2004-2005 году, было время :)
Бульдозеры действительно какие-то стремные, по крайней мере по отзывам.
Сильно в дело не вникал, но летом делал апгрейд ПК (который собирался в марте 2006 года на базе Athlon 64 X2 3800+) и все же отказался от псевдо-восьмиядерных бульдозеров в пользу Athlon II X6.

Проблемы с тепловыделением решены боксовым кулером и еще 3 старыми кулерами 80мм и 120мм, которые были куда-то припаяны и куда-то прикручены (все 3 на выдув).
Это X6 так греется? У меня Phenom2 x4 на 4ГГц обходится пассивным радиатором и одним корпусным вентилятором, на него дующим.
Ну у меня еще 16Гб оперативки, возможно, это они еще жару дают.
Первое прицепление проца было на остатках старой термопасты (буквально 1/5 микротюбика оставалось), так что можно сказать что доставлял еще и плохой контакт поверхностей.

Потом когда я понял что нужно охлаждать я намазал нормальной термопасты и прицепил несколько доп кулеров на всякий случай. Теперь вообще внутри около 40*С (раньше были алерты что у проца 65*С+).
Я всю жизнь живу на АМД, ничего плохого о них сказать не могу. Я в них просто верю.

Раньше был фанатом ATI, но как стал заниматься 3D пришлось уйти на сторону nVidia.
Как ни странно, но старые карточки nVidia. GTX 285 которые сейчас стоят копейки, до сих пор дают фору новым разработкам той же компании.

Я играю в любые новейшие игры на максималках и не испытываю проблем с FPS и прочим. Все 3D пакеты работают с этой карточкой на «УРА». Я за нее отдал всего 3 000. и радостью купил бы вторую такую же для SLI

А если бы не она — мне пришлось бы покупать 2x585GTX за 35-40 000. чего я очень не хотел в свете желания перейти с концами на Mac
У меня был Дурон, семпрон и атлон642Х. Сейчас на компе AMD Athlon2 3X. Меня радуют сокеты в амд. Они простые: AM2 AM2+ AM3 и большая часть из них соврестима. Т.е. у меня сейчас AM2(хотя даже не уверен) и вроде как последние процессоры у меня пойдут.
Когда в начале хотел собрать комп потерялся в сокетах у интела как то. Хотя думаю это больше было заблуждение. Однако АМД нравится до сих пор, и собираюсь брать ноут на A10. Сейчас еще есть нетбук — купил кривя сердцем. т.к. интел атом вместо амд, но выбора не было тогда.
Да, у AMD обратная совместимость классная.
Но чтобы процессор работал так как должен, у материнской платы должен быть такой же или более новый сокет.

У меня сейчас материнская плата AM3+, а процессор AM3, т.е. у материнской платы есть запас в апгрейде (вдруг AMD выпустит адекватные процессоры под AM3+ — так я материнскую плату оставляю эту).

Если бы было наоборот, то процессор бы работал не как AM3+ а как AM3 (если я не ошибаюсь то это может повлиять то ли на частоту то ли на работу его компонентов).
А во во точно. У меня AM3+ а я взял Athlon2 X3 с AM3. Думал потом докупать Phenom, но чувствую оставлю этот комп родителям. А сам буду использовать ноут, который скоро куплю. Кстати никак не могу найти нормально сравнение процессоров AMD мне интересно какая разница между AMD Athlon II X3 440 и AMD A10 4600M. У меня есть предчувствие, что второй будет пошустрее. А связка из практически двух AMD Radeon HD 7670M в Dual Graphics порвет мой старый GeForce 8600GT (в компе сейчас) раза эдак в 4 если не больше.
Вообще замечаю тенденцию. Вот 4 ядер было достаточно 2 года назад. И сейчас. И частота та же. И в общем то новые процессоры на вид не таких уж и быстрые по сравнению с предыдущими. А вот лет 5-10 назад там приросты были побыстрее. Тоже самое с видюхами. Помню в 2000ом купил GeForce 440MX (вот ирония, у меня сейчас Athlon II 440) и где то наверное через 5-7 лет купил т.к. игры не шли на ней уже через 2-3 года после покупки. А тут уже прошло опять же 7 лет — по идее можно любую современную игру запустить даже на средних будет неплохой FPS.
То есть сейчас железо можно не так быстро на компе обновлять. А вот с новыми технологиями вроде смартов и планшетов беда — устаревание через год. Однако тут тоже интересная штука, по сути любой планшет с 1-2 гигами оперативы и 2-4 ядерным процем 1 ггц еще может лет 5 прожить на сторонних прошивках. (про андроид говорю) Просто уже даже тут скорости перевесили потребности ОС.
Есть ещё сокет FM1, несовместимый с AM :(
Есть еще FM2 недавний.
Конкуренции трындец? :(
НЛО прилетело и опубликовало эту надпись здесь
Я не знаю, что AMD сможет продавать после того как Intel выпустит Haswell в следующем году. А конкурировать Intel будет с ARM.
А чего такого будет в Haswell? Вроде, говорят, никаких особых продвинутостей в нём не ожидается, ну, если не считать HTM, польза от которой не очень понятна. AMD же собралась делать гибридные 64-битовые серверные ARM-ы. Может, чего из этого и выйдет у них. Тем более, что у них есть куча IP на всякие серверные решения и хороший IOMMU для виртуализации, которого нет у Intel.

Так что, Intel-у может совсем не мало показаться.
В Haswell будет FMA, а это пока что одно из немногих преимуществ AMD перед Intel. Кроме того, в Haswell будет удвоение ширины SIMD для целочисленных операций, и много эволюционных улучшений в OoO-ядре и кэше.

Но киллер-фича Haswell — это двуядерные 8W модели. В таком тепловом пакете Haswell будет выигрывать по performance/watt не только у AMD, но и у ARM.

Польза от HTM в том, что эта технология позволяет не бродкастить сообщения об атомарных операциях все ядрам, даже тем, которым эти сообщения не нужны. Это позволит продолжить увеличение количества ядер без ущерба для эффективности.

Понятия не имею, на что рассчитывает AMD с Cortex A50 под брендом Оптерона. Хотя этот проект не потребует больших инжереных усилий от AMD, он также не сможет предложить рынку существенно новый продукт. Компании вроде MediaTek, Rickchip, и Allwinner будут продавать процессоры на почти том же референсном дизайне от ARM по 10 баксов за килограм. Конечно, если AMD реализует в одном процессоре выполнение и x86, и ARM инструкций, это будет суперуспешный продукт, но до сих пор никаких слухов о подобных планах не было.

В виртуализации AMD традиционно была сильна, но, как мне казалось, последние Xeon предоставляют такую же функиональность?
Не знаю. Слушал я доклад об эффективности HTM в процессарах от IBM, никаких особых преимуществ не получается в реальных задачах (даже в микробенчмарках), потому что оптимизируется ситуация, когда синхронизации редки, а в этом случае, вроде как, и проблем никаких нет. В общем, не однозначная вещь.

Про остальное — не понятно. OoO, вроде, уже исчерпан. То есть, увеличивать его ширину можно, только в реальных программах нет такого уровня параллелизма. Скорее всего, там допиливания будут направлены на уменьшение энергопотребления. FMA и SIMD хороши для вычислениях, но в тех вычислениях, где полезен широкий SIMD гораздо лучше показывают себя GPU. Снова выгода не понятна.

8W конечно же круто. Если именно так и будет, это будет супер. Но есть ли гарантии от того, что у конкурентов к этому времени будет не меньше? Вроде, IBM помогает ARM-братии освоить 20nm FinFET к 2014 году.

А AMD, очевидно, рассчитывает на свою концепцию APU плюс кучу интеллектуальной собственности на различные решения в системной обвязке: память, виртуализация, контроллеры, SeaMicro они купили. В принципе, может и получится у них что-нибудь.
В хорошо продуманном и оптимизированном коде синхронизации редки, и большой необходимости с HTM нет. Но т.к. большая часть того, что приходится выполнять процессору — это говнокод, то синхранизация может выполняться стать узким местом (например, в Java самый простой способ избежать race conditions — обернуть все методы, которые могут использоваться разными потоками в synchronized).

OoO будет исчерпан когда процессоры смогут прятать задержку доступа к памяти так же хорошо, как GPU. Для неоптимизированного кода Haswell уже близок: ReOrder buffer на 192 макрооперации позволяет прятать большую часть 200-тактовой задержки при IPC около единицы.

Когда ARM братия и IBM освоят 20nm, Intel уже будет на 14nm.

Texas Instruments давно (ещё со времён WIndows Mobile) делали ARM-процессоры со своей обвязкой: дополнительными контроллерами, DSP-сопроцессором, компилятором, популярными и доступными наборами разработчика, и очень хорошой поддержкой со стороны софта. Но когда на рынок пришли процессоры «по 10 баксов за ведро», для TI места не осталось. Проблема AMD не в том, что у них нет технологий, которые можно было бы добавить к ARM, а в том, что у них нет ничего, что заставило бы покупать их процессор на ARM вместо похожего, но в 5 раз более дешёвого.
У них есть APU. Если это будет именно высокопроизводительный ARM с поддержкой самых свежих OpenCL и OpenGL, то купят. Я бы купил :)
Если AMD уйдёт с рынка, то некоторое время Intel будет монополистом на рынке ПК. Вероятно, Apple продолжит расти на этом рынке и займёт сегмент 20-25%
Антимонопольщики не дадут просто так уйти AMD. Даже если она перестанет производить процессоры, то скорее всегда Интел обяжут разделиться или выдать лицензии на х86 другим заинтересованным компаниями. Как было с WD, где обязали продать часть производства Тошибе.
НЛО прилетело и опубликовало эту надпись здесь
AMD не уйдет просто так, если ее и купят, то все равно дышать свободно Intel не дадут, в свете глобального перехода на x64
А что мешает рынку стать pc-arm? Как-то, мне кажется, легкомысленно игнорируется этот вариант, тем более, что и AMD, и nVidia работают над такими решениями.
С чего бы Apple расти? У них решения как минимум, недешевые, т.е. далеко от массовых. И многие вещи ограничены (игры, например. А ведь геймеры одни из основных клиентов дорогих ПК). ИМХО, сколько ксть и apple, столько и будет, по крайней мере, в развитых странах. У них даже на рынке телефонов и планшетов не все гладко сейчас, вон акции как вниз пошли.
НЛО прилетело и опубликовало эту надпись здесь
Так и будет, интелу не привыкать помогать амд. Для интела это выгоднее со всех сторон, чем задавить послушного конкурента. В котором, к тому же, работают качественные инженеры. Тут-то и кросс-лицензии пользу приносят (:
Быть монополистом — не преступление, если компания не использует своё монопольное положение для ограничения конкуренции.
НЛО прилетело и опубликовало эту надпись здесь
В США и Евросоюзе быть монополистом само по себе не преступление
а мне нравится AMD даже в мобильных решениях — уже три года пользуюсь суб-ноутом MSI U210X (процессор AMD Athlon Neo x2) — проблем вообще никаких и нигде. сменил год назад HDD на SSD, памяти добавил, поставил семерку — летает. по энергопотреблению однозначно не хуже решений от Intel того времени, да и не сильно отстает от современных. и вот потом на мобильном Турионе все закончилось, а жаль…
Почему же закончилось? A6, A8, A10 хорошие процессоры. Да и не только процессоры, как никак там и видеокарты достаточные для встроенных. Редко в каких играх FPS на них падает ниже 20.
Вот и выходит что по энергопотреблению и цене они получше будут связок Intel+Nvidia при тех же параметрах игр. ИМХО. Возможно у кого то будет другое мнение конечно.
Ответом на вопрос скорее всего является — ТОП менеджеры. Ребята провернули отличную операцию, купили ATI, высосали все соки, получили свои премии и свалили в другие компании.
Прекрасно помню время расцвета AMD: тогда я купил свой второй компьютер с Athlon 64 3800+, у Intel на то время не было даже Core 2 Duo. На тот момент это были лучшие процессоры, Intel мог противопоставить только Pentium, который никуда не годился.

А теперь я бы даже не посмотрел на CPU от AMD, особенно в мобильном сегменте.
Ну на самом деле, уже в то время были хорошие P4, особенно всякие EE, просто они после определенного уровня, начинали стоить как самолет. Основной разрыв был во времена Barton 2500+, как по мне. Но Атлон очнеь удачно прилепил шильдик 64, Интел скорпировала технологию позже и не писала об этом явно, многие думали что из процы так и остались 32 бита.
НЛО прилетело и опубликовало эту надпись здесь
Все знали что athlon хуже чем celeron.
Куда уж хуже-то? =)
Вы пропустили слово «дилетанты» или «чайники» после «Все».
Мой Athlon был лучше подавляющего большинства P4.
пока что моя цепочка процессоров в домашних настольных ПК такая — IBM->Intel->AMD->AMD->Intel
сэнди бридж склонил в этот раз в свою сторону

а вот с выбором видеокарты долго колебался, выбирал и то и другое, вобщем чуть ли не бросанием монетки склонился в сторону Nvidia в этот раз, хотя по обзорам мне не казалось что АМДшные видяхи как-то хуже — вот просто так получилось :)
А что за бимеровский процессор был у вас в домашнем пк? PowerPC?
Неа — x86
В середине-второй половине 90х IBM делала процы для Cyrix и часть продавала под своей маркой.
Вообще грустная штука была — тормознутая, mmx не было :(
Вроде это были 486, а MMX и в пентиумах не сразу появились.
НЛО прилетело и опубликовало эту надпись здесь
А мы «цурихом» их обзывали :)
Это был 686 проц (166MHz, если мне не изменяет память).
Тогда уже много было вокруг процов с MMX, и многие игры его уже требовали.
И часть из за этого не шла, и я был в большой печали.
В моих домашних ПК процессоры всегда были только AMD.
А вот видеокарты бывали разные.
И я не помню чтобы были какие-то проблемы с железом.
Всё работает как надо, если следить и хоть иногда проводить профилактику.
Сижу с 5850 проблем не знаю, не знаю как в процессорном секторе, но карточки ихние вполне себе конкурентоспособны начиная с 5 серии, когда они первыми представили решения с DX11, большей производительность, более низким потреблением и низкой ценой. После их слияния с ATI, радеоны стали не тем, что были раньше.
Если раньше я бы не то чтобы склонялся, я бы сразу брал нвидию, теперь я подумаю перед покупкой.
А вот процы реально что-то не подкупают ихние, хотя в далеком 2005 году брал Атлон 3000+.
НЛО прилетело и опубликовало эту надпись здесь
Правильный подход. К тому же, иногда есть возможность получить немножко халявы: разблокировать одно-два ядра. Именно поэтому у меня сейчас AMD Phenom(tm) II X4 B50 (:

UPD: Да, если кому интересно — я просто воспользовался функцией «Core unlocker» в BIOS материнской платы от ASUS.
У меня на Athlon II X3 при разблокировки ядра биос впадает в панику выдает температуры под 70 градусов в простое и при нагрузке под 120 градусов показывает и вырубается, хотя на ощупь все холодное.
Не зря, значит, он промаркирован как X3 :) Или ошибка в металле, или датчик температуры барахлит
Если с АМД что-то случится, я буду рыдать горькими слезами.
Провёл на них всю жизнь и пересаживаться на интел не хочу (был как-то плохой опыт с п3)
Ничего с ними не будет, не переживайте.
Насколько я помню, AMD раз за разом выживает по очень простой причине: американской военщине очень хочется иметь двух независимых поставщиков процессоров для военной техники.

Поэтому не волнуйтесь, всё будет ок.
У американской военщины есть Intel, IBM, Oracle, MIPS и P.A.Semi. Обойдутся без AMD.
P.A. Semi по-моему, давно уже куплена Apple. Из маститых и крупных — только AMD и Intel.
Да, но по-прежнему делает процессоры для военных. Это было одно из условий покупки.
От того, что MIPS теперь принадлежит Imagination ничего не поменялось
Вряд ли их греет мысль перекомпилировать x86-код под другие платформы. Так что только Intel и AMD.
А с чего вы взяли, что там изначально x86?
Методом дедукции: клонов процессоров других архитектур AMD не делала.
Насколько я помню (не просите пруфлинк, очень давно читал), в американских МБР стояли (а может и до сих пор стоят) 486-е процессоры, и AMD в своё время чуть ли не насильно выдали лицензию на их производство.
Всегда использовал только интел т.к. 1) это mainstream 2) разбираться в двух архитектурах при сборке компа не хочется.
p.s.
код для intel и amd не 100% совместим («с точностью до бага»), так же некоторые инструкции и ситуации выполняются/обрабатываются за разное время. с этим сталкиваются разработчики компиляторов.
F00FC7C8. Ещё б они были одинаковыми, чай не клоны.
У меня до сих пор есть старый комп с AMD K6-II — рабочий между прочим =) Мой первый серьезный комп. На нем стояло все начиная с доса, и вин95 до вин-хп. Сейчас там дебиан без графики.
Позже помню восторг когда взяв новый по тем временам Athlon 64 и установив туда жутко сырую 64 битную убунту радовался тому что sizeof ( long ing ) == 8 байт
Мне очень нравится их процессор E-450.
Оказался отличным выбором для моего HTPC. У интела аналоги до него не дотягивают совсем!
Какой техпроцесс у AMD сейчас самый совершенный? Есть подозрение, что Intel в этом далеко впереди. Вот и ответ, почему отстали.
Никакого. Они не производят процессоры, а разрабатывают дизайн чипов. Производством занимается GF и TSMC
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
AMD жалко. Во все предыдущие апгрейды стоял вопрос — покупать Intel или AMD, и все время выбирал AMD, а когда апгрейдил комп в этом году, такого вопроса даже не стояло (разумеется, в пользу Intel).
АМД конечно рано хоронить. Но пусть в меня не кидают камнями, но нумерация продуктов у АМД более бредовая чем у NVIDIA с ее перемаркировками продукции и у Интела. Если брать процессор. То с сокета А я перешел на коре дуо в тот короткий момент, когда АМД проигрывало даже по соотношению производительность/цена. Да был такой период. Через месяц АМД снизило цены. Следующий апгрейд тоже выпал не на самое лучшее время для процессоров АМД. Интел выпустило серию I, а у АМД устаревшие феномы. Просто не было процессоров в нужной мне категории. Выходит X6, но его цена даже выше i5-2500. Выбор падает на i5. Через месяц АМД снижает цены… К чему все это? А к тому что со времен сокета А до Коре Дуо АМД было лидеров в бюджетном и среднем ценовом сегменте. А вот потом начало сдавать и теперь в роли догонящих. Что касается видеокарт, то тут мне сложно объективно судить.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Аналогично. Пользовался и тем, и другим — проблем не было никогда. Может повезло, а может, просто не надо зацикливаться. В любом случае, АМД можно только посочувствовать, если у них проблемы. Все-таки люди работают и делают по-своему хороший продукт.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
А я недавно заметил небольшое падение производительности на одной из машин, там стоит Атлон II. Старкрафт 2 стал иногда проседать по фпс, а видео стало чуть медленнее кодироваться. Вспомнил, что некоторое время назад копался внутри. Полез смотреть. Выяснилось, что процессор месяц(!) пахал в рабочем режиме с выключенным(!) вентилятором на кулере. И хоть бы что. Жив, здоров. Подключил кулер, всё стало как раньше.

Так я еще раз утвердил свою веру в AMD. Отличные камни, надеюсь что у них всё будет хорошо, и мне не придется через год-два покупать свой первый в жизни интел. :)
Уверен, что это плюс это еще нас сильно удивит, досадно или радостно пока неизвестно, но попытки двигаться вперед, а не x86-mobile (привет Intel), уж точно радуют.
Закрывать крышкой процессоры интел начал очень давно ( Туалатины кажись) АМД продолжало клепать процессоры с открытыми кристаллами которые крошились как грифель карандаша от китайских радиаторов. Возможно несколько большее тепловыделение (Первые атлоны до 1000 против Р3, которые были значительно холоднее.) заставляло не делать крышек над чипом, чтобы быстрее отводить тепло.
Но это и породило в умах пользователей «Бешенную» злобу на сколотого и из-за этого глючащего компьютера.

Как человек который проработал много на сборке и ремонте компьютеров, могу сделать отчет о выходе из строя процессоров:
Интел — (любой от Р2- до современных) чтобы убить надо очень постараться. Даже те селероны и пни что были без крышки, сколот почти нереально. Перегреть их тоже невозможно, а за все время глючных видел несколько.И глючили они очень специфично и в определенных ситуациях.

АМД — к6- были с крышками проблем не было, первые атлоны дохли как мухи, крошились и перегревались, в подсобке была целая башня из процыков. Такое было в плоть до появления крышек на проце. И всё как рукой сняло. Дохнуть перестали. Теперь к ним никаких претензий.

Мне кажется в какой то момент АМД заигралось с ядрами (не узрели лени программистов допиливать свои подделки для «х10-Ядерности») а тут и сэндибрижд ВНЕЗАПНО.

отступление лирическое.
Подумайте сами кому надо домашний комп который с 6-8 ядрами (и медной подошвой с овер 4-5к оборотами который звучит как турбина) пытается конкурировать с 4 ядерником который работает на куллере с 2 пальца и 1500 оборотов. Я за компом часто ночью и хочу тишину. Городить водоблоки и медные кирпичи на это нет времени, хочется купить и пользоваться.
Сидел до сэндика на атлонах долго, очень долго. Два ядра АМД стоили тогда дёшево, а Интел долго цены не скидывал. Можно было купить атлон х2 который в разы дешевле своего аналога при небольшом проигрыше в производительности. Ну как то так.
Да и помниться случай с разгоном селерона 300 до 500 ))) тогда так АМД не мог. а в прочем Интел всегда оставлял процы-пасхалки с двухразовым разгоном даже без поднятия напряжения. Впрочем АМД тоже баловала своих ценителей — вспоминается зарисовыванием дорожек на бартоне и разблокирование отключенных ядер. Что не может не радовать.

Эта тема приятна воспоминаниями своих старых, но не забытых бывших компов.
Да ладно, в какой-то момент ситуация с тепловыделением сменилась на обратную.
Прескотты были просто нереально горячими и шумными. С боксовым кулером от стандартной поставки сидеть в одной комнате было невозможно.
Athlon-64, да и поздние Бартоны, были гораздо тише и шустрее.

При этом все проблемы Атлонов с нагревом элементарно решались кулером Zalman баксов за 30-40, а стоили они при этом баксов так на 100-150 дешевле сопоставимых по мощам Пентиумов.

Фактически, тут нужно признать за Интелом просто невероятное для современных реалий чутье и умение признавать ошибки, потому что после провального прескотта они сумели фактически с нуля (на основе аж Pentium Pro!) собрать новую архитектуру Core. Вообще в 2004 интел находился фактически в позиции Nokia: по всем основным направлениям проигрывал конкуренту (и в десктопе, и в серверах; потеря позиции на ноутбучном рынке тоже была не за горами, т.к. для ноутбуков интел мог предложить только стремительно морально устаревающие Pentium M), новые продукты (прескотт) провалились и продажи держались только на лояльности клиентов.

AMD же, напротив, продемонстрировала потрясающую медлительность и неспособность воспользоваться ситуацией. Интелу понадобился год, чтобы разработать архитектуру Core; AMD же разрабатывала Fusion ПЯТЬ ЛЕТ. Если бы Liano появился в 2007, а не в 2011, то позиции AMD сейчас были бы предпочтительнее интеловских, потому что интелу попросту нечем было ответить.
IMHO, вы немного неправильно себе представляете ресурсы AMD и Intel. Intel — это просто мега-гигант индустрии с полным циклом разработки. AMD — мелкая конторка по сравнению с ними. И то, что они до сих пор на плаву в такой конкуренции — это просто дивное чудо, свидетельствующее просто о мега-адекватности и расчётливости AMD :)
Да ладно, шесть лет внедрять своё графическое ядро в свой же процессор — это уже ни в какие ворота.
Даже VIA и та быстрее процессоры разрабатывает.
Эмс… Не знаю, не уверен. Либо делать, в общем-то, более или менее известный дизайн (ну, даже я знаю, как принципиально устроен OoO процессор, и что делать и какие компромиссы должны быть, представляю), либо делать некую хрень, для которой даже нормальной программной модели нет. А ещё надо, чтобы поддерживалась виртуализация, и чтобы техпроцессы были одинаковые (а это подразумевает разный дизайн базовых элементов). И т.д. и т.п. Не всё так просто. Кроме того, вроде AMD переписала весь свой дизайнерский софт, чтобы можно было делать процессоры «под заказчика». Плюс они перешли на принципиально новую систему генерации синхроимпульсов (существенный архитектурный прорыв, потому что они на своих кривых техпроцессах получают те же 17W TDP в процессорах для ультрабуков, что и Intel). Компиляторы делали для OpenCL и т.д, и т.п. За 6 лет много всего сделали, не понятно, конечно, насколько удачно, но много :) Лично я именно поэтому AMD уважаю: они всегда внедряют какую-нибудь интересную хрень в процессоры, и даже если она плохо работает, то всё-равно интересно. Веселее, чем у Intel.
Насколько я знаю, архитектуру Core разрабатывала параллельно отдельная группа Израильского отдела. Так что я думаю, что на её разработку ушло куда больше года. Этот проект вытек из проекта по оптимизации энергопотребления Pentium M.
Пользуясь случаем, хочу выразить пару «фи» компании AMD-ATI,

Первое это драйвера. Выкинуть и переписать всё с нуля. Причем в опенсоурсе, стимулируя профессиональных программистов материально.

Второе это маркировка. Сначала они дошли до Radeon 9600-9700, потом дропнули до сотен и снова поползли до тысяч. Сейчас уже подбираются к 8000, а что потом, снова откат до сотен? Для меня, как покупателя, не интуитивно.
Реализовали бы простейшую и понятную модель, где каждый десяток обозначает ровно одно поколение:
X01-10XX это первое поколение
X11-20XX второе
X21-30XX третье и так далее.

Причем буквенное обозначение всегда одинаково. Например буква вначале показывает принадлежность видюшки к классу (десктоп, ноутбук, ...), а буквы в конце — конкретный тип (урезанная, разогнанная).
Вам бы оформить эту идею, да в петицию. А вдруг у них существуют «недели идей с интернета». В кризисных ситуация надо рассматривать все предложения.
> переписать всё с нуля. Причем в опенсоурсе
А они что делают?
x.org/wiki/radeon
Я слышал о том, что штатные разрабы Ati пилят только проприетарные драйвера, а над опенсоурсными трудятся свободные программисты, коих во много раз меньше.

Я же предлагаю ATI временно оставить на проприетеращине только минимально необходимые силы, а всех остальных бросить за совершенствование свободных (+портирование оных под Windows).
> а над опенсоурсными трудятся свободные программисты, коих во много раз меньше
Над свободным трудятся не менее штатные разработчики AMD, хотя их конечно меньше.

> Я же предлагаю ATI временно оставить на проприетеращине только минимально необходимые силы
До недавнего времени разработчики проприетарного драйвера работали над включением по-умолчанию декодирования AVC-профиля High@L5.1 в XvBA, поддержкой direct-рендеринга в KWin, решением проблем со спящим режимом, реализацией поддержки Enduro (новая технология гибридной графики, сменившая PowerXpress) и аппаратного рендеринга в Chrome/Chromium.
В данный момент в проприетарном драйвере им нужно реализовать OpenGL 4.3, допилить поддержку OpenGL-версий Source Engine, Serious Engine, Unity Engine, ну и конечно всегда есть текущие дела, связанные с регрессиями. Просто представьте, что произойдёт, если сейчас, во время выпуска Steam для Linux, AMD хоть чуть-чуть снизит темпы доработки проприетарного драйвера. Нет, конечно же дорабатывать свободный драйвер тоже нужно, но девять матерей не выносят ребёнка за один месяц — это важно понимать. Проблемы свободного драйвера не относятся к проблемам, которые решаются простым увеличнием количества разработчиков. Вон, у Intel над свободным драйвером работает в три раза больше разработчиков, но по моему опыту драйвер Intel гораздо менее стабилен, чем radeon или даже nouveau.

Плюс вы похоже забываете, что реализация OpenGL в драйверах AMD общая между драйверами для Windows и Linux, так что снятие разработчиков отсюда повлечёт снижение качества поддержки OpenGL в Windows. Вы ведь понимаете, что это чревато для AMD реальным усложнением их финансового положения? (Так как workstation-софт обычно использует OpenGL, а карточки для рабочих станций в разы дороже игровых.)
Вопрос (это именно вопрос из любопытства): а что мешает AMD куски проприетарного драйвера отдавать в open source? По моим вот личным ощущениям, открытый драйвер то, что поддерживает, поддерживает в разы лучше, чем закрытый. Пусть, конечно, пилят закрытую версию, но могут же отдавать код и в открытую. Если они в итоге собираются продавать гибридные Opteron-ы, то нормальный открытый драйвер необходим.
> а что мешает AMD куски проприетарного драйвера отдавать в open source?
Процитирую Бригмана: «If we have trouble getting approval to release a specific block of programming info, do you think we would have an easier time releasing the same info mixed with 5 million lines of proprietary source code, particularly when that source code is written to work across multiple OSes and most of those OSes *require* robust DRM as part of the design?»

> Если они в итоге собираются продавать гибридные Opteron-ы, то нормальный открытый драйвер необходим.
Разработчики AMD сейчас работают над поддержкой GPGPU в свободном драйвере, если вы об этом.
А что за approval нужен? И от кого? От Microsoft?
От вышестоящего начальства. Раскрывая код AMD рискуют быть засуженными за нарушение патентов и теоретически могут скомпрометировать механизмы DRM.
Вот сейчас подумал: а ведь на CPU не нужны драйвера. Нет драйверов — нет проблем. Что мешает также сделать для GPU?
Мешает все. Без драйвера GPU — тупая железка. Именно драйвер транслирует «макрокоманды» в «микрокоманды». В CPU язык макрокоманд стабилен и не меняется, только расширяется и дополняется. Чего не скажешь про GPU.
Где можно про это почитать? Без излишних подробностей, но лаконично и доходчиво.
Можно начать с вот этого документа и вот этой статьи, и продолжить чтение обзоров новых архитектур на таких сайтах как ixbt, anandtech, tom's hardware.
Почему не нужны? Драйер для CPU — это компилятор + ядро OS со стандартными внутренними и внешними интерфейсами. Например, всякие примитивы синхронизации или обработки прерываний специфичны для каждого CPU, и этот код является, фактически, драйвером. Просто это неотъемлемая часть системы, без которой она не может работать, а остальное может быть выделено в модули. Разница только в этом.
В BCM2835 (Raspberry Pi) сделано именно так — все недовольны, потому что сообщество не может ни пофиксить баги, ни доработать функционал.
А подробнее можно?
Видеокарт выходит очень много, причем одна видеокарта может быть в нескольких вариациях.
Лично мне не хотелось бы иметь Radeon X1625482937453828. Таким похвастаться довольно сложновато.
тут недавно писали о проблемах отечественной электронной промышленности… А тут с молотка продается один из гигантов вкупе с технологиями, рынками и пр…
НЛО прилетело и опубликовало эту надпись здесь
Не пугайте меня люди )) — собрался покупать новый ноут с карточкой ATI и присматриваюсь к AMD процам.
У меня проц amd, видеокарта amd… Возможно, в последние год-полтора компания слажала, но качество/цена у них всё равно на высоте.
У самого AMD Athlon 64 X2 Dual Core 6000+ (наверно 5 лет), ух… сколько я намучался )) узнал потом, что серия эта из «особенных», помогло лишь хорошая термопаста, кулер большой, толстый и тяжелый, чтобы прилегал отлично. И конечно же программы: Dual Core optimizer и RightMark CPU Clock (УРА настройкам профилей и PID, FID, VID)
image
Ой, да… эта серия имела проблемы с термодатчиком, причем не с TDP, а именно с аппаратным мониторингом температуры.
Опа. У меня лет 5 такой же стоит. Летом, когда дома температура поднимается до 30+, регулярно зависает. Ставил мониторинг температуры, показывал нормальную. Помогло залочить вентилятор на максимальной скорости.
Позволю себе чуть пофантазировать.

А если AMD купит… какая нибудь русская организация? Для Сколково?
Бабах! И наше отставание в электронике сокращается почти до нуля!
НЛО прилетело и опубликовало эту надпись здесь
Вы о чём?
Об Ангстреме и приобретенном у АМД оборудовании для выпуска микросхем по нормам 130нм, которое гниет где-то на складах.
АМД сами что-то производили?
До недавнего времени — да. Потом выделили производственную часть и продали.
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории