Жизненный цикл: как Apple отказалась от PowerPC в пользу Intel

Автор оригинала: Ernie Smith
  • Перевод
image

Вероятно, долгожданный момент, о котором я сегодня буду говорить, был в каком-то смысле неизбежным. Годами ходили слухи о том, что Apple воспользуется накопленными знаниями об архитектуре процессоров ARM и перенесёт её в настольные компьютеры и ноутбуки. На недавней виртуальной конференции Worldwide Developers Conference производитель iPhone выступил именно с таким заявлением. Разумеется, многих заинтересовали дальнейшие действия Intel — отвергнутого партнёра, отношения с которыми привели к решению Apple о вертикальной интеграции. Но мне больше любопытно проследить за угасанием платформы, которую Intel победила, чтобы добиться расположения Apple, а также увидеть параллели, постепенно возникшие между PowerPC и Intel. Сегодня мы расскажем о длинном списке производителей процессоров, к которым охладела Apple, на примере перехода с PowerPC на Intel. Если вы разочаруете Apple, вам не поздоровится.


Apple потребовалась пара десятков лет, чтобы освоиться с этой концепцией. (Internet Archive)

Информация о первом проекте собственного процессора Apple всплыла примерно 35 лет назад


Во многих отношениях, Apple давно привлекали преимущества вертикальной интеграции, вызванные слабыми сторонами процессоров сторонних поставщиков. Эта компания в самой своей сущности была вертикальным интегратором.

Но многим неизвестно, насколько давно возник интерес к созданию собственных CPU, а также то, что это была внутренняя инициатива компании. В прошлом году в Internet Archive появился документ, из которого можно понять амбициозность этого проекта. Изданная в 1989 году и опубликованная анонимным пользователем, предположительно связанным с Apple, спецификация "Scorpius Architectural Specification" объясняет общие концепции многоядерных архитектур процессоров за десять с лишним лет до того, как эти технологии стали активно применяться пользователями PC.

«Работы начались в середине 80-х и продолжались до конца десятилетия», — пишет аноним, совершивший утечку этого конфиденциального документа. «Сегодня нам очевидно, что этот проект так и не увидел свет. Но в нём участвовали очень умные технари, и судя по тому, что я слышал, архитектура была достаточно проработанной».

Хотя на обложке стоит название Scorpius, этот проект уже давно известен фанатам Apple под другим именем: Aquarius.

Вот его история: во время, когда Стив Джобс был «изгнан» из Apple, компания запустила исследовательский проект по созданию архитектуры многоядерного процессора. На момент начала проекта это была очень теоретическая область, а компьютерные процессоры с несколькими ядрами появились в PC только в начале 2000.


Иллюстрация из документа объясняет многоядерные возможности процессора Aquarius/Scorpius. (Internet Archive)

Как рассказывал в 2006 году сайт Low End Mac, Project Aquarius стал попыткой компании, в то время управлявшейся Джоном Скалли (кроме того, на руководство сильно влиял глава отдела разработки Macintosh Жан-Луи Гассе), вернуть Macintosh техническую мощь, которая слабела по сравнению с новыми процессорами, разработанными на основе RISC-чипа (reduced instruction set computer). RISC-процессоры, одним из примеров которых является чипсет ARM, нацелены на ускорение процесса работы при помощи минимизации количества доступных инструкций.

Предложенная Apple реализация была высокотехнологичной, поначалу она заручилась поддержкой высшего руководства, но, по сути, была обречена с самого начала. Она стала одной из множества исследовательских «денежных чёрных дыр», над которыми компания работала в конце 1980-х. Проблема, по словам автора Low End Mac Тома Хорнби, заключалась в следующем:

Apple не была компанией-производителем микрочипов, и у неё не хватало ресурсов, чтобы стать таковой. Ей пришлось бы нанимать сотрудников, знакомых с проектированием микропроцессоров, покупать необходимое для реализации проекта оборудование, а затем производить готовый продукт (или нанять для этого фирму наподобие Fujitsu или Hitachi). Компании уровня Intel и Motorola тратили миллиарды долларов в год на проектирование и изготовление микропроцессоров. Apple чувствовала себя хорошо, но у неё не было лишних миллиардов.

Даже запуск такого сложного проекта стоил миллионы долларов, которые были потрачены на покупку суперкомпьютера Cray за 15 миллионов, одобренную Гассе, а также на зарплату десятков сотрудников. Разработчик ПО для винтажных Mac (и фанат Gopher) Кэмерон Кейзер, нашедший прошлой зимой вышеупомянутый документ, заметил, что главный инженер Сэм Холланд, начавший этот проект, создал нечто слишком высокоуровневое даже для самой Apple.

«Сложная спецификация Холланда ещё больше озаботила высшее руководство, ведь для её реализации требовалось решать различные технические проблемы, которые показались бы сложными даже крупным и опытным компаниям-проектировщикам чипов того времени», — объясняет он.

Проект, разрабатывавшийся до 1989 года, не добрался до реализации в кремнии (что всё равно было бы финансово неподъёмно для Apple), но привёл к созданию подробного технического документа, объясняющего потенциал архитектуры Scorpius — уникального чипсета, способного выполнять многие функции, которые сегодня считаются естественными. Кроме нескольких ядер и параллельного выполнения, в Aquarius также появилась ещё одна ключевая концепция, которая в современных процессорах довольно популярна: интегрированная графика, встраиванием которой в свои чипы Intel не занималась до низкобюджетного чипсета Intel i810, выпущенного в 1990-е.

Разумеется, проект был неудачным, но в 2018 году Гассе заявил на своём веб-сайте Monday Note: более поздние разработки доказали, что по своему духу проект был правильным:

Хоть работы по разработке четырёхъядерного процессора не привели к непосредственным результатам, проект Aquarius послужил примером стремления Apple контролировать будущее своего оборудования. Это страстное желание снова проявилось, но на этот раз удачно, когда Джобс купил Palo Alto Semiconductor для разработки серии микропроцессоров Ax, управлявших iPhone-ами и iPad-ами; сегодня эти микропроцессоры широко признаны отраслью лучшими в своей категории.

Гассе конечно же прав: исторически Aquarius стал предшественником современных амбиций Apple по разработке процессоров; но также он косвенно стал одной из причин важной смены процессоров — компания перешла от серии Motorola 68000, которая использовалась тогда в Apple Macintosh, к PowerPC, которые с большим размахом применялись в 1990-х.

1990


В этом году IBM выпустила аппаратный обзор своего процессора RISC System/6000, ставшего первым процессором, использующим архитектуру набора команд POWER. Этот набор команд стал основой процессорной технологии PowerPC, которую совместно разрабатывали Apple, IBM и Motorola в «AIM Alliance». Этот альянс три компании организовали, чтобы начать в 1991 году разработки компьютерных технологий нового поколения. IBM и другие компании даже сегодня производят процессоры на основе этого набора команд, хоть Apple отказалась от него 14 лет назад. (Это не единственная ставка, которую Apple сделала в то время на процессоры: компания также инвестировала в ARM, которая пригодилась ей спустя несколько десятков лет.)


300-мегагерцовый процессор Motorola PowerPC 750, больше известный как PowerPC G3. Примечательно, что Apple стремилась упрощать названия используемых ею процессоров PowerPC, благодаря чему появилась линейка G3, G4 и G5. (Wikimedia Commons)

Во многих смыслах, благодаря чипсету PowerPC потребительский рынок впервые познакомился с нашим миром 64-битных многоядерных процессоров.

Если сделать шаг назад и задуматься о PowerPC на более высоком уровне, то стоит заметить, что теоретически он должен был предоставить Apple именно тот контроль над судьбой её процессоров, которого она так жаждала.

Сама по себе Apple не была достаточно сильна для создания таких CPU, на основе которых надеялась производить свои компьютеры, поэтому она объединилась с двумя компаниями, имеющими опыт в производстве чипов, переложив всю тяжёлую работу на них.

Архитектура PowerPC оказалась наиболее успешной частью партнёрского сотрудничества, нацеленного на создание будущего компьютеров в различных формах, в том числе в аппаратной и программной.

После выпуска в 1994 году Mac процессор PowerPC очень впечатлил пользователей Mac, ведь он стал очень важным апгрейдом по сравнению с линейкой 68000. Технический журналист общественного телевидения Стюарт Чифет поместил его в начало эпизода Computer Chronicles:

Стоит ли выбирать PowerPC? Вам ответят уверенным «да» сотрудники студии предпечатной подготовки Star Graphics из Фостер-сити, Калифорния. Раньше они пользовались на работе мощными компьютерами Quadra 950, но для отображения такой сложной графики компьютеру 950 требовалось около минуты. Теперь им требуется всего около 10 секунд. При работе с 950 для выполнения функции под названием «треппинг» требовались часы. Теперь нужно около 20 минут. Почему? Потому что они перешли на PowerPC.

Но даже при этом успех не стал истинным. IBM и Motorola присоединились к Apple в её проекте по созданию стандарта нового поколения, способного совершить прогресс в технологической отрасли… но в конечном итоге, единственной крупной компанией, преимущественно использующей чипы PowerPC в своих компьютерах, осталась Apple. Да, в середине 1990-х можно было купить компьютер IBM на основе PowerPC (вот пример), но её бизнес по продаже персональных компьютеров, который позже она позже продала Lenovo, в основном использовал x86.

В статье InfoWorld 1995 года была диагностирована проблема, с которой столкнулась IBM в использовании архитектуры PowerPC: «Для построения необходимой инфраструктуры требуется масштабность, чтобы конкурировать по цене и поддержке сторонних компаний с Intel и Microsoft, а без такой инфраструктуры сторонние компании вряд ли поддержат PowerPC», — пишут авторы Эд Сканнелл и Брук Кротерс. «Однако IBM очень медленно создавала такую инфраструктуру».

В результате этого PowerPC никогда самостоятельно серьёзно не конкурировала с Intel как кроссплатформенный CPU. (Тем не менее, она оказалась гораздо успешнее в видеоиграх: во время седьмого поколения консольных войн все три основные игровые платформы — Nintendo Wii, Xbox 360 и Playstation 3 использовали в своих процессорах архитектуру набора команд POWER, а в Wii устанавливался непосредственный потомок процессора оригинального iMac G3. Nintendo также использовала PowerPC в GameCube и Wii U.)

Но на протяжении многих лет Apple всё равно активно пользовалась преимуществами доступа к этой архитектуре, которая была настолько продвинутой, что на момент первого выпуска процессора G4 из-за экспортных ограничений на вычислительные мощности правительство США классифицировало его как оружие.


Модуль IBM POWER4 из четырёх чипов, использовавшийся в серверах. (изображение взято с IXBT Labs)

В 2001 году чипу на основе PowerPC удалось реализовать многоядерность, которую Apple мечтала реализовать за несколько лет до этого в Project Aquarius. Этот чип, микропроцессор IBM POWER4, стал первым имеющимся в продаже многоядерным микропроцессором, а также одним из первых процессоров, преодолевших символический порог вычислительной мощности в 1 гигагерц.

Два года спустя после выпуска этого серверного чипа появилась его одноядерная версия под названием G5, устанавливаемая в Mac. Это был первый 64-битный процессор компании, в то время как процессоры Intel x86 были только 32-битными чипами. Однако несмотря на его мощь, сложности с архитектурой и производством привели к отказу от его применением компанией, благодаря потребностям которой он и появился.

«PowerPC G5 меняет все правила. Этот 64-битный спорткар стал сердцем нового Power Mac G5, который стал самым быстрым настольным компьютером. IBM обладает самым обширным опытом в проектировании и изготовлении процессоров, и это только начало долгого и продуктивного сотрудничества».

Так Стив Джобс в пресс-релизе за июнь 2003 года объявил о выпуске процессора PowerPC G5, который использовался в Power Mac G5 — первом 64-битном компьютере компании. «Долгое и продуктивное сотрудничество» на самом деле завершилось двумя годами позднее, на той же самой сцене Worldwide Developers Conference, где Джобс показал миру чип G5.


Ограничения процессоров (и отношений), приведшие к разрыву длительного партнёрства Apple с IBM и Motorola


За два года CEO Apple Стив Джобс проделал путь от восхищённого заявления об огромных преимуществах процессора G5 перед постоянной аудиторией WWDC до рассказа о желании полного отказа компанией от всей платформы PowerPC.

На то было множество причин, но одной из самых досадных, вероятно, была проблема 3 гигагерцев. Видите ли, когда Apple объявила в 2003 году о выпуске Power Mac G5, Джобс заявил, что компания вскоре начнёт поставлять машину с 3-гигагерцовым процессором, что оказалось чуть более амбициозным по сравнению с истинными возможностями G5.

Рассказав про обновление чипа до 2,5 гигагерц на WWDC 2004 года, Джобс выступил со следующим покаянным заявлением:

Я хочу сказать о двух с половиной гигагерцах, потому что год назад я стоял здесь и говорил, что через год у нас будет три гигагерца. Что же случилось? Произошло следующее: как вы знаете, G5 — очень сложный чип, а в полупроводниковой промышленности для ускорения работы традиционно уменьшают геометрию. Поэтому PowerPC производился по 130-нанометровому техпроцессу. А в прошлом году отрасль перешла от 130 к 90 нанометрам, ожидая, что всё будет работать быстрее. Но она упёрлась в стену. Вся промышленность упёрлась на 90 нанометрах в стену, и проблема оказалась намного сложнее, чем думали. Из-за чего повышение скорости было очень маленьким по сравнению с тем, к чему мы привыкли за последние пять лет.

Джобс не был рад говорить такое со сцены; возможно, частично это было вызвано тем, что указывало на ещё один недостаток перехода на G5: на проблему с Powerbook. Как объясняет Low End Mac, хотя в прошлом IBM и Motorola выпускала мобильные версии разных поколений процессоров PowerPC, между появлением настольных и мобильных версий поколений PowerPC временами возникали задержки. Например, PowerBook G4 появился только в 2001 году, через полтора года после выпуска Power Mac G4. Однако архитектурные проблемы G5, не позволявшие процессору достигнуть частоты в три гигагерца, свидетельствовали, что это процессор, изначально разрабатывавшийся для мощных серверов и рабочих станций, не удастся с лёгкостью урезать, чтобы он удовлетворял потребностям экономии энергии ноутбука.


Существовала причина, по которой Powerbook G4 не превратился в Powerbook G5. (mich1008/Flickr)

Сегодня решение этой проблемы в стиле Intel выглядело бы так: разработать ноутбук с несколькими ядрами, чтобы выжать больше вычислительной мощи из предыдущего поколения. Но многоядерные CPU всё ещё являлись новинкой и их потенциал не был протестирован, из-за чего поколение ноутбуков Mac зависло в неопределённости. В конечном итоге, линейка Powerbook достигла пика своего развития в 2005 года с выпуском одноядерного процессора G4, который был в четыре раза быстрее по сравнению с оригинальным G4, выпущенным шестью годами ранее.

Как объясняется в статье на CNet 2009 года, уходу от PowerPC способствовало множество факторов, в том числе доступ к Windows и увядание партнёрских отношений с IBM. Ещё одним фактором была цена — в этом аспекте Apple могла заставить IBM пойти на уступки. К сожалению, ей этого не удалось.

«Apple платила большую цену за чипы IBM, что создало „Уловку-22“», — писал Брук Кротерс (любопытно, что это тот же человек, совершенно другую статью которого мы цитировали чуть выше). «IBM приходилось задирать цены, потому что у неё не было экономики уровня Intel, но Apple не хотела платить больше, хоть она и предположительно получала бОльшую выгоду от более совершенного RISC, реализованного в архитектуре PowerPC».

По этой и иным причинам два года спустя после объявления о выпуске G5 Джобс оказался на сцене WWDC, где признал его технические ограничения и заявил о переходе на Intel.

«Если смотреть в будущее, то у Intel обладает самыми надёжными перспективами из всех», — сказал Джобс, сообщая о переходе. «После перехода на PowerPC прошло уже 10 лет, и мы думаем, что технологии Intel помогут нам создавать лучшие персональные компьютеры на следующие 10 лет».


Модель Power Mac G5 конца 2005 года, одна из последних моделей Apple на PowerPC до перехода на Intel. (Wikimedia Commons)

Несмотря на это заявление, три модели Mac с процессором G5 — Power Mac G5, iMac и Xserve — продолжали продаваться. В конце 2005 года Apple даже выпустила четырёхъядерную модель — свою первую модель с многоядерным процессором (на самом деле их было два). Но чувствовалось, что фанатов Mac вся эта ситуация мало расстроила. Давний автор статей про Mac Джон Сиракуса изложил ситуацию в статье 2005 года в Ars Technica так:

Насколько я могу вспомнить, впервые получилось так, что лучший в новой линейке Mac имеет меньшую тактовую частоту по сравнению со своим предшественником. Тем не менее, любители Mac не особо волнуются. Почему? Потому что все мы знаем, что Quad можно назвать «хромой уткой» семейства Power Mac. Он стал последним отблеском угасающей революции PowerPC. Все мы понимаем, почему он не достиг 3 ГГц. Теперь в IBM над ним работает только минимально возможная команда. Движение продолжается по инерции, потому что топливо для отношений Apple и IBM закончилось несколько месяцев назад.

Частично это было заблуждением — теперь все мы понимаем, что многоядерные процессоры обычно имеют меньшие частоты, чем их одноядерные аналоги, но в то время было неочевидно. Однако в основном разочарование было вызвано тем, что Apple не сдержала данные покупателям амбициозные обещания по понятным, но печальным причинам.


Внутренности суперкомпьютера Summit, в котором использовались процессоры IBM POWER9. (Jason Richards/Oak Ridge National Laboratory/Flickr)

IBM продолжала совершенствовать свою линейку процессоров POWER и без Apple в качестве основного покупателя: новая версия POWER10 ожидается в этом году. Наследие, оставленное линейкой PowerPC, по-прежнему применимо в некоторых нишевых областях, например, можно и сегодня купить совершенно новый компьютер Amiga с чипом PowerPC, созданным на основе двухъядерной архитектуры G5.

Но сама идея о PowerPC в качестве мейнстримной настольной вычислительной платформы по сути умерла с завершением партнёрства Apple и IBM.

Современные процессоры Intel, многоядерные версии которых Apple начала использовать сразу после их появления, стали огромным благом для постепенного внедрения MacOS.

В первые дни партнёрства Apple и Intel их использование представляло собой некий «клапан регулировки давления» для процессорных ограничений, которые создал Power Mac G5 для линейки процессоров Apple. Они помогли подняться с плато производительности ноутбукам Apple, неспособным воспользоваться преимуществами 64-битной архитектуры, обещанной потребителям компьютером PowerPC G5.

Во многих смыслах, уход от PowerPC отразил медленное ухудшение отношений между тремя технологическими гигантами, которым было суждено пойти в разных направлениях. IBM комфортнее было применять архитектуру POWER в серверах и встроенных системах (в конечном итоге компания сделала архитектуру open source). Motorola полностью вышла из бизнеса производства чипов, передав его Freescale. А Apple устала ждать новых процессоров, которые соответствовали бы её графикам выпуска и спецификациям.

Сегодня Apple, скорее всего, ощущает похожую усталость от Intel — компании, продолжающей выпускать замечательные чипы, но с трудом сохраняющей прежний уровень инноваций; кроме того, её небольшие стратегические ошибки обернулись неожиданно крупными провалами. (Как написал в Stratechery Бен Томпсон, Intel стремилась, чтобы её чип был установлен в первом iPhone, но решила не сбавлять цену. Плохой ход.) Её давний противник AMD выигрывает битву за большее количество ядер по меньшей цене. А Apple, похоже, так устала от линейки процессоров Intel, что полностью отказалась от целых линеек продуктов, например, от Mac Mini и Mac Pro, которые постепенно увядали.

Однако как и PowerPC, Intel усиленно стремится соответствовать запросам своего сложного заказчика. Процессоры компании хороши, но скорость и темп их выпуска не устраивают Купертино. А когда выпуск чипов откладывается, Apple приходится откладывать выпуск и своих продуктов, то есть цикл не работает идеально, как это было в случае iPhone. Apple не любит компании, которые её разочаровывают — именно поэтому GPU Nvidia уже много лет не ставят в её компьютеры.

Разумеется, в мире x86 есть и другие варианты выбора — сегодня соблазнительными могут показаться линейки Ryzen и Threadripper компании AMD, но у Apple уже есть впечатляющие мобильные чипсеты, которые можно масштабировать вверх намного лучше, чем удавалось масштабировать вниз G5.

То есть, по-видимому, Apple рассматривает свои собственные чипсеты ARM как возможность долгожданной вертикальной интеграции, к которой компания шла 35 лет. Хорошо, что на этот раз у неё достаточно денег для этого.

См. также:

AdBlock похитил этот баннер, но баннеры не зубы — отрастут

Подробнее
Реклама

Комментарии 47

    +4

    Время покажет

      +5
      Однозначно.
      Без каких-то внятных обоснований ставлю на то, что не взлетит.
      –2
      Ка ни прискорбно, но спустя 17 лет и несколько архитектур процессоров картинка остаётся актуальной. Порог в 3 GHz стал камнем преткновения для индустрии, TOP 10 суперкомпьютеров топчется около него, да и предел по количеству ядер в одном процессоре общего применения, похоже, достигнут.
      Для существенного прироста производительности вычислений нужен прорыв либо в материаловедении, либо в способе обработки информации, либо в системах охлаждения.

      3 GHz?
        +2

        Да ладно! У меня в ноуте стоит 3.9 GHz i7 — просто он почти всё время висит в турбобусте, если охлаждение справляется — вай нот? Нормальный термоинтерфейс (с убогими 1.5 теплотрубками) и кривоватым воздушным потоком удушеный на 100 мВ и на пару множителей AVX Offset i7 8750h прям вызывает восхищение — стабильно удерживает 90 градусов.


        Ну да, немного не то, но всё таки 3 ГГц взяты уже давно. Очень. Экстремалы берут на легендарном 2500K 6ГГц, тогда как 3700X имеет базу в 3.6 ГГц и довольно стабильно держится на 4.4 ГГц — опять же, спасибо авторазгону, при том, что на нём уже уходят за 5.5 ГГц среди экстремалов.


        А стрёмно потрясающие FX вообще берут 8+, что мягко говоря, вызывает лёгкое недоумение...


        Суперкомпьютеры вообще совсем по другому работают, есть те, которые на частоте в гигагерц работают — банально наращивая число ядер до каких-то немыслимых масштабов. Но в них и латентность памяти играет значительно меньшую роль — таки мы спокойно загружаем конвейр сверходнотипными рассчётами. В целом, поэтому сейчас ЦОДы суперкомпов активно осваивают GPGPU, но вот софт правда никто не хочет переписывать, а это на самом деле крайне сложно.

          +2
          Верно, а под гелием можно и 10 ГГц. Речь о мейнстриме производительных вычислений. Невыгодно гнать частоту — допустимая плотность мощности небезгранична. Никто (кроме старых добрых Cray, конечно) не будет гонять суперкомпьютеры под криоохлаждением, ибо и так дорогие суперкомпьютеры за счёт удорожания обслуживания ещё значительно подорожают.
          А топ 10 работает не зря же согласованно работает на 3 ГГц.

          Заморачиваться с криогеникой, так уже ради квантовых компьютеров, которым пока без неё никак.
            +3

            Нет, нельзя под гелием 10 ГГц. Вообще ничего сильнее азота и не надо, там вообще сверхпроводниковые эффекты проявляются и я не уверен, что это сможет работать, так что.


            А топ 10 работает на катастрофически разных архитектурах, причём вы уже соврали, тот же 8174 в составе SuperMUC-NG работает на частотах до почти 4 ГГц в зависимости от нагрузки, причём без AVX начиная с 3.5 ГГц


            Но опять же. Зачем. Зачем суперкомпьютерам десятки гигагерц? Им они нафиг не сдались — всё упрётся в неистовую латентность и мегагерцы будут кукурузные. А шину невообразимо расширять, да кешами всё тушить тоже вечно нельзя — стоимость таких дел и так запредельная и приписывать лишние нолики в конец никому в голову не взбредёт. Тем паче им в принципе катастрофически низкая эта самая латентность не нужна — от того, что результат работы появится на пол секунды позже никого особо не колышит, да и не хватало ещё конкуративность за память учитывать при проектировании ПО.


            Так что хватит! Гигагерцы не нужны и это известно, наверное, последние лет 10. Причём вангую, с какими-нибудь 3D-упаковками чиплетов мы можем вобще упасть в какой-то гигагерц на сотни ядер, в принципе, гигагерц это что-то вроде оптимума, на который можно рассчитывать, что-то около 10^9 "средних" операций в секунду.

              –6
              Про скрипач гелий не нужен — это Вы спонсируемым оверклокерам расскажите (лучше не нужно — порвут).

              До, почти 4 это несерьёзно — дайте ровно 5 на все 64 ядра 24/7.

              Если не гигагерцы нужны, а ядра — дайте штучки 1024 на корпус под воздухом.
                +3
                Если не гигагерцы нужны, а ядра — дайте штучки 1024 на корпус под воздухом

                Эм. Видеокарта?


                С оверклокерами мне спорить не зачем. Да и спор с самим собой — странное занятие.

                  –4
                  Почему видеокарта, процессор общего применения об 1024 ядрышка. Да и зачем она тогда специализированная видеокарта?
                  +1
                  OpenCL on FPGA вам в помощь. 70W рассеять воздухом сможете?
                    0
                    70 Вт смогу, да. FPGA — сила, хоть и дороговато и сложновато. Жаль, что не взлетают репрограммируемые FPGA. Как и морфинговые процессоры (RIP, Crusoe).
                      +1
                      Тут увы, FPGA стоят очень много, хотя как только задача упирается в latency, то альтернатив не остаётся никаких.
            +1
            Сижу на 5ГГц i7-9700K (всего +300мгц разгона от номинального буста) и искренне не понимаю ваш комментарий.
              –1
              Вероятно, всё же есть причины, почему в топ 10 суперкомпьютеров нет систем на 5 ГГц.
            –2
            А чем интересно Nvidia разочаровала Apple?
            Не захотела снижать цены на чипы?
              +5

              Там же ссылка стоит на статью с разъяснением. Вкратце: Nvidia поставляла дефектные чипы для MacBook Pro, что привело Apple к масштабной программе замены, потере большого количества денег и репутации. После этого Apple переключилась на AMD.

                0
                NVidia ещё и IBM/Lenovo этим поднасрала, Lenovo T61 с nvs140m. В результате сначала пользователи получили постоянно работала на 100% скорости, ну а потом вторая ревизия материнок подошла с исправлениями.
              +2
              Power Mac G5 — красавец! Всё таки дизайнеры Apple умеют делать красивые вещи. Интересно кто нибудь выпускает похожие корпуса дла ATX?
                0
                Есть современный.
                www.dunecase.com

                Можно купить корпус от PowerMac и переделать его с помощью KIT.
                www.thelaserhive.com/kits/powermac-g5-conversion-products
                  +1
                  Что-то современный совсем не зацепил — какой-то гибрид этажерки из ванной с теркой для овощей. Видать старый становлюсь, раньше и трава была зеленее, и девчонки краше, и компы заставляли сердце биться чаще.
                  0
                  Power Mac G5 — красавец! Всё таки дизайнеры Apple умеют делать красивые вещи. Интересно кто нибудь выпускает похожие корпуса дла ATX?


                  Как рассказывали люди, которым пришлось обслуживать и разбирать эти корпуса — корпуса обычных компьютеров в сравнении с ними были просто детскими игрушками.
                  («без поллитра не разобраться» (с))
                  Плюс электронные компоненты были очень чувствительными с статическому электричеству — без заземляющего браслета работать с разбираемым корпусом было нельзя (пробовали, не получилось).
                  А снаружи, да, очень красиво смотрелось :)
                    +1
                    Не так уж сложно там было. Я заметил, что многие фирменные корпуса развинтить бывает очень проблематично, поначалу. Затем, зная как, всё быстро делается (как правило).

                    Насчёт статики, через меня десяток-другой б/у G5 прошли, никаких проблем. Правда, я синтетику в принципе не ношу, плюс всегда руками за металл корпуса разряжаюсь перед тем, как во внутренности лезть…
                      0
                      Я заметил, что многие фирменные корпуса развинтить бывает очень проблематично, поначалу. Затем, зная как, всё быстро делается (как правило).


                      У меня есть аймак 21", в котором сдох винт (гарантия закончилась лет пять назад).
                      Есть подробное видео в сети, на котором показан процесс разборки и сборки.
                      Но даже зная как — я не решусь на проведение подобной операции своими силами, хотя разбирал и собирал «обычные» корпуса всех типов буквально тысячи раз :)
                        0
                        Тоже руки чешутся ssd воткнуть, но колется.
                  –2
                  Как-то наша контора купила целый трак (фуру) новеньких Power Mac G5, что на картинке. В течение года сдохли все.
                    +1
                    А у меня дома такой PowerMac G5 уже 14-й год работает, тфу-тфу…
                    0
                    А кто-нибудь может подсказать хороший и желательно детальный анализ ошибок Intel за последние 5-10 лет, в бизнес-стратегии и технологическом плане, которые привели компанию к её текущему незавидному положению?
                      0
                      Не претендуя на полноту или даже связность, просто набор (не обязательно)фактов-напоминаний для последующих ораторов:

                      — На заре своей деятельности Intel производила микросхемы оперативной памяти и неплохо на них зарабатывала. Заказчики её подталкивали к производству микропроцессоров, она упиралась.

                      — Intel разработала технологию Flash памяти и первые микросхемы, которык стали удобной альтернативой микросхемам ПЗУ для хранения, например, BIOS. По сей день Intel остаётся ведущим производителем ssd дисков.

                      — Когда-то топологию процессоров в Intel верифицировали вручную вножную — разработчики буквально проходили увеличенную распечатанную топологию.

                      — Intel выпускала материнские платы для настольных ПК (т.е. максимизировала монетизацию своих наработок — процессор, чипсет и сама плата давали прибыль). Эти платы не страдали избытком функциональности или гибкости настроек. Они были дороже плат других производителей и покупались теми, кто хотел надёжности и стабильности.

                      — В совместной с HP предположительно дорогой разработке архитектуры IA64, обещавшей миру производительные процессоры Itanium, новый подход к программированию вместе с обязательным переходом на новые компиляторы, использовались наработки первого (и единственного) морфингового процессора Crusoe, который теоретически мог быть совместим с любой архитектурой.

                      — Десять лет назад или около того Intel гордилась тем, что строя новый полупроводниковый завод, делала его в точности таким же, как предыдущие (в пределах одного технологического уровня), т.е. условно завод в Мексике полностью повторял завод в Ирландии — топология местности, вода, поставщики — всё идентичное. Завод идентичный. Результат идентичный.

                      — Около того же времени Intel выпускала программный патч для Celeron, превращавший его в полноценный Pentium (а-ля AMD unlock) — в качестве эксперимента, в Норвегии ЕМНИП, как в обеспеченном и относительно законопослушном регионе. Вероятно, патчился микрокод. Стоимость апгрейда вполне равнялась разнице в цене между Pentium и Celeron. Эксперимент расширен не был.

                      — Новому(?) процессору — новый сокет!

                      Пока всё, что вспомнил.
                        0
                        И ещё (только ссылки). Каждое пункт — это серьёзные затраты — на исследования, разработку, производство, маркетинг, брендинг…
                        Slot 1
                        Centrino
                        Vivato, ещё
                        i740
                        Iris
                        FIVR
                        Вероятно, самая долгоиграющая и дорогая торговая марка Intel: Зион BRONZE, SILVER, GOLD, PLATINUM, Iridium, Rhodium, Kryptonite, Whatever
                        Phi
                        Xe

                        И ещё немножко
                        (чистой воды вымысел)
                        Жаркое лето 1992 г. Штаб-квартира Intel. Третий час идёт производственное совещание по поводу сложностей с новым процессором P5 — опытные образцы перегреваются и виснут. Инженеры дружно разводят руками — транзисторов мол много, частоту просите повыше, кремний ваш негожий, а на гожий времени нету и т.д. и т.п. запуск в серию к сроку не осилим.

                        Все унывают. Кондиционеры в новом офисе ещё не смонтированы, жарко и душно. Молодой маркетолог, привлечённый недавно для придумывания звучного имени новому процессору (которого за глаза прозвали Пентиумом) включает вентилятор, светлеет взглядом и спрашивает инженеров, что будет если на процессор поставить масенький такой вентилятор. Инженеры, обдуваемые потоком, переглядываются и бегут тестировать, что же будет. Возвращаются воодушевленные, выкрикивая «А Пентиум то наш даёт!». Занавес.

                        Если серьёзно, то Pentium был первой микросхемой с активным охлаждением.
                          0
                          Если серьёзно, то Pentium был первой микросхемой с активным охлаждением.

                          «Сборка и монтаж микроэлектронных схем. Элберт Дж. Блоджет-младший
                          Конструкции корпусов кремниевых интегральных схем, методы их монтажа и охлаждения, а также способы выполнения межсоединений оказывают существенное влияние на рабочие характеристики вычислительной машины. Главная задача конструкторов схем и машин — разместить максимальное число кристаллов ИС в минимальном объеме (Scientific American, July 1983, Vol. 249, No. 1)

                          Панель охлаждения крепится сверху болтами к крышке. Внутри крышки размещена
                          матрица подпружиненных алюминиевых плунжеров, расположенных в точном соответствии с кристаллами ИС на подложке. Каждый плунжер прижимается к обратной стороне кристалла и благодаря этому проводит выделяемое им тепло вверх к панели охлаждения. В свою очередь панель охлаждения имеет внутренние каналы, по которым течет охлаждающая вода с начальной температурой 24 °С и с расходом 40 см3/с.
                          Дополнительное улучшение тепловых свойств модуля дало заполнение его внутреннего герметичного объема гелием, который при комнатной температуре намного превосходит воздух по теплопроводности» и т.д.

                          «Все уже придумано до нас»
                            0
                            Спасибо. Ссылочку бы ещё для удобства.
                            «Все уже придумано до нас» — никто и не сомневался. Перефразирую: Pentium был первым массовым микроцессором общего применения, который в одиночку генерировал количество тепла, исключавшее работу с пассивным охлаждением, т.е. он ввёл принудительное воздушное охлаждение в обиход.
                            Когда GPU достигли критического тепловыделения, их конструкторы уже не стали искать других путей и пошли по проторённому.
                            А жидкостное охлаждение до сих пор не стало и, вероятно, не станет массовым, несмотря на заметно увеличившееся тепловыделение процессоров, из-за своей относительных сложности и дороговизны, необходимости периодического обслуживания и технических особенностей.
                              0
                              Ссылочку бы ещё для удобства


                              Там ссылка приведена.
                              (Это бумажное издание, так что URL не будет :)
                              Русский вариант — журнал «В мире науки» №9 за 1983 год, стр. 58.

                              Статья там настолько интересная, что я прочел ее один раз в 1983 году — и сразу вспомнил вчера (причем не только статью — но и номер журнала, в котором она была напечатана :)
                                0
                                Память да, весьма ассоциативна.
                          +1
                          > На заре своей деятельности Intel производила микросхемы оперативной памяти и неплохо на них зарабатывала. Заказчики её подталкивали к производству микропроцессоров, она упиралась.

                          Intel действительно начинала с производства памяти, но вторая фраза звучит как-то странно, если учесть, что первым в мире коммерчески успешным микропроцессором был Intel 4004 (в английской Википедии его называют «first true microprocessor»)
                            0
                            Неоднократно встречал упоминания того, что заказчики упрашивали развивать направление процессоров, а компании это было не слишком интересно, т.к. память приносила хороший доход. Ну и рынок микропроцессоров тогда ещё не сложился — заказчиков микропроцессоров было заметно меньше, чем заказчиков памяти. Ну и затраты на разработку разные, учитывая сложность микропроцессора в сравнении с памятью. Ну и флеш-памяти ещё не было, а микрокод процессора где-то нужно хранить.
                              +1
                              Ну и флеш-памяти ещё не было, а микрокод процессора где-то нужно хранить.


                              Была однократно программируемая память, микрокод всё равно только на пентиумах позволили менять.
                                0
                                На пентиумах позволили пользователю менять микрокод или вообще впервые? Не попадалась такая информация. Возможно, сложность и капризность Пентиума подтолкнула к этому шагу.

                                Не поэтому ли раньше в Интел инженеры раскладывали увеличенную топологию процессора на полу и верифицировали, проходя по ней ножками? Учитывая новизну темы микропроцессоростроения, отсутствие опыта, специализированного ПО, высокую стоимость графических компьютеров, возможно, это был единственный способ выйти в серию до истощения бюджета.

                                Согласитесь, отладка нового процессора при возможности что-то слегка править посредством изменения микрокода сильно упрощает и удешевляет выпуск серийного изделия. Достаточно посмотреть, в каком количестве китайцы продают инженерные образцы процессоров и сколько итераций новому дизайну приходится пройти, чтобы стать серийным. Это сейчас, при возможности что-то слегка пропатчить программно.
                                  +1
                                  На пентиумах позволили пользователю менять микрокод или вообще впервые?

                                  Сейчас посмотрел, указаны только патчи начиная с пентиум про. Можно посмотреть, что та старая ошибка с делением флоатов на первых пентиумах не патчилась.

                                  Возможно, сложность и капризность Пентиума подтолкнула к этому шагу.

                                  Микрокод в процах был и на 8086, так как в железе некоторые его длинные команды (подозреваю, что все, длиннее одного цикла) будут занимать слишком много места на схеме, а переиспользовать их блоки не получится. Просто была однократно программируемая память для микрокода, а инженеры на поздних этапах разработки просто прошивали и отлаживали их, выбрасывая багованные экземпляры.

                                  Не поэтому ли раньше в Интел инженеры раскладывали увеличенную топологию процессора на полу и верифицировали, проходя по ней ножками?

                                  Думаю они так делали только до первой топологии, сгенерированной в CAD по HDL коду.

                                  Согласитесь, отладка нового процессора при возможности что-то слегка править посредством изменения микрокода сильно упрощает и удешевляет выпуск серийного изделия.

                                  Это сильно упрощает само проектирование чипа. Можно погуглить публикации на тему «hardwired vs microcoded design cpu».
                                    0
                                    указаны только патчи начиная с пентиум про. Можно посмотреть, что та старая ошибка с делением флоатов на первых пентиумах не патчилась.
                                    Зато во многих компиляторах появилась опция Pentium Safe.

                                    Кстати, самые большие обновления микрокодов для всех семейств процессоров вышли после вируса Petya. Вероятно, обратно так никогда и не вернут утерянную производительность.

                                    Возможность обновления микрокода кмк была более полезна именно производителю для возможности патчить процессоры до продажи. Инфраструктуры по доставке обновлений микрокода не было, да и стрёмно было патчить дорогой процессор.

                                    Вспомнился случай — компьютерная фирма поставила некоторым своим сотрудникам компьютеры на новеньких Пентиумах. Видимо, кто-то решил посмотреть, что за зверь, в результате сломал одну ногу. ЧП! Позвали местного левшу — тот паяльником припаял ногу встык, вставили — заработало. Компьютер продали клиенту.

                                    Пентиим Про был ещё более сложным и редким, так его вживую и не видел ни разу.

                                    публикации на тему «hardwired vs microcoded design cpu»
                                    Спасибо, полистаю.
                            0
                            Ещё парочка.
                            Apple до недавнего времени с удовольствием потребляла львиную долю процессоров Intel с gpu Iris, производя на нём средне-верхние ноутбуки, в которых обычно присутствовал и дискретный gpu. Возможно дело даже не в самом Iris — он отличается от остальных только количеством вычислительных блоков и буфером eDram, а в том, что это верхний сегмент, максимально возможное качество кристалла, ну и собственно из-за самого eDram, который по совместительству выполняет функции кеша процессора. Согласитесь, приятно иметь кеш процессора 128 МБ, пусть его производительность и не выше, чем у ОЗУ.
                            Было всего две модели настольного процессора с Iris, обе были выпущены для устаревшего сокета, но требовали при этом нового чипсета. На некоторых задачах эти процессоры имеют преимущество перед другими.
                            Остальные ириски выпускаются в BGA исполнении, причём Intel оставляет верхнюю и нижнюю из линейки модель процессора для себя, выпуская соответственно имиджевые и ходовые модели компьютеров, а остальное поставляет желающим, например, HP, Acer, сейчас уже и безымянным китайским производителям.

                            Также Intel вела интенсивную разработку чипсета для беспроводной связи, в т.ч. для Apple, вероятно отвлекая заметную долю свободных средств, в т.ч. производственных мощностей, которых уже некоторое время не хватает для производства процессоров.
                            В итоге Apple чипы 5G забраковала, но выкупила связанные с ними активы.
                          +3
                          Помню когда выходил Power Mac G5 он казался чем-то запредельным. 64 бита, Mac OS, Power PC — все было свое, оригинальное, новое. Его нельзя было даже напрямую сравнивать с Windows x86, это добавляло свою долю «Магии Эппл». А потом переход на Intel, хакинтоши, непонятность разницы в цене, когда можно было собрать на схожем железе комп и поставить на него макось.
                            0
                            Не очень понял, что означает «Apple… полностью отказалась от целых линеек продуктов, например, от Mac Mini и Mac Pro» — даже если рассматривать нынешний Mac Pro как совершенно новую линейку, то Mac Mini вроде никуда не девался все это время. Объемы продаж у Mini вроде действительно не велики, но он вроде никогда сильно массовым не был.
                              0

                              MacMini был на некоторое время заброшен, как и МакПро. У мини долгое время начинка была от 2013-го года, так же как и ведро тоже не обновлялось.

                              0
                              «На некоторое время заброшен» — согласен, но, как мне кажется, это все-таки значительно более слабое утверждение, чем «полностью отказались». Насколько я знаю, у Mac Mini были обновления в 2014 и 2018 — может не очень значительные, но для Эппла это достаточно нишевой продукт (который к тому же для массового пользователя конкурирует с их собственным AppleTV).
                                +2
                                Поставить обновленные процессоры, но запретить модернизацию памяти и диска — это сделать из компьютера приставку.
                                  0
                                  Справедливости ради уточню. SSD у Mac Mini действительно распаян, но есть возможность подключения внешнего через USB-C. А вот память — обычные SO-DIM (в моем вроде как от Samsung). Подлезть и поменять сложно, но реально. На Fixit есть инструкция. Да, это не для обывателя, но при большом желании установить самому памяти по-максимуму реально.
                                    0
                                    Забыл написать — я про Mac Mini 2018 года это написал в предыдущем комментарии.

                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                              Самое читаемое