Comments 50
Почему под словом "Наладить производство" подразумевается встать в очередь к волшебной машине ASML, кнопку на которой нажимает представитель TSMC
Можете пояснить почему тут нет добавленной стоимости и ноухау? Не кажется, что Вы чрезмерно упрощаете?
Упрощаю, да:) чрезмерно ли? Думаю, нет.
Очередной раз подчёркиваю, насколько все в мире зависит и держится на ASML
Вы можете посмотреть на специализированные ASIC NVENC, NVDEC, NVJPEG, VIC, DLA и т.п., потом еще раз констатировать, что же все-таки сложнее их разработать или напечатать. А еще есть баланс железа и оптимизация для определенных типов нагрузок и бюджета мощности.
Извиняюсь за глупый вопрос, но всё таки, что такоe ASIC NVENC, NVDEC, NVJPEG, VIC, DLA? Пробовал гуглить, мне выдаёт технологии аппаратного ускорения Nvidia, но что-то мне подскпзывает, что здесь речь не об этом.
Чтобы добыть топливо, нужно один конец шланга воткнуть в землю, а другой в бензоколонку.
Всё, можно заправляться.
Если было бы все совсем уж так просто - то не стояла бы очередь на несколько вперед именно за ускорителями nVidia.
А по поводу ASML - тоже не надо их переоценивать. Переход на рентгеновскую литографию, зеркала вместо линз был сложен, и исследованиями занимались DARPA на деньги правительства США, а не они сами.
ASML, Canon и Nikon обратились за этими технологиям к правительству США, но доступ получили только ASML - по каким-то причинам Япония это "потенциальный конкурент". Вот и получили то что получили с монополией одной компании.
Кстати именно поэтому ASML и не могут продавать свои самые современные литографы в Китай - самая мякотка там придумана не ими.
по каким-то причинам Япония это "потенциальный конкурент"
Подозреваю, что в правительстве, да ещё в организациях, которые решают, кому технологии давать, в основном не молодёжь сидит. А в их молодости лет 30-50 назад в США весь рынок был забит японской техникой, а «отечественного» почти ничего не было. Точно так же, как у нас сейчас жалуются, что всё делают в Китае.
Я тоже подумал - скорее всего какие-то устаревшие нормативы при принятии решения.
Сейчас явно не Японию им надо опасаться, а в итоге переплачивают американские же фирмы.
Подозреваю, что всё немного проще.
По факту ASML, хоть и базируется в Европе, полностью ручная и фактически является дочерней компанией для большого конгломерата компаний.
Что касается Японии, то кроме того, что Canon и Nikon исторические конкуренты ASML, уже 30 лет как, есть ещё нюанс отношений США и Японии. Если не вдаваться в политику, то можно сказать, что за последние 100 лет примернл все технологические успехи Японии были связаны с США, однако это, обычно, приводило к охлаждению отношений.
Если вы не заметили, то в последние лет 10-15 Япония немного так потеряла свой технологический статус и её, на её позициях, заменила Корея.
Так что, если бы попросил самсунг, скорее всего дали бы.
Угу...
Давайте вспомним великие японские процессоры тех лет. Мы ведь не можем их не помнить, верно?
Я из тех лет читал что Zilog добавляли «обманную» топологию на свой z80 чтобы японцы хотя бы не сразу содрали и не сразу завалили рынок дешевыми аналогами.
Американские госслужащие тоже вряд ли помнят процессоры, которые были, или которых не было. Они помнят, что Япония задавила их рынок своей более дешёвой и качественной техникой. И не хотят давать им шанса сделать это снова.
Доступ получила только ASML, простая нидерландская компания:)
Такая там операция под прикрытием, уже смешно даже.
по каким-то причинам Япония это "потенциальный конкурент"
Причины были вполне логичные на момент принятия этого решения в конце 80х - начале 90х: Япония только что выдавила Intel и прочих производителей США с рынка оперативной памяти. ASML считалась нейтральной в торговых спорах США и Японии, поэтому ей было оказано предпочтение. Вся история хорошо изложена в этой книжке: Chip War: The Fight for the World's Most Critical Technology.
Если самая мякотка американская, а ASML просто рядом постояли, то почему самые современные литография и чипы не производятся американскими компаниями? Почему так сложно идёт процесс возврата компетенций в США?
Почему так сложно идёт процесс возврата компетенций в США?
Дорогая рабочая сила. По этой же причине производства, как уехали из США, так и не вернулись.
Я думаю стоит прикинуть ситуацию глазами инвестора - нужно ввалить огромное количество денег в новое предприятие, c 0 создавать коллектив, искать всех-всех - возможно даже в Китае, а потом еще каким-то образом заниматься переманиванием клиентов у ASML, у которой все уже просто работает, в отличие даже от Canon и Nikon не имея репутации на этом рынке.
И даже имея все патенты и технологии на руках до серийного выпуска устройств пройдет прилично лет, если только сейчас начинать.
При этом - нужна ли будет через 10 лет такое оборудование - неизвестно. Может быть бесмасочная литография малых тиражей будет популярна. Или какое-нибудь обстреливание кремния электронами. Или оптика.
Ну то есть если инвестиции и есть сейчас, то уже в технологии следующего поколения.
Ну, давайте начнём с простого - в очереди они уже и так стоят, только волшебная машина всё ещё не умеет проектировать архитектуру.
Плюс машина не умеет решать, будет там монолитный кристал или чиплеты.
А ещё машина не знает, какой конкретно техпроцесс нужен. Например вы знали, что под общим названием "3 нм" прячется примерно 3 разных технологии?
Погуглите по словам physical design (часто используется сокращение PD) в контексте производства чипов. Возможно вы откроете для себя много интересного относительно структуры трудозатрат в этой области.
Если бы дело было сугубо в машинах ASML, то у Samsung и Intel не было бы столько проблем с производством на своих фабах. Там инструмент это дай бог пол дела, остальное это процессы и ноу-хау, которые в комплекте с машиной не поставляются.
Если нужно просто кнопку нажимать на чудо машине, то что же ASML сама не занимается печатанием и дизайном чипов? Ну или даже какая-то другая нидерландская\европейская компания? Вместо этого европейцы пытаются привлечь Intel и TSMC открывать самые продвинутые фабы в Европе, так что отмазка про "стоимость труда" тоже мимо.
Видимо дело в том, что эти два процесса тоже невероятно сложны и на передовом уровне их могут выполнять считанные компании по всему миру, а без них машины ASML будут никому не нужны даже даром.
Наверно надо было сначала напомнить об этом событии.
Эксклюзивность Windows на Arm может скоро уйти в прошлое — генеральный директор Arm подтвердил, что соглашение Qualcomm с Microsoft истекает в этом году
Точная дата окончания соглашения об эксклюзивности неизвестна, но, по всей видимости, она закончится к началу 2025 года.
Конец эксклюзивности Qualcomm будет означать, что другие компании смогут производить процессоры Arm для ноутбуков, и если Reuters прав, эти процессоры будут поставляться AMD и Nvidia. Хотя ни одна из компаний специально не производила процессоры ArmM для ноутбуков или настольных компьютеров, AMD и Nvidia, похоже, готовы к этому. AMD заявила, что готова производить процессоры ARM, если это необходимо, в то время как у Nvidia есть опыт в Arm с ее серверными процессорами Grace.
https://www.tomshardware.com/pc-components/cpus/windows-on-arm-may-be-a-thing-of-the-past-soon-arm-ceo-confirms-qualcomms-exclusivity-agreement-with-microsoft-expires-this-year
Видимо поэтому Nvidia представляет проект именно в 2025 году.
Чтобы создать успешную платформу, Nvidia должна гарантировать, что современные игры будут совместимы с её ARM-процессором. Компания уже тесно сотрудничает с разработчиками игр.
Не "гарантировать" наверно, а "добиться от разработчиков игр, чтобы они делали версию для ARM". И желательно не только для новых игр, но и переработали старые. Работа через эмулятор вряд ли обеспечит достаточную производительность.
А я, напротив, полагаю, что будущее за слоями абстракции. Программистам проще разрабатывать, а юзерам проще скачивать единую версию "просто для Windows", которая будет работать независимо от того, что там под капотом - с этим пусть разбирается прослойка ОС. Низкоуровневая оптимизация важна, если мы делаем ПО для маломощных систем - например, для кнопочных телефонов (а там сейчас можно встретить целый гигагерц, хоть на Луну летай). Но зачем?
ARM им нужен в первую очередь в серверных \ вычислительных чудовищах, вроде NVIDIA DGX. Простые потребители вроде геймеров и прочих ноутбуководов их сейчас интересуют мало. Последние, наверное, вообще не - учитывая, что они там в мобильном сегменте GPU вываливают по сравнению с десктопными решениями.
Это очень недальновидная политика - гнаться только за тем, что на хайпе сейчас. nVidia вкладывалась в ИИ и нейросетки когда их еще никто не воспринимал всерьез и именно благодаря этому достигла нынешних высот.
Завтра может настать зима ИИ и спрос на серверные чипы упадет, тогда будет очень кстати доля рынка в процессорах для ПК. Опять же мощные ядра с ПК можно и в серверах использовать - на данный момент ARM ядра с реально высокой одноядерной производительностью есть только у Apple и Qualcomm.
Короче говоря бы вполне ожидал от nVidia вложений в направления, которые не на хайпе сейчас, это вирмернная фишка их стратегии.
Там еще вроде была новость про то что qualcomm сворачивает проект своего windows on arm devkit'а и возвращает деньги за предзаказы.
готов поспорить что сокета не будет и чип тупо распаяют на матплате со всеми вытекающими последствиями.
на ноутах чипы распаяны уже десятилетие как.
Уверен, что понятие "матплата" из десктопа скоро уйдет как таковое. SoC + пассивная обвязка, вот и весь ПК.
Разве что на HEDT останется.
апгрейд процессора без замены мат платы уже давно не имеет смысла)
Сильно ли это будет отличаться от политики Intel по выкатыванию нового сокета каждое поколение?
x86 похоже не жилец в перспективе
Отличная новость, так как AMD и Intel не шевелятся в эту сторону, и даже на оборот.
Сам я не очень люблю Apple, но на работе получи M3 Pro и очень сильно был удивлен от того на сколько тут крутой процессор. Если на рынке появится больше таких процессоров, то мы получим производительные ПК с низким энергопотреблением.
И мой любимый Linux можно будет полноценно использовать на ноутах с ARM процессором как у Apple. Которые будут быстрые и сутки держать заряд! Мечта!
пробовал я в своё время Tegra ... так себе конкурент был.
Меня наоборот раздражает, что прогресс встал, как вкопанный, и теперь кормят не нужной лично мне на десктопе "эффективностью". Ладно еще когда производительность хотя бы не падает, но вон что у Intel вышло недавно - вообще ведь срам.
Дайте мне печь на 2000ВТ вместо процессора, но помощнее.
Секрет эпловских процов не в арм, а в огромной себестоимости. Большая площадь, дорогой техпроцесс и вот это вот всё. Набор команд влияет на это всё ну очень посредственно, это всего лишь один небольшой блок декодирования инструкций - внутри ядра ни ARM, ни x86 инструкций нет.
Да и в целом те же AMDшные процессоры недалеко ушли от эпловских, там +-10-15% в большинстве задач, при том далеко не всегда в пользу арм.
@nidaleeпочему же, берёте пару эпиков/тредрипперов, в чём проблема
почему же, берёте пару эпиков/тредрипперов, в чём проблема
Проблема в том, что они дают многоядерную производительность, а интересует одноядерная. Нафигачить много ядер в одну связку много ума не надо, это давно умеют. Проблема возникает, когда неизбежно один из потоков начинает долбить ядро на 100%, вот тут уже суши весла.
А вы уверены, что ваш софт хотя бы существующие ядра утилизирует? Как-то экспериментировал и в банальном двоичном поиске догонял десктопный Skylake на 28-нанометровом мобильном Jaguar за счет ILP. Вещи типа кеша и предсказателя ветвлений можно, конечно, улучшать бесконечно, но проц не может ускорять неускоряемое.
Интересно, как они будут конкурировать с AMD и Intel в премиальном сегменте. Если они смогут сделать мощные процессоры с хорошей графикой и обеспечить совместимость с современными играми, это может стать настоящим прорывом.
Предположу, что готовят вовсе не замену этим вашим "настольным игровым", и даже не для ноутбуков, а замену Xeon, которые идут в пару к AI-платам NVidia. Вот их хотят заменить своей разработкой, чтобы поставлять готовое решение, а не ускорители к Xeon-серверам.
DigiTimes: Nvidia выпустит свои процессоры, компания совместно с MediaTek работает над проектом ARM-чипа для ПК