Search
Write a publication
Pull to refresh

Comments 50

Почему под словом "Наладить производство" подразумевается встать в очередь к волшебной машине ASML, кнопку на которой нажимает представитель TSMC

Можете пояснить почему тут нет добавленной стоимости и ноухау? Не кажется, что Вы чрезмерно упрощаете?

Упрощаю, да:) чрезмерно ли? Думаю, нет.

Очередной раз подчёркиваю, насколько все в мире зависит и держится на ASML

Вы можете посмотреть на специализированные ASIC NVENC, NVDEC, NVJPEG, VIC, DLA и т.п., потом еще раз констатировать, что же все-таки сложнее их разработать или напечатать. А еще есть баланс железа и оптимизация для определенных типов нагрузок и бюджета мощности.

Извиняюсь за глупый вопрос, но всё таки, что такоe ASIC NVENC, NVDEC, NVJPEG, VIC, DLA? Пробовал гуглить, мне выдаёт технологии аппаратного ускорения Nvidia, но что-то мне подскпзывает, что здесь речь не об этом.

Аппаратное ускорение делается на специальных аппаратных блоках, разработанных и запрограммированных Nvidia, речь шла о том, что это не просто купить у ARM дизайн, выбрать число я дер и отнести в TSMC.

Чтобы добыть топливо, нужно один конец шланга воткнуть в землю, а другой в бензоколонку.

Всё, можно заправляться.

Если было бы все совсем уж так просто - то не стояла бы очередь на несколько вперед именно за ускорителями nVidia.

А по поводу ASML - тоже не надо их переоценивать. Переход на рентгеновскую литографию, зеркала вместо линз был сложен, и исследованиями занимались DARPA на деньги правительства США, а не они сами.

ASML, Canon и Nikon обратились за этими технологиям к правительству США, но доступ получили только ASML - по каким-то причинам Япония это "потенциальный конкурент". Вот и получили то что получили с монополией одной компании.

Кстати именно поэтому ASML и не могут продавать свои самые современные литографы в Китай - самая мякотка там придумана не ими.

по каким-то причинам Япония это "потенциальный конкурент"

Подозреваю, что в правительстве, да ещё в организациях, которые решают, кому технологии давать, в основном не молодёжь сидит. А в их молодости лет 30-50 назад в США весь рынок был забит японской техникой, а «отечественного» почти ничего не было. Точно так же, как у нас сейчас жалуются, что всё делают в Китае.

Я тоже подумал - скорее всего какие-то устаревшие нормативы при принятии решения.

Сейчас явно не Японию им надо опасаться, а в итоге переплачивают американские же фирмы.

Подозреваю, что всё немного проще.

По факту ASML, хоть и базируется в Европе, полностью ручная и фактически является дочерней компанией для большого конгломерата компаний.

Что касается Японии, то кроме того, что Canon и Nikon исторические конкуренты ASML, уже 30 лет как, есть ещё нюанс отношений США и Японии. Если не вдаваться в политику, то можно сказать, что за последние 100 лет примернл все технологические успехи Японии были связаны с США, однако это, обычно, приводило к охлаждению отношений.

Если вы не заметили, то в последние лет 10-15 Япония немного так потеряла свой технологический статус и её, на её позициях, заменила Корея.

Так что, если бы попросил самсунг, скорее всего дали бы.

Угу...

Давайте вспомним великие японские процессоры тех лет. Мы ведь не можем их не помнить, верно?

Я из тех лет читал что Zilog добавляли «обманную» топологию на свой z80 чтобы японцы хотя бы не сразу содрали и не сразу завалили рынок дешевыми аналогами.

Американские госслужащие тоже вряд ли помнят процессоры, которые были, или которых не было. Они помнят, что Япония задавила их рынок своей более дешёвой и качественной техникой. И не хотят давать им шанса сделать это снова.

Доступ получила только ASML, простая нидерландская компания:)

Такая там операция под прикрытием, уже смешно даже.

по каким-то причинам Япония это "потенциальный конкурент"

Причины были вполне логичные на момент принятия этого решения в конце 80х - начале 90х: Япония только что выдавила Intel и прочих производителей США с рынка оперативной памяти. ASML считалась нейтральной в торговых спорах США и Японии, поэтому ей было оказано предпочтение. Вся история хорошо изложена в этой книжке: Chip War: The Fight for the World's Most Critical Technology.

Если самая мякотка американская, а ASML просто рядом постояли, то почему самые современные литография и чипы не производятся американскими компаниями? Почему так сложно идёт процесс возврата компетенций в США?

Почему так сложно идёт процесс возврата компетенций в США?

Дорогая рабочая сила. По этой же причине производства, как уехали из США, так и не вернулись.

Я думаю стоит прикинуть ситуацию глазами инвестора - нужно ввалить огромное количество денег в новое предприятие, c 0 создавать коллектив, искать всех-всех - возможно даже в Китае, а потом еще каким-то образом заниматься переманиванием клиентов у ASML, у которой все уже просто работает, в отличие даже от Canon и Nikon не имея репутации на этом рынке.

И даже имея все патенты и технологии на руках до серийного выпуска устройств пройдет прилично лет, если только сейчас начинать.

При этом - нужна ли будет через 10 лет такое оборудование - неизвестно. Может быть бесмасочная литография малых тиражей будет популярна. Или какое-нибудь обстреливание кремния электронами. Или оптика.

Ну то есть если инвестиции и есть сейчас, то уже в технологии следующего поколения.

Ну, давайте начнём с простого - в очереди они уже и так стоят, только волшебная машина всё ещё не умеет проектировать архитектуру.

Плюс машина не умеет решать, будет там монолитный кристал или чиплеты.

А ещё машина не знает, какой конкретно техпроцесс нужен. Например вы знали, что под общим названием "3 нм" прячется примерно 3 разных технологии?

Погуглите по словам physical design (часто используется сокращение PD) в контексте производства чипов. Возможно вы откроете для себя много интересного относительно структуры трудозатрат в этой области.

Если бы дело было сугубо в машинах ASML, то у Samsung и Intel не было бы столько проблем с производством на своих фабах. Там инструмент это дай бог пол дела, остальное это процессы и ноу-хау, которые в комплекте с машиной не поставляются.

Если нужно просто кнопку нажимать на чудо машине, то что же ASML сама не занимается печатанием и дизайном чипов? Ну или даже какая-то другая нидерландская\европейская компания? Вместо этого европейцы пытаются привлечь Intel и TSMC открывать самые продвинутые фабы в Европе, так что отмазка про "стоимость труда" тоже мимо.

Видимо дело в том, что эти два процесса тоже невероятно сложны и на передовом уровне их могут выполнять считанные компании по всему миру, а без них машины ASML будут никому не нужны даже даром.

Наверно надо было сначала напомнить об этом событии.

Эксклюзивность Windows на Arm может скоро уйти в прошлое — генеральный директор Arm подтвердил, что соглашение Qualcomm с Microsoft истекает в этом году
Точная дата окончания соглашения об эксклюзивности неизвестна, но, по всей видимости, она закончится к началу 2025 года.
Конец эксклюзивности Qualcomm будет означать, что другие компании смогут производить процессоры Arm для ноутбуков, и если Reuters прав, эти процессоры будут поставляться AMD и Nvidia. Хотя ни одна из компаний специально не производила процессоры ArmM для ноутбуков или настольных компьютеров, AMD и Nvidia, похоже, готовы к этому. AMD заявила, что готова производить процессоры ARM, если это необходимо, в то время как у Nvidia есть опыт в Arm с ее серверными процессорами Grace.

https://www.tomshardware.com/pc-components/cpus/windows-on-arm-may-be-a-thing-of-the-past-soon-arm-ceo-confirms-qualcomms-exclusivity-agreement-with-microsoft-expires-this-year

Видимо поэтому Nvidia представляет проект именно в 2025 году.

Чтобы создать успешную платформу, Nvidia должна гарантировать, что современные игры будут совместимы с её ARM-процессором. Компания уже тесно сотрудничает с разработчиками игр.

Не "гарантировать" наверно, а "добиться от разработчиков игр, чтобы они делали версию для ARM". И желательно не только для новых игр, но и переработали старые. Работа через эмулятор вряд ли обеспечит достаточную производительность.

А я, напротив, полагаю, что будущее за слоями абстракции. Программистам проще разрабатывать, а юзерам проще скачивать единую версию "просто для Windows", которая будет работать независимо от того, что там под капотом - с этим пусть разбирается прослойка ОС. Низкоуровневая оптимизация важна, если мы делаем ПО для маломощных систем - например, для кнопочных телефонов (а там сейчас можно встретить целый гигагерц, хоть на Луну летай). Но зачем?

А потом игра на может на 4090 выдать 60 кадров в секунду в 4K которое по нынешним временам не такое уж и высокое разрешение.

ARM им нужен в первую очередь в серверных \ вычислительных чудовищах, вроде NVIDIA DGX. Простые потребители вроде геймеров и прочих ноутбуководов их сейчас интересуют мало. Последние, наверное, вообще не - учитывая, что они там в мобильном сегменте GPU вываливают по сравнению с десктопными решениями.

Это очень недальновидная политика - гнаться только за тем, что на хайпе сейчас. nVidia вкладывалась в ИИ и нейросетки когда их еще никто не воспринимал всерьез и именно благодаря этому достигла нынешних высот.

Завтра может настать зима ИИ и спрос на серверные чипы упадет, тогда будет очень кстати доля рынка в процессорах для ПК. Опять же мощные ядра с ПК можно и в серверах использовать - на данный момент ARM ядра с реально высокой одноядерной производительностью есть только у Apple и Qualcomm.

Короче говоря бы вполне ожидал от nVidia вложений в направления, которые не на хайпе сейчас, это вирмернная фишка их стратегии.

Там еще вроде была новость про то что qualcomm сворачивает проект своего windows on arm devkit'а и возвращает деньги за предзаказы.

готов поспорить что сокета не будет и чип тупо распаяют на матплате со всеми вытекающими последствиями.

на ноутах чипы распаяны уже десятилетие как.

Вот как раз в новости, похоже, всеми способами избегали этого термина, там и «ПК-платформа», и «клиентские ПК», но не «десктопы». На процах Qualcomm тоже, вроде бы, только ноуты делаются.

Уверен, что понятие "матплата" из десктопа скоро уйдет как таковое. SoC + пассивная обвязка, вот и весь ПК.

Разве что на HEDT останется.

апгрейд процессора без замены мат платы уже давно не имеет смысла)

На Интеле не имеет, а на AMD даже на AM4, 8-летней давности, появляются новые процы - например Ryzen 9 5900XT вышел этим летом.

Сильно ли это будет отличаться от политики Intel по выкатыванию нового сокета каждое поколение?

Что в принципе не так и плохо - архитектура монополизирована двумя компаниями. Надеюсь вслед за ARM будет RISC-V подтягиваться.

Надеюсь только что проблема со старым софтом и играми будет решаться эмуляторами. Иначе я буду на x86 до последнего - люблю старые игры.

Отличная новость, так как AMD и Intel не шевелятся в эту сторону, и даже на оборот.

Сам я не очень люблю Apple, но на работе получи M3 Pro и очень сильно был удивлен от того на сколько тут крутой процессор. Если на рынке появится больше таких процессоров, то мы получим производительные ПК с низким энергопотреблением.

И мой любимый Linux можно будет полноценно использовать на ноутах с ARM процессором как у Apple. Которые будут быстрые и сутки держать заряд! Мечта!

пробовал я в своё время Tegra ... так себе конкурент был.

Меня наоборот раздражает, что прогресс встал, как вкопанный, и теперь кормят не нужной лично мне на десктопе "эффективностью". Ладно еще когда производительность хотя бы не падает, но вон что у Intel вышло недавно - вообще ведь срам.

Дайте мне печь на 2000ВТ вместо процессора, но помощнее.

Там придумаем, дайте агрегат главное.

Так тут мы уже упираемся в законы физики - Intel так заигралась с отстутствием эффективности, что получила деградацию процессоров и громкий скадал.

Секрет эпловских процов не в арм, а в огромной себестоимости. Большая площадь, дорогой техпроцесс и вот это вот всё. Набор команд влияет на это всё ну очень посредственно, это всего лишь один небольшой блок декодирования инструкций - внутри ядра ни ARM, ни x86 инструкций нет.

Да и в целом те же AMDшные процессоры недалеко ушли от эпловских, там +-10-15% в большинстве задач, при том далеко не всегда в пользу арм.

@nidaleeпочему же, берёте пару эпиков/тредрипперов, в чём проблема

почему же, берёте пару эпиков/тредрипперов, в чём проблема

Проблема в том, что они дают многоядерную производительность, а интересует одноядерная. Нафигачить много ядер в одну связку много ума не надо, это давно умеют. Проблема возникает, когда неизбежно один из потоков начинает долбить ядро на 100%, вот тут уже суши весла.

А вы уверены, что ваш софт хотя бы существующие ядра утилизирует? Как-то экспериментировал и в банальном двоичном поиске догонял десктопный Skylake на 28-нанометровом мобильном Jaguar за счет ILP. Вещи типа кеша и предсказателя ветвлений можно, конечно, улучшать бесконечно, но проц не может ускорять неускоряемое.

UFO landed and left these words here

Интересно, как они будут конкурировать с AMD и Intel в премиальном сегменте. Если они смогут сделать мощные процессоры с хорошей графикой и обеспечить совместимость с современными играми, это может стать настоящим прорывом.

Предположу, что готовят вовсе не замену этим вашим "настольным игровым", и даже не для ноутбуков, а замену Xeon, которые идут в пару к AI-платам NVidia. Вот их хотят заменить своей разработкой, чтобы поставлять готовое решение, а не ускорители к Xeon-серверам.

Sign up to leave a comment.

Other news