Comments 120
Первое поколение, в котором используют иммерсионную литографию, было почти завершено.
Не верится. Это можно было бы продать или пустить в работу. Думаю, это "почти" настолько большое "почти", что денег давать никто не захотел.
А к каким конкурентам? К Самсунгу? Если у них 7нм в более готовой стадии — тогда логично. А если нет — то 7нм это круче всего, что есть на рынке (коммерчески доступного), как это может быть никому не нужным? Или я чего не догоняю просто?
А процессоры (CPU, APU) вроде никуда от GF не уходили.
Разве что SoC в частности кастомные чипы для игровых приставок уплыли.
Тогда тут совершенно не ясно где курица, а где яйцо: толи GF сворачивают работу из-за ухода крупнейшего клиента(заказчика), толи это AMD уходит к TSMC из-за того, что GF все никак не может 7 нм родить.
Они то с учетом тесных связей между компаниями(когда бывшей вообще одним целым) о проблемах/внутренних планах знали наверняка за долго до того, как это было публично озвучено.
Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…
Не верно. Текущие разработки пойдут в следующие разработки. Если конечно нет идеи все продать и уйти на пенсию. TSMC как мне кажется не справится с выпуском нужного кол-ва кристаллов для видеокарт и ЦП и кучи других заказов.
Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…
В общем случае данное утверждение неверное, и как раз таки основанное на ошибочном психологическом восприятии. В подобной ситуации надо осознать что 90 млн УЖЕ выкинуто. Их нет и они не будут компенсированы.
Но при этом так же надо осознавать, что начиная с этой точки, стоимость разработки вашего продукта равна 100-90=10 млн, т.е. меньше в 10 раз. Либо вы инвестируете 10 млн и получаете продукт, либо не инвестируете и не получаете. Уже профуканные 90 млн — это просто некий исторический факт не имеющий отношения к дальнейшим инвестициям. И вопрос на который надо ответить — в том, будет ли отдача от этих вложенных 10 млн выше инвестиций (т.е. выше этих 10 млн, а не исторических 100). Если выше — то разумеется надо эти 10 млн тратить, ибо это будет прибыльно (или, что то же самое, это сократит потери ваших 90 млн на величину прибыли от этих вложенных 10 млн). А разработать продукт за 10 млн или за 100 млн — это очень большая разница, сильно влияющая на дальнейшую ценовую политику по этому продукту, и соответственно на объемы продаж и маржу. Если проинвестировав 10 млн (и таки доделав продукт) вы с них потом заработаете скажем 30 млн, то тем самым полные потери проекта будут сокращены с 90 до 70 млн, что очень даже хорошо.
Имеет ли смысл завершать разработку?
Правильный ответ: в условии задачи недостаточно данных для принятия решения. Следующий вопрос — сможет ли конкурент удовлетворить весь спрос и полностью охватить рынок, пока не выйдет наш продукт? Чаще всего на этот вопрос отвечают «нет». Далее, можно ли внести в разработку изменения, несколько увеличить срок и удорожить её, но на выходе получить иной продукт, который будет несколько выше классом, чем у конкурентов, и который можно будет продать с «люксовой» наценкой? И так далее. Стратегий масса, и «похоронить проект и зафиксировать убытки» — это самая крайняя из них.
По оценкам аналитиков стоимость разработки 7-нм технологии составляет примерно 270 млн долларов
Примерно как один голливудский фильм.
Придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова вспоминать FORTRAN, COBOL, BLISS, С и ассемблер :)
Точно так же как обычный разработчик С++ напишет на ассемблере то, что работает так же по скорости как и C++, без премудростей ускорения.
В теории звучит красиво, на деле — тормоза.
История не о том, что на С++ нельзя написать супербыстрый код, а о том, что при сравнительных трудозатратах получается абсолютно сравнимый и приемлимый вариант. А учитывая кол-во выстрелов в ногу в С++ и управления памятью, трудозатраты на С++ всегда больше.
В любом случае на практике native работает быстрее, что видно на примере тех же мобильных платформ.
Кстати я C++ не упоминал:)
Примерно как один голливудский фильм.
Это да даже как-то маловато по деньгам.
Тогда у Apple легко хватит денег на 7 и на 5 нм.
Если брать WiKi то шаг кристаллической решетки кремния а = 0,54307 нм.
Как думаете какой ТП станет коммерчески не выгодным 5 нм?
Судя по новостям 7 нм уже на самой грани.
придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова
И еще пару раз под виртуальными машинами ) плюсам контенеры всякие )
Хотя будут как АДМ клепать мелкие кристаллы по 7 нм. И лепить их в нужном количестве.
Вроде АМД говорили что будем кристалл из двух 6 ядерных блоков.
12 ядер. ) *4 = 48 на проце.
In total, the average IC design cost for a 16nm/14nm chip is about $80 million, compared to $30 million for a 28nm planar device, according to Gartner. In comparison, it will cost $271 million to design a 7nm chip, according to the firm.
Стоимость смены самой технологии производства (разработка соответствующих процессов и необходимого для их проведения оборудования) еще несколько поколений назад была на порядок больше (~ несколько миллиардов долларов), и примерно на 2 порядка больше проектирования конкретного чипа по тем технологиям.
Данных по 5-7 нм. тех процессам не видел, но судя по тренду роста затрат речь идет о вложениях от 10 миллиардов долларов и выше.
уменьшать разрешающую способность все равно придетсяПовышать? Чем ниже разрешение, тем «толще» линия.
Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).
«Долгое время эта тенденция (на уменьшение техпроцессов) оставалась справедливой» — это закон (эмпирическое правило) оставался справедливым.
Иммерсионная фотолитография: от англ. immerse — погружать в жидкость. Вместо линз и воздуха используются линзы и жидкость.
Не «более глубокие УФ-диапазоны», а глубокий ультрафиолет, переходящий в мягкий рентген.
Не «уменьшение размеров кристалла плохо сказывается на его охлаждении», а рост плотности теплового потока плохо сказывается на возможность его охладить (переносимая энергия в единицу времени на единицу площади).
Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».
Не «менее 5-нм», а «менее 5 нм» — без тире.
«в TSMC — тоже занимающейся производством полупроводников» — ага, один из основных мировых производителей полупроводниковой продукции оказывается тоже ими занимается.
«Как мы уже говорили, дороговизна перехода — одна из причин, почему GlobalFoundries свернули свои проекты. И по мнению Gartner, она является основной» — нет, не это. Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США. Китай ещё не полностью замених их в этом вопросе. В США политики предпочитают покупать голоса избирателей льготами, а производством руководят «эффективные менеджеры», которые порезали расходы на НИОКР ради собственной годовой премии.
Пока что в ближайшем будущем переходят на 7 нм только TSMC и Samsung.
Фотолитография в глубоком ультрафиолете
Электронная литография
Ионно-лучевая литография
Рентгеновская литография
Желающие могут перевести такие статьи, как приведённые ниже — пользы будет больше, чем от имеющейся:
Extreme ultraviolet lithography
Multiple patterning
Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).
ИМХО, правильнее будет «рисунок топологии электронной схемы будущего чипа формируется на поверхности кристалла с помощью света и светочувствительных химических веществ».
Про травление уже говорил ниже. В остальном всё по делу.
Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США.
С чего бы? GF прямо сказали что им арабы отказались оплачивать банкет.
К тому же уже сделаны тест чипы на 3нм у IMEC. Видимо научные разработки СССР им были совсем не нужны.
Травление — кислотой (или щёлочью).
Справедливости ради, не всегда — Dry_etching
Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».
Проблема комплексная. В низком проценте выхода годных кристаллов может быть виноват и сканер, который делает маску, и оборудование, которое осуществляет etching/deposition.
Когда говорят, это виновата EUV литография, обычно имеют ввиду, что сканер не mass-production ready. Другими словами он делает нормально, но медленно. Первый EUV сканер ASML поставила в Intel аж в апреле 2017. Большой шаг, кстати. С тех пор Intel и ASML тестируют и допиливают.
Главная надежда на EUV еще и потому, что старые ухищрения вроде OPC и Multiple_patterning для повышения точности печати маски постепенно перестают работать ниже 10nm. Для EUV они (почти) не нужны из-за того, используется лазер с длиной волны 13.5nm вместо 193nm, как в предыдущих. Именно поэтому, должна уменьшиться стоимость разработки нового чипа.
Одна из основных проблем с EUV — низкая энергия лазера долетающая до фотомаски, приходится держать «долгую выдержку», а попытки повышения мощности вызывают такой каскад инжереных проблем, что несколько книг можно написать.
TSMC — тоже занимающейся производством полупроводников
Тоже повеселило… Это как сказать, что GM тоже производит автомобили.
Справедливости ради, не всегда — Dry_etching
Справедливости ради, классическое проявление как раз и производится щелочными растворами разными. Dry etching — это процессы травления слоёв структур будущих чипов по маске, сформированной процессами фотолитографии. У вас же по ссылке именно это и описано:
Dry etching is used in conjunction with photolithographic techniques
Если энергия лазера низкая, какие препятствия стоят перед использованием для тех же целей нескольких лазеров?
Насколько помню, именно так возможно вытравливать элементы размером меньше, чем ширина лазерного пучка — берём батарею лазеров низкой энергии, фокусируем в точку, в точке получаем достаточную энергию излучения для вытравливания. В некоторых материалах, к тому же, получаем малые потери энергии луча при прохождении среды (то есть, можно травить внутри объёма).
Нет возможности хорошо фокусировать несколько лазеров в нужной точке?
Думаю, что идея использовать много лазеров вместо одного рассматривалась и хотя я не специалист в железной части, но насколько знаю, сами лазеры и дорогие, и сложные и большие. Их сейчас делает только ASML.
Там в качестве активного тела испольуется плазма олова. Микрокапли олова летят в специальной камере, испаряются и ионизируются с помощью первого лазерного импульса и с помощью второго накачиваются энергией и потом переизлучают желанные 13,5nm. Я даже не представляю сколько такой источник стоит долларов и сколько потребляет энергии.
По поводу фокусировки, там не совсем в точке надо фокусировать, там есть 'окно', которое надо освещать как можно более равномерно. Фокусировать много лазеров на общую плоскость так, чтобы освещенность была равномерной это вообще не просто.
Ко всему прочему, для света 13.5 нет прозрачных материалов, поэтому там все построено на отражении… Что дополнительно съедает энергию.
Под самой методикой я имел в виду модификацию двухфотонной литографии, и спрашивал исключительно в контексте аргумента к энергии луча, как основной проблемы EUV.
Если правильно понимаю из ответа, то главная проблема — стоимость, и, может быть, энергоёмкость.
Мне кажется, по закону Мерфи, 10-нм чипы выйдут ровно через месяц после того как я устану ждать и соберу новую систему на будущем 14-нм i9-9900 :(
Перейти с 14 на 7нм это примерно тоже самое, как перейти со 100 до 50нм. Разница в 2 раза. В прошлом на это потребовалось около 10 лет. А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся. И тогда начали искать замену кремнию. Помню графену пророчили высокое будущее. Жаль, что все заглохло.
Не заглохло, но исследования пока на уровне производства отдельных транзисторов и простых микросхем даже в РФ (из того, что я слышал лично), как дела вообще обстоят: не знаю, но что-то ещё делается. Интерес упал скорее из-за того, что преодолели очередной непреодолимый рубеж техпроцесса.
А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся.Так и не удается) Если строго подойти к старому определению проектных норм, а не к маркетинговому буллшиту про 10-7-5 нм, то проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.
проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм? Я предположу что раньше это было отношение длины на кол-во транзисторов, а сейчас, возможно, поперечный размер проводника между транзисторами.
Хотя 2 нм, наверное даже для проводника слишком тонко. Неужели маркетологи сейчас вообще ни на что физическое не опираются?
А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм?Случайно знаю. Раньше «проектнми нормами» называли минимально возможный топологический размер, который обычно совпадал с минимальной длиной канала транзистора. Потом уменьшать длину канала стано невозможно по физическим причинам (электроны начали пролетать из истока в сток насквозь, без взаимодействия с каналом), а красивые цифры инвесторам показывать все равно приходилось. Плюс в какой-то момент начали появляться FinFET, в которых длина канала не прямо зависит от литографии.
В итоге никакого физического смысла в цифре названия техпроцесса нет уже несколько лет как, это просто условная система нумерации поколений. По факту например, у Самсунга в 7 нм и 5 нм сами транзисторы будут одинаковые, а все изменения коснутся других частей технологии.
По поводу того, какие уловки используют для преодоления барьера при уменьшении проектных норм, немного написано в статье amartology. Но я бы также с удовольствием послушал его более развёрнутый комментарий на эту тему :)
P.S.: Эх, опередили меня.
Сейчас это вроде размер затвора транзистора, если не путаю.
Учитывая успехи в посттоении экспериментальных мономолекулярных элементов (вроде про работающий диод что-то было), при такой оценке можно говорить в теории и о 2 нм техпроцессе, особенно если рассматривать не ширину, а толщину затвора.
если рассматривать не ширину, а толщину затвора.
Делать затвор тоньше перестали еще на 45 нм, когда туннельный эффект через SiO2 начал приводить к тому, что транзисторы из MOSFET стали превращаться в JFET. Тогда в ход в затворах вместо SiO2 пошли соединения гафния (high-K диэлектрики), из которых затвор можно сделать толще, предотвратив туннелирование.
Но вообще с точки зрения маркетинга идея богатая, можно 180 нм переименовать в 10 нм)
В реальности 100 нм ==> 50 нм перехода правда не было, но например очень близкие реальные 130 нм ==> 90нм ==> 65 нм гораздо быстрее проскочили, чем за 10 лет:
130нм освоили в 2001м году, а в 2004м уже были первые чипы на 65нм. Или если по выходу серийной массовой продукции — то 2002 и 2006 годы соответственно. Т.е. всего 4 года.
Ну или 90 нм ==> 45 нм, примерно те же 4-5 лет на переход, а не 10+.
И это были те же самые уменьшения ровно в 2 раза (или в 4 раза если по площади элемента). Причем в отличии от текущих маркетинговых попугаев это было реальное уменьшение размеров практически всех элементов в 2(4) раза!
а в 2008 стояла карта 8800gtx с 90нм чипом
Ну то просто карта такая. Процессоры-то в 2008-м Интел уже по 45 нм выпускала.
Ну а карта просто по несколько устаревшему (на тот момент) процессу. У того же Intel еще аж 2006 году уже вышли серия процессоров Core 2 изначально производившихся по на 65нм технологии.
Т.е. в рамках одной компании(Intel) и одной продукции (CPU)
1997 — выход P2 на 250нм
2006 — выход Core 2 на 65 нм
Тут почти 4 кратное уменьшение норм меньше чем за 10 лет.
работу систем ИИ, МО, 5G-сетей и IoTЧто такое МО?
Полагаю, потому что можно засунуть больше исполнительных блоков в тот же физический размер.
Если бы сигнал ходил быстрее — повышали бы частоту, а с этим есть проблемы.
а быстродействие отдельных элементов может стать даже хуже из-за того, что растет влияние паразитных емкостей, сопротивлений и индуктивностей соединений. Если раньше транзистор для переключения заряжал затвор следующего транзистора и немного паразитных емкостей, то сейчас он заряжает длинную линию связи со следующим элементом и, на сдачу, сам следующий элемент.
Однако Дэвид Хемкер (David Hemker), старший VP в компании Lam Research, производящей полупроводники
Lam Research — компания, которая занимается изготовлением оборудования для производства полупроводников.
Тема микроэлектроники сама по себе сложна для восприятия обычному обывателю, а с таким подходом к публикации статей и подавно. Не надо так.
Поэтому в будущем мы определённо увидим применение этим технологиям, только этот момент может наступить немного позднее, чем предполагалось изначально.
Вынесет всё — и широкую, ясную
Грудью дорогу проложит себе.
Жаль только — жить в эту пору прекрасную
Уж не придется — ни мне, ни тебе.
Н.А. Некрасов
Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)
Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)А я потому и упомянул частоты 50-100-200МГц, с ULP техпроцессом скорее всего получится <15Вт на кубик. ЕМНИП техпроцессы с минимальной утечкой до сих пор 130-65 нм… хотя они и в работе не особо жрут тоже.
если для решения вычислительной задачи вам нужно сделать Х переключений, то нет разницы, на скольких чипах и с какой частотой вы их сделаете.Маленький прикол — эффективность процессоров падает с ростом частоты (так как ради повышенной частоты повышают напряжение, а от него потери зависят квадратично)
Если бы сейчас могли упихать миллион-другой ядер в кристалл — пихали бы, особенно в специальные устройства. Видеокарты тоже уперлись в кристалл, поэтому если раньше он топтались в догигагерцовом диапазоне, то сейчас начали из него выходить — не могут наращивать ядра, так приходится наращивать частоты.
Именно поэтому мощные процессоры для серверов или суперкомпьютеров делают много-многоядерными, но относительно низкочастотными. И одна из причин превосходства GPU над CPU по эффективности вычислений. А любители практикуют downclock+undervolt вместо разгона чипов для долгоиграющих задач, когда вычисления идут 24х7.
Естественно все на классах задач который эффективно могут разбиваться на нужное кол-во выч. потоков. Если задачу невозможно разложить подобным образом, то особых альтернатив высокой частоте и разным «хакам» типа сильно спекулятивного исполнения нет.
В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.
В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.И иногда при некоторых условиях достигают)
Практически все, что реально можно использовать в прикладных задачах, уже реализовано, инженеры гигантов рынка не просто так свой хлеб едят. В том числе переход с длинных конвейеров и больших частот в Pentium 4 на разумно низкие частоты и многоядерность в Core.
Скорее гиганты рынка наоборот склонны допиливать однажды удавшуюся технологию, а вот реальных инноваций они не любят из-за высокого технологического риска.
Например недавний лидер (1 место в мире в 2016-2018 годов) среди самых мощных суперкопьютеров использовал процессоры работающие на частоте всего 1.45 ГГц: www.nextplatform.com/2016/06/20/look-inside-chinas-chart-topping-new-supercomputer
В общем так уже сейчас разменивают меньшее потребление энергии на ед. выполненных расчетов в обмен на удорожание и усложнение чипа. Или в эконом. терминах — снижают эксплуатационные расходы(на энергию и охлаждение в основном) за счет увеличения капитальных.
При длительных высоких нагрузках это окупается.
В научной части это тоже не голая теория, если планы не порушатся, то некоторые из следующих рекордных суперкомпьютеров будут работать на основе процессоров с рабочими частотами даже ниже 1 ГГц, но при этом обладать рекордным количествами выч. ядер и демонстрировать новые рекорды по энергоэффективности.
Возвращаясь к исходному вопросу — про «настоящие 3D процессоры» — такие были бы востребованы даже при работе на очень низких частотах и напряжениях (и как следствие с небольшим удельном тепловыделении, позволяющим снять большую часть проблем с охлаждением в объеме).
Не в потребительском ширпотребе конечно, но для серьезных задач.
Если будет необходимо, расположить максимальное количество ядер, максимально близко к друг другу. Вполне возможно так и сделают.
С точки зрения ценовой политики японское устройство оказывается более дорогим: $1999 за B2 против $837 Antminer S9 с 16-нм чипами. При энергопотреблении 1950 Вт производительность B2 составляет 24TH/s, в то время как у Antminer S9 этот же показатель составляет 14TH/s, при его энергопотреблении 1200 Вт.
По сравнению с B2 на 7 нм, устройство с 16-нм техпроцессом стоит в 2,39 раз дешевле, уступает в производительности в 1,71 раз, при этом кушает в 1,6 раза меньше электроэнергии. 7 нанометровая овчинка выходит слишком дорогой и выделки при текущих рыночных ценах на биткоин не стоит.
Хотя как некий технологический прорыв безусловно интересно
Возьмут нынешнее 8-е поколение Coffee Lake — сменят жвачку на припой — и вуаля. -20 по цельсию при тех же частотах и напряжении — новое поколение!
(гугли скальпирование процессоров если не понял что я такое несу)
Ну и, разумеется, для проформы добавят какую-нибудь marketing-инструкцию по типу MMX-2020, чтобы не сильно бугуртили.
А именно-матрица.
Матрица это тип мультипараллельных вычислительных систем где данные передаются от процессора к процессору так же как внутри процессора между более простыми компонентами программы нежели процессы причем у каждого своя шина памяти, минуя память все буферизации кроме аппаратного планировщика. Фактически только язык Occam умел с ними работать. При таком подходе и хорошо составленном программном обеспечении, увеличение количества процессоров ведет к пропорциональному увеличению быстродействия.
Хотя разработка ПО отпугнула многих.
Но зато получается что если сделать процессор с минимальной производительностью и минимальной ценой, то поставив больше процессоров можно получить большею производительность.
Но интересно было то что попытавшись разработать самый простой и процессор с налучшим показателем цена/производительность он почему-то получился в несколько раз быстрее тогдашнего i386 при меньшей цене.
(Увы фирма InMOS разработчик таких процссоров разорилась несмотря на 200 миллиардов фунтов правительственных денег по ценам второй половины 1980-х годов.)
Но попытки воссоздать матрицу производились и позже, причем попытались не устанавливать многоядерные процессоры с предсказанием ветвлений и крайне сложными суперскалярными схемами. А простыми схемами, просто много работающих параллельно.
При попадании производственного дефекта на один из процессоров, его можно просто игнорировать не загружая в них ПО. А если на кристалле микросхемы несколько сотен процессов, то даже десяток негодных и схема может быть вполне пригодной для эксплуатации.
Мало того простота электрической схемы и логической модели процессоров позволяет их довольно легко отлаживать к тому же разгонять на очень большую частоту, особенно при низких температурах.
Такой подход применяла некоторая организация с начальством которой я недавно рассорился.
Карвер Мид (один из тех, о ком почему-то не пишут на хабре)А почему о Карвере Миде должны писать на хабре? Хабр — это ЖЗЛ? И кто те другие ученые, о которых пишут на хабре?
А с какой целью написали сообщение Вы?
Здесь можно посмотреть его послужной список: www.carvermead.caltech.edu/research.html
Обратите также внимание на эту статью 77 года: ai.eecs.umich.edu/people/conway/VLSI/BackgroundContext/Sciam/SM.SciAm77.pdf
На мой взгляд многие ее положения актуальны до сих пор.
200 миллиардов фунтов правительственных денег по ценам второй половины 1980-х годов
Прям таки миллиардов? За эти деньги можно было всю кремниевую долину купить в 80х.
Но попытки воссоздать матрицу производились и позже, причем попытались не устанавливать многоядерные процессоры с предсказанием ветвлений и крайне сложными суперскалярными схемами. А простыми схемами, просто много работающих параллельно.
Слышали про GPU? ;-)
При попадании производственного дефекта на один из процессоров, его можно просто игнорировать не загружая в них ПО.
Все современные процессоры примерно так и устроены) Запасные строки и столбцы кэш-памяти, отключенные дефектные ядра в младших моделях, GPU из сотен или тысяч простых спецвычислителей.
Еще раз, пожалуйста сформулируйте, в чем в итоге новизна и неортодоксальность описанного вами подхода?
неужели до Ван-дер-Ваальса дойдут?
Сначала формируют маску:
- нанесение фоторезиста — наносим на подложку (пластину) светочувствительный материал;
- экспонирование — засвечиваем через маску (фотошаблон) необходимые элементы топологии кристалла на фоторезисте;
- проявление — удаляем незаэкспонированные участки фоторезиста с использованием проявителя — вещества, которое смоет незавсеченные участки фоторезиста;
- дубление — «запекаем», «подсушиваем» фоторезист, чтобы он стал более твердым и выдержал последующие обработки по маршруту изготовления кристаллов.
Здесь я не указал некоторых нюансов аля предварительной обработки подложки перед нанесением фоторезиста, всякие поддубливания и т.д. для того, чтобы было более понятно и не перегружено. Пункты выше — типовой процесс формирования маски фоторезиста на поверхности подложки.
В дальнейшем подложка со сформированной фоторезистивной маской подвергается другим обработкам:
- химическое (жидкостное) травление — как уже понятно из названия, травление каких-либо участков поверхности подложки, не закрытых фоторезистивной маской различными кислотами;
- сухое травление — травление различных пленок в разнообразных ионизированных газах и их смесях (проще — в плазме. Dry etching, RIE (Reactive-ion etching)). Опять таки, процесс травления осуществляется только на участках, не закрытых фоторезистом;
- ионное легирование (ионная имплантация) — введение в поверхностный слой подложки различных примесей для формирования областей с различной проводимостью (n, p и их вариации). И снова, примесь при легировании попадает только на свободные от фоторезиста участки подложки (на других участках примесь просто не «прострелит» фоторезист).
Три данных пункта — вариации формирования различных элементов топологии схемы кристалла ПО МАСКЕ(!) фоторезиста. После выполнения данных операций фоторезист удаляют, производят хим. обработку подложек (мойка, сушка и т.д.) и дальше по кругу (цепляя на этом круге и другие операции), до победного конца — готового кристалла.
Надеюсь, у меня получилось более-менее просто и понятно, вкратце, объяснить процесс переноса рисунка с маски (фотошаблона) на подложку (пластину) и получение нужных элементов схемы кристалла. А то прочтя статью можно подумать, что в производстве микросхем задействована одна только фотолитография. Стоп, там же именно так и написано!
Новые техпроцессы для производства микросхем все чаще откладывают — почему?