Обновить

Конец эпохи кремния? Китай запускает производство чипов на дисульфиде молибдена

Время на прочтение5 мин
Охват и читатели162K
Всего голосов 104: ↑93 и ↓11+104
Комментарии182

Комментарии 182

Коротко: серийный узкоспециализированный процессор состоит из 5931 транзистора и функционирует на частоте в килогерцы.

фигня тогда получается. Проц от Денди имеет сопоставимое число транзисторов и частоту 1-2Мгц

Ну так проц от денди на момент его выхода был уже стабильной отработаной технологией, а тут только первые эксперименты.

Вот каогда запустят Doom, тогда и поговорим.

Поскольку все транзисторы получились n-типа

Это основная проблема - без p канальных транзисторов получится либо горячо и энергонеэффективно, либо частота будет околонулевая. RV32 вовсе не узкоспециализированная архитектура, с частотой хотя бы пару МГц + минимальная периферия получится обычный микроконтроллер, пригодный для многих задач. Конкретно в статье proof of concept

Так они battlefield сделали?! Круто!

Коротко - Это процессоры толщиной в 3 атома.

Никто не знает, килогерцы там или все-таки можно сделать какой-нибудь E-102 (ХАХАХА), и работать на оптических частотах (40 Тгц).

Просто обкатывают технологию

https://www.nature.com/articles/s41586-025-08759-9

(Да очнитесь уже, Вы програете(Цивилизацией) 100 nm LED - это уже 20 КветтаФлопс на домашнем ПК (100-200 Вт)).

А ваши нейроны (9 млрд людей, 1 трлн нейронов, 1 кгц - только Zeta-IotaFlops)

https://coub.com/view/1euk1c)

P.S.

Там еще самосборка в КНР, по крайней мере солченых батарей.

Вроде нейроны помедленней, на 1 кГц не работают, после срабатывания время релаксации 5 мс, что очень долго на фоне логических элементов, 6 порядков разница.

Коротко - Это процессоры толщиной в 3 атома.

Не процессоры, а только затворы.

серийный узкоспециализированный процессор состоит из 5931 транзистора и функционирует на частоте в килогерцы

Это опытный образец представленный еще в апреле 2025. Что будет производится летом 2026 пока не известно.

В древнем 8080 приблизительно столько же транзисторов. Но он даже не 32 разрядный

Но 8080 на самом деле древний. Некоторые вещи, считающиеся само собой разумеющимися сегодня, тогда или еще не изоборели, или в них не было необходимости. Необходимости в 32 разрядах точно не было ни малейшей.

В то время уже были процы 32 и 36 бит. Размером с гардероб.

задолго до 8080 были процессоры на 48, 96 и даже на сто-с-чем-то (не помню точно) разрядов -- ну, тогда, когда ЭВМ занимала целый зал и требовала сорок человек обслуги. Отчасти потому ЭВМ и были огромными -- когда слово увеличивается НА сколько-то байт, АЛУ увеличивается В сколько-то раз.

Это классическая иллюстрация спиральности развития -- до микропроцессоров увеличение скорости вычислений проще достигалось увеличением разрядности, потом оказалось, что выгоднее иметь немного разрядов, но в быстром проце, и считать длинные числа программно, а потом снова начали наращивать разрядность. Возможно, следующим шагом снова станут процы с коротким словом, но на каких-то новых принципах, принципиально более быстрые, чем современные микропроцессоры.

Уменьшение разрядности никогда не делалось для увеличения скорости вычислений. Просто малоразрядный процессор дешевле, и на определённом этапе разница в цене была очень большой.

Сравните поколения gpu rtx 30xx 40xx 50xx. Каждое новое поколение бьёт рекорды скорости вычислений в меньшем числе разрядов fp16 fp8 fp4

А смысл? На момент выхода 30хх нейросетки ещё толком никто не запускал и тензорные ядра нужны были для DLSS, а там хватало и того, что было. А уже на момент выхода RTX 40xx нейросеточки (в том числе и под DLSS) стояли рядышком и ждали своего часа.
На момент 50хх это всё уже было нормой

Я про "Уменьшение разрядности никогда не делалось для увеличения скорости вычислений"... от разрядности напрямую зависит скорость вычислений, если упираемся именно в скорость математики, а не в скорость доступа к памяти...

понятно что gpu эти 32битные, но поддержку меньшей разрядности там добавили для скорости

понятно что gpu эти 32битные, но поддержку меньшей разрядности там добавили для скорости

Не только в скорости дело, банально можно впихнуть большее число параметров в тот же объём памяти, пусть даже ценой потери "точности"

это да, но первичнее скорость. т.к. fp4 модели я могу и на своей 3090 считать. они просто загружаются в 16битные регистры и также считаются. но из-за этого 3090 в разы медленнее следующих xx90...

CUDA выпущена 20 лет назад не для нейросеток, смысл был и до них.

Да. Я и сказал "выгоднее". За цену многоразрядного мейнфрейма можно было купить огромную кучу 8080, и, распараллелив вычисления, получить бОльшую скорость вычислений за меньшую цену.

Вряд ли. Не все алгоритмы можно распараллелить. Предки не зря не додумались строить суаеркомпьютеры на 8080.

суперкомпы -- это другое. Ими занимались мало кто, и у всех этих, которых мало, присутствовало когнитивное искажение, известное как "Invented not here" -- типа, "что придумали не мы, то нас не устраивает" -- поэтому они даже не рассматривали "восьмибитные игрушки" как что-то, достойное иметь место в "больших машинах".

А провал концепции "одна мощная машина -- группа терминалов" помните? Разработчикам этого бреда казалось, что иметь одно мощное линейное АЛУ и делить его время между множеством пользователей -- выгодно. А потом появились 8- и 16-битные ПК, и оказалось, что выгоднее поставить пользователю персональный компьютер за тысячу долларов, чем выделить ему терминал и 1/100 ресурсов фрейма, который стоит несколько миллионов.

В реале почти всё можно распараллелить, даже банальную арифметику многоразрядных чисел выгоднее считать на нескольких малоразрядных процессорах параллельно, чем на одном последовательно.
Ну и плюсом к тому -- задач, которые распараллелить всё-таки принципиально нельзя, крайне мало по сравнению с общим количеством задач, решаемых компьютерами. Именно поэтому сейчас все настольные ПК -- с многоядерными процессорами.

В реале почти всё можно распараллелить

Амдал доказал обратное

Амдал доказал обратное

Нет. Он вообще ничего не доказывал, он просто указал на очевидное: если в задаче есть участки, которые невозможно распараллелить, задача в целом никак не может быть решена за время меньшее, чем длительность самого долгого из этих участков.

Допустим, мне надо покрасить несколько помещений. Я могу распараллелить работу, позвав больше маляров -- но хоть сколько их зови, краска сохнет сутки и это нельзя изменить, так что даже если маляров будет столько, что каждый сделает свою часть работы за пару минут -- всё равно потом сутки будем ждать высыхания краски )))

Однако, в реальной работе такие ситуации -- редкость.
Где-то 99,9% долгих вычислений -- цикличные. Метод Монте-Карло, например. Там одни и те же вычисления повторяются много раз (очень много -- намного больше, чем разумно иметь процессоров/ядер) с разными начальными аргументами -- так что даже если само единичное вычисление распараллелить невозможно, можно раскидать по процессорам подзадачи единичных вычислений, и получить выигрыш в производительности, почти точно (за вычетом накладных расходов) кратный числу ядер/процессоров. Ну, если вычисления не упрутся в дефицит пропускной способности памяти или накопителей -- тогда да, выигрыш будет меньше, и это будет означать, что наша ЭВМ плохо подходит к этой задаче.

даже если маляров будет столько, что каждый сделает свою часть работы за пару минут -- всё равно потом сутки будем ждать высыхания краски

Суть идеального распараллеливания я вижу в том что удвоив количество исполнителей вдвое уменьшается время выполнения. Данная задача плохо параплелится, т.к. невозможно распараллелить высыхание краски увеличивая количество маляров, да и маляров бесконечно невозможно добавлять, в какой-то момент их станет столько что они начнут мешать друг-другу красить.

Эта задача хорошо параллелится, если "несколько помещений" -- не офис или квартира, а школа, больничка или фабрика. Один маляр типовую школу на тысячу учеников будет целый год красить, двое -- полгода, рота стройбата справится за пару дней, а полк -- за пару часов ) Дальше двух полков наращивать число маляров -- да, нет смысла, начнут друг другу мешать.
Вообще, удачный пример получился, все нюансы показывает -- и рост накладных расходов, как физических (каждому маляру надо выдать как минимум кисть/валик), так и вычислительных (чем больше маляров, тем больше прорабу возни с тем, чтоб раздать им участки работ), и рост коллизий (когда маляров становится слишком много, они начинают мешать друг другу, образуя очереди в проходах, у ёмкостей с краской и т.д.), и то, как нераспараллеливаемая задача (высыхание краски) из ерунды (пока у нас был один маляр, сутки на высыхание краски вообще ничего не значили, по сравнению с общим сроком работ) становится критическим тормозом, на который уходит бОльшая часть времени.

ИМХО вы подменой понятий занимаетесь, разбили задачу на подзадачи, те что не параллелятся проигнорировали и сделали вывод что большая часть параллелится. Это игра словами.

Возьмите базовые алгоритмы, которые лежат в основе любого ПО, ни один из них особо не параллелится, а уж их сочетания тем более. Максимум что из них выжимаем так это снижение сложности О(). Есть очень ограниченный набор задач которые можно разбить на независимые блоки и каждый обрабатывать независимо от остальных, вот они параллелятся, а остальное не особо. К сожалению 99% это остальное.

В большинстве компов есть видеокарты, в каждой тысячи вычислительных ядер и памяти прилично, если все параллелится так почему их не нагружают всем подряд, а грузят проц с 4-8 ядрами? Потому что одному приложению нечем загрузить даже 4, в лучшем случае пару на расчеты и одно на рисование окошек.

Возьмите базовые алгоритмы, которые лежат в основе любого ПО

Зачем нам любое ПО? У вас часто MSPaint тормозит, или Notepad? У меня -- примерно никогда.
Возьмите любое ПО, которое действительно требовательно к ресурсам -- и вы увидите, что его работа отлично параллелится. ВинРАР, например, может равномерно нагружать 16 ядер как минимум (больше я просто не видел, но, наверное, и больше может)

Есть очень ограниченный набор задач которые можно разбить на независимые блоки и каждый обрабатывать независимо от остальных, вот они параллелятся, а остальное не особо.

Я понял. Судя по упоминанию О(), вам это рассказали в институте, но диалектике вас там не научили, поэтому знания у вас есть, а пользоваться вы ими не умеете, уж извините.

Так вот: Любые практические "линейные" задачи, типа "у маши было пять яблок", или численного решения задачи трёх тел для N перегибов, или вычисления корня по основанию 7 из числа 31415926, для современного компьютера, в общем-то, ничтожны. Будет посчитано число яблок за девяносто микросекунд или за сто -- без разницы, у пользователя время реакции на три порядка больше.
Все реальные задачи, которые сколько-то заметно нагружают комп -- это задачи обработки больших массивов данных, а такие задачи, в общем-то, отлично параллелятся, если есть на что их распараллелить, и если скорость не упирается в память или диск.

если все параллелится так почему их не нагружают всем подряд, а грузят проц с 4-8 ядрами?

Почему это "не нагружают"? Фотошоп давно уже умеет использовать GPU для вычислений, современные браузеры заметную часть своих задач по возможности сваливают на GPU. Винрар на ГПУ затащить? Смысла нет, там узкое место -- память, трансфер данных всю прибыль съест. (хотя вроде бы есть алгоритмы сжатия, заточенные под работу на ГПУ, но это не точно, я так, что-то слышал краем уха.)

Даже если принять вашу логику ремонта, то сколько ремонтов школ и т.п. крупных зданий, и ремонтов комнат/квартир, те же 99% вторых случаев.

А провал концепции "одна мощная машина -- группа терминалов" помните? Разработчикам этого бреда казалось

...что "UNIX is a general-purpose, interactive time-sharing operating system".

Это не бред и мы к этому вернулись: CI/CD, облака, нелокальные нейронки.

Да, в 80-х толщину клиентов оказалось выгодно сильно нарастить, когда появилось нужное, но оно не сразу появилось. Нужен Seagate с его ST506 (иначе будет хоть и не совсем стиральная машина, но всё-таки ящик для шкафа за $8000 весом 50 кг, для разработки юниксов в 70-е) и многое другое.

Да я о другом. Даже в восьмидесятых ещё многие думали, что будущее за огромными мейнфреймами и "тонкими клиентами", т.е. терминалами удалённого доступа, а сейчас эта мерзость сохранилась практически только как использование 1С через "удалённый рабочий стол" -- что свидетельствует лишь о нехватке квалификации у кодеров 1С, не осиливших нормальную реализацию работы по сети, а не о каких-то преимуществах терминальной архитектуры.

Про Юникс -- да. Идея одновременной работы множества пользователей на одной машине благополучно издохла, но успела породить идею одновременной работы на одной машине многих программ, что широчайше используется и сейчас.

Это не бред и мы к этому вернулись:

Не вернулись. Так, отдельные пережитки устаревшей концепции для неответственных задач применяем ещё пока, а как доходит до серьёзного -- переходим на нормальное локальное решение.

Нужен Seagate с его ST506

Простому пользователю из 80го года такой гигантский накопитель, аж на пять миллионов байтов, совершенно не обязателен был. Тогда программки-то были размером в десятки килобайт максимум, весь офисный пакет на простую дискету помещался.

будущее за огромными мейнфреймами и "тонкими клиентами"

В 1984 уже был макинтош с окошечками и первые ноутбуки, так что цепляться за буквальное понимание (за максимально тонкие клиенты) странно, а в этом:

Разработчикам этого бреда казалось, что иметь одно мощное линейное АЛУ и делить его время между множеством пользователей -- выгодно.

...они совершенно правы применительно к LLM, требующей терабайт HBM-памяти или около того (коммерческая тайна... ах да, и коммерческая тайна - утечёт же, если её на юзерском железе крутить).

Современный фотошоп тоже не даст крутить нейронки локально: "in order to use generative AI in Photoshop at this time, you need to be connected to the internet" - helpx.adobe.com.

Простому пользователю из 80го года такой гигантский накопитель

Ну, позже мануал Turbo C 1.0 рекомендовал иметь второй дисковод либо HDD.

Про Юникс -- да. Идея одновременной работы множества пользователей на одной машине благополучно издохла, но успела породить идею одновременной работы на одной машине многих программ, что широчайше используется и сейчас.

Ох, даже близко нет. Многозадачность началась совсем не с unix-а.

Перед ним была большая цепочка разных систем, от Multics, до всяческих ITS и CTSS. Минимум на 10 лет раньше.
Что UNIX активно популяризировал - это идеологию "всё есть файл", которую довели до её логического завершения потом в Plan 9.

а сейчас эта мерзость сохранилась практически только как использование 1С через "удалённый рабочий стол" -- что свидетельствует лишь о нехватке квалификации у кодеров 1С, не осиливших нормальную реализацию работы по сети, а не о каких-то преимуществах терминальной архитектуры.

Кхм... ssh. Вы ни разу им не пользовались?

PS. Смотря на парочку терминальных серверов у знакомых (нет, совсем не для 1C)... конечно издохла... нет. Живёт, здравствует, вы просто ни разу с ней не пересекались. (возможно к счастью, обычно жизнь в таких случаях серьёзно портят безопасники, кастрируя нормально работающие протоколы до полного ужаса или упихивая работников из РФ на VDI в США... ммм, GUI по 300мс пинга. обожаю).

Ох, даже близко нет. Многозадачность началась совсем не с unix-а.

Ну, тут у меня небольшой пробел в знаниях об античных компьютерах. Если когда и знал, то уже забыл, какие там кроме юникса были ОСи, кто кого породил и кто куда превратился потом.
Так-то да, я знаю, что многозадачность была ещё примерно при динозаврах (ну или сразу после них) -- у Фейнмана в его ВКШМФ! есть глава, где он упоминает о многозадачной работе доисторических айбиэмовских "табуляторов".

Кхм... ssh. Вы ни разу им не пользовались?

Регулярно пользуюсь -- но не для "работы на компьютере", а для настройки серверов, чтоб перезагрузить роутер, и для других СЛУЖЕБНЫХ целей. С прикладными программами я работаю на локальной машине, как и 99.9(9)% других пользователей.

Живёт, здравствует, вы просто ни разу с ней не пересекались

Ну, знаете, всякое бывает. Кое-кто до сих пор на карбюраторных автомобилях ездит, а у моего друга дед в деревне до сих пор воду из колодца "журавлём" достаёт и не видит нужды что-то менять. Наверняка эти терминалы нужны не потому что без них никак нельзя, а потому что какие-то совершенно дурацкие условия и оговорки мешают работать локально.

банальную арифметику многоразрядных чисел выгоднее считать на нескольких малоразрядных процессорах параллельно, чем на одном последовательно.

А есть какие-нибудь ссылки или ключевые слова на эту тему? Мне, как дилетанту, ничего кроме вариантов на тему carry select в голову не приходит.

Разработчикам этого бреда казалось, что иметь одно мощное линейное АЛУ и делить его время между множеством пользователей -- выгодно.

Это и было выгодно в тот момент. Средняя интерактивная пользовательская сессия - простаивает. Загрузка процессора при этом "0 целых, шиш десятых", процессор можно отдать другому пользователю, которому он нужнее. Это примерно так и работало. А в сочетании с поддержкой copy-on-write в ОС - если пользователи массово пользуются одним набором софта (мы же офис обсуждаем), в памяти лежит только одна копия этого софта. Что экономило ещё и не дешёвую память.

Микрокомпьютеры сделало возможным резкое удешевление памяти в конце 1970-х.
И чипов вообще.

Верно. Это было выгодно, пока любые процессоры были дорогими, но где-то между концом семидесятых и началом восьмидесятых оказалось, что теперь выгоднее дать каждому юзеру собственный процессор с памятью, достаточные для его личных задач, чем строить большую машину, которая одновременно потянет работу в интересах множества пользователей.

Это вполне обычное дело, когда с развитием техники "выгодно" и "невыгодно" меняются местами. Локомобили. Прицепные (тракторные) комбайны. Мотоблоки. Бытовые универсальные станки. Коллективный радиоприём. Много их было, универсальных парадигм, появившихся от бедности и исчезнувших по мере развития техники.

Во-первых сильно позже. Как раз расцвет терминалов и пик функциональности - конец 80-х (при массовом использовании тех самых дешёвых микропроцессоров и контроллеров). А X-терминалы, это 90-е. И это продолжало использоваться в корпоративной и университетской среде, потому что так проще управлять компьютерами. И потому что главное не только дешёвые микропроцессоры, но и доступный софт. А для корпоративной среды - ещё и управляемость этого всего + экономия на администрировании.

Э, не. Это не расцвет, это агония была. С чисто инженерной точки зрения концепция общей машины и терминалов сдохла в 80м, плюс-минус один, году. Всё, что было позже -- это были попытки гальванизировать труп, основанные на воспоминаниях о том, что когда-то он был хорош.

Это как японские карбюраторы в девяностых годах -- дико сложная техника с кучей фич и наворотов, основанная на устаревшей парадигме, и никак не способная конкурировать с новой волной, с инжекторными двигателями.

каждому юзеру собственный процессор с памятью, достаточные для его личных задач, чем строить большую машину

Зависит от задач. Всегда были задачи, которые персональный комп не потянет, а большая машина - вполне. Но так временно получилось, что большей части пользователей нужно было небольшие документики поредактировать и в игрушки поиграть. Из этого никак не следует, что подключение слабых машин к мощному серваку - это бред.

Такое с 80286 началось.

Intel iPSC/d5 - 32x(80286+80287+512K), 2.7MFLOPS за $150 000 в 1985.

Видимо, было конкурентоспособно, но не слишком впечатляло - $5000 на ноду, как за полноценный комп.

Причём нередко настолько большой, что были bit-serial АЛУ, которые условное 8 или больше битное слово считали по одному битику. Было весьма популярно во времена электронных ламп, особенно в сочетании с хранением регистров процессора на магнитном барабане.

Потом аналогичное было реализовано в советских программируемых микрокалькуляторах (с памятью на большом сдвиговом регистре).

он даже не 32 разрядный

Разрядность в первую очередь нужна для адресации памяти, тогда 64 Кб памяти было нормой,16 бит хватало.

Для адресации памяти достаточно 2 регистров. 32 разрядное ALU значительно (не в 4 раза как модет показаться) сложнее 8 разрядного.

32 разрядное ALU значительно (не в 4 раза как модет показаться) сложнее 8 разрядного.

Схемы быстрого переноса передают привет ;-) Не то чтобы намного сложнее. Вот места на кристалле занимает много (примерно в 4 раза), поэтому, например у z80 ALU 4 битное, а не 8 битное.

https://www.righto.com/2013/09/the-z-80-has-4-bit-alu-heres-how-it.html

как раз для адресации памяти разрядность не очень нужна. Заметьте, проц был восьмиразрядным, а шина адресов у него -- 16-разрядная. Не было бы принципиальной проблемой расширить шину адресов и до 32 бит, просто в этом не было нужды.
Разница именно в возможности оперировать числами -- над восьмибитными числами операции выполнялись одной командой (не за один такт, большинство команд были многотактовыми -- но одной командой), а чтоб, скажем, к шестнадцатибитному числу прибавить что-то, надо было целое сложное вычисление сделать, с использованием переноса.

В 8080 не настолько вычисление доставляло боль, сколько то, что все арифметические и логические операции выполнялись только аккумулятором (регистр A). Приходилось загружать туда один из операндов, складывать или что-то ещё, потом выгружать обратно.

MOV A, L
ADI A, 21h
MOV L, A
MOV A, H
ACI A, 43h
MOV H, A

Этот код прибавляет 0x4321 к регистровой паре HL.

В PDP-11, кстати, всё намного веселей было. Идеальная система команд. А процы примерно одного времени.

ADD #137357, R3
ADC #157255, R4

Сложение 32-битной регистровой пары с 32-битной константой 0xdeadbeef. И все дела.

могу ошибаться, но как я слышал, PDP проектировался под систему команд, удобную кодерам своей избыточностью -- а интел проектировали свой проц так, чтоб его функции были достаточны для работы, но с упором на простоту реализации, ради снижения цены -- поэтому в 8080 много чего нет, зато он был крайне дёшев, по сравнению с прочими.

как раз для адресации памяти разрядность не очень нужна.

Нужна. Для относительной адресации. Или обращения к элементам массива по индексу.

Потому что любой инкремент адреса - это операция над всей его длиной.

У лаборотории университета случайно не завалялся современный степпер на нанометры, который не жалко раскурочить и с помощью <подручных материалов> переделать под экспериментальную технологию. Поэтому вытащили с дедова чердака то, что нашлось и сделали по микрометровым технологиям хоть что-то, что можно презентовать инвесторам. Потому что от решения инвесторов зависит будущее этой технологии.

Такой степпер, чтобы продемонстрировать явные преимущества перед кремнием, у них ещё долго не заваляется, несмотря ни на какие инвестиции, хоть триллионные.

предсерийный

Не, не так - прототип маломощного RISK-V чипа на дисульфиде молибдена

Еще проще. Shanghai Atomic Technology делает на спецзаказ радиационно стойкие микросхемы. А там хоть молибден на сапфире, хоть платина на алмазе.

Первое что нужно было отметить. Как на новых материалах удалось уйти от проблем кремния.

Конец эпохи кремния

До двух раз в год вижу заголовок в этом тоне: жизнь после кремния, закат кремния и т.п. Даже непросто вспомнить, что хоронят ещё чаще (конечно, если не трогать политику). Но пока что кремний жив и по нему не скажешь, что он собрался покидать IT.

жизнь после кремния, закат кремния

Запасы кремния на исходе, пик добычи кремния уже пройден, по оценкам ОБС кремния на планете хватит до 2065 года /s

это что шутка?

Шутка - не шутка, а чистый песок даже для строительных нужд плавно приходит к дефициту, так как его надо добывать все дальше и дальше от берега. Дорожает-с. Песок с поверхности, например, пустынный, не подходит.

Не в чистоте дело и не потому что материал другой, в пустыне песчинки приобретают форму мелких шариков из за чего он не пригоден для создания бетона (частицы относительно друг друга легко скользят, а нужно чтобы цеплялись).

Наиболее распространенные элементы на Земле это кислород и кремний, по большому счету Земля - это кусок SiO2

Железо забыли, его тоже дофига. Правда в контексте статьи - молибдена в земной коре на порядки меньше кремния.

Время собирать камни

Молибденовые. Валяются везде под ногами. Не то что кремний, который заканчивается...

Чаще хоронят только литий-ионные аккумуляторы)

Чаще хоронят только пхп

И винду

Я столько лет не слышал слова "дорвей", что успел забыть, что это такое)))

Литий в аккумуляторах чаще хоронят, как мне кажется
Последние 10 лет точно по 3-5 "эпоха прошла, Х - ну точно заменит литий"
Но по итогу же от лития понемногу отходят

Натрий (по характеристикам он хуже) хорош, если ощутимо выгоднее лития. Он ощутимо выгоднее лития, если литий дорожает почти на порядок и становится заметен в стоимости батареи. Литий это сделал, а потом подешевел обратно почти на порядок. Вроде так.

График

Для стационарных батарей можно хоть калий, хоть натрий, хоть даже аллюминий, весовые удельные характеристики не так важны. Гораздо ценнее количество циклов. Но я что-то не слышал ни о чем таком (хотя не сильно интересовался).

Это к слову о ценах RAM. Тогда тоже все вопили, что цены на литий теперь навсегда, новых источников нет, мобильник теперь будет работать от розетки...

Про золото лет пятнадцать тоже говорили, что оно через пять десять лет закончится.

Таки что-то происходит в последнее время.
Таки что-то происходит в последнее время.

Спрос значительно превысил темпы добычи. Такое бывает на пороге мировых конфликтов, когда другие финансовые инструменты не гарантируют надежность

Да и Китай значительно срезал продажу драгметаллов.

В сути новостей речь про похороны старой химии, а не лития вообще. Их уже много внедрено в серийное производство. Взять те же литий железо фосфат или литий титанат.

Главное, чтобы был прорыв (твёрдый электролит?)

а не скучная эволюция как в транзисторах
и все кремниевые
и все кремниевые

Интересно, а если взять условные 180нм и эту вот CFET/3DS-FET - оно получится чем-то лучше классики планарной для 180нм? Если да, то чем лучше?

Физика и химия не позволяет делать прорывы, максимум микропрорывы.

Физика и химия не позволяет делать прорывы

Вывод: журналистика лучше физики и химии!

А как же ядерные реакции? Вполне себе прорыв физика+химия=новый порядок

Она либо обеспечит вас раком, либо выдаёт микротоки.

Скучная эволюция транзисторов? Чуть ли не экспоненциальный рост на протяжении десятилетий. Это сейчас техпроцессы уперлись в то, что транзисторную логику еще получается эффективно уменьшать, а SRAM и порты I/O замедляются в прогрессе. Сходу нашел только график уплотнения SRAM против логики:

TSMC N16, N7, N5, N3E

Чуть ли не экспоненциальный рост на протяжении десятилетий.

Так если рост будет линейным, получится "некий прорыв в далёком прошлом" + "постоянное замедление относительно предыдущей пятилетки".

Условно, 5 МГц в 1978 (прорыв) и +5 МГц каждые два года (линейный рост, который в 1980 выглядит прекрасным удвоением). Сегодня бы имели 125 МГц с перспективой получить 6 ГГц через 2350 лет.

Какой-то журналистский график.

The term "3 nanometer" has no direct relation to any actual physical feature (such as gate length, metal pitch, or gate pitch) of the transistors. According to the projections contained in the 2021 update of the International Roadmap for Devices and Systems published by IEEE Standards Association Industry Connection, a 3 nm node is expected to have a contacted gate pitch of 48 nanometers, and a tightest metal pitch of 24 nanometers.[12]

© wikipedia.

Если серьёзно - где-то с 32нм (если не выше) заявленная цифра не имеет никакого отношения к реальным размерам транзистора и является чисто маркетинговой.

Это примерно как с

C/C++ вообще-то не один язык, а два совершенно разных
само собой; они через черту перечислены

— нанометры в названии техпроцесса давно перестали означать длину затвора
— конечно, график тоже напоминает: "Geometric scaling - Before 2003".
или
— нанометры в названии техпроцесса давно перестали означать длину затвора
— так и не пытаются, ось подписана

Договориться о другой схеме именования техпроцессов не смогли, но за 10-20 лет в целом привыкли работать с тем, что есть (что за очередным названием скрывается не геометрическое масштабирование, а другие улучшения вроде роста транзисторов в высоту).

Композиторы эпохи барокко не знали, что они сочиняют музыку эпохи барокко. Может, историки потом периодизируют техпроцессы получше.

Нет, до примерно 32нм процесс вполне отражал размеры. И масштабировался так, как написано. А дальше - маркетинг победил. Ну примерно как с толщиной телефонов, мегапикселями в камерах и прочими вещами, где обывателю сложно объяснить разницу, но можно сунуть число.

где-то с 32нм (если не выше) заявленная цифра не имеет никакого отношения к реальным размерам транзистора

до примерно 32нм процесс вполне отражал размеры.

Больше верится wikichip: "Roughly for the first 35 years of the semiconductor history, since the first mass production of MOSFET in the 1960s to the late 1990s, the process node more or less referred to the transistor's gate length (Lg) ... 45 nm ... At that node the gate length scaling effectively stalled".

А дальше - маркетинг победил.

Если хочется дальше про C/C++ маркетинг в графике про виды транзисторов и с отметкой <-- geometric scaling | equivalent scaling -->

result the usual dimensional reduction of the scaling of printed and physical gate length of transistors had to slow, compensated by a tradeoff with what became known as “Equivalent Scaling” - ITRS (pdf)

...то тоже держите. Линейное уменьшение нанометров общепринятых feature size соответствовало квадратичному росту плотности транзисторов.
2x -> 1.41x -> x нм должны соответствовать y -> 2y -> 4y MTr/mm^2.

И если у TSMC на 12-16 нм можно найти 30 MTr/mm^2, то на 7 нм должны найтись 120.

И они там находятся, с погрешностью 5%.

В другую сторону тоже сходится с 45 нм по интелу, например (TSMC не гуглится) - 30 MTr/mm^2 уменьшаются в ожидаемые (45/mean(12,16))^2 раз.

Где тут ошибка (маркетинговая ложь)?

Наверное, нет её - наверное, логика хорошо масштабировалась до 7 нм. А вот в графике можно найти, что 30BTr/cm^2 = 300MTr/mm^2 поставили ровно напротив 3 нм, хотя на момент публикации в начале 2024 было известно, что 300 не будет.

Где тут ошибка (маркетинговая ложь)?

В смене метрики в середине графика.

В том, что ось времени не линейная. И т.д.

Я же ошибку в моих рассуждениях про 3=>30=>120 MTr/mm^2 предлагал найти. А так 11 лет там шире, чем 8, в середине графика стоят 10-7 нм (?..), метрика - плотность транзисторов, а про явную ошибку в 300MTr/mm^2@3нм я написал.

Было бы интереснее иметь в качестве электролита некую жидкую субстанцию. Залил-слил.

проливные аккумуляторы

а смысл? разве чтобы законсервировать на годы. для устройства которое через 2-3 года меняют на новое, это не надо

Помню была такая идея для электромобилей. На основе цинка вроде бы. Приехал, воткнут пистолет со сдвоенным шлангом. По одному идёт закачка, по другому одновременно откачка. Время "зарядки" как у бензина/нефти. Гораздо безопасней и экологичней. "Электролит" многоразовый. Но не помню, почему не взлетело.

Потому что в аккумуляторе при заряде-разряде изменения происходят не только в электролите, но и на пластинах. Разряд их растворяет, заряд восстанавливает. Если тупо менять электролит на свежий, через несколько циклов пластины кончатся, и их тоже придётся менять.

За давностью лет точно не помню, но там получился скорее не аккумулятор, а топливная ячейка. У неё другие факторы износа и работы.

не проще просто заменить батарею целиком?

Так это целый механизм, который эту тонну открутит и прикрутит другую. А потом с ней что делать? Везти целиком или разбирать на месте?

Маск и другие уже давно сделали механизм быстрой замены батареи, но популярностью он не пользуется.

Маск и другие уже давно сделали механизм быстрой замены батареи, но популярностью он не пользуется.

Потому что не знаешь, какую батарею ты себе получишь при следующей смене.

Ну и при тех токах, которые в батарее есть - быстросъёмный надёжный контакт, который будет работать в реальных условиях, для постоянных напряжений в ~400 вольт и ток ампер до 250 это весьма нетривиальная штука. Добавьте грязь и соль на дорогах и начинается инженерное порно.

И бензин тоже не очень понятно, какой зальют. Разве что бензин льют всем одинаковый на этой заправке.

> для постоянных напряжений в ~400 вольт и ток ампер до 250

так в быстрой зарядке те же токи и он тоже должен быть съемным

Бензин ± понятно какой зальют.
Ну и современные ДВС умеют в определённых пределах адаптироваться к качеству топлива.

PS. Разъём батареи под грязным днищем и разъём сверху под крышкой - разные вещи.

И бензин тоже не очень понятно, какой зальют.

В большинстве стран мира такие шалости могут закончиться очень печально для заправки, а если это сетевая заправка, то еще и репутационные потери будут весьма чувствительными.

Разве что бензин льют всем одинаковый на этой заправке.

Иначе невозможно. На заправках есть несколько (не много) подземных хранилищ, читай здоровенных закопанных бочек, в каждой из которых хранится свой сорт бензина или дизеля. На каждую колонку подается один и тот же самый бензин или дизель из тех же самых бочек, каждый на свой заправочный пистолет соответственно. В случае LPG и, особенно, CNG, есть свои нюансы, но принцип тот же - одна "бочка", от которой питаются все заправочные устройства.

так в быстрой зарядке те же токи и он тоже должен быть съемным

В быстрой зарядке батарея не съемная. В быстрой зарядке съемный только коннектор, электровилка, включаемая в относительно компактную и относительно защищенную от погодных явлений электророзетку. Ремонт или замена электровилки или электророзетки, если таковые потребуются, всяко проще ремонта или замены батареи в сборе.

Откровенный мусор не поставят, ведь так быстро растеряют клиентов.

Зато плюс, самая дорогая часть электромобиля, по сути в аренде и фактически не принадлежит владельцу машины. А если сломается/загорится, это проблема станции замены.

А если сломается/загорится, это проблема станции замены.

А вот это абсолютно не очевидно. "вы её не правильно эксплуатировали, заплатите за батарею" ;-)

Не правильно это как? Единственный вариант, это физически её повредить, но он легко отсекается экспертизой. В остальном, главное чтобы машина не была модифицирована(программно и железячно). Штатный контроллер просто не даст её неправильно эксплуатировать. А потом владелец машины слупит такую сумму с "заправки", что неповадно будет повторять.

Не правильно это как? Единственный вариант, это физически её повредить, но он легко отсекается экспертизой.

Вы приехали на замену батареи и вам говорят, у вас вмятина, мы такое не принимаем или принимаем с вашей [очень чувствительной] доплатой. Причем невозможно выяснить, вам такую поставили на предыдущей замене или вмятина образовалась во время действия вашей ответственности. Ваши действия?

Экспертиза, конечно, будет - потом, когда-нибудь. А вы пока что с разряженной батареей черти где, поставить заряженную на замену вам отказываются, и вы просто физически не можете никуда больше ехать.

Повторяю вопрос: ваши действия? Канистра в багажнике?

В остальном, главное чтобы машина не была модифицирована(программно и железячно).

Это не осветительная оптика, тут никакие модификации не запрещены.

Штатный контроллер просто не даст её неправильно эксплуатировать.

А нештатный?

А потом владелец машины слупит такую сумму с "заправки", что неповадно будет повторять.

Читайте публичную оферту: "заправка" в праве отказать в обслуживании без объяснения причин. В суде это будет расшифровано так, что поскольку работники "заправки" не являются экспертами и не могут проводить экспертизу на месте, любое подозрение в умышленном мошенничестве или добросовестном заблуждении клиента относительно состояния его батареи, даже если не может быть обосновано экспертно - а оно не может силами персонала "заправки", является основанием для отказа в обслуживании, потому что работа с предположительно неисправной или поврежденной батареей представляет угрозу жизни, здоровью и имуществу как самой "заправки", так и случайным клиентам, которые могут получить подозрительную батарею на замену. Но вы можете, с привлечением экспертов, обосновать, что батарея в исправном состоянии без значимых повреждений, а значит подлежит замене - и тогда вам ее таки поменяют.

Клиент говорит что по камням не ездил и вещественных доказательств у него быть не может. Стации замены, чтобы доказать, что никаких вмятин при установке не было, придётся предъявить какие то более весомые доказательства, чем просто слова менеджера, ведь она финансово заинтересованная сторона. Ими послужит запись процесса смены. Если их нет то владелец сервиса ССЗБ.

Зато плюс, самая дорогая часть электромобиля, по сути в аренде и фактически не принадлежит владельцу машины.

Только залог (сто процентов от стоимости) внеси, и за аренду заплати. Выгодно, конечно - владельцу батареи, а не вам, ее арендатору.

А если сломается/загорится, это проблема станции замены.

Поэтому в стоимость аренды войдет стоимость страховки. Необязательно буквально, необязательно такой пункт будет прописан явно, но фактически точно войдет.

От лития никуда невозможно уйти, он в электрохимическом ряду последний слева, левее ничего нет )
Не, чисто гипотетически можно сделать более эффективные аккумы, чем на литии... На металлическом водороде. Вот только условия его существования в этой фазе заставляют усомниться, что это реально в ближайшие века.
Интереснее с другого конца ряда копать, замена катода с меди или железа на серебро, а лучше на какой-то стабильный фторид, чисто гипотетически может здорово улучшить ёмкость.

Серебро - дороговато будет. А фторид с нужными характеристиками и (пожалуй, куда важнее) технологичностью еще не нашли.

По текущим ценам на серебро - не намного удорожит. Но цены тут же взлетят ракетой, и вот тут да, уже дороговато

Уточнение. В химических аккумуляторах. Хранить электрическую энергию можно и по другому. Например используя эффект сверхпроводимости.

Вот так и охотники собиратели неолита рассуждали, чего со своей дурацкой медью лезете. Её добывать надо, расплавлять, остроты никакой И вообще...

Ну, положим, насчет остроты они вполне правы - каменное лезвие держит заточку получше мягкой меди. Это уже более твердая бронза, пусть все еще заметно мягче камня, за счет технологичности вытеснила каменные лезвия, да и в целом каменные орудия, почти полностью. Я лично не пробовал, но по телевизору показывали, как современным мясникам дали нож каменного века и попросили разделать тушу. Их вердикт был таков: поначалу неудобно, потому что привыкли к парадигме лезвия на рукоятке, но освоившись с правильным для каменного ножа хватом выяснили, что современному стальному несильно-то он и уступает.

В эксплуатации на частной задаче таки да, не сильно уступает. Но стальной нож имеет огромный плюсищще -- когда он затупится, его легко восстановить, просто чиркнув пару раз лезвием по специальному напильнику или любому подходящему твёрдому предмету (я, например, правлю ножи о ребро стеклянной "морды" духовки -- мне удобно, а ей за те двадцать лет, что я так делаю, от этого никакого урона не случилось). Каменный же нож, когда он затупится, надо скалывать заново, что долго и трудно.

Ну, если вы в каменном веке, то у вас простой выбор: использовать уже достаточно совершенные, хотя и трудно изготавливаемые каменные ножи прямо сейчас, ждать бронзы сколько-то тысяч лет, или ждать железа еще сколько-то тысяч лет. Сегодня, когда ножи из высокопрочных, и еще и относительно коррозионно стойких сталей, обыденность, каменный нож и впрямь выглядит анахронизмом. Не потому, что он плохой - нет, не такой уж он и плохой, просто парадигма сменилась, достоинства каменных ножей утратили былую значимость, а недостатки стали восприниматься как критичные - вы, собственно, их и перечислили.

Не смотря на это, ножи из диоксида циркония(по сути тоже камень), сегодня пользуются очень хорошей популярностью. Т.к. не смотря на большую цену и хрупкость, они имеют свои неоспоримые плюсы.

Ага, есть у меня такой нож. Дурная вещь -- сновА тупой, толком не режет ничего, и подточить никак. Плюсы? Его обухом можно точить стальные ножи, отлично снимает стружку. И всё. Именно как нож -- ни о чём.

То то я смотрю в закулисных роликах про готовку, он часто мелькает. Наверное специально для кадров закупают.

Моя жена любила "закулисные ролики про готовку", так что я немножко их видел, штук примерно 100500. Вряд ли сейчас смогу вспомнить авторов, кроме Гордона Рамзи, Джейми Оливера и той итальянки с большими буфглазами (Джиада?), но но я смотрел дофига этой ерунды.
Керамические ножи видел там всего пару раз, и это был явный, неприкрытый продакт-плейсмент, типа "зацените мой нож, это /product_name/ из диоксидиума циркониума, который мне подарила компания /company_name/!". Такого, чтоб кто-то добровольно и на постоянной основе пользовался таким ножом -- не видел. Была одна американская тётка с цветными ножами, но это не керамика, а покрытие, мои стальные ножи из хозмага тоже сновА были с "покрытием", после пары моек в ПММ оно начало отваливаться, ободрал его нафиг.

Керамика не влияет на вкус пищи, легко моется, стерилизуется и плохо переносит запах. То что в обычной кухне он не прижился, не значит что он не нужен. Я видел кучу роликов из азиатских стран про готовку. Так там керамика мелькает постоянно и без всякой рекламы.

Нержавеющая сталь не влияет на вкус пищи, легко моется, надёжно стерилизуется и плохо переносит запах. (с)
А ещё сталь не боится ударов, неспособна образовать опасные осколки при любых обстоятельствах, а при повреждении режущей кромки (что неизбежно при любой эксплуатации) легко затачивается.

Присмотритесь получше к этим роликам -- у меня есть китайский сторублёвый ножик из хозмага, пока новый был — выглядел, прям как керамика. Думаю, китайцы специально оттенок краски подобрали, чтоб не прям совсем белый-белый, а именно на керамику похожий. Не знаю, как словами описать, но эта цирконовая керамика — она не совсем белая, какой-то странный оттенок у неё есть, похожий на цвет снега под ИК-прожектором.

Фигасе просто - чиркнуть в каменном веке по специальному напильнику) Подозреваю чел каменного века сколет новую кромку парой ударов за то же время что вы правите... а уж за время полноценной заточки, десяток новых ножей себе наколет. Даже реконструкторы вроде быстро справляются.

Основной плюс металла он стоек к ударным нагрузкам, а внучки каменных рубил сейчас вернулись на кухни под видом керамических ножей.

Однако "спрос на камни" вырос в бронзовом и последующих веках, "камни" ушли из режуших орудий труда, но массово потребовались в строительстве, хотя и муку еще долго мололи каменными жерновами.

Даже непросто вспомнить, что хоронят ещё чаще (конечно, если не трогать политику). Но пока что кремний жив и по нему не скажешь, что он собрался покидать IT.

Ну это скорее именно про политику и рекламу разной лабуды - в новостях подряд, китайский ии наступает, китайский процессор, китайский то, китайский другое. Рекламные обещания прекрасного будущего зазывают неразборчивых, а технологии сбоку привязывают любые. Раньше британских ученых с бредом печатали, а теперь китайскую бредятину.

поиск по новостям выдал 9 попаданий

А так, конечно пора уходить с иглы кремния на позитронные технологии.

так, конечно пора уходить с иглы кремния на позитронные технологии

Давно пора. И три закона роботехники не забыть прописать

Известный, пусть и вымышленный персонаж - Бендер Родригес, является практически идеальным воплощением всех Трех законов. СР! УВЧ!

тоже самое с убийцами raspberry pi, каждый месяц выходят такие статьи от тех, кто в руках никакого железа не держал...

Мёртвое убить нельзя.
Малинка изначально была задумана, как ДЕШЁВОЕ решение для задач, где надо управлять железом, имея на борту довольно высокую вычислительную мощность, какую тогда не могли дать ардуины. Современные же малины и по функционалу, и по цене, больше похожи на полноценные компьютеры, а в изначальной их нише вместо них давно уже используются простые платки на esp32 или даже esp8266.

Не для спора, но для поддержания диалога добавлю, что сам по себе феномен Raspberry Pi породил много подражаний, и ниша очень слабого одноплатного компьютера - в смысле процессора общего назначения и операционной системы также общего назначения, в противовес тому, что мы обычно называем микроконтроллером, заняли другие производители с другими, но концептуально такими же устройствами. Да хоть те же Orange Pi Zero - очень слабый, но "полноценный" компьютер с "полноценной" ОС. Ни ESP32, ни какие-то старшие и относительно очень мощные STM32, им не замена и не конкурент, и это не "хорошо" и не "плохо" - это разные миры, хотя тесно соприкасаюшиеся и в незначительной мере даже взаимопроникающие.

Чой-та вы наизнанку вывернули цель и средства.
Нет у компьютера задачи "быть компьютером", а у микроконтроллера "быть микроконтроллером". Их задача -- выполнять какие-то действия в интересах пользователя, а какой там процессор, какая ОС и есть ли она вообще -- это определяется именно задачей.

Вот, скажем, мои часы на ESP8266. Почему не ардуина? Потому что главным моим требованием к часам было наличие у них NTP (что подразумевает наличие вайфая), чтоб я их один раз настроил и больше никогда не трогал (у меня часто, до пары раз в месяц, бывают перебои с электричеством, задолбался часы по всему дому потом настраивать). Почему не малинка? Потому что очень дорого и очень избыточно.

А малинка... ЗАЧЕМ она за такие деньги вообще нужна? Там, где мне не хватит возможностей ESP32, или просто разработка под неё покажется неоправданно сложной, я возьму телеприставку на s905 за полторы тэрэ и поставлю на неё Armbian. Или, если совсем много мощщи нужно, куплю разбитый ноут, и выну потроха из него, всё равно дешевле малины выйдет. Да, GPIO на этих устройствах нет, придётся через юсб расширяться, но, к счастью, задачи, где одновременно нужны много портов и высокая скорость их обработки, встречаются не у меня )))

Чой-та вы наизнанку вывернули цель и средства.

Я вообще не касался целей. А средства разные, иногда узкоспециализированные, иногда сравнительно универсальные.

Нет у компьютера задачи "быть компьютером", а у микроконтроллера "быть микроконтроллером". Их задача -- выполнять какие-то действия в интересах пользователя, а какой там процессор, какая ОС и есть ли она вообще -- это определяется именно задачей.

Наделять объект субъектностью, наверное, и на самом деле необязательно. Впрочем, я этого и не делал. Тем не менее, реально существующие и большинство умозрительных устройств поддаются приемлемой классификации по ряду признаков, иногда очевидных, иногда достаточно условных. В том числе деление на "компьютеры" и "контроллеры" в большинстве случаев достаточно очевидно, хотя оба класса устройств имеют намного больше общих черт, чем различий, и в маргинальных случаях деление может оказаться менее простым и очевидным, чем почти во всех остальных случаях.

Вот, скажем, мои часы на ESP8266. Почему не ардуина? Потому что главным моим требованием к часам было наличие у них NTP (что подразумевает наличие вайфая), чтоб я их один раз настроил и больше никогда не трогал (у меня часто, до пары раз в месяц, бывают перебои с электричеством, задолбался часы по всему дому потом настраивать). Почему не малинка? Потому что очень дорого и очень избыточно.

NTP не подразумевает наличие WiFi, это один из вариантов. Могу согласиться лишь с тем, что это, скорее всего, наиболее распространенный вариант. Тем не менее, условный Raspberry Pi Pico 2 W - разве не альтернатива? Умышленно не касаюсь "экзотики" - всего того, что редко используется в любительской практике, имеет ограниченное комьюнити, мало библиотек и прочие неудобства, потому что у меня не стоит задача что-то вам доказать из принципа и аргументировать свои тезисы формально приемлемыми, но фактически спорными аргументами, а значит остаюсь в парадигме "Arduino/ESP/RPi Zero/STM32 и это все, о чем мы слышали".

А малинка... ЗАЧЕМ она за такие деньги вообще нужна? Там, где мне не хватит возможностей ESP32, или просто разработка под неё покажется неоправданно сложной, я возьму телеприставку на s905 за полторы тэрэ и поставлю на неё Armbian. Или, если совсем много мощщи нужно, куплю разбитый ноут, и выну потроха из него, всё равно дешевле малины выйдет. Да, GPIO на этих устройствах нет, придётся через юсб расширяться, но, к счастью, задачи, где одновременно нужны много портов и высокая скорость их обработки, встречаются не у меня )))

Вы так говорите, как будто я агитирую вас покупать Raspberry Pi для почти что всего, не считаясь ни с целесообразностью, ни с ценой вопроса, ни с нормальным желанием любого самодельщика поиграться в новые игрушки, однако это не так. При этом вы игнорируете упоминание (в качестве конкретного, но не более чем примера) Orange Pi Zero - существенно более дешевого однополатника, который где-то целесообразен, где-то интересен как новая игрушка, а где-то совершенно неуместен. В конечном тоге мой поинт в том, что успех Raspberry Pi привел к тому, что само слово "Малина" стало нарицательным для любого одноплатника, включая и упомянутый мною, возможно не самый удачный, пример Orange Pi Zero - все еще относительно дешевого. Ну а концепция купить разбитый ноутбук и выпотрошить его - она, конечно, вполне жизнеспособная, и я ее целиком и полностью поддерживаю, но она плохо масштабируется. Пожалуйста не воспримите за личное оскорбление, но я этот вариант отказываюсь принимать, потому что, допустим, вам повезло найти разбитый ноутбук дешево, а остальным нет, значит ваш частный случай плохо экстраполируется, и как аргумент, поэтому, неубедителен.

Подправленным аргументом против дорогих моделей RPi был бы мини-ПК на Intel N95...150. Там и корпус с БП включены в цену, и нераспаянная память меняет ситуацию в сторону покупателя.

Это да, что-то типа N100, плюс-минус (N95~N355, или что там сейчас актуально), это вполне полноценный по любым меркам компьютер, чьей вычислительной мощности совершенно достаточно для листания Хабра и всякого мультимедиа на большом экране. Ну а что это не рабочая станция и не игровая машина, так а что вы хотели от относительно дешевого процессора с полностью пассивным охлаждением? Тот же RPi греется куда как сильнее, по сути без дополнительных ухищрений им уже с эпохи RPi 3 пользоваться практически невозможно.

Я вообще не касался целей.

Касались, и продолжаете спутывать цели и средства:

В том числе деление на "компьютеры" и "контроллеры" в большинстве случаев достаточно очевидно

В общем случае, "компьютер" -- это устройство для запуска пользовательских программ, именно это отличает его от контроллера, который привязан к задаче.
Вот, например, довелось мне работать со станками, управлявшимися контроллером под управлением Windows CE. Поиграть на них в сапёра или слазить в интернет можно было, только перезагрузившись в сервисмод, в котором станок в работу не запустится, что, очевидно, не является штатным режимом работы этой машины -- поэтому у неё и контроллер, а не компьютер.
А вот мой настольный комп. Сейчас я в интернете сижу, а надоест -- запущу игрушку какую, или кино посмотрю. Ибо функция компа -- запуск тех программ, которые я хочу сейчас. И даже если я озадачу свой компьютер управлять, например, 3д-принтером -- он это будет делать, не отвлекаясь от других моих задач, так что в контроллер не превратится.
Однако, когда я лет через несколько решу обновить комп, на нынешний я могу поставить LinuxCNC и снабдить его соответсвующим железом, и вот тогда он реально превратится в контроллер станка, заточенный под задачу.

А на контроллере esp32 можно поднять эмулятор спектрума, и получится почти полноценный бытовой компьютер из 80-90ых годов, на котором можно запускать пользовательские программы.

NTP не подразумевает наличие WiFi, это один из вариантов.

Ну, подключать часы по эзернет мне, честно говоря, даже в голову не пришло. Ладно бы, если б у меня PoE было, таким подключением я бы избавился от необходимости в блоке питания для часов, да ешё и питание их оказалось бы обеспеченным тем бесперебойником, который у меня сетевую инфраструктуру (конвертер оптики, роутер, два хаба, две точки доступа) держит -- но PoE у меня нет, так что о такой возможности я, честно сказать, подумал только сейчас.

Тем не менее, условный Raspberry Pi Pico 2 W - разве не альтернатива?

Функционально да, но ESP8266 D1 Mini на порядок дешевле, и его достаточно для этих задач.

Умышленно не касаюсь "экзотики" - всего того, что редко используется в любительской практике

ESP8266 D1 Mini продаются по 126 рублей вот прям сейчас. Для сборки моих часов, кроме этой платки и матрицы WS2811 (мои сделаны на четырёх 8х8, можно сделать на ленте или на других матрицах), нужен только отдельный модуль энергонезависимых часов, это ещё 119 рублей. Получится "экзотика" с вайфаем и энергонезависимыми часами (а ещё там, кроме часов, есть маленькое энергонезависимое ОЗУ. Часы постоянно пишут в это ОЗУ текущее время в конце рабочего цикла, а в начале цикла читают время из ОЗУ и сравнивают с текущим -- так обнаруживаются и протоколируются перебои электропитания) дешевле для штучного изделия? Мне такая экзотика неизвестна.

При этом вы игнорируете упоминание (в качестве конкретного, но не более чем примера) Orange Pi Zero - существенно более дешевого однополатника

Да. Не имел дела с ними, вот и нечего о них сказать. Сейчас посмотрел -- вроде и интересная штука, но идёт она по цене "мамки" от ноута с заметно более высокими параметрами. Плюсом только наличие гребёнки GPIO.

Ну а концепция купить разбитый ноутбук и выпотрошить его - она, конечно, вполне жизнеспособная, и я ее целиком и полностью поддерживаю, но она плохо масштабируется.
Ну... да. Если б я делал не для себя, а на продажу -- я б, конечно, предпочёл бы использовать готовый, функционально законченный и широко доступный в продаже готовый блок, пусть даже в ущерб стоимости. Если у меня в условном "терминале умного домофона" сдохнет плата от ноута -- я без проблем суну туда любую другую, а ук стороннего пользователя лучше уж пусть там малинка стоит, или этот вот апельсин.

Журнаглисты жеж. Всегда так было, всегда так будет

В статье столько написано про замечательную структуру дисульфида молибдена, но не упомянуто что человеки уже давно эту самую структуру приспособили для целей противозадирных смазок.

Исправляю: во всех автомобилях где есть шарниры равных угловых скоростей (ШРУСы, и таких авто нынче абсолютное большинство), смазка с частицами MoS2 (оттого чёрная и ужасно маркая). Любителям отечественного автопрома известная как смазка "ШРУС-4". (фото тары ниже под спойлером)

Скрытый текст
мазюка ШРУС-4 в банке
мазюка ШРУС-4 в банке

Все транзисторы N типа, т. е. это не CMOS? Как тогда будут решать проблему энергопотребления?

И быстродействия. Как-нибудь должны решать.

Написано, что затворы из разных материалов = разные пороговые напряжения. ПсевдоКМОП.

Ну в силовой технике давно полумост состоит из двух N-mosfet. Т.к. у них характеристики лучше. Хотя питание затвора усложняется, в целом получается приличный выигрыш. На сколько это применимо к вычислительной технике - хз, надо думать.

Всё это конечно безотносительно сабжевой новости в которой явно читается очередной "прорыв" в российском стиле.

Практически никак не применимо, ИМХО. Конденсатор вольтодобавки неудобен технологически и не даст работать в статике и на малых частотах.

и не даст работать в статике и на малых частотах.

Что, кстати, не мешало использовать "динамическую" логику в ранних процессорах. (что для N-MOS, что для P-MOS технологий). При этом в даташите прямо писалось - минимальная тактовая частота - такая-то. Вопрос правда в том, что с потреблением плохо, поэтому CMOS и выиграл.

Её использовали для сокращения числа транзисторов, которые были намного крупнее нынешних.

Экспериментов с альтернативными полупроводниками (например, с арсенидом галлия) издавна происходит очень много, но пока чего-либо пригодного для массового применения не удалось добиться.

Широкозонные полупроводники чаще применяются для других, узких, целей. Высокие температуры, генерация оптических излучений.

Скорее будут альтернативные технологии - сейчас транзисторы из-за требований монокристалла в плоскости, но вполне возможно ИИ-процессоры будут многослойными. Тактовые частоты конечно упадут но для аналоговых вычислений с известными весами оптимизированными цифрой это не проблема. А сам принцип был ещё изучен в 80-х - кремний вполне себе генерирует сам монокристаллики на подложке со структурированным (подтравленным по шаблону) его же оксидом при осаждении-разложении силана-хлорида из парогазовой фазы. Рабочие частоты - килогерцы но и "разрядность" триллионы.

GAN блоки питания с вами не согласятся, технология родилась и ушла в массы

"Это - другое!" БП - не память и процессоры.

GaAs отличный материал, но дорогой, сложный в обработке и плохо ложится на существующие линии. Поэтому и остался там, где его плюсы реально перевешивают минусы

Как же любят китайцы приписывать себе чужие достижения, выставляя себя первооткрывателями! Пропаганда работает, не покладая рук!
Статья в Nature Communication от 11.08.2017 сотрудников Университета технологий Вены:
A microprocessor based on a two-dimensional semiconductor
Here, we present a 1-bit implementation of a microprocessor using a two-dimensional semiconductor—molybdenum disulfide. The device can execute user-defined programs stored in an external memory, perform logical operations and communicate with its periphery. Our 1-bit design is readily scalable to multi-bit data. The device consists of 115 transistors and constitutes the most complex circuitry so far made from a two-dimensional material.

Даже сходится разрядность, 115*32 = 3680, почти 5931. И я как-то не особо верю, что в случае перспективности решения его с 2017 года никак не развивали.

Или приобрели права на работу, чтобы пропиариться и получить инвестиции.

Или ребята из Вены переехали в Пекин.

Точно нет, в соавторах их нет

115*32 = 3680, почти 5931

Училка математики с озабоченным лицом бежит к пруду ;)

Тогда получается что сумматор у них в ALU с последовательным переносом. Мееедленный.

То есть, ядро RISC-V не требует никаких накладных расходов в виде регистров хотя бы. Ну ок.

Так что тут не "китайцы приписали себе чужое", а "китайцы громко кричат о том, что начали делать то, на что раньше всем было жалко денег и нервов"

1971 + 53 ≠ 2025

Если стойкость к радиации разных видов действительно выше (при той же надежности и стабильности), чем у кремния - то не нужны даже передовые нанометры и частоты, весь рынок космической электроники это дело одобрит даже в таком виде. И авионики заодно.

вообще говоря, есть зависимость ошибок от сложности. В простой железобетонной системе ошибка маловероятна но её появление даёт грубый результат. В сложной системе вероятность ошибки велика, но за счёт сложности можно парировать ошибку различного рода коррекцией и её влияние нивелируется. Так что начиная с некоторых нанометров с использованием всяких ECC, нейросетей, фаззификации, алгоритмов восстановления получаем улучшение надёжности несмотря на "битые пиксели" образно говоря. На экране с высоким разрешением они не видны, а если взять светодиодный индикатор - то издалека. И тут с минимальными нанометрами получаем и хорошее быстродействие и минимум ошибок.

Если китайцы действительно дотянут это хотя бы до условных 28 нм по эквиваленту и стабильности, тогда разговор станет совсем другим. Пока это очень интересный, но всё ещё хрупкий задел

На самом деле это классный пример того, как даже самые базовые технологии могут стать основой для больших перемен, если продолжать эксперименты и не бояться идти дальше привычного кремния. Но быстро этого не будет - идея выглядит перспективно, но до реального массового применения ещё слишком много инженерных и экономических барьеров.

WUJI полноценно исполняет стандартные 32-битные инструкции RISC-V, корректно выполняет арифметические операции с числами до 4,2 миллиарда и поддерживает адресацию гигабайтных объемов данных

Разве тут не написано 3 раза одно и то же?

Ну и по статье я так и не понял, чем же эти новые процессоры лучше старых, хотя бы в перспективе и в теории.

Формулировка действительно какая-то избыточная
Хотели подчеркнуть "полноценность", но вышло тавтологично

До конца эпохи кремния еще очень далеко, но как технологический задел выглядит любопытно

Пока это выглядит не как «конец кремния», а как важный сигнал, что альтернативы начинают выходить из чистой науки в инженерную плоскость. 6 тысяч транзисторов и килогерцы, конечно, несопоставимы с современными SoC, но ценность здесь именно в воспроизводимости процесса и совместимости с CMOS. Если удастся реально масштабировать частоты и плотность без взрыва сложности производства, у 2D-материалов есть шанс занять свою нишу в ультраэнергоэффективных и специализированных применениях, а не заменить кремний целиком.

Интересно есть ли подвижки в сторону процессора на тритах и троичной логике, на скоко знаю триты производительнее битов при прочих равных, хотя и нескольколько сложнее в обращении (как на помер было с сетунью)

Ищите в архиве Хабра. Кто-то писал отчëт о заказе своего троичного чего-то. То ли - АЛУ, то ли - проца.

Я где-то мельком прочитал, будто "советы занялись троичной логикой, чтобы целиком использовать возможности ферритов в тогдашней памяти - их можно намагнитить в одну сторону, в другую и размагнитить (третье обычно незадействованное состояние)".

И я такой - ага, в Сетуни появился какой-то смысл!

Но нет, она так не работала. Один трит хранился в двух битах - в двух ферритовых кольцах.

И смысл в Сетуни снова пропал.

Вы уверены в источнике? Я вроде бы везде видел утверждения, что троичность Сетуни была именно на ферритах основана, "+", "0", "-" в каждой ячейке.

Вот её отец в 1965 говорит:

google books

В кубе памяти перерасход в 26% ферритов: 2 бита / 1 трит = 2 бита / log2(3) бита ~= 1.26 (хотя позже в мире будут воевать за 11%, создавая 5.32-битную кодировку).

Это логика троичная не так плохо выглядела на ферритах... особенно с учётом момента появления ("...1960 г., “Сетунь” признана “первым действующим образцом универсальной вычислительной машины на безламповых элементах").

Практического смысла в ней не видно. Видно любопытство за госсчёт. Видно, что для Брусенцова это его прелесть дело всей жизни. Видно, что её мифологизировали как любую необычную вундервафлю.

Брусенцов в год выхода Intel 8008 (5 тысяч транзисторов на микросхему) говорил, что ферритовая логика себя ещё покажет:

несмотря на технологическое отставание в настоящее время, электромагнитная техника сохраняет за собой превосходство как принципиально более совершенная для осуществления цифровых устройств.

У него много такого было:

Естественность троичного симметричного кода, т.е. позиционной системы счисления с цифрами 1, 0 и -1, оправдала бы и более серьезные издержки.

Оказалось, что усложнённость (пусть даже вдвое) трита по сравнению с битом более чем возмещается простотой и естественностью «верхних этажей», гармоничностью троичной архитектуры в целом.

в условиях интегральной технологии связанная с троичным кодом возможность упрощения структуры устройств за счет усложнения элементов и экономия количества соединений между элементами могут оказаться важнее обычной экономии деталей. [убедительное возражение к бессмысленности на транзисторах]

5 тысяч транзисторов на микросхему

* 3.5 тысячи

Спасибо. Теперь и я не понимаю, зачем оно такое. А ведь получается, можно было и нормальный компьютер сделать на этом принципе, только с одним колечком, а не с двумя (((

По сути, это не троичный компьютер, а четверичный, но четвёртое состояние тупо не использовано ради "доказательства" идеи, будто троичная машина лучше.

Короче, почитал я ещё всякое, и у меня остался только один вопрос -- проводилось ли психиатрическое освидетельствование авторов этой штуки?

Да, это далековато зашло - серия в ~50 машин, публикации в нулевых (ниже).

Если Сетунь отставала только в памяти, а в логике была на уровне или опережала ранний двоичный вариант - то в принципе в двоичной логике на ферритах тоже можно было выходить за рамки привычного. В 1962 пишут про реализацию 4И на одной пуговице одном пятиапертурном трансфлюкторе: archive.org.

Хм, Брусенцов до конца жизни, до 2014, был заведующим лаборатории троичной информатики в МГУ. И страница МГУ подтверждает, что он публиковал статьи "Неадекватность двоичной информатики", "Вернуть логике здравый смысл" и интервью в журнал в 2004 с этим:

нет этого идиотского дополнительного кода

PDP-8 стоила 20 тысяч долларов ... Чехи считали, что могли хорошо продавать «Сетунь» в соответствии с рыночными ценами и получать порядка полумиллиона долларов прибыли с каждой машины.

система устроена таким образом, что каждые три-четыре года нужно покупать новый компьютер и новый софт ... потому, что в самом начале заложены неверные принципы. Если вы в основу заложите простые, естественные принципы, то и все развитие происходит просто, логично, естественно.

Если Сетунь отставала только в памяти, а в логике была на уровне или опережала

...но тоже нет, почитал дальше, логика в основе тоже двоичная.

"Н.П. Брусенцов в своих работах анализировал получение из троичных логических элементов в двоичные отбрасыванием половины схемы"
http://www.nedopc.org/forum/viewtopic.php?t=18829&start=45

В разделе про использованные ячейки логики (книга в архиве по Сетуни на github вместо того отрывка с google books) даны двоичные булевы формулы по две штуки - для двух выходов и единица на нижнем выходе условно принимается за -1.

За исключением тех случаев, когда физический пороговый элемент является трехзначным по самой своей природе, ... он, естественно, состоит из двух двузначных пороговых элементов, т. е. содержит в 2 раза больше оборудования по сравнению с двузначным элементом.
...
Как показал опыт разработки машины «Сетунь» [10] и в особенности машины «Сетунь 70», относительный перерасход оборудования при Объединении двузначных пороговых элементов попарно в трехзначные с избытком компенсируется на следующем уровне проектирования
...
В машине «Сетунь» каждый трехзначный элемент состоит из двух одинаковых магнитных усилителей
...
Примененная в машине «Сетунь» двухпроводная система передачи трехзначных сигналов соответствует представлению трехзначной переменной в виде двух двузначных ее компонент

- Брусенцов Н.П. - Пороговая реализация трехзначной логики электромагнитными средствами (1972) (pdf)

Если в двоичной для числа нужно 8 разрядов, то в троичной потребуется log3(2^8) ~= 5.05 - на 37% меньше и это двоичную природу не компенсирует (~10.1x vs. 8x элементов).

Но вокруг магнитной логики всегда что-то интересное попадается.

Скрытый текст

Патент утверждает, что это может работать как полусумматор.

На кольцах с доп. отверстиями реализовывали кубы памяти с неразрушающим чтением. IBM в суперкомпьютер 1961-го поставила такие в некоторые регистры.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
slc.tl
Дата регистрации
Дата основания
Численность
1 001–5 000 человек
Местоположение
Россия
Представитель
Александр Шилов