Pull to refresh

Comments 88

Коммерческих чипов с нативной тернарной арифметикой по-прежнему нет. 

А их и не будет, потому что:

1. Запуск техпроцесса невероятно дорог, на порядки больше производства чипов.
Плюс САПР для этого придется писать с нуля, а также, подозреваю переписывать часть уже накопленной кодовой базы.

2. Для современных процов со средним числом транзисторов в 6-8 млрд. троичный аналог (не важно в симметричной или несимметричной сс) в лучшем случае будет иметь число транзисторов х1,585, а по факту х3, с соответствующим увеличением площади кристалла и снижением КВГ.
Чиплетный финт ушами конечно может помочь с КВГ, но площадь не уменьшит.
Любая попытка уменьшить число транзисторов на вентиль утыкается либо в огромные сквозные токи при переключении, либо в пункт 1 из-за использования нестандартных МОП транзисторов с дополнительными активными областями.

3. Никто не считал насколько реально это снизит затраты ресурсов и выйдет ли вообще в плюс с учетом вложений, т. е. экономический эффект туманный.

Собственно, экономический эффект и убил троичную логику. Даже у Сетуни под капотом трит делался из двух битов. О чём автор упомянул.

Кремниевый транзистор к середине 1960-х изменил экономику вычислений. Физика транзистора заточена под два состояния - открыт или закрыт. Три уровня на кремнии требуют дополнительной схемотехники, точных порогов напряжения и дают нестабильность при температурных дрейфах. Феррит-диодная база Сетуни это обходила, но к кремниевым интегральным схемам приспособить троичную логику оказалось нетривиально.

С чего бы это? В этой ЭВМ три уровня собирались из двух двоичных ячеек. Что мешало повторить это в кремнии? История троичной ЭВМ - это классическая история того, как проигнорировали экономику. Серебряные провода вместо медных в проводке в квартире тоже офигенно эффективны, если откинуть экономическую составляющую.

Ну, кто‑то и «музыку через вешалку» слушает, если верить байке.

В IT чаще пляшут от наличие рук и готового ПО. Если я сейчас спаяю комп с байтом из 9 битов, то, наверное, будет клёво, но вот даже CP/M я на неё запарюсь портровать. Это как очень отдалённый пример.

Если строить троичный компьютер общего назначения (как современную «Сетунь»), практической пользы почти не будет. На FPGA или ASIC его можно сделать куда надежнее, чем в 1959 году: нормальная память, ECC, формальная верификация, CI‑тесты, симуляторы, нормальный toolchain. Но это будет либо троичная ISA поверх обычной двоичной физики, либо экспериментальная многоуровневая схемотехника. Интересно, конечно, второе — но сделать и использовать такое... ух сил уйдёт!

А в чем заключается эта математическая неэффективность? Почему вдруг близость тройки к числу е становится более эффетивной?

Сравнивать быстродействие сетуни с ibm650 - спекуляция, так как оно определялось скоростью доступа к памяти, а не особенностями феррита, который проиграет по скорости ламповой ячейке.

Сами же сказали в статье, что в ibm650 использовался магнитный барабан. Будь там ферритовая память а в сетуни барабан - ситуация была бы обратной. У урал-1 был барабан - 100 оп/с. У бэсм-1 - вообще трубки.

В итоге имеем что на данный момент не существует современного ключа, способного нативно работать с тремя состояниями.

Автор написал.

Для позиционной системы счисления с основанием r и n разрядами можно записать r^n чисел. Стоимость машины пропорциональна числу элементов - то есть r × n. Если минимизировать это произведение при фиксированном диапазоне чисел, производная обнуляется при r = e ≈ 2.718.

Правда, это верно только теоретически, когда элементы с разными разрядами равны по стоимости. А если трит делается из двух битов вся теория идёт прахом.

Кстати, два - второе целое число после тройки максимально приближенное к e.

Трайт (tryte) - аналог байта. В Сетуни-70 - 6 тритов. Покрывает 729 значений против 256 у байта при схожей схемотехнике.

...

Трит хранился как два двоичных разряда...

Т.обр., схемотехнически трайт занимал 2х6 = 12 двоичных разрядов. "Покрывает" 4096 значений. Из которых будем использовать 729 значений, ибо идея превыше всего. Что-то я потерял момент, где начинается выгода.

Поднимите мне веки - (с).

А какая может быть выгода в имитации? Да никакой. Не было радиодеталек для нативных троичных ячеек. Да и сейчас нет.

Не знаю, как тогда, а сейчас выгода аналогичных разработок начинается на словах "грант Минпромторга на не имеющий аналогов в мире..."

Печально, но это работает на лиц, принимающих решения.

Что-то я потерял момент, где начинается выгода.

Выгода теоретически начинается дальше, когда мы делаем настоящие триты, а не имитируем их. Практически, как мы видим, не началась.

А на этапе модели, понятное дело, никакой выгоды быть не может.

начинается дальше, когда мы делаем настоящие триты

Так не делаем же. Я понимаю, что экспериментальные исследования, но ведь эти клоуны собрали аж 50 "Сетуней"!

Ну зачем же клоунами то называть? Ребята сделали хорошую вещь по тем временам. Машинка исправно работала. Даже в серию запустили. Но наблюдался некоторый дефицит тритов, вот рынок и порешал за двоичку.

что круто у троичной системы, так это то, что деление или умножение на три выполняется сдвигом вправо-влево

это невероятно полезно для программирования ПЕРИОДИЧЕСКИХ процессов при моделировании трёхфазных систем: электродвигателей, электросетей и так далее.

в эпоху когда у среднего CPU не было команды деления (она и сегодня у среднего CPU не дешёвая), мы держали значения измерителей периодов (таймеры) в троичной системе. Именно потому, что разделить период на три было просто

Менять схемотехнику под каждую цифру - не выглядит разумным... А если бы вы 5- или 6-фазные системы начали моделировать?

трёхфазные системы электропитания распространены с самого начала. а всё дело в том, что три фазы - это минимальная конфигурация электрической машины НЕ имеющая мёртвых зон (без момента). И в этом месте интересный факт: более трёх фаз - слишком уж расходно будет, менее трёх фаз - слишком уж будет неудобно.

Потому, думаю, и через 10 и через 100 и через 1000 лет человечество будет использовать именно трёхфазные сети и трёхфазные же электродвигатели/электрогенераторы.

Так что троичная система очень бы подходила и к энергетике, если бы использовалась с самого начала. Сегодня, когда компьютеры стали мощными, это уже не важно. Но интересно, что здесь видна новая грань полезности

троичная система очень бы подходила и к энергетике,

Извините, нет. Не к энергетике, а к выполнению операций деления со степенями тройки.

Зато деление/умножение на два становится не простой операцией сдвига, а полноценным алгоритмом!

А в двоичной на три. И как быть?

Легко - надо всего-навсего перевести множимое в систему счисления равному множителю и сделать один сдвиг )))

Зато деление/умножение на два становится не простой операцией сдвига, а полноценным алгоритмом!

Умножение просто делается: x * 2 = x * 3 - x

К сдвигу на трит операция вычитания добавляется

Специфический юзкейс. Для контроллеров под электросети может и зашло бы, но делать из этого универсальную архитектуру не было смысла

это невероятно полезно для программирования
...
держали значения измерителей периодов (таймеры) в троичной системе. Именно потому, что разделить период на три было просто

Только всё остальное в этой программируемой системе становится сложно, хотя бы инкремент счётчика. Бит переноса придётся вручную носить в цикле.

Может, не троичная, а просто держали что-то предумноженным на 1/3?

трёхфазных систем: электродвигателей
...
здесь видна новая грань полезности

Грань работает, если только деление на константу слишком дорого - а тогда слишком дорого также умножение и LUT-таблицы (деление можно оптимизировать через то или то), а через таблицы будет реализовываться синус для инвертора и вот он уже под запретом.

Или троичность (поверх двоичности со всем сопутствующим оверхедом, потому что годный троичный логический элемент так и не нашёлся), или возможность двигаться дальше технологий 70-х годов - выбор очевиден. А подобных узких оптимизаций можно и без троичности наделать (аппроксимировать 8-битное деление через 3 сдвига и 3 сложения; предусмотреть спец. инструкцию в контроллере...).

А где там много делений на три? Там сплошной корень из двух и прочая тригонометрия...

Когда пишут про двоичную логику, обычно рассказывают: вот такой у нас логический базис. Вот такой формат чисел, вот так мы долго думали и пришли к доп.коду для представления отрицательных чисел и т.д.

Когда пишут про троичную логику - рассказывают что три бита это хорошо, экспонента, все дела и потом начинается ностальгическая песнь ах как жаль, современники не поняли.

Ну если вас правда эта тема интересует - ну напишите, как в той сетуни была реализована логика, как хранили числа, по каким правилам складывали и умножали.

напишите, как в той сетуни была реализована логика, как хранили числа, по каким правилам складывали и умножали.

По-моему, лет 10-15 назад даже на хабре была статья на эту тему... (но если погуглить, статьи есть, но описание троичной логики неглубокое)

Всё сводится к другим таблицам операций, особенно логических. Сложно, но имхо ничего особенно интересного или полезного. Просто таблицы истинности в несколько раз больше.

Классические моп-транзисторы работают на инверсии типа проводимости канала, поэтому три стабильных состояния они выдать не способны физически. А если проектировать тристабильные ключи на другом принципе, это будет долго и сверхдорого даже при наличии теоретических наработок.

Ну если вас правда эта тема интересует - ну напишите, как в той сетуни была реализована логика, как хранили числа, по каким правилам складывали и умножали.

Вы серьезно? Статья слоп же. Никто ничего не напишет, рейтинги и слопом набираются.

Не уверен, что по теме, но встречалось доказательство, что оптимально для представления информации словарь должен состоять из четырех "букв". И именно поэтому для хранения информации ДНК использует 4 элемента.

Оптимально в каких условиях?

Наверное, во всех условиях. В исследовании озадачились, какой оптимальный размер элемента, которым эффективно кодировать информацию. То есть, в нашем словаре 33 буквы, в латинском - 26, текст (частный случай) можно записывать в виде байтов по восемь бит, можно в Radix50 помещать 3 символа в 2 байта и т.д.
Словарь может состоять из букв, из слов, из целых предложений или абзацев (или вообще целых документов).
Если у нас словарь из предложений, то мы можем записать так: 1 - предложение №1, 2 - предложение №2, ... У нас текст (или информация) будет выглядеть так: 3, 2, 9, 15, например. Но при этом размер словаря будет очень большой, так как каждый символ соответствует целому предложению. Это как векторные базы, один вектор может соответствовать целому абзацу или документу.

Информация передается так: мы даем текст и плюс словарь для этого текста.

С другой стороны, если в словаре буквы, как у нас, тогда словарь маленький (26...33 букваы) но текст получается большой. Тоже не лучший вариант.

Построили график функции, по одной оси - размер словаря, по другой - количество информации (размер самого текста + размер словаря). В итоге получилось, что при числе символов в словаре, равном 4, у нас будет самый эффективный способ передачи информации.
Вот это и связали с ДНК, дескать, природа тоже выбрала самый оптимальный вариант кодирования - всего из 4 символов.
Связывая это с материалом статьи, можно предположить, что лучше всего в ячейке или одном элементе (атомарном) памяти хранить 4 уровня сигнала, а не 2 (как в бите) и не 3 (как в трите).
Также можно добавить, что есть элементы памяти, в которых данные хранятся не в виде 0 или 1, а в виде нескольких уровней напряжения. Например, MLC во Flash памяти.

Плюс за упоминание кода Radix50 с размером алфавита в 40 символов. ;)

Построили график функции, по одной оси - размер словаря, по другой - количество информации (размер самого текста + размер словаря). В итоге получилось, что при числе символов в словаре, равном 4, у нас будет самый эффективный способ передачи информации.

Какой-то бред, извините. Архиваторы часто используют словарное сжатие, и размер словаря каждый раз разный, в зависимости от текста/алгоритма. И, уверен, это число практически никогда не 4. Число букв в алфавитах никогда не 4. В иероглифах - особенно!

Если бы 4 было оптимальным, его бы использовали часто. Может, оно оптимально только для нашей, углеродной, ДНК?

Про архивирование я тоже думал, но данные могут быть разными, например, число "1" повторить 1000 раз, или белый шум на 1000 элементов, без повторов.

В статье есть мнение, что 3 значения уровня (условно) лучше, чем 2 ( ноль и единица). И ещё они привязали этот факт к значению числа "е". То есть, вопрос, сколько вложить в конструкцию. То, что я привел - было в журнале, если найду, то напишу. Но это было ещё до интернета.

Иероглифы, похоже, тоже не самый оптимальный случай. Сколько их - в начальной школе 6000? Надо ещё иметь их начертания и текстовую расшифровку значения.

Вот сейчас токенизаторы со словарями порядка 50 тыс слов или кусков слов. По пять байт на каждый - будет 250 килобайт. Потом каждый токен можно будет поместить в два байта. Как-то делал массив, он двумерный, если сделать длину слова переменной, то надо ещё указатели хранить на них. Если слова длинные, то есть смысл, если короткие, то проще фиксированный размер иметь. И так далее, не просто всё учитывать .

И именно поэтому для хранения информации ДНК использует 4 элемента.

Именно ли поэтому? Они комплиментарные, возможны всего две пары: А-Т, Г-Ц - получается хитрая двоичная система с резервированием (защита от ошибок?).

Как они там по парам - это один вопрос, но считается, что алфавит состоит из четырех элементов.


Это mRNA. Каждый кодон состоит из трех нуклеотидов.

В ДНК вместо U (урацил) присутствует T (тимин).


А тут - ДНК

Очередная статья сгенерированная с помощью ИИ. И как мне понять где тут правда, а где галлюцинация?

Никак, но не стоит делать ложной дихотомии, если статья написана человеком - галлюцинаций там может быть не меньше, а даже больше. Поэтому фильтровать статьи по источнику написания (или просто вычитки и формата, а не источника) нерационально.

Человек, когда пишет в статье ошибочную информацию, редко выдумывает ее прям на месте из головы, а чаще транслирует какое-то пусть неверное, но реально существующее мнение/информацию. ЛЛм-ки же на голубом глазу генерируют мегатонны полного бреда, каждый из которого верифицировать жизни не хватит, так что правильный подход - нейрослоп в dev/null даже не читая

Так речь о том что прогоняют через нейронки сырой текст даже те кто ленится оформить текст самому, а не лишь те кто просят написать технический пост полностью с нуля. Разница между "напиши статью об этом" и "сделай из этой информации статью" как небо и земля как раз в отсутствии мегатонн бреда, а верифицировать приходится любую информацию если собираешься ее применять. Никто не мешает нейрослоп прогнать через другой нейрослоп с требованием написать с ошибками и более косноязычным языком, встречал и такое и чем больше отсеивают нейрослоп явный тем чаще будет появляться нейрослоп "под прикрытием".

А где гарантия, что нейронка не засунула пару тройку галлюцинация в черновик статьи? Если автор ленится сам ее причесать, откуда я знаю, что он ее вычитал обратно после ЛЛМки, и что черновик действительно был, а не как вы сказали “напиши статью об этом”? В наш век низкосортного нейрослопа проще его вообще игнорировать, а не разбираться в сортах коричневого

Нельзя быть уверенным что человек свой черновик (и даже чистовик) написал проведя фактчекинг и вычистив оттуда какую-то глупую мысль с бодуна, что приводит нас к извечному мусору в интернете сквозь который найти что-то стоящее сложно. И нейрослоп позволил производить мусор в куда большем количестве и в куда более пристойном виде. Спорить тут не о чем и базовый фильтр на явный и незатейливый промт для оформления статей экономит много времени, нет цели переубедить в этом

Нельзя, но повторюсь: глупые мысли людей берутся не с потолка - это или ошибочный, но существующий в инфополе факт, либо ошибочная интерпретация фактов самим автором, то есть в случае с человеком, даже за ошибкой что-то стоит, а это сужает пространство. Ну то есть человек может написать что-то вроде “как известно, викинги носили шлемы с рогами” и тут чутка эрудированный читатель сразу заметит ошибку, а менее эрудированный тоже быстро при желании найдет опровержение этого факта. ЛЛМка же запросто выдаст что-то вроде “как известно викинги носили шлемы с мордами кабанов” и этот бред уже так просто глазом не выцепится. Поскольку нейронки генерят в основном бред проще и надежнее их сразу игнорировать, таким образом вероятность бреда в читаемом сразу снижается с 99.99% до преемлимых 70

Не знаю рассказывают ли сейчас в вуз-ах, готовящих IT-специалистов о троичной логике, о тритах, о Брусенцове и его "Сетуне", но когда я учился в первой половине 70-х годов на инженера-программиста мы с восхищением слушали лекции об этих чудесах. Тогда казалось - ещё немного, ешё чуть-чуть и ....

... еще немного, еще чуть-чуть и ...

согласен, именно так, мне тоже жаль того времени, деревья были как-то зеленее :)

Деревья были красно-черные

Сбалансированные!

Не знаю про сейчас, но лет десять назад в топ 3 технических вузов точно нет, по личному опыту и опыту знакомых из тех вузов где не учился лично.

  • 11 → запрещено, не используется

Из четырех возможных состояний - три рабочих. Не настоящая троичная физика на трех уровнях напряжения, но функционально эквивалентно. И это работало.

Объясните. Т.е. это всегда была двоичная логика, а кому-то захотелось выпендриться и сделать 3 значения вместо двух или четырех?

Да, полный дебилизм. Был адский дефицит современной (полупроводники) элементной базы, и эти товарищи наладили производство самодельные феррит-диодных ячеек. У ферритового колечка два устойчивых состояния, и эти клоуны для имитации одного трита использовали пару клечек. Похоже на тупое проедание гранта, да, но в данном случае грант вылился в госзаказ.

На самом деле тема и правда интересная. Представление отрицательных чисел в двоичной системе несколько костыльно. А в симметричной троичной системе оно естественно.

Костыли исчезли в момент изобретения обратного дополнительного кода.

Я помню, как проходили сложение чисел в физических "счетчиках" - все хорошо и понятно ровно до тех пор, пока не случается переполнение старшего разряда. Это можно считать костылем?

Зато положительный и отрицательный ноль никуда не исчезли.

Или, в случае дополнительного кода, несимметричность величин максимального положительного и минимального отрицательного числа.

Удалил коммент.

Все что сперва понаписал фигня. Есть, правда, проблема троичной логики - нет явного признака знака в старшем разряде.

нет явного признака знака в старшем разряде.

Он не нужен.

В троичной симметричной системе ({-1,0,1}) знак определяется самым старшим ненулевым тритом

Да, но его надо искать, а в двоичной его позиция фиксирована.

Аппаратно, например через каскадную логику. На выходе будет одно из трех значений: −1, 0 или +1.

Так я про аппаратную реализацию и говорю. В двоичной - это один провод вообще без логики. Ну и один параллельный ИЛИ-НЕ для проверки на 0, если надо. В троичной - каскадная схема с суммарной задержкой по числу разрядов.

Можно другую схему использовать. В двоичной тоже все не так просто потому, что знаковый бит это костыль и он требует контроля, а значит дополнительных вентилей. Вот еще отдельная проверка на ноль, а в троичной для этого таже схема что и для знака.

А вообще чисто теоретически, если забыть о существующих решениях, стоимостях миграции и разработки, можно ли построить компьютер на базе симметричной троичной системы, который был бы экономически не менее эффективным, чем на двоичной? Есть там фундаментальные проблемы?

Отсутствие элементной базы. Это и есть фундаментальная проблема. На КМОП хорошо строить двоичную. Строить из двоичной - троичную уже не хорошо

С точки зрения логики - вполне вероятно построить было бы можно

Допустим, у нас неограниченные ресурсы на разработку. Я немного об ином - возможна ли эффективная реализация в принципе. Нет ли физических или технических ограничений.

Может что на оптике можно сделать, кодировать не уровнем, а цветом - длиной волны.

Есть проблема со скоростью: если для условной двоичной 5-вольтовой логической схемы 1 будет пусть от 0т 3в до 5в, а 0 от 0.2в до 1.5в, то схема может переключаться в состояние 1 уже по достижении 3в на нарастающем фронте и 1.5 на убывающем, в троичной же логике схема должны будет ждать некоторое время чтоб понять, что напряжение устаканилось, и это реально 1, а не растущий фронт до 2

Спасибо! Это и хотелось понять.

Совершенно не понимаю восторгов, связанных с этим технологическим и логическим выкидышем. Были же и нормальные, "классические" (и современные для того времени) разработки - буквально в то же время (1959): например, ЭВМ "Днепр", которая была "на транзисторах", была выпущена тиражом в 500 экз и применялась в системах управления производствами, в оборонке, в космосе, САПР, в медицине, синтезе звука, управлении экпериментами...

Тройка оптимальна для многих реальных задач (те же задачки с гирями), т.к. теоретически получается макс. плотность информации на единицу трёхстабильного элемента.

Минус только в сложности переключения в трёхстабильных элементах (либо энергопотребление большое, либо переключение долгое, либо другие минусы). Хотя патенты только в путь клепают по ним, но из них не очень ясно приемлемы ли они для реального применения или просто кто-то вышел покурить-подумать и придумал фигню.

Для передачи большого кол-ва информации лучше использовать троичную систему (напр. на оптоволокне и спец. лазерах), т.к. 661578 разряд в троичной хранит больше информации чем 1048576 разрядов в двоичной и нужно передавать сигнал в ~1.584962 (для 64 байтов [мин. ethernet пакет] - 512 бит, что меньше информации в 324 тритах, кол-во необходимых сигналов для передачи сокращается в ~1.580247 раз) раза меньшее кол-во раз - время передачи сокращается, расход энергии сокращается. Больше информации за раз - больше экономия. Напр., для видео/аудио и пр. больших объёмов, для небольших - лучше двоичными, т.к. там разница в ~1.5 раза и выгода от использования пары трёхстабильных элементов для передачи троичных данных стремится к 0.

Т.е. и троичный процессор должен работать с блоками, а не с отдельными тритами (SIMD), чтобы выгода была отлична от 0 по объёму схемотехники и энергопотреблению. Т.е. не для обычных пользователей, т.к. кач-во кода в таких системах не впечатляет (от ОС и до пользовательских программ).

Для передачи большого кол-ва информации лучше использовать троичную систему

А вы не думали, что если бы передавать таким образом информацию было бы действительно эффективнее, то так уже бы и делали и об этом писали бы в любой статье про "Сетунь" (как эта), и мы бы уже это знали?

Так получилось, что цифровая техника у нас двоичная. Поэтому нет смысла строить перекодировщики в троичку и обратно, если можно передавать информацию в двоичке.

Системы счисления не работают на этом уровне.

Мы не смотрим на запись в TLC-флеш или на 8PSK как на преобразование чисел в 2^3-ричную систему. И не смотрим на методы сжатия как на странные системы счисления (asymmetric numeral system, да-да). И на кодировки так не смотрим.

А если смотрим, то тогда признаём, что нет проблемы в смене основания для передачи информации и интереса в троичной тоже нет - зачем, когда есть гораздо более эффективные смешанные-адаптивные-с-вероятностями (нет, я не умею видеть в видах энтропийного кодирования обобщённые системы счисления; верю статьям).

Вот если переместиться поближе к логическим элементам, там идея системы счисления раскрывается. Только опять не троичной.

смена основания не бесплатна. Она требует ресурсов, программных или аппаратных — неважно.

Если трит всё равно приходится собирать из двух битов, то магия эффективности как-то быстро заканчивается

С логической (не физической) точки зрения наши компы не двоичные, а 256-ричные, потому что минимальный объём адресуемой ячейки памяти - 8 бит или байт. Мы не можем расположить переменную произвольно в памяти с точностью до бита, не может оперировать типами с размером не кратным 8 бит, без дополнительного слоя симуляции двоичной системы. Двоичность современных компов проявляется только на уровне железа и вовсе не видна в софте. На логическом уровне мы может рассматривать наши компы как 256ричные, это будет правильней.

Поэтому физический 256ричный бит отлично впишется в имеющуюся инфраструктуры, не придётся даже софт переделывать. Всё просто заработает!

А уж если извращаться, то тогда лучше сразу десятичный бит, там есть свои преимущества.

256-ричные тогда уж.

Как минимум такое утверждение точно справедливо - 256-ричные процессоры, будь они созданы, могли бы быть очень легко интегрированы в имеющуюся железную инфраструктуру, с минимумом переделок, а софт вообще не потребует переделок.

Возможно оптические вычисления позволят создать такие процессоры?

легко интегрированы в имеющуюся железную инфраструктуру, с минимумом переделок

Процессор с 256 уровнями сигнала вместо двух? Точно?

256 мало. Современные процы могут в 64 бита. Это же 18446744073709551616 состояний. Вот к чему стремиться надо, но проще аналоговый вычислитель сделать.

Процессор с 256 уровнями сигнала вместо двух? Точно?


Конечно. Там где старый двоичный процессор подключается к допустим 32-битной шине, ставим преобразователь, к которому с другой стороны будет подходить 4 провода от нового процессора с 256ю уровнями, а с другой - 32 проводника шины. Теоретически можно будет его даже на имеющиеся двоичные материнки приспособить, пока не сделают ему новое 256и-уровневое железо.

256-ричные процессоры

А смысл? Обычные процессоры тоже своего рода 256-ричные: у них байт - минимальная адресуемая единица информации. Ну будет вместо "байта" "256-бит". Но не факт, что схемотехника окажется проще.

p.s. не читал всю ветку, а надо было

да, я про это и говорю, если вдруг окажется возможным и выгодным (например из-за энергоэффективности, размеров, быстродействия) увеличить размер бита, то 256-ричная система подходит идеально. На уровне какого-нибудь с++ мы даже не заметим, да и ассемблер можно сделать совместимым.

возможно для оптических вычислений это сработает хорошо, у света есть интенсивность, фаза, длина волны, поляризация, частота...

К чему уж эти полумеры. Сейчас уже делают квантовые компьютеры на кубитах с бесконечным числом состояний. ;)

Красивый инженерный концепт для своего времени, но выживает не самое элегантное решение, а то которое дешевле масштабировать на миллиарды транзисторов

Без учёта странностей реализации (используется три из четырёх состояний), у тритов есть ещё одно важное преимущество — простота округления. Отбрасывание дробной части — это всегда округление до ближашего целого. Никаких floor/ceil, не надо думать о знаке.

Sign up to leave a comment.

Articles