Комментарии 126
Осталось одеть на кота колокольчик
В смысле придумать схему ячейки памяти, которая "тратит" на два трита, хотя бы не сильно больше транзисторов, чем на три бита
Это как раз дело плёвое: https://kit-e.ru/halkogenidnaya-energonezavisimaya-pamyat-cram/
Еще одна любопытная возможность халь-когенидной технологии хранения информации заключается в создании не-двоичных систем памяти. Все привыкли, что бит может принимать только два значения — «0» и «1», и современная цифровая схемотехника не предполагает иных вариантов. Безусловно, максимальная надежность хранения информации в ячейке CRAM достигается при полном переходе всего объема вещества в элементе из одной фазы в другую, однако, поскольку информация — это фактически значение электрического сопротивления, то возможно создание элементов памяти с 3 и более состояниями, количество которых теоретически не ограничено. Так, например, в лаборатории Ovonix был создан устойчиво действующий элемент памяти, сохраняющий 10 возможных значений для одного бита за счет управляемого частичного перехода фазы в веществе наноячейки. Практического применения для этого способа хранения информации пока нет, но сам факт его существования свидетельствует о том, что возможности увеличения плотности записи данных в единице объема отнюдь не исчерпаны.
Поискал упоминания "Хабра" в оригинале, но вместо них нашел странный перевод dozens не "дюжины", а почему-то "десятки".
Пока не придумали хорошую тристабильную ячейку памяти, и 3-уровневый логический элемент тоже - у троичной системы нет никаких преимуществ. Несмотря на то, что 3 ближе к 2.718 чем 2 ;)
Я придумал, как это все сделать на биполярных транзисторах, ведь там есть такой, которому необходимо, чтобы ток тек в базу и такой, которому необходимо, чтобы ток тек из базы (P и N канальные транзисторы). Итого у нас получается три состояния тока: течет в одном направлении, течет в другом направлении и не течет.
Но биполярные транзисторы менее энергоэффективны и больше по размеру, чем полевые, которых кучу пихают в процессоры. Вот придут мне N и P канальные транзисторы, буду собирать сначала двоичные, для разогрева, а потом и троичные схемы. Может, когда-нибудь и до полноценного процессора дойду
Правда, тогда стоит и материнскую плату создать. Идеи по количеству тритов на трайт у меня есть, 5, тогда будет 243 значения. И придумывать троичные ячейки не надо, можно сделать схему, которая будет преобразовывать троичные данные в двоичные и наоборот. К примеру, 121 + Число, в троичной симметричной ссч, а в память запишется число от 0 до 243. То же самое можно проделать с жёсткими дисками. А когда (и если) появятся системы хранения с 3 состояниями на ячейку, можно перейти на них
Это не так работает.Из базы ток не утечет.Рекомендую ознакомиться с ключевым режимом работы транзистора.Легко ключ переключать, ключ открыт это ноль, ключ закрыт это единица.А промежуточное состояние, линейная область, она сложна в настройке и стабилизации.Поэтому используются двоичные системы.Остальные, в принципе, не особо и нужны.
Промежуточные состояния используются только в буферах компараторов и памяти. В ключах их использовать нет смысла. Тем не менее не только двоичные системы нужны. Не нужны были бы, их бы не использовали так массово.
Вы пишете совершенно не о том.Я пытаюсь указать как формируется единица и ноль. Они формируются исключительно ключами. В буферах компараторах используется что угодно, только не линейный режим.Линейный режим используется, как минимум, в усилителях, генераторах, аттенюаторах и много где ещё.
Буфер компаратора это и есть линейный усилитель. Зачастую дифференциальный, да еще и цепью АРУ
Гениально.Что жe, успехов вам в ваших изысканиях.
Причем здесь мои изыскания? Схемотехнику изучайте, а не фантазируйте
Ну если так, вопрос ставите, то покажите схему подобного буфера компаратора в линейном режиме.
Под рукой нет. Я на отдыхе. Найдите пдээфку любой современной микрухи с итнрфейсным входом и увидите
Ага,
Ну да, как до дела дошло, пошли отговорки.
Беда нашего времени, одни "специалисты" остались.
Ну так то квантовый пк по сути в троичной системе и работают, у них ведь как кубит есть, нет, или в неопределённом состоянии, другое дело что эти же квантовый пк как раз и доказали, что даже с по написанные специально для него они ничем не лучше обычного пк в двичной системе, даже самые мощные квантовый пк с 2048 кубитами
А заодно и схему ячейки памяти, выполненной на подобной линейной части транзистора.Чего вы выше утверждаете.
Память NAND вся современная многоуровневая. Кроме особо дорогих. Есть еще несколько типов памяти небинарных. Спецпроцессоры есть многозначной логики. Скоростные интерфейсы современные все ВСЕ! многоуровневые
Другими словами, просрали мы полимеры (зачеркнуто) троичку
Беда нынешних "специОлистов", что в документацию ему лень посмотреть. Это ниже его достоинства. Он лучше будет в игрушки играть и почитывать дешевые попнаучные статейки. И все ему должны. Разжуй и в рот положи.
Ну да, вы по делу и слова не сказали, одни дешёвые глупости.Вы схему то хоть видели когда то? Или опять сказки об отдыхе пойдут.С такими познаниями не отдыхать надо, а схемотехнику зубрить.И смотрю не успокаиваетесь.
Я их не только видел, а прозванивал, смотрел осциллом и перепаивал. Если все выше перечисленное и про память и остальное, для вас "не по делу", тогда разговор закончен.
Про "экономичность"..
Если взять 6-значное число не 100'000, а 999'999, то экономичность 10-го основания останется прежней (60), а для 2-ной и 3-ной окажется 40 и 39. Т.о. соотношения "экономичностей" плавают. Отличия 2-ной и 3-ной экономичностей лежат в пределах 2,5-3%. Предел "существенности", насколько я помню - 5%... Сейчас все оправдывают многократно раздутое ПО чем угодно, только не здравым смыслом, а здесь мы пытаемся выжать из кошечки ещё капельку... в чём смысл?
Но, безусловно - теоретические раскладки правильные.
Теоретические — да. Но компьютеры работают уже с 32 битами, и это уже "старые" компьютеры. Там число максимальное равно ~4 миллиарда. Там разница будет существеннее. С 64 битами ещё больше. В общем, весело это все
А откуда такая уверенность, что трит экономичнее бита в 1,5 раза? Этот параметр "экономичность" нигде, кроме как на бумаге у математика смысла не имеет. В реальном мире всё сильно сложнее. Цена тритов будет не в 1,5 раза больше, сложность в изготовлении не в 1,5 раза больше, энергопотребленре и т. д. Все параметры будут иметь свое собственное отношение. К тому же ЦП, ОЗУ, ПЗУ, шины, всё будет иметь свои собственные пропорции в разнице этих параметров между тритом и битом
А "экономичность" у автора никакого применения в реальном мире не имеет вообще
«Сетунь» — единственный серийный троичный компьютер, разработана в 1959 году в стенах вычислительного центра Московского государственного университета. Кроме серийных, были ещё опытные образцы в разных институтах СССР. До 80-х годов не утихали такие попытки, обсуждения, оценки преимуществ, закрытые разработки для спецнаправлений и эксперименты. Книги писали, в журналах публикации были.
Всё это проиграло конкурентную гонку и умерло ещё до распада союза. А уж когда фирма IBM зашла на территорию союза, про другие версии развития компьютеров начали быстро забывать. Аналоговые компьютеры делали, к слову, для моделирования и тоже у них были какие то преимущества.
Вот только выиграла не архитектура, выиграла стандартизация по всему миру и поддержка крупными производителями.
Там и с архитектурой были большие проблемы. Я уже не помню деталей, только это описывалось в науч. поп. лит. И сами разработчики признали не то что бы бесперспективность, а стеклянный потолок в возможностях всей вычислительной системы. Нужны были десятилетия для решения тех проблем, которые уже были решены на двоичной логике - как аппаратные, так и со стороны математики и программных средств.
Фишка Сетуни была в том, то для ферритовой памяти 3-стабильная ячейка была немного дешевле чем 2 2-стабильные.Но ферритовая память стремительно устарела,
Ну может помните, как ещё в середине 90 Билл Гейтс заявлял, что для самого мощного персонального компьютера хватит 600 Кб памяти, а на практике 300 кб памяти считалось топовым компом. Так что даже в 90 могли сделать такой объём памяти на ферритовых кольцах, это не было большой проблемой.
Проблемой стало то, что Intel, Ibm, M$ выпускали новые версии своих продуктов каждые полгода и каждая их новая версия была революцией среди развитых кап. стран, а сов. союз даже и мечтать не мог о таком развитии. Вообще никак не мог такого сделать, даже сделать на два порядка хуже - это нужно сверх усилие всех министерств и его не могли даже запланировать.
И когда привезли открытую архитектуру то каждый самостоятельно мог собрать, модернизировать и работать за компом. И мощности даже слабеньких персональных компьютеров тех времён превосходили вычислительные комплексы на много сотен метров занимаемых площадей и много одновременно занятых их обслуживанием техников (тогда так они назывались). И программ завались - типография на столе, офисный пакет, табличный и текстовый процессор - да это была воплощённая сказка. И когда уже специалисты пощупали это своими руками и мозгами, то вопросы о специализированных процессорах, и хитрой математике для этих слабеньких аппаратных системах, отошли на десятый план. Работай сколько нужно и результаты вмещаются на дискете. Я тогда учился, но помню всё это.
Так что даже в 90 могли сделать такой объём памяти на ферритовых кольцах, это не было большой проблемой.
Память на ферритовых кольцах - это ручная работа. Это очень, ОЧЕНЬ дорого. Это очень, ОЧЕНЬ громоздко. Как только научились делать память на микросхемах - так и перешли на нее. А ключи внутри микросхем - двоичные. На этом троичная логика и закончилась.
Даже без БГ все прочие, даже полностью советские компьютеры - двоичные.
Ну может помните, как ещё в середине 90 Билл Гейтс заявлял, что для самого мощного персонального компьютера хватит 600 Кб памяти, а на практике 300 кб памяти считалось топовым компом.
Я помню что типичный современный комп середины девяностых имел мегабайты памяти. У той же 95 винды минимальные системные требования 4 мегабайта.
Ему часто приписывают такое заявление, но разумеется, не в середине 90-х, а в начале 80-х. Сам он это отрицает. Судя по всему имеет место быть испорченный телефон - кто-то (может и Гейтс) что-то про память сказал, через несколько итераций контекст был утерян, Биллу приписали очевидную глупость и понеслось.
Я помню серо - жёлтую обложку журнала где-то в 92 - 93 году, с фото Б. Гейтса на обложке и его переводное интервью о видении рынка - вот там он и заявлял о компьютерах будущего с такими характеристиками. И я знал лично разработчиков в богатых конторах, для которых и 300 с чем то килобайт было недоступно; они себе личные компы такие заводили, комплектующие покупали за границей и везли челноками. Были такие времена.
В 94 уже точно у нас была винда (и каждые полгода с крупными обновлениями), только почти до двухтысячным многие работали в дос,через нортон или волков командер - куда не приедешь - нортоновский экран светился, И хватало, у нас на многих рабочих местах запускалась только одна программа - асутп и больше ничего не требовалось. И так было очень во многих учреждениях, особенно государственных.
Это у вас ложные воспоминания. Что касается недоступности 300 килобайт, слушайте, у спектрума 1982 года было 48 килобайт оперативки и это был дешевый домашний компьютер.
Я лет 15 назад у кого-то из знакомых случайно нашел и спас от уничтожения небольшую брошюру "выбираем персональный компьютер, принтер, модем", вот несколько фоток
Скрытый текст
Сдано в набор в конце 1992 года и там уже память мегабайтами измеряется
И я знал лично разработчиков в богатых конторах, для которых и 300 с чем то килобайт было недоступно
Ну это уже совсем бредятина, слушайте. Ну подумайте просто, логически. Даже 30-пиновые SIMM, которые шли к 386-м, имели до 16 Мб на плашку. А уж 486-е, которые работали с 72-пиновыми SIMM модулями памяти, минимальная плашка которых была на 1 Мб. В 93-м так вообще уже Пентиум вышел. Вы хотите сказать, что разработчика в богатой конторе сажали за комп даже не предыдущего, а пред-предыдущего поколения, причем с практически минимальной комплектацией? Блин, да гляньте в компьютерные каталоги 92-93 годов. Я сомневаюсь что вы вообще в продаже плашки меньше мегабайта найдете.
Вот вы сейчас прекрасно продемонстрировали, что всем этим "рассказы заставших" про то, как в совке трава была зеленее или про ужасы девяностых - за 30 лет память человека превращает объективную информацию в салат.
По каталогам оценивать реальную ситуацию это же не верно. Появился пентиум, и что все сразу повыбрасывали свое оборудование и понакупали новое за адовую цену? Нет конечно. 386 молотили долго и много у кого. Если он стоял в стойке и выполнял свою задачу, то легко доживал и до середины нулевых.
Поиск-2, аналог PC/XT на 8086(!) имел не менее 640 кб памяти. 286 с менее чем 1 мб памяти не существовало (ибо зачем?). Существовал домашний комп Поиск-1, 128кб в базовой комплектации, но это точно не про разработчиков и богатые конторы. 386 и 300кб памяти - это ложное воспоминание, возможно, там разработчику 300кб памяти не хватало.
Цифра 300 кб не от меня исходит. Я уже не помню какие планки использовались более 30 лет назад. Но помню, что когда появился 486, он был под санкциями, запрещенный на ввоз. Завозился контрабасом и стоил как самолет.
Когда появился 486 - был ещë совок, у граждан банально денег не было нормальных на руках, только фантики.
92-93 годах всë уже совершенно свободно импортировалось и продавалось по вполне подьемным ценам.
386... ...легко доживал и до середины нулевых
386-й, до середины нулевых, ага. Тут медицина бессильна. Вы похоже просто не понимаете, насколько сильно росли возможности компьютеров с каждым новым поколением. В 98-м году у меня в школе в компьютерном классе уже пентиумы на 133 МГц стояли, а живые 386-е я видел максимум году в 95-м, и то они уже откровенно доживали своë в различных нищих госучреждениях.
А по каталогам оценивать ситуацию - это абсолютно верно, если головой подумать немного. Каталоги отражают реальное состояние рынка - какое железо продавалось в то время, от и до. Что может разрабатывать разработчик, если на его машине нет и 300 кб памяти, а на рынке самые дешманские компы уже с мегабайтами? Для кого, кто купит его продукт? И как он его сделает, как тестировать будет, если он даже операционную систему, не сможет запустить, которую на эти компы ставят?
Телега о том, что разработчик "в богатой конторе" не мог себе позволить рабочий комп хотя бы уровня самых дешевых моделей на рынке - это просто абсурд. Разработчики даже в небогатых конторах всегда работали на топовом для своего времени железе.
А что вы так взбеленились. Это реальный случай. Году в 2003 или 4м вынимали из стойки машину. И не из за того, что она накрылась, а просто полностью весь комплекс меняли. И это похоже вы не понимаете, что раньше не было такого психоза, как сейчас, чтобы кровь из носа, а с поялением нового айфона его купить.
Да и что там 386. Знаю контору, которая использовала девайс точно до 2007, может и дальше. Позже не общались. Так вот в этой железяке, проц стоял Z80, если вам это о чем то говорит.
Так вот в этой железяке, проц стоял Z80
Ну стоял и стоял. В микроконтроллер как залили прошивку, так он ее и будет крутить, хоть и 100 лет.
И я знал лично разработчиков в богатых конторах, для которых и 300 с чем то килобайт было недоступно
Это же комп разработчика был, на z80, да? ;)
Еще раз повторяю: IBM-совместимого компа, чтобы в нем было <512k , найти было можно, но это не про богатые конторы. 640к - в момент появления крылатой фразы это был нормальный комп, и этой памяти для существующих на тот момент программ действительно хватало. Больше - существующая MS-DOS просто не умела ;) Как появилась Windows с многозадачностью, так 640к и ушло в историю.
У вас, видимо где то шлейф отклеился, один бит пропал, адресация сдвинулась. Про 300 кб это вообще не мой текст.
А на зетке было серьезное устройство. Ящик, не типичного для нынешних дней формфактора. С перефирией разной, со встроенным ЖК экраном, выводом на монитор и много еще чего. В общем то как бы комп, но со своими спец задачами. Когда покупали его, в 92-ом вроде году, стоил 22 т. уе.
Компьютерным борудованием пользуются не только разрабы. Их как раз крайне малая доля процента. Они пытаются менять компы, как перчатки. Им это необходимо. Гораздо большая масса техники, стоит по стойкам и не меняется после инсталляции комплекса от 5 и сильно более лет.
Ну вообще у меня в универе и это в 1995/1996. Еще начинались первые занятия на СМ 1420 :) Да парк на самом деле был от этих терминалов до Пентиумов. Потом на втором курсе уже пускали в класс с 286-ыми. И уже 3-4 курс 386-ые. При этом да у меня дома на первом курсе был 486-ой. А так вначале нулевых много 386-ых потащили домой на халяву ибо их повально уже списывали. Поэтому да многие ретроблогеры рассказывают про свой первый 386-ой в начале нулевых.
В 97 году материнка 386 с процом 33МГц стоила 3$. Дисковод - 25. Видяха Cyrrus Logic - 10. Мышь - 10. Клава 5 вроде. Вот память не помню сколько. Корпус с БП 45. Могу что-то путать, давно это было. Винт тоже не помню.
В 98-м винт Quantum Pioneer на 1Гб стоил 150 баксов. Звуковушка Miss Melody 35 баксов.
Цены тогда очень сложно учитывать ибо наценки были бешеные и сильно цены менялись даже в течении года и разные могли быть в разных магазинах и регионах.
25 долларов дисковод? Ну это что то слишком дорого. Может CD привод?
Звуковая ESS вроде кажется дорого. В 1996 летом брал за 40 баксов и то возможно это было дорого.3 доллара за 386 хз. Их банально уже в прайсах я особо не видел или не смотрел. Тогда все внимание было нацелено на новомодные 3D ускорители.
Ну даже если и не говорил. На самом деле это высказывание было обосновано в момент выхода IBM PC/XT в 1983 году. На 5150 даже вроде нельзя было поставить 640 килобайт памяти. И да даже в 1983 году это было заоблачное количество памяти и шло только в топовой комплектации. А так многие бытовые персональные компьютеры не IBM имели 64 или 128 килобайт памяти. Но все быстро менялась и память дешевела.
Очень интересно про историю создания компьютеров на троичной системе:
http://malchish.org/index.php?option=com_content&task=view&id=390&Itemid=35&_utl_t=lj
Магическое число 1
Всегда первый пункт с единицы.
Либо ничто либо хоть 1 атом и это .
уже материя.
Одна точка уже геометрическая точка.
Из точек те едениц состоит все
При деление на 1 любого числа получаем то же число.
У нашей чолнечной системы одно солнце.
Новое число десяток сотен и тд начинается с 1.
1 это Истина.
И снова еденица. Только она придает вес даже ничему.
Единица - главное число, граница между бесконечностями...
Одноричная система счисления немножечко неудобная, не смотря на то, что в ней считает сама Вселенная
А в природе разве реально существуют целые числа? Ведь ни у какого объекта нет четкой границы (особенно на квантовом уровне).
особенно на квантовом уровне
Особенно на квантовом уровне целые числа и есть. Электрон он либо есть, либо его нет. Общий зараяд - целое число в элементарных зарядах.
Четкой границы у макро объектов вроде и нет, но классы эквивалентности "принадлежит объекту X" вполне есть.
А в природе разве существуют числа?
У нас одно солнце, но есть системы, где 2, а то и 3 солнца
По моему шенон со своей формулой энтропии уже доказал почему у бита должно быть именно 2 значения.
И всё, что это за странная метрика "экономичность"? В статье говорится, как её вычислить, но не раскрывается её смысл. Так ведь для любого основания можно придумать подходящую метрику, доказывающую "уникальность" этого основания...
экономичность = количество разрядов * количество возможных значений в разряде
Байт - 8 разрядов, в каждом либо 0 либо 1 - "экономичность" = 16
Байт позволяет выразить 256 различных чисел.
Схожий по количеству чисел "трайт", который позволяет выразить 243 (3^5) различных числа будет иметь "экономичность" 15.
Разумеется, это всё условности потому что у бит(ов?) и у трит(ов?) "размеры" разряда могут соотносится не как 2:3.
экономичность = количество разрядов * количество возможных значений в разряде
Почему вы перемножаете количество разрядов с количеством различных значений разряда? Что вы считаете? Сколько разноцветных камней вам надо, чтобы записать любое число, меньше либо равное этому? Но это не имеет никакого смысла.
представь, что у тебя каждый разряд в числе - это мешочек для значения цифры. Для двоичных этот мешочек либо пуст, либо вмещает 1, для троичных - может вмещать от 0 до 2х и т.д. То есть количество разрядов * количество возможных значений - это некий "объём" хранилища для чисел, и чем больше этот объём, тем больше требуется чего-то (например ткани, если это реально мешочки)
Для двоичных этот мешочек либо пуст, либо вмещает 1, для троичных - может вмещать от 0 до 2х
Представить-то можно что угодно. Какой смысл у этих мешочков? Почему мешочек для 10-чной системы счисления должен быть размера 10? Он же несет только одну цифру. Почему цифра '9' ровно в 10 раз больше, чем цифра '0'? Если размер цифры равен ее значению, то тогда надо умножать не на основание, а на основание -1 - ведь цифра 0 места не занимает.
Почему цифра '9' ровно в 10 раз больше, чем цифра '0'?
Да не цифра. А разряд - некое устройство, в которое можно "записать" цифру.
Если тебе надо различать только 0 и 1 - это один уровень сложности, если 0-9 - другой.
Если разряд кодируется уровнем электрического напряжения или количеством электрического заряда, то тебе нужно в 10 раз лучшую точность измерения или в 10 раз большую ёмкость.
Если ты в качестве разряда используешь вёдра с водой, то для 0,1 можно условно напёрсток использовать в котором есть или отсутствует вода, а для разряда умеющего хранить 0-9 надо использовать сосуд, в котором можно чётко увидеть разницу между 8 и 9, например.
Если ты используешь бумагу и чернила, для двоичной системы можно использовать просто точку: есть точка - 1, нет точки - 0. Для изображения "цифр" от 0 до 9 места побольше понадобится.
Так понятнее, или мне дальше тебе разжёвывать?
Нужно. Пока кажется, что вы натягиваете сову на глобус.
Ясно, что 10-ричной системе счисления каждый разряд имеет 10 различных вариантов. Почему варианты всех разрядов складываются - все еще непонятно.
В аналогии с сосудом проблема: емкость нужна размера N-1 для N различных значений. У наперстка 2 уровня: пустота и полный. Для троичной системы можно взять стакан ровно в 2 раза выше наперстка и с той же точностью можно разделить 0, 1 и 2.
Если считать деления на сосуде, то нет никакой физической причины их складывать. Что вы считаете, сколько вам краски надо, что бы нанести все деления? Почему надо рисовать деление в нуле? Как это описывает "экономичность" системы счисления?
С бумагой и чернилами та же проблема. Если ставить точки, то для 10-ричной системы надо место под 9 точек, а не 10.
Все еще не вижу логику, почему для одной цифры в N-ичной системы счисления требудется N места. Еще можно как-то натянуть N-1.
А если уж мы про емкость записи начали говорить, то тут надо бы по уму логарифмы и биты использовать. Размер информации и вот это вот все. И вот тут для записи в 10-ричной системе требуется в ln(10)/ln(2) раз больше места, а не в 10/2.
Чел, можно я себя процитирую, а?
> Разумеется, это всё условности потому что у бит(ов?) и у трит(ов?) "размеры" разряда могут соотносится не как 2:3.
А чо, если раскрасить ваши аналогии? Для мешочка по десятичное число не нужно больше ткани, потому что 1 будет означать синий камушек, 2 - зелёный и ТД. То же самое с точками на бумаге.
Хотя, наверное, усложнится чтение... Или нет?
Разряд, в котором можно хранить больше разных цифр, не может требовать меньше ресурсов. Просто логически, если у вас сейчас технологии позволяют поместить в разряд одну из N различных цифр используя P ресурсов, то для всех K<N вы можете использовать тот же разряд из P ресурсов.
Не особо важно, что это за ресурсы: объём, площадь, время, масса, заряд, энергия, мощность вычислительного устройства, которое оперирует этими разрядами, сложность логики для распознавания цифры в разряде и т.д.. В формуле экономичности, используемой автором статьи (кол-во разрядов * кол-во цифр) предполагается что количество ресурсов для одного разряда прямо пропорционально количеству цифр, что, конечно же, может не соответствовать действительности.
предполагается что количество ресурсов для одного разряда прямо пропорционально количеству цифр, что, конечно же, может не соответствовать действительности.
Ну вот вопрос, откуда вообще это предположение взялось-то? Причем оно появилось так явно, что аж целый термин "экономичность" ввели.
Я это понимаю. Но я напоминаю, что современные процессоры не очень то энергоэффективны. В теории должны, но что то пошло не так. Что если другая архитектура, основанная на других единицах не будет иметь таких болячек?
Вот смотрите, я предложил пример с цветом, размером, массой. Есть некоторое устройство (хотя это даже не механизм) для сортировки монет. Оно соритрует монеты по диаметру. Разновидностей монет несколько. И каждый модуль этолго устройства по сути двоичный. Представляет собой желоб определенного диаметра. Монета либо проходит либо нет. И любы устройства, работающие с другими системами счисления мне представляются так же. Но что, если это заблуждение?
Хотя, наверное, усложнится чтение... Или нет?
Ну, для чтения 1 бита достаточно 1 транзистора. Для чтения 1 трита нужно 2 транзистора. Хотя на 2 транзисторах можно организовать чтение 2 битов, что даст нам 4 возможных состояния вместо 3. Упсь, экономия такая экономная ;)
На самом деле, конечно, можна извернуться. Придумать вместо транзисторов другие структуры.. И технологию их изготовления. Можно работать не с уровнями сигнала, а например, с фазами. Но это перевернет всю схемотехнику. Умножение станет дешевой операцией, а сложение - наоборот.
С чего бы это поменяется стоимость умножения и сложения?
"Ну, для чтения 1 бита достаточно 1 транзистора" - можно то можно, но на практике таких схем не существует. CMOS - от двух и более, другие варианты еще забористей
Вот-вот. А многоуровневая логика еще более забористая сразу.
Ну почему же сразу. Если уже имеем два транзистора, работающие в режиме один закрыт, другой открыт, как всегда в cmos, то оба закрыты вполне себе третье состояние. При том же кол-ве транзисторов. Это в идеале, конечно и не без подводных камней в динамике, но тем не менее. С esl логикой еще интересней, там работа в ненасыщенном режиме. Есть еще масса интересных вариантов. Кто решил, что надо все сразу умножать на два как минимум, я не знаю.
Если уже имеем два транзистора, работающие в режиме один закрыт, другой открыт, как всегда в cmos, то оба закрыты вполне себе третье состояние. При том же кол-ве транзисторов.
Осталось научиться читать 3 состояние этой 3-стабильной ячейки.
Вот это вот не понятно. Кому осталось научиться читать? Если имеем ячейку, выдающую три состояния на выходе, в зависимости от трех состояний на входе, кто должен чему-то учиться. Если только учиться массам как работают электронные схемы, это да, учиться не вредно.
так онож не просто так 2 транзистора на разные состояния, это такой способ избегать недостатков 1-го транзистора. И заэксплуатировать нестандартные состояния не получится.
А кто же говорит, что просто так? Разумеется, для того, чтобы питание на массу не коротило. А в чем проблема закрыть оба транзистора, вы знаете? Ежли что мне эти проблемы известны
А в чем проблема закрыть оба транзистора, вы знаете?
Схема управления полумостом не сильно проще самого полумоста. Ну, закрылы вы 2 транзистора. Как вы определите, в каком состоянии находится это устройство?
Да хоть убей, мне не понятно, что вам не понятно. При двухполяном питании или хоть со искусственной средней точкой, оба закрыты, на выходе ноль. Последующий каскад воспринимает этот ноль, как и предыдущий. Поясните, в чем видите проблему
На выходе ноль или висящий контакт?
А висящий вас смущает?
Я не в курсе последствий использования висящих контактов в CMOS технологии.
Есть нюансы, у меня выше вскользь сказано. С емкостями не так просто. Но сие не есть непреодалимое препятствие. Активный ноль тоже востребован, но далеко не всегда
Не все так однозначно, будет ли оно работать мы все равно не узнаем? ;)
Ну, допустим, придумали вы выходную схему с полумостом (2 транзистора + некая схема управления). Больше элементов чем в CMOS. Научились формировать 3 состояния - 0, 1, висящий контакт. Ок. Теперь придумайте входной каскад, который будет работать с такими сигналами.
Всеж таки я вижу -1 0 1. Ну как бы зачем пытаться ломать законы природы, в которой симметрия заложена, как основа.
Входные каскады сетевых интерфейсов работают так. В чем проблема? USB 4 так же, да много чего. Внутренние шины последние все уходят от двух уровней. Тенденция более чем четкая
Входные каскады сетевых интерфейсов работают так. В чем проблема?
Для сетевых интерфейсов это нормально. Для всех внутрисхемных соединений - нет. Если это нужно обьяснять, то не нужно обьяснять ;)
Всех? Или имеете в виду какие то конкретные, якобы не поддающиеся этому?
Всех - это значит всех. Внутри процессора 1 000 000 логических соединений, наружу торчит 64 ноги. Если вы на каждое внешнее соединение потратите лишнюю сотню транзисторов - этого никто не заметит. Если на каждое внутреннее соединение вы потратите лишних 2 транзистора - результат не поместится на кристалл.
Ну тогда получается, что экономичность не является характеристикой системы счисления. Потому что у системы счисления как таковой нет свойства "количество разрядов". Любая система счисления оперирует с числами любого количества разрядов.
Скажем, я могу сказать, что у двоичной системы счисления 9 разрядов, и еë экономичность будет 18. А могу сказать, что у неë 29 разрядов, и еë экономичность будет 58. И какой вариант верный?
Либо это всë бред, либо все-таки определение экономичности несколько другое.
Двоичная логическая система может отвечать только «да» или «нет». Поэтому, если вы сравниваете два числа, x и y, чтобы узнать, какое из них больше, вы можете сначала спросить компьютер: «x меньше y?» Если ответ «нет», вам нужен второй запрос: «x равен y?»
Факт неверный. Оно зависит от реализации. Например в x86 команда CMP просто выставляет в регистре флагов результат сравнения, в котором есть сразу и бит равенства и бит знака.
Эхххх, опять. Ну ладно расчехлим пулемёт:
Троичная логика - хорошая штука, когда у вас линейная зависимость стоимости от длины условного "регистра". В этой ситуации не только троичная логика хороша, но и любая другая. Для квантовых компьютеров например четверичная логика рассматривается, ибо так нужно будет меньше куквадритов "согласовывать".
Ну а теперь недостатки:
Нет элементной базы. Гейты есть, а памяти нет. В принципе можно эмулировать через двоичную, просто не все вариации значений будут использоваться.
Какую систему соединения гейтов будем использовать: двухпроводную? трехпроводную? Какими уровнями напряжения будем оперировать? Отрицательные значения берём? Все производители сделают одинаковый стандарт или как обычно у каждого свой вариант несовместимый с другими?
Больший разброс напряжений означает меньшую устойчивость к помехам, а значит потребует снизить частоту.
Самое главное зачем? Сложение быстрее работать не будет, оно и так выполняется над всеми битами одновременно благодаря carry look ahead.
Потенциал от появления "Третьего значения" сомнителен. Например NULL в SQL итак существует и в двоичном компьютере, радости это не добавляет.
Осталось научится кодировать троичное состояние в спине фотона и хранить в спине глюонов.
Памяти то есть, как пример ссд. Mlc, tlc, qlc.
В указанных вами видах памяти кодируется не количество состояний на ячейку, а количество бит на ячейку: https://en.wikipedia.org/wiki/Multi-level_cell
Биты кодируются разными уровнями напряжений в одной ячейке.
https://www.kioxia.com/en-jp/rd/technology/multi-level-cell.html
Да, вы меня убедили. Несмотря на то что на выходе 2^n состояний, похоже это просто привязка к двоичной логике, можно делать и 3^n состояний.
Но это ПЗУ, а что по поводу ОЗУ, есть ли там?
у троичной нет никаких приемуществ. это просто двоичная система с избыточным битом. эри этом менее универсальная. Так как если нам нужно 4 варианта нам придется выделить аж 6 вариантов. А как это может выглядеть на транзисторах? а если транзисторы могут иметь 3 состояния. Но они всегда с браком и не идеальны и могут либо 0.0001 либо 0.9998 И чем больше вариантов будет труднее считать. Давайте уже дождемся либо химических процессоров либо квантовых либо синаптических. Но пока у нас кремний и полупроводники, пусть остаеться так как есть
Следует отметить, что ваш комментарий относится только к реализации троичных гейтов на двоичных гейтах.
Вообще-то, на полупроводниках также возможно реализовать троичную логику и множественную логику любого уровня, например, с использованием дополнительных затворов в полевых транзисторах (когда затворов больше одного и на выходе фиксируется импульс разной величны). Такие работы в свое время начинались, помню, что сам лично читал какие-то статьи на эту тему в 80-х годах 20 в. Но потом двоичный мейнстрим просто потушил эти ветки развития технологий. Но при наличии достаточных оснований и стимулов, подобные работы вполне могут и возобновить.
Вы начинаете с основания системы счисления и умножаете его на количество цифр
Почему? Как умножение основания на количество цифр как-то описывает экономичность системы счисления? Какой физический смысл смешивать количество различных значений разряда и количество разрядов?
Ну это же классика, погуглите фразу "экономичность системы счисления", вот к примеру.
Странная логика. "Берем N цифр, и разбиваем их на группы по b. Каждая группа относится к одному разряду и задает b различный цифр в нем. Т.е. понятно, что такую процедуру можно придумать, но какой у нее физический смысл - все еще непонятно. Почему нам надо каждому разряду выдать по своей собственной копии цифры "2"?
«x меньше y?»
Вообще, тут как будто четвёртое состояние всё же нужно: когда x и y несравнимы. Конечно, конкретно классического сравнения это касается слабо, но всё же сравнивать nan с чем-то — по версии ieee754 дело такое себе.
Да и если считать, что "меньше" это некое иррефлекивное асимметричное транзитивное соотношение, "равно"… короче пропустим, эти малопонятные слова. Например, из похожего, операция стогого подмножества в качестве "меньше" и равенства множеств в качестве "равно", ну и т.д., то как бы не верно {1}⪋{2, 3}. Спекуляция, конечно, но для чего-то вроде перегрузки операторов чутка неудобно кажется. Впрочем, тогда уж, считая, что nan!=nan… странно всё это. Сойдёмся на том, что это пустое рассуждение.
Ну и сверху уже писали, но я повторюсь: метрика эффективности взята с воздуха. Тут уж лучше глянуть с точки зрения хранения или как-то ещё, но не пальцем в небо.
Все эти рассуждения относятся в категории "бойцы вспоминают минувшие дни". Очень сложно принимать решения, но когда находишься на неизвестном перекрёстке и ещё враги делают ложные подсветки. А как быть с кибернетикой -, лже наукой?
Почему троичные вычисления лучше двоичных