Комментарии 65
Стоит отметить, что сигналы, кодируемые таким автоматом, приобретают свойство дуализма, которое соответствует дуализму элементарных частиц. Так же, как и частицы, которые проявляют одновременно и корпускулярные свойства и волновые,
Нет никакого дуализма у элементарных частиц. Это понятие было в самом начале квантовой механике введено, а потом быстро быстро забыто.
Печально мне.
До сих пор упоминание электрон мол проявлять себя может и частица и иной раз как волна. Что-то поменялось с тех давних пор?
Физики быстро осознали что это не так. Переименовали «Волновую Механику» в «Квантовую механику», а «Волновую функцию» в «Амплитуда вероятности» — но было уже… поздно. "Волна-частица" ушла в народ и там продолжает жить, кочуя по учебникам и статьям википедии.
Физики же этим понятием не пользуются уже давным давно.
Достаточно немного отложить момент запоминания новой волны. Вместо запоминания узора в тот момент, когда новая волна подошла к элементу, можно дать волне немного распространиться дальше и запомнить узор, получившийся вокруг элемента. В результате элементы автомата становятся инвариантны к направлению распространения волн. То есть один и тот же узор волны воспроизводится одинаково, независимо от того откуда пришел фронт этой волны.
Не могу сообразить почему это работает. Понимаю, что для вас все это соверщенно очевидно, но для меня — нет.
Как выход, можно запоминать волну не сразу, когда узор еще не полон, а немного подождав. Когда волна пройдет чуть дальше я увижу ее со всех сторон от себя. Запомнив такой полный узор, я теперь без труда смогу узнать эту волну с какой стороны она бы ко мне не пришла.
Вот возьмем правую часть последнего рисунка перед завершающим статью видео. Если то, что обведено окружностью с цифрой 1, и есть область слежения элемента, а дуга из белых точек и есть фронт волны, то я не понимаю как элемент узнает паттерн, если в следующий раз последний возникнет в другом месте. Кажется очевидным, что в этом случае к элементу придет совсем другой узор фронта волны.
И остается ещё открытым вопрос, что делать, если частичный паттерн наблюдается не с одной стороны, а с разных. Технически, если фронт подходит с какой-то стороны, то с той стороны должны быть активированы все клетки-предшественницы, а при срабатывании только по пороговому кол-ву у нас возможна ситуация, что неполная часть будет активирована слева, неполная — справа, и в итоге клетка посчитает, что видит фронт волны, хотя его не будет.
Я, например, читая текст статьи, укладывал её себе в голову в соответствующую модель, постоянно контролируя все ли я понял и согласованна ли модель. И тут встречается абзац, который согласованность ломает и как дальше читать?
Новая волна запускается из области (2) узором, который был частью исходной волны. Фронт волны, дойдя до области (1), создает там узор аналогичный исходному
То есть, новая волна запускается из другого места не первоначальным паттерном, а тем паттерном, который был запомнен в этом месте после прохождения первой волны.
Или уже самому брать и делать. Вот только большой вопрос вызывает то, как организовать память отдельного элемента. Он ведь должен хранить не одну волну, а несколько. В самом суровом варианте если область слежения это матрица n×n и элемент может запомнить k разных волн, то получается, что нам надо хранить где-то n² × k бит информации в минимальном варианте, когда считаем что сосед или активен или нет.
Если хранить с потерями, то объем можно конечно уменьшить, но все равно нужна оценка на нижнюю границу.
P.S.: Никто не пробовал делать клеточные автоматы с памятью на GPU? Хотя бы простейшие.
Да, и спасибо за новую статью, смотрю подход к проблеме несколько расширен по сравнению с предыдущим циклом статей, прошлый раз было интересно прочесть, но и сейчас интересно «освежить» детали уже зная к чему ведёт сюжет.
Либо ячейка хранит только состояние и видит (= вычисляет при необходимости) состояние соседей, либо на каждом такте видимому состоянию соседей (паттерну) сопоставялется число и хранится в ячейке вместе с состоянием. Но что-то практической пользы от такого подхода мне пока не видится
Понятия типа "логика вселенной" может быть и не несут в себе практической ценности — а лишь чисто философскую. Однако изучение практической реализации естественного интеллекта неоспоримо представляет из себя практическую ценность, в том числе и для создания интеллекта искусственного.
В конце коцнов, не стоит забывать то что многие из существующих достижений искусственного интеллекта (если конечно сегодняшние убогие технологии можно так называть) — приходят как раз из моделей полученных из нейронной структуры живого мозга (хоть и после некоторой математической формализации). Разница лишь в том что изначально учёные скопировали только часть алгоритма, а тут, видимо, автор пытается понять и изучить остальные части.
о клеточных автоматах и о том, как они могут быть связаны с устройством вселенной
А как же парадокс демона Лапласа. Показано, что даже имея бесконечную вычислительную мощность невозможно составить точную модель вселенной.
а демон — может там быть, в этом и суть, когда он оставаясь материальным может не учитывать себя в предсказаниях будущего за горизонтом событий и парадокс разрешается.
Демон из чёрной дыры управляет нашей Вселенной? — Это круто!
Но он может пойти другим путем. Ведь он такой супер-точный и супер-быстрый, значит и решения он может принимать и выполнять так-же быстро и точно.
В таком случае он может в процессе просчета на каждом «кванте времени» выбирать и запоминать свое решение заранее, и затем уже в будущем его применять. Если в процессе просчета он дойдет до момента когда ему не понравится результат, он может откатываться в расчетах на N шагов назад, менять решение, и считать остаток заново.
Вы написали что статья описывает всего лишь клеточный автомат, а никак не сам мозг — и более подробные описания вашей теории устройства мозга будут позже. Однако всё равно мне кажется в данном автомате есть серьёзная проблема, если представить что он хоть как-то относится к вашей модели самого мозга:
Если я правильно понимаю, то для функционирования волн, каждая клетка должна помнить определённый паттерн активирования для каждой волны в которой она участвует. То есть информация о том какой именно узор должен эту клетку активировать — должна сохраняться в каджой клетке для каждой волны…
Насколько я помню из прошлого цикла статей, каждая отдельная волна — используется в вашей модели как идентификатор, отличный для каждого явления которое мозг способен воспринимать. Мысли, объекты, ощущения, вообще любой кусочек воспринимаемой реальности будет иметь свой идентификатор волны. То есть этих идентификаторов нужно огромное множество.
И каждый из этих идентификаторов должен будет распознаваться мозгом. Однако в вашей модели, это распознавание должно работать не просто на пределах всего мозга, используя любые из его миллиардов нейронов — а на КАЖДОМ маленьком участке в мозге — участке который каждый нейрон способен воспринимать непосредственно. (То есть его непосредственное физическое окружение.) Это логически исходит из того что если волна распространяется — то значит что она должна узнаваться каждым маленьким участком всего "эфира" по которому она распространяется.
Те есть получается что ваша модель говорит что каждый маленький участок мозга, ограниченный по размеру полем непосредственного восприятия (очевидно химического и электрического) одного нейрона (или даже в 2-3 раза больше такого участка, что достаточно для распознавания) — должен в себе хранить информацию о том как распознавать все идентификаторы волн которые вообще могут быть в мозге. И это как минимум — если не учитывать что кроме распознавания у нейронов может быть ещё какая-то функция которая также требует ресурсов памяти.
Возможно ли это физически? Производили ли вы какую-то количественную оценку того сколько такой маленький участок на деле может распознавать различных волн?
По подсчётам некоторых других специалистов (Джеффа Хокинса), каждые несколько слоёв нейронов увеличивают инвариантность раза в 2-4. То есть, в среднем, если у вас волны отличались на 100 нейронов на одном уровне, В СРЕДНЕМ они будут отличаться на 40 на следующем уровне (впрочем, иногда на 20, иногда на 400), итп. — и на каком-то расстоянии все сигналы будут укладываться в какие-то слабо пересекающиеся или не непересекающиеся классы.
Если предположительно взять 10000 нейронов, и 100 совсем непересекающихся классов по 100 нейронов, то вы получаете всего 1 класс на активный нейрон, 100 бит и мощность представления на уровне 2^100 — т.е. даже всего 1 возможный запоминаемый сигнал на нейрон не мешает представлять сложные знания.
Ага, ещё фракталы приплетите
Ждём. :)
Логика сознания. Часть 1. Волны в клеточном автомате