Как стать автором
Обновить
4
0
Алексей @VDG

Sparse Hash AI

Отправить сообщение
ядро ​​амебы всегда стабилизировалось в устойчивое состояние, в котором никакая переменная не нарушает ограничения TSP задачи
Эта схема ничего не знает ни про города ни про расстояния между ними. Фактически это полносвязная сеть из аналоговых бинарных нейронов, в которых резисторами задаются веса, а выход нейрона управляет основным «линейным выходом» (вся фишка в нём).

Так вот, какую же задачу на самом деле решает эта схема? Что это за устойчивое состояние, в которое сваливается сеть?
Прошло почти два года. Есть подвижки с вашим проектом?
Перевод ужасен. Я с трудом расшифровывал, что в оригинале имелось в виду под «активируют потенциалы действия», «модели скоростного кодирования» и т.д.

Нет никакой «скорости». Эта ошибка постоянно вылезает у «переводчиков». Firing rate — это количество спайков в единицу времени. Соответственно, речь о паре гипотез, о том как кодируется выход нейрона. Первая: код — это количество спайков в единицу времени. Вторая: код — это спайки, происходящие синхронно с каким-то событием, например, фазой волны тета-ритма.

И в конце сказано о наблюдении, что один и тот же нейрон склонен отвечать спустя одно и тоже время после предъявления стимула. Кто-то отвечает раньше, кто-то позже, ни ту ни другую гипотезу это наблюдение не подтверждает.
Сенсорика и моторика — это единый неразрывный процесс.
У Хокинса есть «недавние» работы про кодирование сенсомоторики в клетках места.
Да, ещё кое-что, что забыл сказать. Я предполагаю, что эти ментальные слепки самостоятельны. Например классический пример отслеживания чего-то движущегося, скрывшегося за преградой. Сенсорные данные перестали поступать, мы не знаем его реальное положение в пространстве, но ментальная модель этого объекта продолжает жить и обновляет/пересчитывает свои координаты. Обычно это называется способностью к прогнозированию. Но есть тонкость с тем, что я предлагаю. Модель именно живёт сама по себе, изредка синхронизируясь по сенсорным данным с реальным своим объектом, который она отражает. Прямого доступа к реальным сенсорным данным нет, только через модель. Если такой схемы не было бы в мозге, то мы могли бы манипулировать только теми объектами, которые наблюдаем в данный момент.
Под виртуализацией имел в виду, когда мы можем провести «эксперимент» в голове, без оперирования реальными предметами. Например вот такой тест:
тест
Сорока прикинула, что ей надо сделать, и только потом пошла искать камень. Будем считать, что она мысленно перепробовала разные варианты, открыла закон Архимеда и испытала его на практике. Вот та среда, где взаимодействовали ментальные проекции бутылки, воды, камней и гусеницы, и есть виртуальная среда.
Как это продемонстрировать на ИНС?
Структура похожа на растущее решающее дерево, где в узлах сидят нейросети.
Честно говоря, сокрытие за экраном не может говорить, что предметы не могли бы проходить сквозь друг друга. И мне эти эксперименты известны с другим выводом. До какого-то возраста при экранировании предмета взгляд младенца блуждает, а после определённого возраста (+- 1-2 месяца) ребёнок начинает понимать, что предмет выйдет с другой стороны — моделирует его равномерное движение за экраном. Но это не важно, было ли это обучение или в определённый период активировалась захардкоденная функция. ИНС же всегда начинает с чистого листа.

Не так буквально)
Да как раз буквально. Иллюзия резиновой руки На томографе видят, что активируются ровно те же структуры, что и при собственном ощущении. Понимание намерений другого напрямую связана с количеством зеркальных нейронов. Естественно, максимальное их количество у человека. Я полагаю, без возможности именно ощутить невозможно понять переживание другого. В какой-то степени это костыль/надстройка, но это работающая схема. Параллельный канал обработки сенсорных данных. Второй канал получается чисто виртуальным, но путь его обработки такой же как у реального сенсорного потока.
Есть обученная сеть 1, и есть сеть 2, которая должна построить модель сети 1, чтобы прогнозировать ее выход по входу.
И в итоге приходим к эволюции сетей на носителях «разума». Есть у меня идея, что мозг этакий накопитель разума, — виртуальная машина, которая делает ментальные слепки окружающих объектов и их «поведения» и позволяет им в этой виртуальной среде взаимодействовать. В отличие от прямого наблюдения это на порядки ускоряет выявление закономерностей. А язык тогда — инструмент быстрого переноса моделей между носителями.

В техническом плане пока у меня затык в том, как найти вход сети 1 (объекта наблюдений) и его выход. Насколько мне известно, эта способность связывается с зеркальными нейронами, которые позволяют нам ощущать то, что ощущает другой человек, наблюдая за ним. Но вот как это натянуть на модель с RL-агентами пока не знаю.
Тоже на эту тему думал. Возможно «Я» зарождается как результат обобщения «люди», — модель всех людей. То есть происходит не от отделения себя от окружающих, а наоборот как выделение того общего, что есть у индивида и окружающих. А индивидуальность каждого «Я» происходит из того, что себя наблюдаем сильно чаще других.

И скорее это не одна модель, а иерархическая вложенная структура, как матрёшки: от «я есть всё», далее «я — это моё тело», «я член группы», и в конце — «я, как уникальная личность». Слоистое усложнение модели, она не перестраивается, а достраивается.

И положительная обратная связь явно присутствует, собственная модель группы всё более и более уточняется при взаимодействиях.
результат работы которого зависел бы от точных временных задержек в нейронах
Квинтэссенция точных временных задержек в нейронах — это мозжечок.
В середине 90-х собрал прототип такой штуки. Точно также светодиод разместил у кончика пальца и фотодиод на другом конце гибкой трубки на запястье. Даже сейчас помню как размеры светодиода и фотодиода на удивление идеально подошли к внутреннему диаметру трубочки.

Без красителей, измерял просто внутреннее отражение света. Чем круче изгиб, тем больше света уходило вовне. Помню была огромная нелинейность и плохая повторяемость кривой при повторном надевании перчатки. Всё это можно было бы решить простейшей калибровкой (сжать-разжать кисть), но невыполнимой тогда для меня задачей было оцифровать и завести данные в комп, так как первый микроконтроллер попал мне в руки только лет через шесть. В общем, поигрался и бросил.
перелета из Токио в Сиэтл составит всего 4,5 часа, а стоимость будет сопоставима с современным бизнес-классом
Старшип успеет условно десять раз туда-обратно сгонять. Такой самолёт только как личный гиперзвуковик для миллиардеров пойдёт. Тех, кто будут бояться орбитальных перелётов.
Суть в том, что сначала вы выделяете какую-то информационную сущность, а потом уже возможно с ней связывается слово.
Всё так.

Это совсем не корреляция входных образов
Да, в примере с соловьём нет корреляции. Я её привёл только как самый простой (без учителя) способ связать два сенсорных образа от разных модальностей в один общий образ, когда обе сенсорные области одновременно наблюдают объект — глаза видят кошку, уши слышат мяуканье.

Хотя у нас есть аппаратные возможности по определению направления на источник звука, но мы и без них можем связать звук мяуканья с кошкой, пронаблюдав это в нескольких сценах. И кошка и мяуканье будут только совместно. Причём мяуканье не будет встречаться отдельно от кошки, в отличие от самой кошки. И из этого можно вытянуть ещё и знание, что звук принадлежит кошке, а не наоборот.

Это не только звуковой образ… Вот с такими информационными объектами потом и связываются слова.
Да, это так. Я просто утрировал до единственного звукового образа для упрощения.
Когда вы идете по лесу и слышите какие-то красивые трели, звуковой образ тоже ни с чем не коррелирует. Но вы понимаете, что там есть какой-то объект, который их издает.
В данном случае вы просто запоминаете новый звуковой образ. Пока что он не связан с другими образами. И человек заявляет, что он не знает, что означает этот звук.

А уже потом вам могут сказать «это соловей, птица такая».
Вам вызывают из памяти уже существующую у вас запись — «звук трели», и добавляют к ней новые образы: имя объекта «соловей» и его класс «птица».

Теперь человек может заявить, что он знает, что трель означает соловья и птицу.

Те же связи возникнут при непосредственном наблюдении поющего соловья и чьего-то пояснения «это соловей, птица такая».
Но разговор не о том, в какую категорию его отнести, а о том, чтобы запомнить, что оно означает. То есть связать с некоторым объектом.
«что оно означает» — это корреляция между разными модальностями. Когда показывают кошку и говорят «это кошка», входной звуковой образ коррелирует с визуальным. Одного или несколько повторов достаточно, чтобы выявить эту корреляцию.
Таламус формирует топографически организованные проекции в кору, одной структуре таламуса соответствует своя колонка ( youtu.be/5L0O_H7VPOE ). Вообще, этот «unit» таламуса — это седьмой слой колонки. А у вас же у каждого юнита есть связи со всей корой. Это даже физически невозможно организовать. И у вас таламус обучаемый, хотя он просто управляемый базальными ганглиями коммутатор.

Поэтому таламус из этой схемы можно исключить. Замените восходящие и нисходящие связи с ним на горизонтальные связи из первого слоя настоящей коры. Будет работать ровно также, вдобавок не будет ненужной связи между размером входа и размером коры, сможете задавать любые. У вас останется один слой, плюс выходные нейроны.

сеть в таком тесте выдает результат в диапазоне от 40 до 60%, увеличение количества примеров не даёт улучшения качества.
Распознавание получилось плохое, потому что оно целиком лежит на плечах единственного выходного нейрона. От него бедного требуют выучить сотни входных паттернов, а они естественным образом пересекаются с чужими. То, что результат скачет около 50% не случайность, так и должно быть, оно результат случайности. По сути, вы отобразили входные образы в случайные SDR-коды с пересечением. На большом наборе входных образов картины узлов распределяются по коре как белый шум. Отсюда и 50%. И по другому не будет. Дам спойлер: правильнее сказать — оно работает так, как и должно.

И ещё, для этого типа нейронов, важно количество синапсов. Оно должно начинаться с 500, а у вас рецепторное поле прямого входа всего 8x8.

И, кстати, нельзя так резко на 0.1 ослаблять синапсы, это приводит к «вырождению» весов — очень быстро большинство синапсов упадут до нуля, и нейрон застрянет на одном выученном входном паттерне.
Тогда что мы скажет? Что-то типа «Трамп… А, это вроде бы президент США»?
Мы его вообще не узнаем, словно видим в первый раз. И даже хуже, опыты на людях естественно не ставились, но скорее всего мы после уничтожения кластера не сможем заново запомнить Трампа. Например в случае с мышами их учили какому-то действию (типа нажимать на кнопку или выходу из лабиринта или что-то подобное). Находили кластер, соответствующий этому опыту, и уничтожали его. Сколько потом не пытались мышей повторно обучить тому же самому — не получалось.

Клетки, которые образуют такие кластеры сейчас имеют рабочее название «сердцевинные». Есть пара недавних видео, где про них рассказывается: youtu.be/2PF4Sn0hWfI?t=1043 и www.youtube.com/watch?v=aJgTwDhzrVY

И как он знает с кем образовывать связи?
Ну вот у меня в модели получается, что первоначально для любого нового образа из слоя нейронов под кластер размером 10 клеток можно выбрать из сотни подходящих нейронов-кандидатов. Если потом какой-то нейрон кластера уничтожить, то из слоя из той группы нейронов-кандидатов можно ещё выбрать любой нейрон.

Связи же нейрон усиливает с любыми нейронами, с которыми он совместно активируется. Когда кластер сформирован, он рассинхронизуется с другими нейронами, соответственно они не могут образовывать с ним связи. Нарушение кластера приводит к его собственной внутренней рассинхронизации, и у других нейронов появляется возможность присоединиться к кластеру. Как только размер кластера восстанавливается, он как бы снова уходит в отдельный от других нейронов «тайм-слот».
Разного материала и экспериментов по объёму набралось на книгу, но к сожалению возможностей хватает только на редкие комментарии.
Нет, не так. Судя по современным представлениям, память не находится в синаптических связях как в ИНС. Все объекты и весь опыт животного отображаются в совместную активность уникальных групп нейронов очень небольшого количества, например, 6-10 шт. Например, у вас и у меня есть такая группа нейронов, которые синхронно срабатывают при виде (а также «услышании» или прочтения имени) Трампа. Эта группа нейронов и есть воспоминание под названием «Трамп».

Если этот десяток нейронов (кластер) разом убить, то вы скажите "- Что ещё за Трамп? Первый раз его вижу". Но вот, если в группе умрёт только один нейрон (а они во всём мозге делают это десятками тысяч в день), то к группе присоединится какой-то другой нейрон — восполнит потерю. При этом никаких связей умершего он не копирует (ему их неоткуда взять да и незачем).

По ходу жизни и из-за естественной потери нейронов кластер постоянно перестраивается — «мигрирует» на другие нейроны-носители, но мы это не замечаем, так как правило «каждый объект представлен уникальным кластером» сохраняется.

И возвращаясь к РНК. Полагаю там хранятся id-нейронов, с которыми данный нейрон образует кластеры.

Я смоделировал такую схему памяти. Перестраиваемые синаптические связи в ней нужны только, чтобы нейроны группы могли зафиксировать кластер. И кстати, у такой памяти огромнейшая ёмкость.

Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность