Ховард с коллегами научили насекомых отмечать цвета и количество увиденных объектов, а потом добавлять единичку к количеству синих или отнимать единичку от количества зелёных.
Если в лабиринте было N синих объектов, то потом выбирать надо кучу с N +1 объектами.
Если в лабиринте было N зелёных объектов, то потом выбирать надо кучу с N -1 объектами.
Для этого и создавалась Ассоциативная самозамкнутая сеть.
Не вижу никакой «самозамкнутости». Вижу направленный граф, в котором рёбрам назначили класс. Не нужно никакого «возбуждения», чтобы вытащить из графа все вершины, в которые входят рёбра определённого класса. Но какую задачу это может решать?
у джобы будет около минуты на выполнение своих функций
У меня в foreground services создаётся окно (по типу плавающей кнопки), которое висит «вечно», пока сам не остановлю сервис. Теперь всем таким приложениям хана?
По крайней мере «колупания и измерения» ответили на вопрос как физически представлены в мозге эти самые абстракции. «Красный», «кирпич» и «землекоп» представлены тремя нейронными репрезентациями и притом постоянно дрейфующими.
Размер хеш-пространства 2000 нейронов. Плотность SDR-кодов 5%, что равно 2000 * 0.05 = 100 нейронам на код.
Итого, количество возможных уникальных хеш-кодов равно числу сочетаний из 2000 по 100. Не могу сравнить такую огромную величину с количеством кодов входного пространства (2^50), но она всё рано явно больше заявленных 20.
Рад, что наконец присоединился к мушиному лагерю ))
Ссылки по теме:
Sparse Hash — проект хеш-нейронов мухи и модель колонки на их основе. Sparse Hash AI — тг-канал с дополнительными статьями проекта. Sparse Hash — тг-группа для обсуждения.
Не совсем. Я написал «появись она...». У нового варианта жизни ничтожные шансы ни то, что на конкуренцию, но и даже на само появление. Никто ей не даст 100 миллионов лет спокойно собираться из «первичного бульона» в протоклетку. Тупо сжирается сам этот «бульон»/материал текущей жизнью. Есть гипотеза, что жизнь зародилась в чёрных курильщиках, но миллиарды лет нет более стерильных курильщиков, там кипит жизнь. Рядом правильно ответили — никто не очищает чашку Петри.
Или почему жизнь на земле до сих пор не зарождается каждые 100-200 миллионов лет, в дополнение к уже существующей? Что такого произошло 3.8 миллиарда лет назад, что она вдруг зародилась и все, лавочка закрылась?
Появись она, и её бы в тот же миг сожрала, буквально, текущая жизнь. Все ниши заняты. Лавочка закрылась.
Разрушенный пролёт лестницы к последнему пятому этажу не уникален. Редко, но и мне тоже попадается. Если точно известно что там, то можно рассматривать это как настойчивую рекомендацию подсознания не соваться туда.
У меня предположение, что он сделал обратный процесс — сформировал вихрь из разницы температур в аппарате без движущих частей. Никто такое не смог повторить?
Можно, например, вычислить корреляцию между сенсорным кодом или его хешем с этим получившимся композитным кодом.
Можно просто использовать композитный код как уникальный код для последовательности пары стимулов. Код AB будет отличаться от кода BA.
Если рекурсивно хешировать код не предыдущего стимула, а предыдущий композитный код, то можно кодировать в уникальные коды произвольные последовательности стимулов.
Моё объяснение возможного варианта этого механизма.
Текущий сенсорный и отложенный в памяти коды (sensory and memory representations) разделяют общее пространство. Задача записать два кода в одно пространство, так чтобы можно было их различить. Если мы запишем в одно бинарное слово коды 10100000 и 10100000, то не сможем их отличить — 10100000 OR 10100000 = 10100000.
«Поворот» (оно же хеширование) отображает один код в другой таким образом, что значащие биты кода оказываются в других позициях («ортогональный» код). 10100000 отображается в 01000010. Теперь можно их сложить без потери способности их различать: 10100000 OR 01000010 = 11100010.
Интерференция (коллизия кодов) возникает в результате того, что операция «поворота» отображает в код, в каких-то битах пересекающийся с исходным. Например, 10100000 в 001000010. И сложение даст интерференцию 10100000 OR 00100010 = 11100010 (интерференция в 6-м бите, 00100000). Интерференция «съедает» часть кода. В первом примере memory representation было 2 бита, а с интерференцией упало до 1 бита. Это ухудшает последующее распознавание этого кода.
В итоге, в нейронном слое одновременно хранится текущий сенсорный код и хешированный код с предыдущего «тика»: S(t) | hash(S(t-1)). Фактически, кодируется уникальным кодом пара следующих друг за другом стимулов. Подобным способом можно закодировать последовательность стимулов произвольной длины.
возникает фрактальная интерференционная неравномерность электрического состояния ткани вокруг нейронов; при этом вокруг одних нейронов порог потенциала действия снижается, и нейрон «выстреливает», вокруг других — повышается. Эта сложнейшая фрактальная структура строго соответствует воспринятой ранее, если сохраняется стабильность работы мозговой ткани и технические характеристики её остаются неизменными.
У меня в профиле указан проект, где это реализуется, если кому интересно. Но без пугающей «сложнейшей фрактальной структуры», это просто кажущаяся сложность из-за масштабов.
Сама же ритмика легко может возникать по совершенно другой причине. Нейроны, не нашедшие корреляции в данных, организуются в структуру малого мира (ту самую, которую повсеместно стали недавно находить в мозге), и возникает генераторная активность, идущая от хабов, очень стабильная. По крайней мере, в моём эксперименте с искусственным органоидом (живой прототип которого в сенсорной депривации также запускает ритм) получилось именно так.
Из этого следует, что мыши способны на создание абстрактных категорий объектов окружающего мира.
Полосы разной толщины и наклона никакая не абстракция. Эта задача на раз-два решается такой моделью колонки. Схоже вплоть до «на разные категории реагировали разные группы нейронов» и «нейроны не мгновенно включаются в процесс выбора, а постепенно вырабатывают навыки во время обучения».
Жаль, конечно, что ваш проект закрытый, и о технической реализации можно судить только по таким случайным комментариям. Ваш комментарий единственное, что хоть как-то проливает свет на то, чем вы реально занимаетесь и чем пользуетесь, в отличие от общих рассказов Алексея. Но это конечно ваше право держать всё в секрете.
Замечу, если почитать мой проект, то там можно обнаружить аналогичный набор инструментов: и коды и хеши от кодов и мою собственную метрику близости и «свертку для выделения главного» и много чего ещё, не ограничивающегося распознаванием образов.
Если в лабиринте было N синих объектов, то потом выбирать надо кучу с N +1 объектами.
Если в лабиринте было N зелёных объектов, то потом выбирать надо кучу с N -1 объектами.
Размер хеш-пространства 2000 нейронов. Плотность SDR-кодов 5%, что равно 2000 * 0.05 = 100 нейронам на код.
Итого, количество возможных уникальных хеш-кодов равно числу сочетаний из 2000 по 100. Не могу сравнить такую огромную величину с количеством кодов входного пространства (2^50), но она всё рано явно больше заявленных 20.
Ссылки по теме:
Sparse Hash — проект хеш-нейронов мухи и модель колонки на их основе.
Sparse Hash AI — тг-канал с дополнительными статьями проекта.
Sparse Hash — тг-группа для обсуждения.
Появись она, и её бы в тот же миг сожрала, буквально, текущая жизнь. Все ниши заняты. Лавочка закрылась.
Можно просто использовать композитный код как уникальный код для последовательности пары стимулов. Код AB будет отличаться от кода BA.
Если рекурсивно хешировать код не предыдущего стимула, а предыдущий композитный код, то можно кодировать в уникальные коды произвольные последовательности стимулов.
Текущий сенсорный и отложенный в памяти коды (sensory and memory representations) разделяют общее пространство. Задача записать два кода в одно пространство, так чтобы можно было их различить. Если мы запишем в одно бинарное слово коды 10100000 и 10100000, то не сможем их отличить — 10100000 OR 10100000 = 10100000.
«Поворот» (оно же хеширование) отображает один код в другой таким образом, что значащие биты кода оказываются в других позициях («ортогональный» код). 10100000 отображается в 01000010. Теперь можно их сложить без потери способности их различать: 10100000 OR 01000010 = 11100010.
Интерференция (коллизия кодов) возникает в результате того, что операция «поворота» отображает в код, в каких-то битах пересекающийся с исходным. Например, 10100000 в 001000010. И сложение даст интерференцию 10100000 OR 00100010 = 11100010 (интерференция в 6-м бите, 00100000). Интерференция «съедает» часть кода. В первом примере memory representation было 2 бита, а с интерференцией упало до 1 бита. Это ухудшает последующее распознавание этого кода.
В итоге, в нейронном слое одновременно хранится текущий сенсорный код и хешированный код с предыдущего «тика»: S(t) | hash(S(t-1)). Фактически, кодируется уникальным кодом пара следующих друг за другом стимулов. Подобным способом можно закодировать последовательность стимулов произвольной длины.
У меня в профиле указан проект, где это реализуется, если кому интересно. Но без пугающей «сложнейшей фрактальной структуры», это просто кажущаяся сложность из-за масштабов.
Сама же ритмика легко может возникать по совершенно другой причине. Нейроны, не нашедшие корреляции в данных, организуются в структуру малого мира (ту самую, которую повсеместно стали недавно находить в мозге), и возникает генераторная активность, идущая от хабов, очень стабильная. По крайней мере, в моём эксперименте с искусственным органоидом (живой прототип которого в сенсорной депривации также запускает ритм) получилось именно так.
Замечу, если почитать мой проект, то там можно обнаружить аналогичный набор инструментов: и коды и хеши от кодов и мою собственную метрику близости и «свертку для выделения главного» и много чего ещё, не ограничивающегося распознаванием образов.