Каждый стимул оставляет след в виде небольшого нейронного ансамбля/кластера. Он может сохранять активность продолжительное время. Например, след от каждого услышанного или прочитанного слова остаётся до двух-трёх суток.
А должен был? Не пойму к чему упрёки. Ваши вопросы тянут на отдельную статью. Я же просто заметил phenik, что его догадки имеют место быть в моей биоподобной kNN, и даже ссылку на место, с которого надо копать ответы, приложил.
Извините, но я вас не понял. Я дал ссылку на рабочий проект, а не идею. Реальные изображения это ничтожная часть гиперпространства. Если точки kNN инициализировать случайным образом, а не в пространстве реальных изображений, то бродить они могут очень долго. Если же вы говорите про многослойные ИНС, то я бы не стал их недостатки проецировать на мозг.
Простоя идея такой процедуры состоит в сложение всех изображений из обучающей выборки и усреднения цветов пикселей, или использования другой подходящей статистики.
Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Нет, я не про нейроны и сети. Распределённая в том смысле, что модели бабушки той или иной степени точности существуют во множестве носителей: во внуке, в муже, в детях, в друзьях и знакомых и т.д.
Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
Комбинаторная точка Редозубова ровно такой же «нейрон бабушки» по элементарной причине — нужно где-то хранить информацию о связях этой точки с элементами входного вектора. Перенос «бабушки» с нейрона на его синапс ничего принципиально не изменил.
Бабушка распределённая. Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном). И дело возможно не в приоритете, а в проработанности модели бабушки, насколько хорошо она «проросла» в другой носитель.
Буриданов осёл — выдуманный персонаж. Не вижу проблемы с кучками апельсинов и живым ослом. Выбор вероятностный. Если есть две кучи с большим, но одинаковым количеством апельсинов, то осёл и я выберем из них случайную (скорее ту, что ближе).
У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.
Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).
Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.
В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.
Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
Думаю, в подсчёте явное участвует внимание. То есть, счёт производится только группы объектов, которые выделило внимание. Антилопа может отнести львёнка к объекту другого класса — не представляющего угрозу. Внимание выделяет класс опасных зверей, взрослых львов, например. Тогда в зоне внимание останется только два взрослых льва.
В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.
Я занимаюсь кодированием «всего сущего» в распределённые нейронные представления и год назад сделал работающую модель численности, как я считаю — биоподобную.
Активность «численных» нейронов аппроксимируется случайными гауссами (как у живых численных нейронов). Если произвольные объекты кодировать распределёнными представлениями одинаковой плотности, то плотность «суммарного» кода пропорциональна количественной сумме объектов.
Соответственно, разные количества объектов активируют свои нейронные группы численных нейронов. Ошибки получаются такие же как описано в этой статье. То есть, 3 немного путается с 2 и 4 и не путается с 5, или 8.
Понятие нуля тоже есть. Он получается вследствие низкой спонтанной активности нейронов входного слоя, которая всегда присутствует. Этакое смещение активности в плюс. То есть, для ноля объектов тоже есть своя нейронная группа. И, естественно, как и нейронные группы других численностей, она немного путается с соседними. А соседняя у нуля только одна — единица, как и в статье.
Сложение количеств объектов получается элементарно. Это сложение опять же плотностей кодов этих объектов. А вот с вычитанием не всё так ясно.
Ховард с коллегами научили насекомых отмечать цвета и количество увиденных объектов, а потом добавлять единичку к количеству синих или отнимать единичку от количества зелёных.
Если в лабиринте было N синих объектов, то потом выбирать надо кучу с N +1 объектами.
Если в лабиринте было N зелёных объектов, то потом выбирать надо кучу с N -1 объектами.
Для этого и создавалась Ассоциативная самозамкнутая сеть.
Не вижу никакой «самозамкнутости». Вижу направленный граф, в котором рёбрам назначили класс. Не нужно никакого «возбуждения», чтобы вытащить из графа все вершины, в которые входят рёбра определённого класса. Но какую задачу это может решать?
у джобы будет около минуты на выполнение своих функций
У меня в foreground services создаётся окно (по типу плавающей кнопки), которое висит «вечно», пока сам не остановлю сервис. Теперь всем таким приложениям хана?
По крайней мере «колупания и измерения» ответили на вопрос как физически представлены в мозге эти самые абстракции. «Красный», «кирпич» и «землекоп» представлены тремя нейронными репрезентациями и притом постоянно дрейфующими.
Размер хеш-пространства 2000 нейронов. Плотность SDR-кодов 5%, что равно 2000 * 0.05 = 100 нейронам на код.
Итого, количество возможных уникальных хеш-кодов равно числу сочетаний из 2000 по 100. Не могу сравнить такую огромную величину с количеством кодов входного пространства (2^50), но она всё рано явно больше заявленных 20.
Рад, что наконец присоединился к мушиному лагерю ))
Ссылки по теме:
Sparse Hash — проект хеш-нейронов мухи и модель колонки на их основе. Sparse Hash AI — тг-канал с дополнительными статьями проекта. Sparse Hash — тг-группа для обсуждения.
Не совсем. Я написал «появись она...». У нового варианта жизни ничтожные шансы ни то, что на конкуренцию, но и даже на само появление. Никто ей не даст 100 миллионов лет спокойно собираться из «первичного бульона» в протоклетку. Тупо сжирается сам этот «бульон»/материал текущей жизнью. Есть гипотеза, что жизнь зародилась в чёрных курильщиках, но миллиарды лет нет более стерильных курильщиков, там кипит жизнь. Рядом правильно ответили — никто не очищает чашку Петри.
Например, у Int32 диапазон значений: -2147483648… 2147483647.
Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.
Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).
Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.
В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.
Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.
Активность «численных» нейронов аппроксимируется случайными гауссами (как у живых численных нейронов). Если произвольные объекты кодировать распределёнными представлениями одинаковой плотности, то плотность «суммарного» кода пропорциональна количественной сумме объектов.
Соответственно, разные количества объектов активируют свои нейронные группы численных нейронов. Ошибки получаются такие же как описано в этой статье. То есть, 3 немного путается с 2 и 4 и не путается с 5, или 8.
Понятие нуля тоже есть. Он получается вследствие низкой спонтанной активности нейронов входного слоя, которая всегда присутствует. Этакое смещение активности в плюс. То есть, для ноля объектов тоже есть своя нейронная группа. И, естественно, как и нейронные группы других численностей, она немного путается с соседними. А соседняя у нуля только одна — единица, как и в статье.
Сложение количеств объектов получается элементарно. Это сложение опять же плотностей кодов этих объектов. А вот с вычитанием не всё так ясно.
Если в лабиринте было N синих объектов, то потом выбирать надо кучу с N +1 объектами.
Если в лабиринте было N зелёных объектов, то потом выбирать надо кучу с N -1 объектами.
Размер хеш-пространства 2000 нейронов. Плотность SDR-кодов 5%, что равно 2000 * 0.05 = 100 нейронам на код.
Итого, количество возможных уникальных хеш-кодов равно числу сочетаний из 2000 по 100. Не могу сравнить такую огромную величину с количеством кодов входного пространства (2^50), но она всё рано явно больше заявленных 20.
Ссылки по теме:
Sparse Hash — проект хеш-нейронов мухи и модель колонки на их основе.
Sparse Hash AI — тг-канал с дополнительными статьями проекта.
Sparse Hash — тг-группа для обсуждения.