Как стать автором
Обновить
4
0
Алексей @VDG

Sparse Hash AI

Отправить сообщение
Простоя идея такой процедуры состоит в сложение всех изображений из обучающей выборки и усреднения цветов пикселей, или использования другой подходящей статистики.

Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Нет, я не про нейроны и сети. Распределённая в том смысле, что модели бабушки той или иной степени точности существуют во множестве носителей: во внуке, в муже, в детях, в друзьях и знакомых и т.д.

Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
Комбинаторная точка Редозубова ровно такой же «нейрон бабушки» по элементарной причине — нужно где-то хранить информацию о связях этой точки с элементами входного вектора. Перенос «бабушки» с нейрона на его синапс ничего принципиально не изменил.
Бабушка распределённая. Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном). И дело возможно не в приоритете, а в проработанности модели бабушки, насколько хорошо она «проросла» в другой носитель.
Буриданов осёл — выдуманный персонаж. Не вижу проблемы с кучками апельсинов и живым ослом. Выбор вероятностный. Если есть две кучи с большим, но одинаковым количеством апельсинов, то осёл и я выберем из них случайную (скорее ту, что ближе).

У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.

Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).

Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.

В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.

Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
картинка
image
Думаю, в подсчёте явное участвует внимание. То есть, счёт производится только группы объектов, которые выделило внимание. Антилопа может отнести львёнка к объекту другого класса — не представляющего угрозу. Внимание выделяет класс опасных зверей, взрослых львов, например. Тогда в зоне внимание останется только два взрослых льва.

В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.
Я занимаюсь кодированием «всего сущего» в распределённые нейронные представления и год назад сделал работающую модель численности, как я считаю — биоподобную.

Активность «численных» нейронов аппроксимируется случайными гауссами (как у живых численных нейронов). Если произвольные объекты кодировать распределёнными представлениями одинаковой плотности, то плотность «суммарного» кода пропорциональна количественной сумме объектов.

Соответственно, разные количества объектов активируют свои нейронные группы численных нейронов. Ошибки получаются такие же как описано в этой статье. То есть, 3 немного путается с 2 и 4 и не путается с 5, или 8.

Понятие нуля тоже есть. Он получается вследствие низкой спонтанной активности нейронов входного слоя, которая всегда присутствует. Этакое смещение активности в плюс. То есть, для ноля объектов тоже есть своя нейронная группа. И, естественно, как и нейронные группы других численностей, она немного путается с соседними. А соседняя у нуля только одна — единица, как и в статье.

Сложение количеств объектов получается элементарно. Это сложение опять же плотностей кодов этих объектов. А вот с вычитанием не всё так ясно.
Ховард с коллегами научили насекомых отмечать цвета и количество увиденных объектов, а потом добавлять единичку к количеству синих или отнимать единичку от количества зелёных.

Если в лабиринте было N синих объектов, то потом выбирать надо кучу с N +1 объектами.
Если в лабиринте было N зелёных объектов, то потом выбирать надо кучу с N -1 объектами.
Для этого и создавалась Ассоциативная самозамкнутая сеть.
Не вижу никакой «самозамкнутости». Вижу направленный граф, в котором рёбрам назначили класс. Не нужно никакого «возбуждения», чтобы вытащить из графа все вершины, в которые входят рёбра определённого класса. Но какую задачу это может решать?
Один неудачный пиксель может выдать аномальный результат
В LSH не может, в этом весь смысл Locality Sensitive Hashing. Я разрабатываю такие хеши и у меня работает подобная схема поиска близких образов.
у джобы будет около минуты на выполнение своих функций
У меня в foreground services создаётся окно (по типу плавающей кнопки), которое висит «вечно», пока сам не остановлю сервис. Теперь всем таким приложениям хана?
По крайней мере «колупания и измерения» ответили на вопрос как физически представлены в мозге эти самые абстракции. «Красный», «кирпич» и «землекоп» представлены тремя нейронными репрезентациями и притом постоянно дрейфующими.
потенциал клеток Кеньона лишь 20 классов
Посчитаем.

Размер хеш-пространства 2000 нейронов. Плотность SDR-кодов 5%, что равно 2000 * 0.05 = 100 нейронам на код.

Итого, количество возможных уникальных хеш-кодов равно числу сочетаний из 2000 по 100. Не могу сравнить такую огромную величину с количеством кодов входного пространства (2^50), но она всё рано явно больше заявленных 20.
Вот подход «снизу вверх» на хеш-сети мухи. Моделирование вторичной зрительной зоны (V2)
Рад, что наконец присоединился к мушиному лагерю ))

Ссылки по теме:

Sparse Hash — проект хеш-нейронов мухи и модель колонки на их основе.
Sparse Hash AI — тг-канал с дополнительными статьями проекта.
Sparse Hash — тг-группа для обсуждения.
Не совсем. Я написал «появись она...». У нового варианта жизни ничтожные шансы ни то, что на конкуренцию, но и даже на само появление. Никто ей не даст 100 миллионов лет спокойно собираться из «первичного бульона» в протоклетку. Тупо сжирается сам этот «бульон»/материал текущей жизнью. Есть гипотеза, что жизнь зародилась в чёрных курильщиках, но миллиарды лет нет более стерильных курильщиков, там кипит жизнь. Рядом правильно ответили — никто не очищает чашку Петри.
Или почему жизнь на земле до сих пор не зарождается каждые 100-200 миллионов лет, в дополнение к уже существующей? Что такого произошло 3.8 миллиарда лет назад, что она вдруг зародилась и все, лавочка закрылась?

Появись она, и её бы в тот же миг сожрала, буквально, текущая жизнь. Все ниши заняты. Лавочка закрылась.
Разрушенный пролёт лестницы к последнему пятому этажу не уникален. Редко, но и мне тоже попадается. Если точно известно что там, то можно рассматривать это как настойчивую рекомендацию подсознания не соваться туда.
В бракованной партии прошлая серия была про эту планету-кладбище. Подумалось, что статья как раз этим и навеяна.
У меня предположение, что он сделал обратный процесс — сформировал вихрь из разницы температур в аппарате без движущих частей. Никто такое не смог повторить?

Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность