Обновить
5
Алексей@VDG

Sparse Hash AI

10
Подписчики
Отправить сообщение
Было со мной почти похожее (да и некуда и не делось). Ехал давным давно зимним утром в промёрзшем автобусе. Дыхнул от скуки на стекло и стал рассматривать выросшие снежные узоры. Особенно понравилась одна снежинка, и подумал, что такая сверхвысокая детализация может быть способом для проверок во сне ты или нет. Тут я вспоминаю, что сплю и меня выбрасывает ))
Хорошо. Просто смотрю в следующей статье уже про OpenCV пошло.
Неожиданно «Решение задачи классификации» свелось к подстановке подсчитанных весов. Это не решение, а заглядывание в ответы в конце учебника. Будет, собственно, про решение-обучение, градиентный спуск, или проехали?
Цель генов — не вечная жизнь индивида, а вечная жизнь генофонда.
Я нигде не писал про «индивида». Я сказал эгоистичный ген.
Происходит не просто предсказание наиболее вероятного след. слова, как это происходит в языковых моделях типа GPT, а предсказание в контексте готовности воспринять это слово, а точнее категории, т.е. с учетом семантики, смысла, ассоциаций, и тд.
Нет чёткой непреодолимой границы между предсказанием модели и предсказанием человека, есть недостаточная сложность модели. «Семантика, смыслы, ассоциации» — это всё разные «слои вероятностей», уточнений предсказания. Чем сложнее модель, тем больше тонкостей она будет улавливать в том, каким вероятнее всего будет следующее слово. То есть, подключится и семантика и ассоциации и т.д.
Вечная жизнь — это цель эгоистичного гена. А какая у него в процессе эволюции сложится форма: ДНК, кремневая, виртуальная — дело десятое.
два других человека в случайном порядке меняют положение выключателей. А Вы регистрируете как положение выключателей, так и горят ли люстры.
В таком случае для наблюдателя понятие «действие» отсутствует. Вы наблюдаете смену состояний некого чёрного ящика и ищите корреляцию между его параметрами, доступными для наблюдения.

Действия возникают только в том случае, когда наблюдатель перестаёт быть наблюдателем и вмешивается в процесс смены состояний объекта, начинает им управлять. Не кто-то неизвестный переключает выключатели, а этот самый «наблюдатель». В вашем же случае «действие» — это чисто условность, корреляция между параметрами, где одно событие следует перед другим.

«Неоднозначность» же возникает из-за того, что у вас марковская цепь, у неё нет памяти, а вы её пытаетесь перевести в конечный автомат снятием этой «неоднозначности».
Вопрос в том, что не знаем где состояние и где действие.
В какой реальной ситуации такое встречается?
Дело в размере вектора, в первом он равен 4-м f32, а во втором 262144.

Условно в первом случае перекладываем из одного мешка в другой орехи. Вес ореха малый, но много времени уходит на махание руками туда-сюда, хоть и быстро и часто машем.

Во-втором руками машем на порядки медленнее и реже, но таскаем арбузы.

В итоге, произведение числа маханий руками на вес переносимого за раз груза во втором случае в 40 раз происходит эффективнее (меньше накладных расходов на транспортировку).
качественное изменение поведения нелинейной системы при бесконечно малом изменении её параметров

Всё живое на всех уровнях защищается от вмешательства шума — все эти пороги, системы ключ-замок, бинарные состояния и т.д. и т.п.
Думаю всё дело в формате хранения знакового целого. :)

Например, у Int32 диапазон значений: -2147483648… 2147483647.
Каждый стимул оставляет след в виде небольшого нейронного ансамбля/кластера. Он может сохранять активность продолжительное время. Например, след от каждого услышанного или прочитанного слова остаётся до двух-трёх суток.
А должен был? Не пойму к чему упрёки. Ваши вопросы тянут на отдельную статью. Я же просто заметил phenik, что его догадки имеют место быть в моей биоподобной kNN, и даже ссылку на место, с которого надо копать ответы, приложил.
Извините, но я вас не понял. Я дал ссылку на рабочий проект, а не идею. Реальные изображения это ничтожная часть гиперпространства. Если точки kNN инициализировать случайным образом, а не в пространстве реальных изображений, то бродить они могут очень долго. Если же вы говорите про многослойные ИНС, то я бы не стал их недостатки проецировать на мозг.
Простоя идея такой процедуры состоит в сложение всех изображений из обучающей выборки и усреднения цветов пикселей, или использования другой подходящей статистики.

Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Нет, я не про нейроны и сети. Распределённая в том смысле, что модели бабушки той или иной степени точности существуют во множестве носителей: во внуке, в муже, в детях, в друзьях и знакомых и т.д.

Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
Комбинаторная точка Редозубова ровно такой же «нейрон бабушки» по элементарной причине — нужно где-то хранить информацию о связях этой точки с элементами входного вектора. Перенос «бабушки» с нейрона на его синапс ничего принципиально не изменил.
Бабушка распределённая. Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном). И дело возможно не в приоритете, а в проработанности модели бабушки, насколько хорошо она «проросла» в другой носитель.
Буриданов осёл — выдуманный персонаж. Не вижу проблемы с кучками апельсинов и живым ослом. Выбор вероятностный. Если есть две кучи с большим, но одинаковым количеством апельсинов, то осёл и я выберем из них случайную (скорее ту, что ближе).

У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.

Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).

Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.

В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.

Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
картинка
image
Думаю, в подсчёте явное участвует внимание. То есть, счёт производится только группы объектов, которые выделило внимание. Антилопа может отнести львёнка к объекту другого класса — не представляющего угрозу. Внимание выделяет класс опасных зверей, взрослых львов, например. Тогда в зоне внимание останется только два взрослых льва.

В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность