Неожиданно «Решение задачи классификации» свелось к подстановке подсчитанных весов. Это не решение, а заглядывание в ответы в конце учебника. Будет, собственно, про решение-обучение, градиентный спуск, или проехали?
Происходит не просто предсказание наиболее вероятного след. слова, как это происходит в языковых моделях типа GPT, а предсказание в контексте готовности воспринять это слово, а точнее категории, т.е. с учетом семантики, смысла, ассоциаций, и тд.
Нет чёткой непреодолимой границы между предсказанием модели и предсказанием человека, есть недостаточная сложность модели. «Семантика, смыслы, ассоциации» — это всё разные «слои вероятностей», уточнений предсказания. Чем сложнее модель, тем больше тонкостей она будет улавливать в том, каким вероятнее всего будет следующее слово. То есть, подключится и семантика и ассоциации и т.д.
два других человека в случайном порядке меняют положение выключателей. А Вы регистрируете как положение выключателей, так и горят ли люстры.
В таком случае для наблюдателя понятие «действие» отсутствует. Вы наблюдаете смену состояний некого чёрного ящика и ищите корреляцию между его параметрами, доступными для наблюдения.
Действия возникают только в том случае, когда наблюдатель перестаёт быть наблюдателем и вмешивается в процесс смены состояний объекта, начинает им управлять. Не кто-то неизвестный переключает выключатели, а этот самый «наблюдатель». В вашем же случае «действие» — это чисто условность, корреляция между параметрами, где одно событие следует перед другим.
«Неоднозначность» же возникает из-за того, что у вас марковская цепь, у неё нет памяти, а вы её пытаетесь перевести в конечный автомат снятием этой «неоднозначности».
Дело в размере вектора, в первом он равен 4-м f32, а во втором 262144.
Условно в первом случае перекладываем из одного мешка в другой орехи. Вес ореха малый, но много времени уходит на махание руками туда-сюда, хоть и быстро и часто машем.
Во-втором руками машем на порядки медленнее и реже, но таскаем арбузы.
В итоге, произведение числа маханий руками на вес переносимого за раз груза во втором случае в 40 раз происходит эффективнее (меньше накладных расходов на транспортировку).
Каждый стимул оставляет след в виде небольшого нейронного ансамбля/кластера. Он может сохранять активность продолжительное время. Например, след от каждого услышанного или прочитанного слова остаётся до двух-трёх суток.
А должен был? Не пойму к чему упрёки. Ваши вопросы тянут на отдельную статью. Я же просто заметил phenik, что его догадки имеют место быть в моей биоподобной kNN, и даже ссылку на место, с которого надо копать ответы, приложил.
Извините, но я вас не понял. Я дал ссылку на рабочий проект, а не идею. Реальные изображения это ничтожная часть гиперпространства. Если точки kNN инициализировать случайным образом, а не в пространстве реальных изображений, то бродить они могут очень долго. Если же вы говорите про многослойные ИНС, то я бы не стал их недостатки проецировать на мозг.
Простоя идея такой процедуры состоит в сложение всех изображений из обучающей выборки и усреднения цветов пикселей, или использования другой подходящей статистики.
Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Нет, я не про нейроны и сети. Распределённая в том смысле, что модели бабушки той или иной степени точности существуют во множестве носителей: во внуке, в муже, в детях, в друзьях и знакомых и т.д.
Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
Комбинаторная точка Редозубова ровно такой же «нейрон бабушки» по элементарной причине — нужно где-то хранить информацию о связях этой точки с элементами входного вектора. Перенос «бабушки» с нейрона на его синапс ничего принципиально не изменил.
Бабушка распределённая. Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном). И дело возможно не в приоритете, а в проработанности модели бабушки, насколько хорошо она «проросла» в другой носитель.
Буриданов осёл — выдуманный персонаж. Не вижу проблемы с кучками апельсинов и живым ослом. Выбор вероятностный. Если есть две кучи с большим, но одинаковым количеством апельсинов, то осёл и я выберем из них случайную (скорее ту, что ближе).
У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.
Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).
Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.
В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.
Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
Думаю, в подсчёте явное участвует внимание. То есть, счёт производится только группы объектов, которые выделило внимание. Антилопа может отнести львёнка к объекту другого класса — не представляющего угрозу. Внимание выделяет класс опасных зверей, взрослых львов, например. Тогда в зоне внимание останется только два взрослых льва.
В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.
Я занимаюсь кодированием «всего сущего» в распределённые нейронные представления и год назад сделал работающую модель численности, как я считаю — биоподобную.
Активность «численных» нейронов аппроксимируется случайными гауссами (как у живых численных нейронов). Если произвольные объекты кодировать распределёнными представлениями одинаковой плотности, то плотность «суммарного» кода пропорциональна количественной сумме объектов.
Соответственно, разные количества объектов активируют свои нейронные группы численных нейронов. Ошибки получаются такие же как описано в этой статье. То есть, 3 немного путается с 2 и 4 и не путается с 5, или 8.
Понятие нуля тоже есть. Он получается вследствие низкой спонтанной активности нейронов входного слоя, которая всегда присутствует. Этакое смещение активности в плюс. То есть, для ноля объектов тоже есть своя нейронная группа. И, естественно, как и нейронные группы других численностей, она немного путается с соседними. А соседняя у нуля только одна — единица, как и в статье.
Сложение количеств объектов получается элементарно. Это сложение опять же плотностей кодов этих объектов. А вот с вычитанием не всё так ясно.
Действия возникают только в том случае, когда наблюдатель перестаёт быть наблюдателем и вмешивается в процесс смены состояний объекта, начинает им управлять. Не кто-то неизвестный переключает выключатели, а этот самый «наблюдатель». В вашем же случае «действие» — это чисто условность, корреляция между параметрами, где одно событие следует перед другим.
«Неоднозначность» же возникает из-за того, что у вас марковская цепь, у неё нет памяти, а вы её пытаетесь перевести в конечный автомат снятием этой «неоднозначности».
Условно в первом случае перекладываем из одного мешка в другой орехи. Вес ореха малый, но много времени уходит на махание руками туда-сюда, хоть и быстро и часто машем.
Во-втором руками машем на порядки медленнее и реже, но таскаем арбузы.
В итоге, произведение числа маханий руками на вес переносимого за раз груза во втором случае в 40 раз происходит эффективнее (меньше накладных расходов на транспортировку).
Всё живое на всех уровнях защищается от вмешательства шума — все эти пороги, системы ключ-замок, бинарные состояния и т.д. и т.п.
Например, у Int32 диапазон значений: -2147483648… 2147483647.
Я так делаю в своей kNN. И дело там в том, что инициализировав сеть случайными весами, она потом не «сойдётся», не обучится. Инициализировать нужно кусками из пространства реального мира. Спонтанные вспышки света на сетчатке как затравка ей тоже подойдут.
Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
У моей модели оценка количества происходит моментально и точно (для некоторого диапазона). То есть, относится к субитизации, но диапазон не ограничен 4 предметами. Но потолок есть, он зависит от плотности нейрокодов. Можно настройками выставить ограничение в 4 объекта.
Потолок в 4 объекта, кстати, означает, что плотность нейрокодов должна быть ~10-15%, что соответствует средней активности мозга. Если точнее, то 10% на нейрокод плюс 5-10% на спонтанную активность (по которой получается код нуля).
Закон Вебера-Фехнера про интенсивность ощущений. В модели же подсчёт предметов производится по бинарному типу — предмет есть или нет.
В примере поясняющей картинки с вики, отобрав (механизмом предвнимания) на сцене звёдочки одного цвета, получим их суммарный нейрокод. Подав теперь его на «зону» численности, на его выходе я получу уникальный нейрокод, соответствующий количеству этих отобранных вниманием предметов. Складывать можно и апельсины с яблоками (объекты разных классов), главное, чтобы они все одновременно, так сказать, попали в фокус внимания.
Вот картинка активности нейронов численности в модели. * я вам её показывал
По оси x — нейроны. По оси y — тесты по пять представлений количеств.
Видно, что чем больше «кучи», тем больше путаются нейроны и тем менее стабильный нейрокод они будут формировать.
В моей модели у рациональных чисел тоже может быть (точнее, — обязано быть, просто не было необходимости проверять специально на рац. числах) свой уникальный код, так как колокола нейронов «отцентрированы» на числовой оси случайным образом. Но в таком случае плотность кодов объектов должна модулироваться. К примеру, 10% для взрослого льва, 5% для львёнка. Тогда получим код для 2,5.
Активность «численных» нейронов аппроксимируется случайными гауссами (как у живых численных нейронов). Если произвольные объекты кодировать распределёнными представлениями одинаковой плотности, то плотность «суммарного» кода пропорциональна количественной сумме объектов.
Соответственно, разные количества объектов активируют свои нейронные группы численных нейронов. Ошибки получаются такие же как описано в этой статье. То есть, 3 немного путается с 2 и 4 и не путается с 5, или 8.
Понятие нуля тоже есть. Он получается вследствие низкой спонтанной активности нейронов входного слоя, которая всегда присутствует. Этакое смещение активности в плюс. То есть, для ноля объектов тоже есть своя нейронная группа. И, естественно, как и нейронные группы других численностей, она немного путается с соседними. А соседняя у нуля только одна — единица, как и в статье.
Сложение количеств объектов получается элементарно. Это сложение опять же плотностей кодов этих объектов. А вот с вычитанием не всё так ясно.