Как стать автором
Обновить
4
0
Алексей @VDG

Sparse Hash AI

Отправить сообщение
Уточню. Значение золотого сечения по формуле 2.3.3 получается не приблизительно, а точно.
(sqrt(5) - 1) / 2 = 0,618...; (2.3.5)

Оно получается в следствие того, что в 2.3.3 подставляется x1 = 0,5.

Само же это значение 0,5 означает, что перед человеком ставится необходимость сделать оценку, которую он не может сделать (0,5 это вероятность выбора положительного или отрицательного полюса), так как он ещё не имеет опыта, то есть x2 ещё не вычислен по формуле 2.2.3, не набралась статистика.

Когда статистика набирается, то x2 корректируется и уже не будет равно золотому сечению. Оно ему равно только в начальный момент, поэтому эксперименты, которые описаны в работе проводились с каждым участником однократно. Так как следующий ответ человека уже был бы скорректирован только что сделанным им выбором.

Вывод там такой. Когда человек не знает что ему выбрать (пришёл на голосование и не знает ни одного кандидата, например. x1 = 0,5), то он с вероятностью золотого сечения (0,618) склонен выбрать вариант, который «приписан» к положительному полюсу. А что станет для человека положительным полюсом зависит, например, от очередности (кто первый стоит в списке, кто первый дал рекламу себя по ТВ и т.д.).

Эту формулу субъективной оценки я ради интереса применил для расчёта порога бинаризации веса синапса в искусственном нейроне. Оказалось формула подбирает более точные значения, чем я делаю это вручную.
Ломоносов смог выехать из деревни.
«Выехать» :) Вышел, пешком с обозом.

Отправился он пешком, нагнав караван лишь на третий день, и упросил рыбаков разрешить ему идти вместе с ними.
С каждым новым запутыванием появляется единая волновая функция, описывающая все частицы разом.

когда квантовая частица взаимодействует с другой квантовой частицей, универсальная волновая функция расщепляется на несколько секций

Так волновая функция при взаимодействии частиц объединяется или расщепляется? Вконец запутали.
Ложноположительная ошибка — фильтр говорит, что знает эту запись, хотя её в него не делали.

Ложноотрицательная ошибка — фильтр говорит, что не знает эту запись, хотя её в него делали.

Его особенность, что если запись сделали в фильтр, то он не может её «забыть/потерять» (нет ложноотрицательного срабатывания). Если он вас запомнил, то это навсегда.
Не про подсолнухи, а про людей/животных.

Лефевр В. А., Что такое одушевлённость?
2.3. Феномен золотого сечения при выборе и категоризации

стр. 31
… Он (феномен золотого сечения) появляется тогда, когда у испытуемых нет операциональных возможностей для выделения в стимуле качества, по которому требуется произвести оценку.

Формулы и эксперименты тоже там приведены.
Когда модель полностью предсказывает ввод, энергопотребление сети минимизировано.
Вот у меня модель предсказывает ввод (следующий символ в тексте). Разница между обученным нейроном и не обученном только в фиксации последним весового «профиля». Соответственно обучившийся нейрон перестаёт реагировать на всё подряд и притихает. Общая активность сети, когда предикт совпадает с входом, падает. Это как бы известный факт в сенсорных системах. Но тут нет никакого стремления к снижению потребления «свободной энергии», оно само так выходит, как следствие перестройки весов.
Было со мной почти похожее (да и некуда и не делось). Ехал давным давно зимним утром в промёрзшем автобусе. Дыхнул от скуки на стекло и стал рассматривать выросшие снежные узоры. Особенно понравилась одна снежинка, и подумал, что такая сверхвысокая детализация может быть способом для проверок во сне ты или нет. Тут я вспоминаю, что сплю и меня выбрасывает ))
Хорошо. Просто смотрю в следующей статье уже про OpenCV пошло.
Неожиданно «Решение задачи классификации» свелось к подстановке подсчитанных весов. Это не решение, а заглядывание в ответы в конце учебника. Будет, собственно, про решение-обучение, градиентный спуск, или проехали?
Цель генов — не вечная жизнь индивида, а вечная жизнь генофонда.
Я нигде не писал про «индивида». Я сказал эгоистичный ген.
Происходит не просто предсказание наиболее вероятного след. слова, как это происходит в языковых моделях типа GPT, а предсказание в контексте готовности воспринять это слово, а точнее категории, т.е. с учетом семантики, смысла, ассоциаций, и тд.
Нет чёткой непреодолимой границы между предсказанием модели и предсказанием человека, есть недостаточная сложность модели. «Семантика, смыслы, ассоциации» — это всё разные «слои вероятностей», уточнений предсказания. Чем сложнее модель, тем больше тонкостей она будет улавливать в том, каким вероятнее всего будет следующее слово. То есть, подключится и семантика и ассоциации и т.д.
Вечная жизнь — это цель эгоистичного гена. А какая у него в процессе эволюции сложится форма: ДНК, кремневая, виртуальная — дело десятое.
два других человека в случайном порядке меняют положение выключателей. А Вы регистрируете как положение выключателей, так и горят ли люстры.
В таком случае для наблюдателя понятие «действие» отсутствует. Вы наблюдаете смену состояний некого чёрного ящика и ищите корреляцию между его параметрами, доступными для наблюдения.

Действия возникают только в том случае, когда наблюдатель перестаёт быть наблюдателем и вмешивается в процесс смены состояний объекта, начинает им управлять. Не кто-то неизвестный переключает выключатели, а этот самый «наблюдатель». В вашем же случае «действие» — это чисто условность, корреляция между параметрами, где одно событие следует перед другим.

«Неоднозначность» же возникает из-за того, что у вас марковская цепь, у неё нет памяти, а вы её пытаетесь перевести в конечный автомат снятием этой «неоднозначности».
Вопрос в том, что не знаем где состояние и где действие.
В какой реальной ситуации такое встречается?
Дело в размере вектора, в первом он равен 4-м f32, а во втором 262144.

Условно в первом случае перекладываем из одного мешка в другой орехи. Вес ореха малый, но много времени уходит на махание руками туда-сюда, хоть и быстро и часто машем.

Во-втором руками машем на порядки медленнее и реже, но таскаем арбузы.

В итоге, произведение числа маханий руками на вес переносимого за раз груза во втором случае в 40 раз происходит эффективнее (меньше накладных расходов на транспортировку).
качественное изменение поведения нелинейной системы при бесконечно малом изменении её параметров

Всё живое на всех уровнях защищается от вмешательства шума — все эти пороги, системы ключ-замок, бинарные состояния и т.д. и т.п.
Думаю всё дело в формате хранения знакового целого. :)

Например, у Int32 диапазон значений: -2147483648… 2147483647.
Каждый стимул оставляет след в виде небольшого нейронного ансамбля/кластера. Он может сохранять активность продолжительное время. Например, след от каждого услышанного или прочитанного слова остаётся до двух-трёх суток.
А должен был? Не пойму к чему упрёки. Ваши вопросы тянут на отдельную статью. Я же просто заметил phenik, что его догадки имеют место быть в моей биоподобной kNN, и даже ссылку на место, с которого надо копать ответы, приложил.
Извините, но я вас не понял. Я дал ссылку на рабочий проект, а не идею. Реальные изображения это ничтожная часть гиперпространства. Если точки kNN инициализировать случайным образом, а не в пространстве реальных изображений, то бродить они могут очень долго. Если же вы говорите про многослойные ИНС, то я бы не стал их недостатки проецировать на мозг.

Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность