Я бы с удовольствием! Но я ещё не дотягиваю до более серьезного уровня, всё ПОКА ограничилось большой биологической метафорой. Если бы было больше времени и умственных способностей 😅 при условии, что эта модель весов может показаться кому-то интересной, я бы продолжила погружаться и выдать нечто более удобоваримое. Надеялась как раз тут найти подкованных единомышленников. :) На Ванчурина ещё не выходила, почитаю, спасибо огромное!
Мне уже даже немного обидно, что структура мышления даже не рассматривается, а сводится к генерации по промптам, ну да ладно. Если пробежаться, безэмоционально, конечно, то просто уточню границы терминов, ну и то, что имелось ввиду, если вы не захотели прочесть ремарки. Это эвристическая визуалка ветвления (надеюсь, что слово эвристика Вам знакомо?) Всё. Термины «аксон/дендрит/наблюдатель» — просто названия для элементов элементарной динамики весов (я занималась хореей Гентингтона и такие нейро-аналогии мне показались вполне уместными для метафоричности и восприятия). При желании всё это легко заменить на нейтральные «драйверы/ ветви / локальные регистры, всё, что угодно». Показалось, что если проведу аналогии с нейронами, массовому пользователю будет понятнее посыл (но я, видимо, ошибалась) + тут у меня «наблюдатель» трактуется как локальный, мать его, регистр, где после декогеренции фиксируется выбранная ветвь. А формула описывает перераспределение весов до фиксации (заморозка весов соответствует устойчивым записям). И я не делаю здесь заявок на микрофизический коллапс, ало, + эта моделька не вводит квантовые эффекты в нейронах или кремниевых сетях. То бишь, ветвление в духе Эверетта понимается как фоновая картинка и просто проводит наглядную аналогию «как может выглядеть распределение ветвей/записей» после декогеренции. И ВСЁ. Я не натягиваю на Ваш «классический глобус» абсолютно ничего, я к нему не прикасаюсь даже, боже упаси 😁 я предложила свою точку зрения. Теперь заикнусь про «аксон, который подаёт на выход, а дендриты принимают на вход». Здесь это ТОЖЕ условные роли: «аксон» = УСЛОВНЫЙ драйвер δ, «дендриты» = УСЛОВНЫЕ каналы ветвления, «сома» = место нормировки/интеграции, а под «резонансом» понимаю корреляшку — усиление каналов в самОй игрушечной динамике: матрица связностей K, повторные импульсы дельточки, хеббовская пластичность. Тут-то речь идёт о подборе паттернов!
В космологии, вон, предлагалась фрактальное распределение, в квант-материалах тоже всякие бабочки Хофстатера фигурируют, в философии эта тема постоянна, Зурек и Шлоссхауэр вообще новые стандарты задают, я по ним и ориентировалась, вдохновлялась, и попробовала примерить это на многомир. Каюсь, с биологическими метафорами. Но так же реально проще читается тем, кто не знаком с абстрактными драйверами и регистрами. 😞
Даже формула, которая тут указана, предсказывает поведение именно этой упрощённой системы:
— при малом шуме и стабильном K возникает IFS-режим концентрации меры (это фрактал барнсли, который я взяла в пример)
— при высоком шуме и затухании — DLA-режим «куда попало» и тяжёлые хвосты распределений весов. Эти эффекты проверяются численно на выложенном графике (если надо, могу дать код, который вывел его, но там все очень примитивно). К «новой физике» претензий нет.
Если Вам интересен разговор строго в терминах декогеренции, состояний и квантового дарвинизма, то я прям с радостью продолжу отдельной веткой или в личке. Если моя эвристика Вам показалась бредовой — ок, это нормально, это Ваше мнение, и я его уважаю. Но обвинять меня в генерации не нужно, — я ещё пока не знаю Llm’ок, способных держать столько контекста, сколько я собирала для озвучивания этой небольшой ме-та-фо-ры, не скатившись в галлюны:) (вернее, может, и знаю, но наверное, там нужны какие-то pro-инструменты, а мы в России живём, мне зарплата не позволяет 🥴).
Спасибо большое! Если бы всё было так просто 😅 Можно я опять сделаю оговорку, что это просто эвристика, а не утверждение, дабы ложно не обнадёживать? На самом деле, у меня тут только два исхода, если я буду следовать именно своей, вышеприведенной модели, то сложится как-то так:
— это самоподпитка (или эндогенный контур, если угодно), где предлагаю сделать δ динамикой внутри системы. Типа, δ — это функция текущего распределения весов и связностей («метаболизм» сети, я опять к вам со своими метафорами из органики). Проще говоря, не «внешняя энергия». И «Первая» δ, первый импульс, — это просто малое начальное семя (любой ненулевой шум/асимметрия), на котором эта подсистема завелась. Тогда это полностью снимает регресс к внешнему источнику. Копилось — накопилось.
— ну и граничные условия/шум. Тут уже альтернативно (и совместимо): мол, «первая» δ — это граничное условие начального состояния (низкая энтропия/неоднородность) + какие-то фоновые флуктуации. Здесь я прямо трактую дельточку как абстрактный драйвер/сигнал, не тождественный физической энергии (!), и допускаю аналогию с «фоновыми» космологическими штукенциями, типа вакуумной/тёмной энергии. И если такое правило брать в расчет, тогда старт даёт либо начальное условие, либо шум (в DLA-режиме, если вы до него дочитали:)). Смотрите, если брать органику, то можно запараллелить репликаторов: высокая энтропия/шум/неорганика => сложилось благоприятное условие => минимальная структурность => хаотичные деления => случайные мутации => органика.
Так и здесь: δ-старта. В начальный момент существует малая ненулевая дельта_0 (или слабый шум в K,δ). Дальше δ поддерживается эндогенно (внутренне, самоподпитка) по формуле δ_{t+1}=g(Σw_t,K).
и тогда это будет полностью совместимо с разделами про IFS (стабильный K) и DLA (шумный K, сильное затухание): в первом случае старт даёт фрактал (тут можно взять любой ветвящийся, но по аналогии с Эвереттом я взяла Барнсли), во втором — «живую», щетинистую агрегацию. В обоих случаях — δ не обязана быть какой-то мифической/высокодуховной внешней энергией (как тут некоторые пишут выше), это именно «драйв/сигнал» модели, сложившийся из благоприятной среды. Я из тех ребят, которые как самураи (нет цели, только путь) — отвергаю телеологию 😁
Спасибо за развернутый комментарий по теме! Я поясню в том же ключе и надеюсь, что у вас хватит терпения дочитать до конца 😁🙏🏻 Ругать статью за то, чем она не пытается быть, некрасиво: здесь нет экспериментальных претензий, я сразу написала, что это просто эвристическая модель для обсуждения. Это не физическая теория (даже из заголовка видно) и даже не модель коллапса ни в коем случае. Для более легкого понимания как раз и объединены термины из разных областей. Проще говоря, это метафорическая солянка, помогающая визуализировать идею такого вот фрактального ветвления (в духе эвереттовского взгляда и декогеренции). Я же не утверждаю, что «аксоны/дендриты» существуют в природе или «влияют на волновую функцию». Это для потоков и ветвей в игрушечной динамике, и да, я поделилась просто «на подумать», а не бежать и проверять:) В тексте «наблюдатель» у меня — это локальный… регистр, что ли. Интегратор (как сома у клетки, если опять-таки прибегнуть к органике), где фиксируется выбранная ветвь после потери когерентности. То бишь, я тут рассматриваю подсистему, в которой записывается классическое состояние. И не беру отдельную «штуку», ломающую волну:) Она (подсистема) у меня подхватывает и фиксирует направление ветвления, которое усилилось до декогеренции, и тут прямо сказано, что после декогеренции веса «замораживаются», а связности обнуляются, то есть наступает эффективный «коллапс» в ветви (с точки зрения внутреннего субъекта). «Аксон» и дельточка только подводят систему к разветвлению, а «коллапс» — это моя «заморозка весов» после декогеренции (это явно отмечено тоже).
Собственно, и формула-то описывает перераспределение весов до «заморозки», и коллапса в смысле Копенгагена тут искать не надо. Я её впихнула для того, чтобы показать минимальную динамику с утечкой лямбды, связностями K и нормировкой, которая даёт два качественно разных режима (гладкий/фрактальный рост против хаотичности — это главная фича: IFS vs DLA, вот эти два режима). И задача этой формулы — наглядность.
Предсказывать лабораторные величины я тут и не собиралась. Если серьезно, то и сама модель предсказывает только поведение самой игрушечной системы: при одних параметрах веса концентрируются на малом числе ветвей, при шумных — возникает «щетинистая», шумная агрегация (потому я и провожу тут параллели с аишками, что можно юзать фрактальные подходы для политик).
Новую физику я тут не заявляю, замену экспериментам в квантовой механике не постулирую. Я СОЗНАТЕЛЬНО не выдаю эвристику за проверяемую «теорию природы», я делюсь мнением и подкрепляю минимальной визуализацией. Если Вас слово «наблюдатель» сбивает, готова в тексте прямо заменить на «локальный регистр/интегратор» и добавить сразу под формулой дисклеймер: «метафора, не физическая идентификация с нейробиологией/коллапсом». Хотя я это и так писала много раз, даже во вступлении:)
*Кстати, если по Копенгагену наблюдатель — это та самая «штука», которая «коллапсирует» волновую функцию, то в более современной картине (декогеренция/квантовый дарвинизм Зурека, которым я тоже вдохновлялась, в конце дам ссылочку + эвереттовский взгляд) коллапс не постулируется: система просто разветвляется и быстро теряет когерентность с альтернативами из-за среды. Так что «классический результат» просто устойчивое записанное состояние в любом подсистемном регистре (будь то прибор, среда или даже наши мозги).
А вот ссылочки. Отсюда я брала именно наблюдателя:
Там классичность появляется как устойчивые «точки-состояния», чьи копии записываются в среде, и специального постулата «коллапса наблюдателем» там не вводят. Короче говоря, наблюдатель трактуется как обычная подсистема, читающая уже записанные следы. Это что касается декогеренции.
А вот это я брала по квантовому дарвинизму: https://arxiv.org/abs/0903.5082 Там «классический результат» — это многократные записи состояния в окружении, то бишь, отсюда и «видимая» единственность исхода. И там Зурек прямо обсуждает, как из распространения записей возникает видимость коллапса. Я ещё читала обзоры Шлоссхауэра, но почему-то не могу найти ссылку в истории браузера 🫠 (если найду - кину). Но суть там в том, что декогеренция даёт динамическое объяснение появления классичности и того самого «эффективного» коллапса, но вопрос «почему наблюдается ровно один исход» остаётся делом мнения — сколько людей… столько и интерпретаций :) В эвереттовском подходе принимают ветвление без фундаментального коллапса, в коллапс-теориях заявляют физический механизм.
Если Вы хотите обсудить более детально, я только за! Можно даже в личку.
Добрый день! Спасибо! На самом деле, это просто итеративная динамическая моделька распределения весов. Алгоритм до безобразия простой, эдакая петля обновления, фокусирующаяся на динамике выживания состояний. Малый вес — ветвь погибает. Можно, конечно, моделировать агентов, где состояния (ветви) конкурируют за ресурс (моя эмерджентная дельта-драйвер). Например, в мультиагентах RL: агенты как нейроны, а K — коммуникация. Слабые ветви (низкий w) приводят к аномалиям; алгоритм может детектировать эти… кхм… «патологии» (как в автоэнкодерах; у меня здесь аналогии с биологией и психиатрией). Если брать ML, Как сэмплер в GFlowNets — генерировать жизнеспособные последовательности (а в NLP: ветви как токены). НО. В ML возникает проблема переопределения (разные K/δ дают похожие w), когда много параметров; нужно как-то регулировать.
Сейчас буду разбираться в Вашем комментарии и переведу на ml, чтобы лучше понимать для себя :D Ну, градиентный подъем — понятно, оптимизашка. Про обратную энтропию Шеннона в этом контексте, если я верно поняла, то это… симуляционная модель для оптимизации, вместо минимизации потери (как максимизируют «обратную» инфу, обходя парадоксы в начальных состояниях)? То есть, мы вместо функции потерь (минимизируем эту функцию через Ваш градиентный спуск, чтобы модель лучше обобщала данные) идём в негэнтропию?
А аппроксимации? Вообще, если так посмотреть, Ваш подход может привести к моделям, которые будут … хм… игнорировать шумы и лучше обобщать, ну и будут способны к рассуждению в обход сопоставления паттернов, если переложить это на иишку:)
Спасибо:) Не думала, что графические маркеры могут вызвать такие ассоциации. Я переживала, что больше претензий вызовет стилистика выделять заглавными буквами ударения в спорных словах, смешивание дисциплин или ремарки с неуместными шутейками, но до них, видимо, просто не дочитали.
Спасибо! Резонанс здесь очень интересный — возможно, недостаточно технической базы (которая, впрочем, всё равно собиралась довольно долго), возможно, привыкли к другого рода изложению, просто не согласны с мнением — не знаю:) На философских форумах отклик более живой, что ли. Но не в сторону духовных учений, конечно 😅 в 2019 уже предлагалась фрактальная трактовка, но не связывалась с Эвереттом и другими дисциплинами.
В любом случае, спасибо за поддержку и что поделились! Когда взяла теорию Хебба, где он утверждает о fire-wire together, то сложилась ещё более увлекательная метафоричная картинка о переплетении близлежащих ветвей (дендритов) отдельных «нейронов» наблюдателей и о соме «клетки», как хранилище информации, куда поступают данные из двухканальных ветвей фрактала (что, собственно, отличает один «нейрон» от другого, грубо говоря). Тогда психические заболевания, расстройства личности и экзистенциальные кризисы становятся более обоснованными из-за «эха» из сомы, посылающей импульсы, а сплетение ветвей/реальностей/сознаний наблюдателей может говорить о том, что несколько разных реальностей отдельных наблюдателей могут существовать в одной плоскости. Но это всё пока на уровне эвристики.
Здравствуйте, спасибо за отклик. Я отвечу развёрнуто, если Вы не против. Это часть рефлексии из моего технотриллера об ИИ (в стилистике Тэда Чана, Питера Уоттса, Станислава Лема), я работаю над ним несколько лет, тщательно верифицируя контекст через базы, статьи и ревью/комментарии людей (но к сожалению, экспертов в области квантовой физики у меня среди знакомых не обнаружилось: только медицина, психология и математика). Мне подумалось, что найдутся люди, способные помочь развить мысль — нейронки берут совершенно не тот вектор, скатываясь в квантовые фанфики, потому сгодились только для проверки формул, но даже тест пришлось делать через VSC. Свои модели пишу на питоне и лисп как раз с канареечными деплоями, что подтолкнуло к многополосности (технотриллер, правда, скорее, художественного образца с массой рефлексии и технических деталей из нейробиологии, генетики и AI).
Эмоджи — часть моего сетевого нарратива, я подумала, что в разделе научпопа могу делиться и ими тоже для лёгкости общения, раз не заявляю эмпирические тесты. 🥴 Если бы я захотела залить сгенерированный текст, то не стала бы публиковаться на Хабре первой статьёй с философским подтекстом (почти в сорок лет:)). Мне жаль, что не оправдала ваших ожиданий, но также тревожно, что сейчас весь приемлемый (или неприемлемый?) эмпиризм воспринимается нейронкой (хотя я согласна, что конструкции «не, а», «отрицание, утверждение», в сети уже вызывают отторжение, как и качество текста, и размытые формулировки тоже, а идеи, в основном, бредовые, но явно не затрагивают столько областей). Главный бич нашего общества:)
Восхитительная статья! Я сейчас семантический RAG изучаю и было очень полезно :) Надеюсь, что во второй части расширится набор LLM и эмбеддеров для стабильных выводов (сейчас ограниченность сэмпла, в разных моделях ведь разные position-bias и приоритеты, RAG ведёт себя по-разному). Резюме под спойлерами у Вас везде очень качественные, но редко дают количественные оценки (токены, стоимость, всё такое) — как с этим на практике? Очень бы хотелось увидеть пару явных рекомендаций по настройкам индекса и параметрам эмбеддера. 🙏🏻Если есть примеры failure-case’ов — вообще будет интересно!
Я бы с удовольствием! Но я ещё не дотягиваю до более серьезного уровня, всё ПОКА ограничилось большой биологической метафорой. Если бы было больше времени и умственных способностей 😅 при условии, что эта модель весов может показаться кому-то интересной, я бы продолжила погружаться и выдать нечто более удобоваримое. Надеялась как раз тут найти подкованных единомышленников. :) На Ванчурина ещё не выходила, почитаю, спасибо огромное!
Мне уже даже немного обидно, что структура мышления даже не рассматривается, а сводится к генерации по промптам, ну да ладно. Если пробежаться, безэмоционально, конечно, то просто уточню границы терминов, ну и то, что имелось ввиду, если вы не захотели прочесть ремарки. Это эвристическая визуалка ветвления (надеюсь, что слово эвристика Вам знакомо?) Всё. Термины «аксон/дендрит/наблюдатель» — просто названия для элементов элементарной динамики весов (я занималась хореей Гентингтона и такие нейро-аналогии мне показались вполне уместными для метафоричности и восприятия). При желании всё это легко заменить на нейтральные «драйверы/ ветви / локальные регистры, всё, что угодно». Показалось, что если проведу аналогии с нейронами, массовому пользователю будет понятнее посыл (но я, видимо, ошибалась) + тут у меня «наблюдатель» трактуется как локальный, мать его, регистр, где после декогеренции фиксируется выбранная ветвь. А формула описывает перераспределение весов до фиксации (заморозка весов соответствует устойчивым записям). И я не делаю здесь заявок на микрофизический коллапс, ало, + эта моделька не вводит квантовые эффекты в нейронах или кремниевых сетях. То бишь, ветвление в духе Эверетта понимается как фоновая картинка и просто проводит наглядную аналогию «как может выглядеть распределение ветвей/записей» после декогеренции. И ВСЁ. Я не натягиваю на Ваш «классический глобус» абсолютно ничего, я к нему не прикасаюсь даже, боже упаси 😁 я предложила свою точку зрения. Теперь заикнусь про «аксон, который подаёт на выход, а дендриты принимают на вход». Здесь это ТОЖЕ условные роли: «аксон» = УСЛОВНЫЙ драйвер δ, «дендриты» = УСЛОВНЫЕ каналы ветвления, «сома» = место нормировки/интеграции, а под «резонансом» понимаю корреляшку — усиление каналов в самОй игрушечной динамике: матрица связностей K, повторные импульсы дельточки, хеббовская пластичность. Тут-то речь идёт о подборе паттернов!
В космологии, вон, предлагалась фрактальное распределение, в квант-материалах тоже всякие бабочки Хофстатера фигурируют, в философии эта тема постоянна, Зурек и Шлоссхауэр вообще новые стандарты задают, я по ним и ориентировалась, вдохновлялась, и попробовала примерить это на многомир. Каюсь, с биологическими метафорами. Но так же реально проще читается тем, кто не знаком с абстрактными драйверами и регистрами. 😞
Даже формула, которая тут указана, предсказывает поведение именно этой упрощённой системы:
— при малом шуме и стабильном K возникает IFS-режим концентрации меры (это фрактал барнсли, который я взяла в пример)
— при высоком шуме и затухании — DLA-режим «куда попало» и тяжёлые хвосты распределений весов. Эти эффекты проверяются численно на выложенном графике (если надо, могу дать код, который вывел его, но там все очень примитивно). К «новой физике» претензий нет.
Если Вам интересен разговор строго в терминах декогеренции, состояний и квантового дарвинизма, то я прям с радостью продолжу отдельной веткой или в личке. Если моя эвристика Вам показалась бредовой — ок, это нормально, это Ваше мнение, и я его уважаю. Но обвинять меня в генерации не нужно, — я ещё пока не знаю Llm’ок, способных держать столько контекста, сколько я собирала для озвучивания этой небольшой ме-та-фо-ры, не скатившись в галлюны:) (вернее, может, и знаю, но наверное, там нужны какие-то pro-инструменты, а мы в России живём, мне зарплата не позволяет 🥴).
Спасибо большое! Если бы всё было так просто 😅 Можно я опять сделаю оговорку, что это просто эвристика, а не утверждение, дабы ложно не обнадёживать? На самом деле, у меня тут только два исхода, если я буду следовать именно своей, вышеприведенной модели, то сложится как-то так:
— это самоподпитка (или эндогенный контур, если угодно), где предлагаю сделать δ динамикой внутри системы. Типа, δ — это функция текущего распределения весов и связностей («метаболизм» сети, я опять к вам со своими метафорами из органики). Проще говоря, не «внешняя энергия». И «Первая» δ, первый импульс, — это просто малое начальное семя (любой ненулевой шум/асимметрия), на котором эта подсистема завелась. Тогда это полностью снимает регресс к внешнему источнику. Копилось — накопилось.
— ну и граничные условия/шум. Тут уже альтернативно (и совместимо): мол, «первая» δ — это граничное условие начального состояния (низкая энтропия/неоднородность) + какие-то фоновые флуктуации. Здесь я прямо трактую дельточку как абстрактный драйвер/сигнал, не тождественный физической энергии (!), и допускаю аналогию с «фоновыми» космологическими штукенциями, типа вакуумной/тёмной энергии. И если такое правило брать в расчет, тогда старт даёт либо начальное условие, либо шум (в DLA-режиме, если вы до него дочитали:)). Смотрите, если брать органику, то можно запараллелить репликаторов: высокая энтропия/шум/неорганика => сложилось благоприятное условие => минимальная структурность => хаотичные деления => случайные мутации => органика.
Так и здесь: δ-старта. В начальный момент существует малая ненулевая дельта_0 (или слабый шум в K,δ). Дальше δ поддерживается эндогенно (внутренне, самоподпитка) по формуле δ_{t+1}=g(Σw_t,K).
и тогда это будет полностью совместимо с разделами про IFS (стабильный K) и DLA (шумный K, сильное затухание): в первом случае старт даёт фрактал (тут можно взять любой ветвящийся, но по аналогии с Эвереттом я взяла Барнсли), во втором — «живую», щетинистую агрегацию. В обоих случаях — δ не обязана быть какой-то мифической/высокодуховной внешней энергией (как тут некоторые пишут выше), это именно «драйв/сигнал» модели, сложившийся из благоприятной среды. Я из тех ребят, которые как самураи (нет цели, только путь) — отвергаю телеологию 😁
для агентов в будущих квантовых компах было бы элегантным решением, чтобы мириады дополнительных оценщиков не вводить :)
Спасибо за развернутый комментарий по теме! Я поясню в том же ключе и надеюсь, что у вас хватит терпения дочитать до конца 😁🙏🏻 Ругать статью за то, чем она не пытается быть, некрасиво: здесь нет экспериментальных претензий, я сразу написала, что это просто эвристическая модель для обсуждения. Это не физическая теория (даже из заголовка видно) и даже не модель коллапса ни в коем случае. Для более легкого понимания как раз и объединены термины из разных областей. Проще говоря, это метафорическая солянка, помогающая визуализировать идею такого вот фрактального ветвления (в духе эвереттовского взгляда и декогеренции). Я же не утверждаю, что «аксоны/дендриты» существуют в природе или «влияют на волновую функцию». Это для потоков и ветвей в игрушечной динамике, и да, я поделилась просто «на подумать», а не бежать и проверять:) В тексте «наблюдатель» у меня — это локальный… регистр, что ли. Интегратор (как сома у клетки, если опять-таки прибегнуть к органике), где фиксируется выбранная ветвь после потери когерентности. То бишь, я тут рассматриваю подсистему, в которой записывается классическое состояние. И не беру отдельную «штуку», ломающую волну:) Она (подсистема) у меня подхватывает и фиксирует направление ветвления, которое усилилось до декогеренции, и тут прямо сказано, что после декогеренции веса «замораживаются», а связности обнуляются, то есть наступает эффективный «коллапс» в ветви (с точки зрения внутреннего субъекта). «Аксон» и дельточка только подводят систему к разветвлению, а «коллапс» — это моя «заморозка весов» после декогеренции (это явно отмечено тоже).
Собственно, и формула-то описывает перераспределение весов до «заморозки», и коллапса в смысле Копенгагена тут искать не надо. Я её впихнула для того, чтобы показать минимальную динамику с утечкой лямбды, связностями K и нормировкой, которая даёт два качественно разных режима (гладкий/фрактальный рост против хаотичности — это главная фича: IFS vs DLA, вот эти два режима). И задача этой формулы — наглядность.
Предсказывать лабораторные величины я тут и не собиралась. Если серьезно, то и сама модель предсказывает только поведение самой игрушечной системы: при одних параметрах веса концентрируются на малом числе ветвей, при шумных — возникает «щетинистая», шумная агрегация (потому я и провожу тут параллели с аишками, что можно юзать фрактальные подходы для политик).
Новую физику я тут не заявляю, замену экспериментам в квантовой механике не постулирую. Я СОЗНАТЕЛЬНО не выдаю эвристику за проверяемую «теорию природы», я делюсь мнением и подкрепляю минимальной визуализацией. Если Вас слово «наблюдатель» сбивает, готова в тексте прямо заменить на «локальный регистр/интегратор» и добавить сразу под формулой дисклеймер: «метафора, не физическая идентификация с нейробиологией/коллапсом». Хотя я это и так писала много раз, даже во вступлении:)
*Кстати, если по Копенгагену наблюдатель — это та самая «штука», которая «коллапсирует» волновую функцию, то в более современной картине (декогеренция/квантовый дарвинизм Зурека, которым я тоже вдохновлялась, в конце дам ссылочку + эвереттовский взгляд) коллапс не постулируется: система просто разветвляется и быстро теряет когерентность с альтернативами из-за среды. Так что «классический результат» просто устойчивое записанное состояние в любом подсистемном регистре (будь то прибор, среда или даже наши мозги).
А вот ссылочки. Отсюда я брала именно наблюдателя:
https://link.aps.org/doi/10.1103/RevModPhys.75.715
Там классичность появляется как устойчивые «точки-состояния», чьи копии записываются в среде, и специального постулата «коллапса наблюдателем» там не вводят. Короче говоря, наблюдатель трактуется как обычная подсистема, читающая уже записанные следы. Это что касается декогеренции.
А вот это я брала по квантовому дарвинизму: https://arxiv.org/abs/0903.5082 Там «классический результат» — это многократные записи состояния в окружении, то бишь, отсюда и «видимая» единственность исхода. И там Зурек прямо обсуждает, как из распространения записей возникает видимость коллапса. Я ещё читала обзоры Шлоссхауэра, но почему-то не могу найти ссылку в истории браузера 🫠 (если найду - кину). Но суть там в том, что декогеренция даёт динамическое объяснение появления классичности и того самого «эффективного» коллапса, но вопрос «почему наблюдается ровно один исход» остаётся делом мнения — сколько людей… столько и интерпретаций :) В эвереттовском подходе принимают ветвление без фундаментального коллапса, в коллапс-теориях заявляют физический механизм.
Если Вы хотите обсудить более детально, я только за! Можно даже в личку.
Добрый день! Спасибо! На самом деле, это просто итеративная динамическая моделька распределения весов. Алгоритм до безобразия простой, эдакая петля обновления, фокусирующаяся на динамике выживания состояний. Малый вес — ветвь погибает. Можно, конечно, моделировать агентов, где состояния (ветви) конкурируют за ресурс (моя эмерджентная дельта-драйвер). Например, в мультиагентах RL: агенты как нейроны, а K — коммуникация. Слабые ветви (низкий w) приводят к аномалиям; алгоритм может детектировать эти… кхм… «патологии» (как в автоэнкодерах; у меня здесь аналогии с биологией и психиатрией). Если брать ML, Как сэмплер в GFlowNets — генерировать жизнеспособные последовательности (а в NLP: ветви как токены). НО. В ML возникает проблема переопределения (разные K/δ дают похожие w), когда много параметров; нужно как-то регулировать.
Сейчас буду разбираться в Вашем комментарии и переведу на ml, чтобы лучше понимать для себя :D Ну, градиентный подъем — понятно, оптимизашка. Про обратную энтропию Шеннона в этом контексте, если я верно поняла, то это… симуляционная модель для оптимизации, вместо минимизации потери (как максимизируют «обратную» инфу, обходя парадоксы в начальных состояниях)? То есть, мы вместо функции потерь (минимизируем эту функцию через Ваш градиентный спуск, чтобы модель лучше обобщала данные) идём в негэнтропию?
А аппроксимации? Вообще, если так посмотреть, Ваш подход может привести к моделям, которые будут … хм… игнорировать шумы и лучше обобщать, ну и будут способны к рассуждению в обход сопоставления паттернов, если переложить это на иишку:)
Не поняла посыла комментария, но рада, что откликнулось 🥴 Спасибо!
Спасибо:) Не думала, что графические маркеры могут вызвать такие ассоциации. Я переживала, что больше претензий вызовет стилистика выделять заглавными буквами ударения в спорных словах, смешивание дисциплин или ремарки с неуместными шутейками, но до них, видимо, просто не дочитали.
Спасибо! Резонанс здесь очень интересный — возможно, недостаточно технической базы (которая, впрочем, всё равно собиралась довольно долго), возможно, привыкли к другого рода изложению, просто не согласны с мнением — не знаю:) На философских форумах отклик более живой, что ли. Но не в сторону духовных учений, конечно 😅 в 2019 уже предлагалась фрактальная трактовка, но не связывалась с Эвереттом и другими дисциплинами.
В любом случае, спасибо за поддержку и что поделились! Когда взяла теорию Хебба, где он утверждает о fire-wire together, то сложилась ещё более увлекательная метафоричная картинка о переплетении близлежащих ветвей (дендритов) отдельных «нейронов» наблюдателей и о соме «клетки», как хранилище информации, куда поступают данные из двухканальных ветвей фрактала (что, собственно, отличает один «нейрон» от другого, грубо говоря). Тогда психические заболевания, расстройства личности и экзистенциальные кризисы становятся более обоснованными из-за «эха» из сомы, посылающей импульсы, а сплетение ветвей/реальностей/сознаний наблюдателей может говорить о том, что несколько разных реальностей отдельных наблюдателей могут существовать в одной плоскости. Но это всё пока на уровне эвристики.
Здравствуйте, спасибо за отклик. Я отвечу развёрнуто, если Вы не против. Это часть рефлексии из моего технотриллера об ИИ (в стилистике Тэда Чана, Питера Уоттса, Станислава Лема), я работаю над ним несколько лет, тщательно верифицируя контекст через базы, статьи и ревью/комментарии людей (но к сожалению, экспертов в области квантовой физики у меня среди знакомых не обнаружилось: только медицина, психология и математика). Мне подумалось, что найдутся люди, способные помочь развить мысль — нейронки берут совершенно не тот вектор, скатываясь в квантовые фанфики, потому сгодились только для проверки формул, но даже тест пришлось делать через VSC. Свои модели пишу на питоне и лисп как раз с канареечными деплоями, что подтолкнуло к многополосности (технотриллер, правда, скорее, художественного образца с массой рефлексии и технических деталей из нейробиологии, генетики и AI).
Эмоджи — часть моего сетевого нарратива, я подумала, что в разделе научпопа могу делиться и ими тоже для лёгкости общения, раз не заявляю эмпирические тесты. 🥴 Если бы я захотела залить сгенерированный текст, то не стала бы публиковаться на Хабре первой статьёй с философским подтекстом (почти в сорок лет:)). Мне жаль, что не оправдала ваших ожиданий, но также тревожно, что сейчас весь приемлемый (или неприемлемый?) эмпиризм воспринимается нейронкой (хотя я согласна, что конструкции «не, а», «отрицание, утверждение», в сети уже вызывают отторжение, как и качество текста, и размытые формулировки тоже, а идеи, в основном, бредовые, но явно не затрагивают столько областей). Главный бич нашего общества:)
Ой, милый человек, спасибо за продолжение! Я ждала :) Тоже Jina хотела предложить, немцы знают толк в плотной семантике.
Восхитительная статья! Я сейчас семантический RAG изучаю и было очень полезно :) Надеюсь, что во второй части расширится набор LLM и эмбеддеров для стабильных выводов (сейчас ограниченность сэмпла, в разных моделях ведь разные position-bias и приоритеты, RAG ведёт себя по-разному). Резюме под спойлерами у Вас везде очень качественные, но редко дают количественные оценки (токены, стоимость, всё такое) — как с этим на практике? Очень бы хотелось увидеть пару явных рекомендаций по настройкам индекса и параметрам эмбеддера. 🙏🏻Если есть примеры failure-case’ов — вообще будет интересно!
Спасибо за огромную работу!