Pull to refresh

Comments 37

Т.е. именно фоновая активность по сути и является тем самым сознанием, которое мы пытаемся выявить?
сложно говорить за сознание в целом (так как понимания, что именно определяет сознание пока нет), но фоновая активность является необходимой и достаточно важной компонентой этого процесса
Хоть Вы спрашивали не меня, но я отвечу. Лично по-моему мнении спонтанная активность нужна для приобретения паттерновой активности. По правилу Хэбба со временем нейрон соединиться с теми, которые были наиболее активны вместе с ним, таким образом приобретя строгий шаблон активации. Поэтому фоновую активность можно считать частью механизма сознания. Если я что-то не так понял автор поправит.
Спасибо, только не совсем понял в этом контексте смысл слова «соединится». Он физически должен подконектиться своими синапсами к тем нейронам более высокой иерархии, к которым уже подключены другие нейроны, выполняющие ту же самую задачу или вы что-то другое имели ввиду
Создавать ещё один похожий нейрон довольно таки не практично, поэтому нет. Спонтанную активность я воспринимаю как случайное возбуждение нейрона, которое позволяет накапливать статистику по правилу Хэбба. Впрочем это довольно скользкая тема и пока я придержу дальнейшие рассуждения при себе и постараюсь в ближайшее время провести эксперимент, чтобы не быть голословным.
т.е. если нейрон не будет спонтанно активироваться, то не сможет приобрести связи.
Фоновая активность не связана с сознанием непосредственно. По крайней мере, не больше, чем вызванная активность. Фоновая активность не является случайной. Принятый термин «спонтанная» активность крайне неудачен. Фоновая активность не служит для накопления статистики по правилу Хебба. В следующей части будет подробное объяснение ее природы и информационной сути.
ОК Больше не буду сбивать с толку людей в комментариях к Вашим постам. Свои мысли выражу в отдельном посте.
Я не хотел вас заткнуть :) Напротив, такие комментарии — хороший повод подчеркнуть и акцентировать определенные мысли.
Наверное просто я рассуждаю с программной точки зрения, но c биологической частью тоже надо бы разобраться.
«Связи» есть, они сформированы другим (независимым) процессом. Без спайка не происходит обучения нейрона, изменения весов «связей». Но кроме «обычных связей» (синапсов) на работу нейрона также влияют метаботропные рецепторы образующие кластеры способные распознавать паттерн активности соседних нейронов (окружения). И для «фиксации воспоминания» на метаботропных рецептивных кластерах, т.е. запоминания паттерна активности вокруг нейрона, также необходим спайк нейрона (одно из условий).
Благодарю на словах, так как кармы не достаточно.
У меня уже глаз настолько замылен

Читаю с интересом, читается отлично (правда, про себя говорю — я математик, программист). Терминов много, но и тема не про пирожки.
Спасибо за еще одну отличную статью. С нетерпением жду продолжения.

оффтоп
Хотя, надо сказать, что раз тема про мозг и мышление, то в каком-то роде статья «обо всем», в т.ч. и про пирожки =)
относительно оффтопа: не поспоришь.
«импульсы регулярной или спонтанной активности» Как видно из энцефалограммы спонтанная(фоновая) активность может быть довольно регулярной, поэтому я бы предложил заменить термин «регулярная активность» на шаблонную или паттерновую. Очень интересная часть. Спасибо.
кратковременная триггерная фиксация на метаботропных рецептивных кластерах картины окружающей активности

Даже после прочтения предыдущих статей мало что понятно.
Спасибо. Если не затруднит, отпишитесь после следующей части, станет ли понятнее. Там будет определенное пояснение.
Да, разумеется прочитаю и отпишусь, было бы здорово разобраться. Главное, все слова вроде либо знакомые, либо определены в статье, но как-то вместе все не вяжется.
Очень уместно с серией этих статей идет книга французского математика Жака Адамара «Исследование психологии процесса изобретения
в области математики». Пользуясь случаем рекомендую всем заинтересованным и сочувствующим.
Спасибо автору! Очень интересные статьи.
Процесс с возбуждением метаботропных рецепторов — это же прямая реализация временной памяти нейрона из HTM!
HTM — это немного о другом. Поверьте, все гораздо интереснее. Продолжение завтра.
Ждём продолжение с нетерпением.
Просто когда читал про HTM, вызывало удивление, как может нейрон помнить свои предыдущие состояния, когда он сам может иметь только два состояния. Точнее не было понятно, как это может быть реализовано в «железе».
В HTM нейрон способен запоминать картину на своих синапсах. Нейроны HTM имеют по несколько дендритных сегментов, каждый из которых отвечает за отдельную картину. Таким способом там нейрон может оперировать несколькими образами, что используется для запоминания и узнавания последовательностей. Но мы пошли другим путем…
Здраствуйте, можно пожалуйста при цикле статей на общую тематику, особенно когда они оформлены как разделы книг, в конце текущей статьи давать короткие ссылки на предидущие части? Спасибо.
Метаботропные рецепторы это те рецепторы которые пропускают вещества (лиганды) непосредственно в ядро с целью запуска процесса экспрессии генов? Я слышал еще термин GPCR, как соотносятся эти понятия?
Какую роль, по вашему в процессе памяти играет процесс синаптогенеза? Или память целиком полагается на механизм изменчивости метаботропных рецепторов?
Метаботропные рецепторы не «пропускают» лиганд в ядро, они запускают каскад реакций через вторых посредников. GPCR — это семейство метаботропных рецепторов.

Память на конкретные события требует участия и синапсов и внесинаптических рецепторов. Синапсы настраиваются на выделение образа, а метаботропные кластеры запоминают картину волновой активности, которая была в момент, когда нейрон узнал характерный образ (то есть сработал от синапсов). Далее этот механизм будет подробно описан.
Вот и нашел я упоминание метаботропных рецептивных кластеров в отличном, от моей диссертации источнике.

Однако на конференции Нейроинформатика-2014 подход Радченко назвали весьма спорным, с чем не могу согласиться.
Очень интересно. Расскажите подробнее о ваших работах.
Радченко не успел дойти до волновой модели. Он предложил не особо достоверные информационные механизмы, что подставило под сильную критику всю концепцию.
Скажем так, меня взял к себе в аспиранты проф. Семенов М.Е. из Воронежа, который является прямым учеником Красносельского, который, в свою очередь, развил операторную трактовку гистерезиса. На втором году обучения я начал активно изучать литературу, посвященную биологическим моделям нейронных сетей. В итоге родился «симбиоз» модели нейронных сетей Кащенко-Майорова и гистерезисных моделей Радченко. Ключевое слово для руководителя было «гистерезис», но в итоге удалось создать рабочий алгоритм для сегментации изображений с помощью упомянутых моделей, однако производительностью он не отличается (хотя и не в этом суть). Но вся соль в том, что модель Радченко дает большой простор для изучения синхронизации нейронов с различной «силой» влияния МРК. Например, если МРК всегда открыт для записи (что характерно для сна), то нейроны просто синхронизуются в некий устойчивый режим, на основе чего можно, например, косвенно доказать возможность обучения во сне.
Спасибо, интересно. Мне не нравятся модели, просто синхронизирующие ритм или модулирующие его за счет изменения временных интервалов. Собственно, объяснение этого в тексте статей. Про функции сна будет отдельная статья.
Читаю статьи по-порядку, очень интересно. Уже дошел до 8-й части, но вернулся к этой, т.к. не разобрался в механизме, благодаря которому метаботропные рецепторы распознают уникальную картину в рецептивном поле нейрона.

Вы описываете рецептивные кластеры, но не понятно что логически из этого следует.

Рисунок «Различные состояния метаботропного рецептивного кластера» остался совершенно непонятен (и надо ли его понимать?). По тексту идет что-то про концы и расстояния. Видимо надо подробнее написать, что за концы и между чем расстояния, может понятнее станет.

Главное, что меня ставит в тупик: нейрон должен выдать спайк, при возникновении определенного паттерна. Этот паттерн есть спайки или их отсутствие в рецептивном поле. При этом расстояния между точками, где происходят эти спайки довольно большое — рецепторы расположены на разных дендритах. Как передается информация от одного рецептора к другому? Вряд-ли кластер настолько велик, что охватывает весь нейрон целиком.
У рецептора два конца, соединенных перемычкой. Один конец образует «гармошку» на поверхности мембраны снаружи нейрона, другой «гармошку» внутри. Внешний конец воспринимает нейромедиаторы снаружи нейрона, внутренний передает возмущение клетке. При изменении мембранного потенциала концы втягиваются в мембрану или выталкиваются из нее. Верхняя часть рисунка — это и есть концы с различным расстоянием между ними. При малом расстоянии рецептор теряет чувствительность, при большом приобретает.
Паттерн — это определенный узор окружающей активности. Чтобы узнать конкретный узор не надо следить за всеми окружающими нейронами. Группа, расположенных рядом на одном дендрите синапсов, может оказаться «удачной» если на несколько из них придут сигналы.С большой вероятностью где-то на поверхности нейрона найдется хотя бы одно такое место. В этом месте и произойдет изменение рецепторов. Расположенные там рецепторы называются рецептивным кластером.
Если яснее не стало — напишите, я попробую объяснить как-то еще.
С концами и расстояниями прояснилось :) С кластерами и паттернами не очень.

Вы говорите, что паттерн распознается локально. Видимо аксоны сильно ветвятся, так что на каждый дендрит приходят аксоны от большого количества нейронов. Я не специалист, для меня это не вполне очевидно было.

Надо ли понимать так, что один паттерн распознается одним кластером рецепторов? Другой — другим на том же дендрите? Или на другом дендрите? И почему бы кластеру не среагировать на другой паттерн, в котором активны те же синапсы, плюс добавлена активность по другим синапсам, которые не были активны в исходном паттерне. Чем обеспечивается селективность?
Аксоны действительно сильно ветвятся. Веток в общей сложности столько же сколько синапсов. То есть аксон в среднем имеет порядка 10000 ответвлений.
Один паттерн распознается одним кластером. На одном дендрите множество кластеров, настроенных на разные образы.
Селективность достигается, во-первых, за счет того, что сочетаются активирующие и тормозящие медиаторы, а, во-вторых, за счет сильной разряженности кодирующего узора.
Представить эффект разряженности можно на простом расчете. Предположим, окружение нейрона N= 10000 других нейронов. Допустим, что узор кодируется сигналами n =10 из них. Тогда вероятность, что k=5 нейронов совпадут (n/N)^k.
Для приведенных чисел — это 1E-15.
Если активны s понятий, то вероятность совпадения половины кода будет приблизительно (s*n/N)^k. Приблизительно за счет того, что s*n — это оценка сверху для активных нейронов, реальная оценка будет ниже, но пока s*n много меньше N эти оценки будут близки.
Для 10 понятий вероятность ошибки 1E-10.
При 100 понятиях она возрастает до 0,00001. Это не страшно так как единичные ошибки не критичны и не ведут к сбою (волна самовосстанавливается). Но вот при дальнейшем росте числа одновременно активных понятий наступает момент когда «все узнают всех». Сеть переходит в состояние тотальной пульсирующей активности, что в точности соответствует картине эпилептического припадка.

Не понятно какое значение могут иметь 10000 нейронов, если отдельный кластер имеет дело только с 10. Если каждый синапс несет 1 бит информации, то 10 синапсов — 2^10 = 1024 различных комбинаций. Если в окружении нейрона в разное время проходят более 1000 разных паттернов, то ложные срабатывания отдельно взятого кластера будут неизбежны. Или возбуждение одного кластера еще не приводит к спайку? Как тогда кластеры координируются между собой?

Формула (n/N)^k, на мой взгляд, противоречит здравому смыслу: по формуле чем меньше n, тем выше селективность распознавания, но ведь n — это количество информации, которая приходит на кластер.

И еще мне трудно представить кластер рецепторов растянутый по площади 10-ти синапсов, который реагирует только при поступлении на синапсы определенного паттерна. Я не настаиваю на детальном объяснении, возможно там есть какая-то сложная математическая модель, которую в рамках статьи не изложить.
Кластер не кодирует 1024 различных состояния. Он фиксирует определенные 10 бит из 10 000. Это соответственно число сочетаний из 10 000 по 10. Считать лень, но это очень много.
В формуле, не зависимо от n, кластером кодируется одно состояние. Просто чем меньше n тем меньше возможных совпадений между двумя кодами, но при этом меньше и самих кодов. Крайний случай: 1 узор — 1 нейрон. При 10 000 нейронов возможны 10 000 узоров. При этом все узоры уникальные без шансов перепутаться. С ростом числа нейронов в узоре или количества одновременных узоров растет вероятность ложного срабатывания, об этом и формула.
Sign up to leave a comment.

Articles