Как стать автором
Обновить

Комментарии 18

Интересно, что для меня всегда было самоочевидно, что мозг предсказывает следующее слово в речи и реагирует на несовпадение реальности с предсказанием. Под очевидно, я имею в виду, что это непосредственно происходит в моём субъективном опыте, когда я слушаю или говорю с кем либо, я своего рода "слышу" слова, которые они ещё не сказали, но я ожидаю услышать. Я не помню точно и сейчас кажетс, что так происходило всегда, но возможно заметно это стало после начала практик медитации примерно 10 лет назад.

некоторые вещи несмотря на их очевидность не являются истинной. Например, теория Аристотеля о движении «насильственное движение возможно только в том случае, если к телу приложена сила со стороны другого тела».
Эта статья предоставляет доказательства теории и это хорошо.
Под очевидно, я имею в виду, что это непосредственно происходит в моём субъективном опыте, когда я слушаю или говорю с кем либо, я своего рода «слышу» слова, которые они ещё не сказали, но я ожидаю услышать.
А вы не замечали, что еще иногда вы слышите те слова, кот. хотите услышать, а не те кот. произносит собеседник?) Понаблюдайте за собой, это частая причина непонимания. Это лучше наблюдается, когда собеседник говорит тихо, или присутствует посторонний шум, напр, гомон на вечеринке или офисе.

Исследователи провели неплохую работу, но несколько однобоко толкуют предиктивное предсказание. Происходит не просто предсказание наиболее вероятного след. слова, как это происходит в языковых моделях типа GPT, а предсказание в контексте готовности воспринять это слово, а точнее категории, т.е. с учетом семантики, смысла, ассоциаций, и тд. Это факт установлен весьма давно, еще в 60-х годах прошлого века, и называется перцептивной готовностью категорий (см. одну из оригинальных статей на эту тему). Она кстати действует не только на восприятие слов, но и визуальную информацию, вот здесь хорошо проиллюстрировали это. Это желание услышать, то на что заранее настроен, эксплуатируется маркетологами в рекламе, и называется прайминг эффектом. Предсказание происходит, но одновременно происходит конкуренция разных контекстов, и побеждает наиболее мотивированный, наиболее готовый.

>А вы не замечали, что еще иногда вы слышите те слова, кот. хотите услышать, а не те кот. произносит собеседник?)

Именно! Не просто замечал, а страраюсь этот эффект минимизировать. Прекрасно наблюдается этот эффект ещё при изучении иностранного языка, когда я ожидаю услышать знакомое слово, а не то, которое я не знаю.

Происходит не просто предсказание наиболее вероятного след. слова, как это происходит в языковых моделях типа GPT, а предсказание в контексте готовности воспринять это слово, а точнее категории, т.е. с учетом семантики, смысла, ассоциаций, и тд.
Нет чёткой непреодолимой границы между предсказанием модели и предсказанием человека, есть недостаточная сложность модели. «Семантика, смыслы, ассоциации» — это всё разные «слои вероятностей», уточнений предсказания. Чем сложнее модель, тем больше тонкостей она будет улавливать в том, каким вероятнее всего будет следующее слово. То есть, подключится и семантика и ассоциации и т.д.
Нет чёткой непреодолимой границы между предсказанием модели и предсказанием человека, есть недостаточная сложность модели. «Семантика, смыслы, ассоциации» — это всё разные «слои вероятностей», уточнений предсказания.
Так и есть. Но дело несколько в другом, того чего у существующих нейронных моделей пока точно нет — готовности этих категорий к действию. Сеть обучили и в ней сформировались статистические статические представления о категориях, ее связи с другими категориями, информация о которых кот. была в обучающей выборке. На этом все. Подобное есть и у человека, как результат врожденных представлений и всего предыдущего опыта обучения. Можно совершенствовать архитектуры моделей и приближаться к возможностям мозга. Но в дополнении к этому имеется еще текущая активация, связанная с восприятием, действием, общением. Если человек смотрел на яблоки, говорили или думал о них, и тп, или все вместе, достаточно интенсивно, то активируется категория связанная с яблоками. Через некоторое время, скажем через сутки, в ситуации некоторой неопределенности связанной с восприятием или общением, интерпретация в первую очередь будет идти через эту категорию, и другие активные. Человеку говорят: я был далеко.., а в голове по созвучию может спонтанно возникнуть образ яблока) Человек может удивиться, при чем тут яблоко, не связанное с контекстом текущего общения, и не догадываясь о связи с тем, что было сутки назад, уже забыв про это. Может даже услышит слово яблоко, если активация была сильной, и посчитает, что ослышался, но это не совсем так. Зачем нужен такой механизм готовности категорий? Грубый компьютерный аналог — кэширование часто используемой информации, напр, в процессоре. Готовность категорий в большинстве случаев работает правильно, если вы постоянно имеете дело с яблоками, экономит время и затраты на доступ к памяти, особенно в случае перцептивных стимулов, и мы не замечаем этого. Это одно из проявлений байесовского кодирования в мозге, о чем тема статьи в отношении предсказания речи.

В нейронных сетях этот механизм может выглядеть так. Модель не только предсказывает след. слово, но и тема диалога влияет на веса категорий в сети, тем самым поддерживая текущий контекст, и не давая фразе «большое яблоко» интерпретироваться, как Нью-Йорк, если речь в диалоге идет о яблонях в саду, и веса остаются повышенными в течении некоторого времени в будущем. Когда происходят диалоги на др. темы веса подсети связанной с категорией яблок также уменьшаются. В пределе, если какая-то изначально возникшая при обучении сети категория больше не упоминается, то ее веса со временем фактически обнуляются, и она «забывается». Поэтому это должны быть динамические сети, с непрерывной активностью, а не статические, как существующие. Возможно механизмы поддержания диалога в существующих сетях являются некоторыми начальными аналогами этой фичи.

Могу конечно ошибаться в рефлексии. Но мне кажется у меня совсем не так. Я скорее наоборот не успеваю за речью и обдумываю уже произнесенные слова и порой не успеваю за быстрой и длинной речью. Куда уж та до предсказаний. Вот и жена мне говорит, что в диалоге я "тормоз".

Но в очевидных диалогах конечно бывает, когда думаешь "боже, да хватит уже, все и так поняли что ты начал говорить".

Несомненно, у разных людей одна и таже функция может быть реализована по-разному. У Фейнмана в книге был описан эксперимент на эту тему, кстати.

Немного не по теме, но в контексте: "... лишний раз показывает, насколько сложной системой является мозг человека."

Около 20 лет назад, я получил травму черепа, после которой полностью лишился восприятия звука в правом ухе. Медицинские обследования показали, что сам слуховой аппарат правого уха не повреждён. Сломался именно механизм передачи звуковой информации из уха в мозг.

На протяжении года, мне было очень сложно определять позиционирование в пространстве источника звука, но постепенно эта функциональность стала возвращаться. Примерно через 2 года после травмы, я стал достаточно точно определять направление на источник звука, хотя продолжал получать звуковую информацию по прежнему только с левой стороны головы. По моим предположениям, мозг каким-то образом анализирует задержки звуковых волн и рисует правильную пространственную картинку. Правое ухо, до сих пор не работает и если закрыть рукой левое ухо - то звук не слышен полностью.

Вот такие наблюдения. Просто решил поделиться.

А если закрыть рукой правое ухо, то позиционирование источника звука определяется?

вообще форма раковины может помогать направление звука. Из-за стерео эффекта (2 уха) можно определить направление лево-право, но не верх-низ или зад-перед. Верз-низ и зад-перед определяется именно из-за формы раковины и вторичного эхо.
если эксперимент evtomax@ с закрытием уха провалится, то это вероятная причина.

Да, определяется. Одно время я думал, что может быть мозг определяет наличие вибраций на коже головы, но тогда при закрытии левого уха можно было бы определять наличие какого-либо звукового сигнала, но нет. Полная тишина.

При этом не двигаете немного головой? Это может происходить непроизвольно.

Строение ушной раковины со всеми её извилинами участвует в определении направления звука. Звуковые волны напротив и позади человека проходят разный маршрут, получаются разные задержки между началом сигнала, его окончанием и уровнем. Мозг постоянно обрабатывает эту метаинформацию и узнаёт направление

Вот здесь что-то пишут об этом. Но если это так, то почему человеку понадобилось почти два года чтобы научиться определять локализацию? Возможно все же положение головы и эхо от окружающих предметов началось более интенсивно использоваться, поэтому ушло столько времени на обучение. Слепые обучаются использовать эхо от окружающих предметов для ориентации, хотя у них два уха и они могут постукивать палочкой, это облегчает задачу.

Но если это так, то почему человеку понадобилось почти два года чтобы научиться определять локализацию?

Травма головы была же, быть может, участок мозга, ответственный за локализацию звуков тоже повредился.

Человек пишет
Около 20 лет назад, я получил травму черепа, после которой полностью лишился восприятия звука в правом ухе.
С левым ухо все в порядке, и именно благодаря ему через 2 года он начал локализовать звуки. Если область ответственная за локализацию в норме повредилась, то тем более требовалось обучение, кот. сформировало эту возможность для одного уха.

После травмы перестал слышать правым ухом И локализовывать звук. Вполне возможно. А потом отрастил дополнительные нейронные связи для локализации одним ухом. Менее возможно, тем более через 2 года, но всё же.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий