Pull to refresh

Comments 19

Меня всегда удивляет, зачем для вот этого всего нужен телефон? А как ж перс данные?

Хотя получить было бы интересно

Вот у меня из такого рода фрагментов картинка не складывается. Вроде бы давно известны нейромедиаторы которые действуют в обратную сторону в синапсах. Почему-то про обсуждение связи этого с обратным распространением не слышал. Про обратное распространение пол века говорят применительно к компьютерным "нейронным сетям" и всякий раз словно это новость. Нет ли какой хорошей книги для получения связной картины?

Похоже, тут не открыли ничего принципиально нового, а лишь исследовали механизм долговременной потенциации / депрессии, являющийся движущей силой обучения с подкреплением. Синапсы помнят своё недавнее состояние, и те из них, которые активно работали (пропускали пачки импульсов), укрепляются при положительном и разрушаются при отрицательном отклике.

https://ru.m.wikipedia.org/wiki/Муравьиный_алгоритм - наиболее обобщённый, абстрагированный вариант процесса оптимизации, при этом «реализован» в мозгу он практически «буквально». Математически, в свою очередь, он может сводиться к любым вариантам обучения искусственных нервосеток, именно в силу своей обобщённости. Проблема построения «нейросетки как у человека» не в том, что мы не знаем, чем мозг занимается (и нам даже не особо важно, как он это делает), а в том, что мы не имеем полных начальных данных (табулы расы, сформированной эволюционно) и полных наборов обучающих сигналов среды :).

Нет ли ссылки на связь этого алгоритма с мозгами?

Я из "нейробиологического" читал только Хьюбела "Глаз, мозг, зрение" (ну, помимо разрозненных статей в интернетах), в принципе, там на примере зрительного тракта достаточно подробно расписана "механика" мозгов. Напрямую там о соотношении этих механизмов с алгоритмами ИИ не говорится (Хьюбел - хороший учёный, аккуратно и непредвзято рассказывает об, не особо пачкая текст своими субъективными далеко идущими выводами :)), но материала достаточно, чтобы самому провести такие аналогии (об истощении нехоженных тропинок, об ожирении хоженных :)). Также где-то попадались статьи об обучении рыбок, муравьёв, пчёл, которые дизайном эксперимента тоже "подтверждают" такую модель (в смысле не противоречат ей :)). Ещё была статья (возможно, даже на хабре) об "обучении" амёбы, она там ложноножками какие-то ответы выбирала в "арифметических" задачах, и тоже дизайн эксперимента, по сути, реализовывает ACO через накопление ферментов в ложноножках (по сути, амёба в этом эксперименте - ширма, её можно бы было заменить липкой средой с магнитными шариками или типа того, чтобы реализовать "колонию муравьёв, ходящих до ответов" :)). Так, чтобы прям конкретно было "вот тут муравьиный алгоритм, всё, расходимся", пожалуй, не найду статьи, такого пруфа у меня нет :). Но это лишь потому, что сам вопрос как бы и не особо требует ответа, он самоочевидный и никаких открытий дополнительных сделать не помогает :). Ещё могу порекомендовать "философскую" работу математика Хофштадтера "Гёдель, Эшер, Бах", там уже чуть абстрагированнее от биологии размышления о природе интеллекта и сознания, но как раз проводится аналогия с муравьиной колонией (показывается универсальность и обобщённость этой модели). Наверное, "твёрдым доказательством" могут выступать две эти книжки в совокупности - Хьюбела и Хофштадтера :).

UPD: вру, ещё вспомнил, что погружался в теорию доминант Ухтомского, она тоже, по сути, описывает вариант ACO, исполняемый альянсами нейронов (очагами возбуждения). Да что угодно будет напоминать ACO, это настолько тупая и общая модель, что невозможно не быть эквиалентным ACO абсолютно любому процессу оптимизации (потока сигналов с обратной связью) :).

Мозг с биологическими нейронами - это не перцептроны Розенблатта, а, скорее, спайковые сети (для которых обратное распространение ошибки пока не формализовали, и вообще способ обучения). При этом отдельные нейроны объединяются в кортикальные колонки с более комплексным «базовым» поведением, именно они «коллективно обучаются» (накапливают статистику проходящих через них сигналов), а не отдельный нейрон (его деятельность в отрыве от колонки «нецелесообразна»).

Найти аналог любой математической модели оптимизации в мозгу, кажется, при желании не так сложно, ибо вся система (начиная от масштаба кортикальных колонок) показывает поведение, аналогичное «муравьиным» оптимизационным алгоритмам (ACO), которые, в свою очередь, при некоторой подвижности терминологии можно свести к любым другим вариантам оптимизации (в том числе к перцептрону с бэкпропогешном :3), в силу обобщённости самого ACO («решателя NP-полных задач»).

Видится, в общем, натягивание ужа на ежа, причём, бесполезное - оно не позволит ничего нового открыть или предсказать в устройстве «механизма обучения мозга», ибо сам формализм, который там «ищется» - уже заранее какбы максимально полон математически. Это ИМХО, допускаю, что не шарю в теме, хотелось бы увидеть комментарии от приближенных к нейробиологической теме и теме «непопулярных» моделей ИИ (спайковых сетей или ещё более «биологичных» моделей), насколько данная работа прорывная, какие ожидания от развития этих исследований могут быть? Какой вопрос о механизме обучения с обратным распространением ошибки ставится в этой работе? :)

Мозг с биологическими нейронами — это не перцептроны Розенблатта, а, скорее, спайковые сети (для которых обратное распространение ошибки пока не формализовали, и вообще способ обучения)
Совершенно верно, дополню взглядом с биофизической и когнитивной точек зрения. Эволюция решала не только задачу оптимизации вычислений, но и их энергоэффективности. Биологическая основа нейросетей мозга не могла позволить себе решения доступные технологически. И даже в технологических на определенном уровне их развития, процедура обратного распространения был разработаан давно, но реальные возможности ее применения сложились только лет десять назад, когда стали доступны аппаратные возможности доступные для решения практических задач. И уже сейчас проблема энергоэффективности применения глубокого обучения начинает чувствуется для ИНС. Вероятно со временем переход на импульсный режим неизбежен, с начало на специализированном железе, в перспективе реализованном в нейроморфных чипах.

Второй момент состоит в том, что современные ИНС позволяют находить статические решения. Модели которые они создают являются статическими аппроксиматорами, полученными с помощью процедур статистической оптимизации. В мозге внутренние модели объектов, особенно поведения, принципиально динамические. Это пока не достижимо в существующих схемах ИНС. Народ посмеиваются над «нейроном бабашки», но в действительности это только один из нейронов целой нейросети динамической модели бабушки. Эта модель в мозге, например, внучка постоянно активна, постоянно обучается, и влияет на его поведение, даже если бабушки не видно. Связь нейронов в этой модели в общем случае асинхронна, в отличии от синхронных ИНС. Биологические нейроны обладают способностью не только к пространственной, но и временной суммации, а сами нейроны моделировать целыми сетями (1, 2, 3, 4). В современных ИНС временная суммация, отвечающая за динамику, заменяется пространственной, и в них принципиально не может быть динамических пространственно-временных моделей, которые непрерывно обучаются, принимают решения, и управляют поведением. Как это гипотетически выглядит на практике в случае бабушки. Бабушка говорит внучку — «пойдешь играть на улицу, вернись к 10 часам». Внучек увлеченно играет с другими ребятишками, и вдруг, неожиданно, вспоминает, что ему пора домой, т.к. время близко к 10 часам, бросает игру и идет домой. Что происходит на самом деле) Ничего внучек не вспоминает, он увлеченно играет) нейросеть связанная с моделью его личности, поведения основная, обладает высоким приоритетом. Однако параллельно ей, в бэкграунде (на подсознательном уровне), независимо, функционирует нейросеть бабушки, и она может получать информацию об активности дитя, почти в таком же объеме, как сама сеть внучка. Она отслеживает время по биологическим часам и др. признакам, и когда оценка времени приближается к назначенным 10 ч. возбуждается) точнее резко возрастает активность определенных нейронов, которая передается в нейросеть ребенка, приводя ее в возбуждение) и вуа-ля… ребенок неожиданно вспоминает, что ему пора домой. Конечно, если приоритет бабушки в нейросети ребенка высок (это значит он ее любит, ну или боится), если не высок, то не вспоминает просьбу и продолжает играть, пока бабушка сама за ним не явится. В мозге множество таких динамических моделей разного уровня соответствия прототипу относящихся к бабушке, матери, отцу, родственникам, друзьям, игрушкам, телевизору, и тд, и тп., если говорить про ребенка. Все постоянно активны, конкурируют за внимание или кооперируются для решения поведенческих задач. Только так эволюция смогла решить задачу выживания видов моделирую окружающую среду в виде системы конкурирующих/кооперирующихся динамических моделей объектов и процессов в ней, важных с точки зрения выживания, путем предсказания их поведения.

Естественно, в биологических сетях нет точного аналога процедуры обратного распространения ошибки, и эти изыскания, как и пишите смахивают «на натягивание ужа на ежа», но полезны в поиске решения задачи действительных механизмов обучения в биологических сетях.
Бабушка распределённая. Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном). И дело возможно не в приоритете, а в проработанности модели бабушки, насколько хорошо она «проросла» в другой носитель.
Бабушка распределённая.
Да, сети моделей не локализованные, отдельные нейроны могут быть связаны с разными моделями, так и просто кодировать разный функционал, есть исследования на эту тему. Это вариант оптимизации сетей, фактически их сжатие.
Фактически один её инстанс говорит это не внуку, а своей копии в другом носителе (многоагентном).
Т.е. модель внука, содержит часть (подмодель) связанную с бабушкой, мамой, и тд, и модель бабушки передает информацию в эту часть. Конечно нужно разделять представление на уровне описания функциональных моделей и их реализации на уровне сетей.
Нет, я не про нейроны и сети. Распределённая в том смысле, что модели бабушки той или иной степени точности существуют во множестве носителей: во внуке, в муже, в детях, в друзьях и знакомых и т.д.

Когда бабушка говорит «вернись к 10 часам», она это говорит не внуку, а своей модели/агенту внутри внука (как носителя моделей). Ну а дальше как вы и описали.
Теперь понял, спасибо за уточнение.

Кстати, такое представление может объяснить телепатическую связь между родственниками) Их мозги строят очень точные модели друг друга, и поэтому они точно предсказывают поведение друг друга, роль также играет эмоциональная взаимосвязь. Обходится без взаимодействия между мозгами с помощью полей, и воспринимается как экстрасенсорное чудо. В этой статье описывается исследование синхронизации активности в мозге взаимодействующих испытуемых, а это случайные люди. Что говорить про родственников? В этой ветке небольшая дискуссия на эту тему.

У Алексея Редозубова в циклеилекций Логика сознания на Хабре гораздо интереснее теория, которая использует комбинаторное пространство, а не "силу" взаимодействия нейронов. Эти ребята все же нейроны бабушки до сих пор изучают, как мне кажется...

Комбинаторная точка Редозубова ровно такой же «нейрон бабушки» по элементарной причине — нужно где-то хранить информацию о связях этой точки с элементами входного вектора. Перенос «бабушки» с нейрона на его синапс ничего принципиально не изменил.

Ничего не понятно, особенно в какой классификатор собак и кошек они втыкают выходной слой в голове.

биологические нейроны не могут просто остановить обработку внешнего мира и ждать, пока начнётся обратное распространение.

Сон?


Это привело бы к провалам в зрении или слухе.

А доказано, что их нет? Они не могут компенсироваться?

Sign up to leave a comment.