Как стать автором
Обновить

Комментарии 6

Ожидал большего по заголовку. Судя по тексту отказ от обучения с помощью обратного распространения ошибки пока не рассматривается, а в нем корень проблемы. Для ее решения нужен переход на обучение основанном на хеббовском принципе (подробнее, алгоритм), кот. больше соотв. биологическому прототипу, и согласуется с постепенным забыванием не используемой информации. Возможно это будет достигнуто с использованием нейроморфных технологий, пример разработки.

Непонятно где было это "гениальное светило научной мысли" последние 10 лет. Проблема катастрофической забывчивости НС вполне успешно решается аж с 2017 года.
https://www.pnas.org/doi/pdf/10.1073/pnas.1611835114
https://arxiv.org/abs/1612.00796
Я даже тут код решений приводил:
https://habr.com/ru/post/536094/

Они ссылаются на работы из вашего поста. У них более амбициозная задача — заключение по аналогии с использованием непрерывного обучения, т.е. обучая сеть одним задачам, научится решать другие. В интервью это видно по этому вопросу и ответу
— Если бы можно было полностью решить проблему катастрофического забывания, означало бы это, что ИИ может постоянно учиться чему-то новому?

— Не совсем. Думаю, большие, большие, большие открытые вопросы в области непрерывного обучения заключаются не в катастрофическом забывании. Что меня действительно интересует, так это то, как прошлое обучение делает более эффективным обучение будущее.
По моему журналист просто не до конца понял идей и вынес в заголовок не суть, а то что понял сам, и будет понятнее читателям.

Что-то подобное в еще больших масштабах собирается делать Гугл. Возможно это приведет к обучению по одному-нескольким образцам и решению задач по аналогии, как это могут дети)

Все машинное обучение это обучение по аналогии в том смысле, в котором вы это здесь объясняете. То есть обучаясь на примерах модель пытается из многих примеров выявить обобщающие репрезентации, которые помогут решить аналогичные задачи. А вот если вместо обобщения сеть просто выучивает все примеры из обучения - это у нас называется переобучением, и это как раз не то, что хотят получить от ML.
Кстати, даже принцип совместной работы неокортекса и гиппокампа вполне успешно сэмулировали:
https://proceedings.mlr.press/v80/schwarz18a/schwarz18a.pdf
Вообще похоже, что статью написал журналюга, не сильно въехавший в суть вопроса, вот и получилось "погиб как герой Гондураса, а журналюги напишут: пьяный попал под лошадь".

Все машинное обучение это обучение по аналогии в том смысле, в котором вы это здесь объясняете. То есть обучаясь на примерах модель пытается из многих примеров выявить обобщающие репрезентации, которые помогут решить аналогичные задачи.
Да, для текущего состояния ML так можно считать, но не для перспектив развития ИИ, тем более в отношении человека, что и утверждается в статье. Хотелось бы чтобы ИИ распознавал котиков и собачек не после обучения на выборках из тысяч примеров, а всего нескольких, и умел решать задачи по аналогии без дообучения, сообразив сразу, как это умеют делать уже дети, и в некоторой степени животные. ИИ должен уметь делать не просто обобщения, а обладать способностью к концептуализации, и ее переносу на решение новых задач, обучающих примеров для которых не было, или почти не было. В чем тут разница с обобщением? Например, испытуемый на примерах может обучиться находить дополнительную картинку по параметрам др. картинок, если после этого ему предложить аналогичное задание для звуков, и он сразу же начнет правильно определять дополнительные звуки, то он произвел концептуализацию этой задачи и успешно сделал перенос на новое задание. Если нет, и требуется дополнительное обучение сравнимое с обучением в задании с картинками, то произошло только обобщение для отдельных задач. Если вернуться к задачам распознавания собачек и котиков, то концептуализация этих задач произойдет, если после обучения распознаванию собачек для распознавания котиков потребуется только несколько примеров. То же самое с обучением разным языкам. Если обучение каждого последующего занимает намного меньше времени, чем предыдущего, то произошла концептуализация синтаксической структуры языков, особенно если они из одной языковой группы. И самый не очевидный пример, если после изучения языков, человек обнаруживает, что неожиданно приобрел математические представления, кот. ранее у него не было, то концептуализация произошла на еще более глубоком уровне. Таких примеров разного уровня можно привести немало, они происходят в жизни каждого, но их причины не осознаются.

Вспомнил про один комент в тему + некоторые пояснения
Концептуализации происходят не только на лингвистическом, но и перцептивном уровне, имеют иерархическую организацию, и известны как когнитивные архитектуры. Примерами таких концептуализаций на перцептивном уровне являются, напр, на нижнем уровне геометрические примитивы — линии, углы, физические примитивы — интенсивность и спектральные характеристики света и звука, на более высоком уровне — числа, цвета, формы, и тд, на еще более высоком уровне концепты объектов — живых и не живых, на самом высоком — агентность. Эти концепты были выработаны эволюционно, закреплены в определенных структурах мозга, и их базовый функционал наследуется. В когнитивных исследованиях эта система концептов известна, как функционал когнитивного ядра (или основное знание у некоторых авторов). Представление о нем получить в этой статье. Лингвистическим концептам соответствует разноуровневая категоризация, вместе с устойчивыми семантическими структурам связывающими их. Они выработались в ходе эволюции социума и передаются путем обучения в культурном слое.

Частично перечисленные концепты моделируются в существующих ИНС с различной архитектурой. Напр, в сверточных, напоминающих по структуре сенсорные системы, первую очередь зрительную, геометрические примитивы могут воспроизводятся в нижних слоях сети, в более высоких могут быть нейроны селективные к численности объектов и цветам, а выходной слой отвечает за одноуровневую категоризацию. Но все это находится в не дифференцированной форме, не активно, функционирует не в параллельном режиме, имеет массу других ограничений. Это ограничивает возможности концептуализации и переноса концептуальных моделей, и поддерживает процессы обобщения, даже если реализован механизм непрерывного обучения. В языковых статмоделях концепты лишены поддержки смыслообразования, т.к. в них отсутствуют компоненты связанные с перцептивными концептами (т.е. не решены удовлетворительно проблемы фрейма, граундинга и встраивания, если в курсе этой проблематики). Гибридные решения только начинают появляться.

Как должна выглядеть структура ИНС и процедура ее обучения кот. ориентирована на когнитивную архитектуру? Т.е. больше напоминала биологический прототип. В одной из тем обсуждали эти моменты, в частности, в отношении того, почему дети быстро учатся категоризации объектов. С учетом когнитивной архитектуры можно представить такую возможную схему решения этой задачи, см. этот комент (описание под спойлером). Возможно нечто подобное реализовано, и даже в лучшем виде, непосредственно такими вопросами не занимаюсь, но весьма близкими в плане исследований и разработки. По опыту дискуссий на эти темы знаю, что обычно возникают два вопроса. Первый, как такой базовый функционал когнитивного ядра поддерживается на генетическом уровне? Ведь это предполагает некоторую исходную настройку весов синапсов в соответствующих нейронных структурах мозга сразу после рождения. Некоторые механизмы этого сейчас исследуются, и их можно охарактеризовать, как своеобразное предобучение, кот. происходит в натальный и постнатальный период благодаря спонтанной активности мозга, см. этот комент с пояснениями и ссылками на исследования.

Второй вопрос, зачем направлять развитие ИИ в направлении соответствия когнитивной архитектуре? Как не странно, не смотря на заявления многих разработчиков ИНС, включая таких известных, как Ле Кун (он, напр, ярый сторонник обучения ИИ с «чистого листа»), что у ИИ, в перспективе сильного, свой путь развития, из нейробиологии идеи заимствуются не только для вдохновления разработок, с учетом оптимальности их решений, но и с учетом их конечных результатов. А они представляют трудность для объяснения функций «черного ящика», каковыми внутренние модели обученных ИНС часто являются, что создает трудности для их широкого практического применения. Нейрофизиологические исследования, с учетом роста сложности ИИ на нейросетевой основе, могут позволить как-то интерпретировать и понимать эти внутренние представления, с учетом дружественности архитектурных решений. Кстати, с учетом всех упомянутых факторов в перспективе наиболее подходящим подходом для развития ИИ видятся решения с использованием нейроморфных технологий.

Кстати, даже принцип совместной работы неокортекса и гиппокампа вполне успешно сэмулировали:
Спасибо за ссылку, в ней про возможную модель консолидации памяти, впереди штурм когнитивных карт (1, 2, 3:)

У нас получается разговор математика с гуманитарием.
Вы утверждаете, что ребенок видит несколько котиков и быстро обобщает их в понятие котика, и хотите чтоб нейросети (или искусственный интеллект) вели себя так же. На самом мозговые ритмы бывают от 20 до 200 герц, и на деле это означает что с такой же частотой проходит там в мозгу волна активаций. То есть когда ребенок видит котика и вертит его, например, 5 минут, он фактически получает минимум 20*5*60=6000 примеров котиков с разных ракурсов. Так что ни о каком обучении по паре примеров речи нет.
В общем поскольку вы используете не имеющие четких определений термины и понятия, не вижу смысла продолжать полемику, поскольку говорим мы о разном.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий