Как стать автором
Обновить

Комментарии 20

То есть можно сказать, что взяв кучку перцептронов или там неокогнитронов, можно реализовать кусочек мышления именно как мышления? Ну, чтобы этот недоинтеллект не просто два плюс два сложил, а отреагировал на незнакомый раздражитель там, или оценил что такое хорошо и что такое плохо?

И вот еще вопрос — получается, что с 1958 года модель нейрона кардинально не поменялась?
И еще тогда вопрос — 40 лет ведутся исследования, симуляции и т.д. — а есть какой-то результат в плане именно ИИ?
И какого масштаба, кстати, сейчас есть симуляции нейронных сетей? 100 нейронов там или 100 тысяч там или 100 миллионов?

Спасибо.
habrahabr.ru/post/153945/

Как то видел где то новость о том, что гугловской НС показывали разные картинки, а она сама научилась распознавать на них котят.
Ключевое слово для данной технологии sparse autoencoder.
Кусочек мышления — нет. Все что умеют нейросети — это классифицировать входные данные по нескольким категориям (например картинки рукописных цифр — по тому какая цифра там изображена). В системах с учителем категории определены «создателем» сети и «обучение» сети концептуально не особо отличается от настройки обычного эвристического алгоритма. В системах без учителя все несколько интереснее, т.к. сеть там сама делит данные на категории, но там все равно сеть «не понимает» то что она нашла и нужен человек, который посмотрит на выходы сети и придаст им какой-то смысл (например скажет что выход 1195-й нейрона срабатывает при подаче на вход картинок с котятами), плюс будет настраивать сеть до получения осмысленного результата.

В плане ИИ как системы принятия решений в незнакомой обстановке, нейросети практически ничего нового не дают. В альтернативных системах, в общем-то, можно делать все то же самое и, как правило, с большей эффективностью. Из интересного для ИИ в нейросетях, по сути только два наблюдения:
1) математический механизм похожий на биологические нейроны способен к довольно устойчивому распознаванию образов
2) математический механизм похожий на биологические нейроны способен к самостоятельной классификации образов
Всё. Теоретически это может быть основой для мышления если понимать последнее как очень большой набор распознаваемых образов и запускать по срабатыванию этих образов какие-то действия. Практически — в нейросетях распознать удается лишь довольно небольшое число ярко различимых образов и с приличной погрешностью, а о «запуске действий по распознаванию ситуации» и обучении по «последствиям этих действий» никто, вроде, даже не заикается.
Задача цикла показать алгоритмы, которые создают мышление и сильный ИИ. Нейронные сети, которые сейчас в основном используются, действительно замыкаются исключительно на задачи классификации и кластеризации. Но уже в следующих двух частях я покажу архитектуру нейронных сетей, которая выходит далеко за эти рамки.
Извините за попсовый вопрос, но без ответа на него будет действительно трудно понять Вас. Что Вы считаете признаками сильного ИИ?
Равноценность человеческому интеллекту. Соответственно, прохождение теста Тьюринга.
Возможно я вас неправильно понял. Если вас интересуют функциональные моменты, то это и будет основное содержание последующих частей.
Да, Вы правильно поняли именно функциональные признаки.
Хорошие вопросы. В последующих частях ответы именно на них.
Забегая вперед, скажу. Модель нейрона изменилась принципиально (в моей концепции). Результатов в планее ИИ много, но самые важные вещи удалось понять относительно недавно. О них и пойдет разговор.
Масштаб симуляции не принципиален. ИИ не возникает от количества, а требует понимания качественных принципов. Порядки того, что сейчас моделируют: от десятков тысяч до многих миллионов. Все зависит от того моделируют ли нейроны как логические элементы или моделируют физические процессы на них. Логическое моделирование бессмысленно без понимания сути. Физическое позволяет «нащупать» эту суть, но может ограничиваться относительно скромными объемами.

Код Вашей модели нейрона будет опубликован? Размышляя над принципом работы нейрона написал пару постов и код где нейрон представляет из себя некий логический юнит с индуктивной способностью. Даже провёл пару тестов на реальных данных, но публике не очень понравилось, так как не сделал проверку скользящим контролем. Эх, пойти дописать что ли…
Код будет. Видео с демонстрацией будет. Но «правильный ответ» (мое мнение) оказался в той стороне куда никто не копал.
Думаю не суть важно думал ли кто-нибудь в таком же русле или нет. Впрочем, идея из пустого места не берётся. Как говориться видим дальше стоя на плечах гигантов. А прелюдия длинноватой вышла, но ожидаю, что финальная идея оправдает её =)
Всем, кто интересуется нейронными сетями, но не знает с чем их едят, очень рекомендую посмотреть великолепные лекции Школы анализа данных, которые читает К.В.Воронцов (и которые на хабре, конечно же, упоминались).
По этой теме две лекции: «Нелинейная регрессия. Многослойные нейронные сети» и «Нейронные сети (продолжение)».
По моему скромному мнению, идеальный баланс теоретической математики и популярного иллюстративного объяснения на пальцах, как оно там внутри устроено.
Спасибо за ссылку!
Правда, это, как мне кажется, высокий пилотаж :)
Не совсем понятен рисунок «Распознавание в неокогнитроне (Fukushima K., Neocognitron, 2007)». Получается, что слой С1 определяет только углы, С2 — линии между этими углами, а С3 вообще не понятно что? Т.е. как все таки «работает» распознавание?
Сначала там идет так называемое on-off преобразование. Оно из изображения выделяет контуры. Это предварительное преобразование оно не связано с нейронной сетью. Первый слой выделяет простые линии под разными углами, то есть куски краев. Затем выделяются сочетания краев, то есть углы и перекрестья. Третий слой, как верно подмечено, — непонятно что, то есть устойчивые сочетания элементов второго слоя. На самом деле — это одни и те же цифры, но в разных написаниях и вариациях поворота. При этом вариации должны быть не особо сильными. Общего должно быть достаточно, чтобы они выделились в один фактор. Ну и результат — число.
Если вариации слишком сильны и фактор «разваливается», то хорошо помогает насильственное указание на то, что это одна цифра. Тогда это обучение с учителем и сверточные сети ЛеКуна.
Есть предложение добавить в статью ссылку на 4-ю часть. Я так вижу, она уже существует. Мне кажется, было б здорово сразу показывать, что можно радоваться существованию продолжения =)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории