Мало того — модель мало-мальски социально интегрированного человека, включает модели других людей! Однако дурная «бесконечность вложенности моделей» получается только у гуманитариев aka философы. Для ИТ-специалистов понятие рекурсивной ссылки не является чем-то невообразимым… ;)
Секунду, а не вы там выше в коментах рассуждали о некорректной импликации? ;) Давайте будем последовательны: если вы заявляете о невозможности объяснения такого поведения предыдущим опытом, и при этом апеллируете к строгим правилам риторики, то я хотел бы увидеть обоснованное доказательство утверждения о «невозможности...».
С моей точки зрения это говорит лишь о достаточно редком стечении обстоятельств, что в общем-то объясняет, почему лоси не занимаются подобными вещами каждый день!
Зря вы так. ;) С той же википедии: Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла. Все прям гуманитарии?
Вы впадаете в ошибку того же Тьюринга. Он долго размышлял о природе интеллекта и не смог вывести критериев проверки ДЛЯ НЕСПЕЦИАЛИСТОВ. Т.е. чтоб любому гуманитарию было понятно, что вот эта вот штуковина не просто так тут гудит, а МЫСЛИТ! Поэтому он пошел по традиционному пути утиной типизации: «если крякает, как утка, плавает как утка, то...». Т.е. если не можем отличить от человека — значит думает.
И это ввергло отрасль в пучину чат-ботов! ;) Хотя вот мне кажется очевидным, что если есть машина, известны принципы ее построения и есть прямое проявление разумного поведения (в самых разных его проявлениях) то, даже если ее мышление не похоже на человеческое, а разговаривать она не может совсем, или только на своем особом языке, то оценить степень ее разумности вполне возможно. А чат-бот, он чат-бот и есть.
Что касается китайской комнаты — вы не совсем правы. Дело не в том, что раз невозможно разделить понимает или нет ПО ВНЕШНИМ ПРОЯВЛЕНИЯМ, то значит и нет разницы — вы правы. Нет. Просто нельзя судить о разумности по внешним проявлениям. Тут недавно было — мол людям же в голову не влезешь, откуда мы знаем, что они разумны? Может половина сплошь чат-боты! Так а я и не спорю! Может быть. Я знаю за себя — ибо осознаю. Буду знать за машину, если она будет по моим принципам построена. А за людей — не знаю! Наверняка — не знаю. Над более корректной проверкой, чем тест Тьюринга я еще не размышлял…
Кстати, я почти уверен, что довольно значительная часть людей не пройдет тест Тьюринга.
Так что для меня по комнате ответ простой — человек внутри комнаты не понимает иероглифов. И комната вместе с человеком не понимает. Это просто чат-бот, каким бы умным он не казался. И если он проходит тест Тьюринга, то или экзаминатор слабоват, или тест ни к черту! ;)
Дело в том, что разуму не нужна ни полнота, ни адекватность, ни непротиворечивость.
тонкость в том, что по определению — разум стремится к этому, однако, как я уже писал раньше — это недостижимо. Т.е. закончивший строить модель разум вероятно остановится. ВАжен сам процесс построения, устранения противоречий и тп.
Просто вы хотите оперировать в рамках математической логики
да не совсем математической… Логика может быть любая, хоть женская! Вопрос модели. Там скорее уместно говорить о теории множеств, или даже категорий.
1. Мыслит ли муравейник?
полагаю, что нет. Просто реагирует. НО возможно у меня недостаточно данных о примерах разумного поведения муравейника, которые нельзя объяснить уровнем реакции.
2. Разумен ли душевнобольной с неадекватной картиной мира?
безусловно. ОН просто имеет картину мира, которая не признается адекватной большинством. Я по «адекватностью» имел ввиду скорее корреляцию с реальностью, которая впрочем вполне легко может быть некорректной. Это не имеет значения.
3. Как соотносятся язык и мышление?
ох… Сложная тема. Практически прямо. Язык собственно и отличает нас от животных, позволяя, как писал уважаемый DesertFlow «снизить размерность» модели.
4. Как отличить разум от инстинкта?
Инстинкт требует отдельного определения. Под этим словом понимают как «инстинкт» выживания у высших животных, так и инстинктивное реагирование плоского червя на раздражители. Первое — предзагруженная часть модели, т.е. часть разума. Второе — простая нервная связь от рецепторов к двигательным нейронам.
ИИ при том, что программисты создают модель, не имея модели (хотя это конечно не так — все имеют модель… Хоть плохонькую, но имеют). А я, будучи так же программистом, хочу понять модель в голове, что бы создать ее во внешнем мире… Ведь я же ее создаю без привязки к голове! Вроде бы…
Но на практике это не так — модель реальности отдельно, действия и принятия решений отдельно. И вот со вторым проблема.
А почему? Почему я не могу иметь модель в которой будущее задано, пошлое — постоянно уточняется, а мои действия — переход от одного к другому?
Я просыпаюсь с утра и мне нужно на работу. В принципе я вижу всю последовательность действий, необходимых для того, что бы там оказаться, с достаточной степенью как подробности, так и определенной вариативности. Т.е. в моей модели мира я завтра проснусь в шесть и через полтора часа буду на работе… И так в общем-то достаточно далеко. У меня есть планы и на выходные и на лето. И почему все мои действия не могут быть просто отработкой этой модели для сохранения соответствия?
Китайская комната — это мнимый философский парадокс. На самом деле его не существует.
Как я понимаю, существуют как минимум две категории людей: тех, для которых это вполне реальный пример, иллюстрирующий несостоятельность теста Тьюринга, и их противников, имеющих обратное мнение. ;) Причем автор парадокса Сёрл был таки из первых!
Насчет взаимодействия — а как же роботы, которые обучаются в виртуальных физических симуляторах?
Симуляторы как раз — замечательно! Я думаю так и нужно делать — создавать симуляцию реального мира (упрощенную) и симуляцию взаимодействия. Об этом я хотел написать во второй части. Но симуляция мира и база знаний с фактами не имеющими воплощения хотя бы в симуляции — не одно и то же.
Модель мира в автоэнкодере будет вполне адекватной.
Я не совсем уверен, что к автоэнкодеру применимо даже определение модели из википедии, ибо это явно не модель мира, а суперпозиция набора фотографий… Нейронные сети, особенно сверточные — прекрасный инструмент классификации и распознания, анализа входящей информации вообще, но их использование для постройки модели… НЕ то, что бы не возможно, но я пока не понимаю — как.
Проблема создания разума как раз в том, что дальше делать с этой моделью мира.
в приведенной мной концепции модель мира включает развертку модели во времени, с вариантом некоего «светлого будущего», для достижения которого необходимо предпринимать некие активные действия. Более развернуто об этом — во второй части… Т.е. модель должна включать в себя действие.
Не существует никаких индексированных и хорошо связанных ассоциациями баз, отражающих всю сложность реального мира. Делать такие еще не научились.
Ы этом главная ошибка. Нам не нужно «всю сложность»! Нам нужно всего мира. А насколько детально — вопрос. Меня бы устроил уровень трехлетнего ребенка. Не нужно пытаться на стадии проектирования впихивать в ИИ информацию, не имеющую значения для него. Пусть научится ходить в виртуальной симуляции, взаимодействовать с предметами, чего-то хотеть, а чего-то не хотеть. Различать объекты и строить модель с разверткой во времени. Нам не нужна база знаний, нам нужен разум!
Чтобы получить такую базу, нужен механизм снижения размерности, как это происходит в мозге.
Ну вообще, это называется индукция. Обобщение. Если два, формально разных объекта не различаются в плане использования — стратегии их использования одинаковы и в этих стратегиях указано обобщенное представление обоих объектов.
Но на само деле нужно наоборот — не детализировать без необходимости. Пока для тебя нет разницы — красный куб или зеленый шар — и то и то физический объект. они становятся разными, только при наличии разных кейсов использования.
Я вполне допускаю, что это сложно и размерность все равно получается заоблачная. НО я готов на то, что бы в начале получить тупой и медленный интеллект, но что бы он был реализацией заявленных принципов.
Мне тоже близка концепция в стиле «органы чувств не столько источник информации о мире, сколько фильтр», но…
Что-то мне говорит, что одно другому не мешает. Иметь чисто механистическую парадигму, хотя бы для того, что бы допустим на практике доказать, то она не работает — уже не плохо! ;)
Да почему нет-то — вот чего я понять не могу! Т.е. я вам верю, но пока не понимаю. У меня ощущение, что мы просто не много о разном говорим. Взять хотя бы АльфаЗеро. Ведь он работает ровно, как человек. Он не перебирает все варианты — он в ситуации неопределенности делает случайный ход. И таким образом набивает шишки (т.е. набирает опыт). Чем больше опыт тем меньше случайных ходов. Но в любом случае охвачено далеко не все пространство вариантов и почти в любом случае остается место тому самому случайному ходу.
Но это немного не то. Это скорее ближе к концепции Джеффа Хоккинга «память-предсказание», которую он изложил в книге «ОБ интеллекте».
Для того, что бы это было ближе к нашему представлению о модели робот скорее должен строить карту доступного к перемещению пространства, локализовать себя в нем, иметь какую-то модель будущего (например «отсутствие белых пятен на карте»), и следовать этой модели. как он будет при этом перемещаться — не столь важно, но может продемонстрировать степень интеллектуальности. Например, если он будет продолжать двигаться случайно при небольшой необследованной зоне — это не тот вариант поведения, который хотелось бы ожидать от машины с зачатками разума. ;)
Муравейник это сложнейшее техническое сооружение, а не куча мусора, в которой живут муравьи…
Вы же понимаете, что техническая сложность и интеллектуальная деятельность коррелируют весьма относительно? Например: фракталы…
Но с моей точки зрения это глупость, потому что тогда можно сколь угодно сложное поведение объяснять не разумом, а инстинктом.
Да в принципе — можно. Вопрос — нужно ли? Есть же принцип Окама и здравый смысл… У муравьев просто нет нужного количества нейронов… да и некоторые факты, вроде хороводов смерти говорят о достаточно простой, хоть и весьма занятной организации этих насекомых.
Вот например, я прямо сейчас чисто инстинктивно прочитал ваш ответ и аналогичным образом написал свой.
Если так — то Тест Тьюринга вы прошли, т.к. я не смог отличить имитацию разума от настоящего! ;)
Тогда вопрос поставлю так — чем восприятие вообще отличается от сознания?
Восприятие может быть сознательным и бессознательным. Значит как минимум это не одно и то же.
А почему собственно «не предсказуемые напрямую предыдущим опытом»? Лосиха вполне могла иметь опыт остановки поезда перед препятствием, а так же могла наблюдать людей, как выходящих из поезда, так и вытаскивающих кого-то из болота…
Согласен — связывание ТРЕХ эпизодов в одну стратегию не то, что мы готовы ожидать от лосихи, но это не так, что бы невозможно.
Поэтому голый Model-Based подход не работает. Даже если у нас есть идеальная модель мира и мы будем перебирать в ней все возможные варианты, проклятие размерности быстро сводит такие попытки на нет.
Ну не перебирает мозг все возможные варианты! В условиях ограниченного времени это часто первое попавшееся решение, а далеко не оптимальное. именно поэтому скил большинства людей в большинстве процессов весьма низок.
Опять же — не будь возможности брать первое, что подвернется — буриданов осел сдох бы таки от голода! ;)
Это показывает, что я действительно зря приравнял сознание и самоосознание. Что сознание несколько из другой области, и требует более глубокой проработки, но… НЕ отменяет концепции в целом! Ок, я согласен: большая часть процессов, в том числе и очевидно обработка модели, ее анализ и следование ей — могут проходить бессознательно. Можно сказать — в бекграунде, фоном.
Я не вижу большой проблемы описать бессознательные процессы в рамках этой концепции. Просто мне придется тогда изменить определение «сознания», поэтому я и написал что нужно время.
На вскидку — логично предположить что сознание — некий фокус на текущем моменте, а построение и анализ модели может происходить и за пределами этого фокуса…
Это очень хороший комментарий. Я практически полностью с ним согласен.
Я просто хочу пояснить.
Я не говорю о том, что знаю, как работает мозг и как реализовать его подобие на уровне, так сказать, аппаратном. Речь на данном этапе о концепции. Если мы принимаем (а у меня складывается ощущение, что принимаем — так или иначе) концепцию, то дальше перед нами большой ряд вопросов технических. А там — море нюансов! Например в случае с нейронной сетью вопрос может быть в настройке веса, а может быть в том (в отношении изображений), что мы пытаемся (пытались) анализировать статичную картинку целиком а в реальности присутствуют саккады и динамика. Как только это поняли — сверточные сети и вобщем-то прорыв в распознавании. Т.е. технические проблемы преодолимы. Можно пытаться реализовать все, как в природе, а можно использовать гибридный подход… Ну собственно все так и делают — ничего нового я не написал.
Они строят модель мира именно как у вас описано — полную, непротиворечивую и так далее.
Нет, но это не принципиально. Они строят модель того, с чем не взаимодействуют непосредственно. Т.е. это все еще китайская комната.
Вот представьте, что у вас есть полная модель мира (база знаний)
А на каком основании вы вывели тождество база знаний=модель мира? Это далеко не одно и то же.
а дальше что? Как в ней ориентироваться, как искать нужные ответы?
А как вы это делаете в реальной жизни? Вот я у вас спрошу: какую ногу надо поднять, что бы сделать шаг? Вы соотнесете вопрос с моделью: что такое шаг, как вы его делаете… Это совершенно конкретное ощущение вашего организма. Ответ: любую.
Вы не задаете себе таких вопросов — ваш организм является частью модели и он умеет соответствовать ей.
И никто не знает, как разум это делает в таком огромном разнообразии возможностей (пространстве решений).
А вы твердо уверены, что разнообразие огромно? Ваш пример про ногу некорректен: организм почти случайным образом учится управлять телом и не занимается такой ерундой, как что бы решать какие мышцы в каком порядке напрягать: у него было около двух лет в начале жизни на то, что бы выбрать оптимальную схему и ей следовать.
Ну и вообще по жизни — приведите пример анализа «огромного разнообразия и пространства возможностей»? В каждом конкретном случае работает правило прецедента: в прошлый раз в такой же (на определенном уровне обобщения) ситуации действие было такое-то, результат — такой-то. Оценочная функция определяет считать ли опыт успешным, или, как вариант — попробовать что-то новое…
Проблема создания разума не в модели, а в том как реализовать этот поиск.
Давайте наберем пару-тройку примеров, что бы можно было понять в чем проблема поиска… В глобальности модели? Но она хорошо «индексирована» и связана ассоциациями. Я пока не вижу серьезной проблемы поиска, хотя вполне вероятно, что она есть.
Вообще не хватает, конечно практической реализации… Я все хочу запилить нечто в сильно условном мире, но пока и руки не доходят и скил не тот.
С моей точки зрения это говорит лишь о достаточно редком стечении обстоятельств, что в общем-то объясняет, почему лоси не занимаются подобными вещами каждый день!
Зря вы так. ;) С той же википедии: Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла. Все прям гуманитарии?
Вы впадаете в ошибку того же Тьюринга. Он долго размышлял о природе интеллекта и не смог вывести критериев проверки ДЛЯ НЕСПЕЦИАЛИСТОВ. Т.е. чтоб любому гуманитарию было понятно, что вот эта вот штуковина не просто так тут гудит, а МЫСЛИТ! Поэтому он пошел по традиционному пути утиной типизации: «если крякает, как утка, плавает как утка, то...». Т.е. если не можем отличить от человека — значит думает.
И это ввергло отрасль в пучину чат-ботов! ;) Хотя вот мне кажется очевидным, что если есть машина, известны принципы ее построения и есть прямое проявление разумного поведения (в самых разных его проявлениях) то, даже если ее мышление не похоже на человеческое, а разговаривать она не может совсем, или только на своем особом языке, то оценить степень ее разумности вполне возможно. А чат-бот, он чат-бот и есть.
Что касается китайской комнаты — вы не совсем правы. Дело не в том, что раз невозможно разделить понимает или нет ПО ВНЕШНИМ ПРОЯВЛЕНИЯМ, то значит и нет разницы — вы правы. Нет. Просто нельзя судить о разумности по внешним проявлениям. Тут недавно было — мол людям же в голову не влезешь, откуда мы знаем, что они разумны? Может половина сплошь чат-боты! Так а я и не спорю! Может быть. Я знаю за себя — ибо осознаю. Буду знать за машину, если она будет по моим принципам построена. А за людей — не знаю! Наверняка — не знаю. Над более корректной проверкой, чем тест Тьюринга я еще не размышлял…
Кстати, я почти уверен, что довольно значительная часть людей не пройдет тест Тьюринга.
Так что для меня по комнате ответ простой — человек внутри комнаты не понимает иероглифов. И комната вместе с человеком не понимает. Это просто чат-бот, каким бы умным он не казался. И если он проходит тест Тьюринга, то или экзаминатор слабоват, или тест ни к черту! ;)
да не совсем математической… Логика может быть любая, хоть женская! Вопрос модели. Там скорее уместно говорить о теории множеств, или даже категорий.
полагаю, что нет. Просто реагирует. НО возможно у меня недостаточно данных о примерах разумного поведения муравейника, которые нельзя объяснить уровнем реакции.
безусловно. ОН просто имеет картину мира, которая не признается адекватной большинством. Я по «адекватностью» имел ввиду скорее корреляцию с реальностью, которая впрочем вполне легко может быть некорректной. Это не имеет значения.
ох… Сложная тема. Практически прямо. Язык собственно и отличает нас от животных, позволяя, как писал уважаемый DesertFlow «снизить размерность» модели.
Инстинкт требует отдельного определения. Под этим словом понимают как «инстинкт» выживания у высших животных, так и инстинктивное реагирование плоского червя на раздражители. Первое — предзагруженная часть модели, т.е. часть разума. Второе — простая нервная связь от рецепторов к двигательным нейронам.
Я же хочу строить такую модель, в которой действие и мотивация к действию — часть модели.
А почему? Почему я не могу иметь модель в которой будущее задано, пошлое — постоянно уточняется, а мои действия — переход от одного к другому?
Я просыпаюсь с утра и мне нужно на работу. В принципе я вижу всю последовательность действий, необходимых для того, что бы там оказаться, с достаточной степенью как подробности, так и определенной вариативности. Т.е. в моей модели мира я завтра проснусь в шесть и через полтора часа буду на работе… И так в общем-то достаточно далеко. У меня есть планы и на выходные и на лето. И почему все мои действия не могут быть просто отработкой этой модели для сохранения соответствия?
Как я понимаю, существуют как минимум две категории людей: тех, для которых это вполне реальный пример, иллюстрирующий несостоятельность теста Тьюринга, и их противников, имеющих обратное мнение. ;) Причем автор парадокса Сёрл был таки из первых!
Симуляторы как раз — замечательно! Я думаю так и нужно делать — создавать симуляцию реального мира (упрощенную) и симуляцию взаимодействия. Об этом я хотел написать во второй части. Но симуляция мира и база знаний с фактами не имеющими воплощения хотя бы в симуляции — не одно и то же.
Я не совсем уверен, что к автоэнкодеру применимо даже определение модели из википедии, ибо это явно не модель мира, а суперпозиция набора фотографий… Нейронные сети, особенно сверточные — прекрасный инструмент классификации и распознания, анализа входящей информации вообще, но их использование для постройки модели… НЕ то, что бы не возможно, но я пока не понимаю — как.
в приведенной мной концепции модель мира включает развертку модели во времени, с вариантом некоего «светлого будущего», для достижения которого необходимо предпринимать некие активные действия. Более развернуто об этом — во второй части… Т.е. модель должна включать в себя действие.
Ы этом главная ошибка. Нам не нужно «всю сложность»! Нам нужно всего мира. А насколько детально — вопрос. Меня бы устроил уровень трехлетнего ребенка. Не нужно пытаться на стадии проектирования впихивать в ИИ информацию, не имеющую значения для него. Пусть научится ходить в виртуальной симуляции, взаимодействовать с предметами, чего-то хотеть, а чего-то не хотеть. Различать объекты и строить модель с разверткой во времени. Нам не нужна база знаний, нам нужен разум!
Ну вообще, это называется индукция. Обобщение. Если два, формально разных объекта не различаются в плане использования — стратегии их использования одинаковы и в этих стратегиях указано обобщенное представление обоих объектов.
Но на само деле нужно наоборот — не детализировать без необходимости. Пока для тебя нет разницы — красный куб или зеленый шар — и то и то физический объект. они становятся разными, только при наличии разных кейсов использования.
Я вполне допускаю, что это сложно и размерность все равно получается заоблачная. НО я готов на то, что бы в начале получить тупой и медленный интеллект, но что бы он был реализацией заявленных принципов.
Кто бы спорил…
Мне тоже близка концепция в стиле «органы чувств не столько источник информации о мире, сколько фильтр», но…
Что-то мне говорит, что одно другому не мешает. Иметь чисто механистическую парадигму, хотя бы для того, что бы допустим на практике доказать, то она не работает — уже не плохо! ;)
Но это немного не то. Это скорее ближе к концепции Джеффа Хоккинга «память-предсказание», которую он изложил в книге «ОБ интеллекте».
Для того, что бы это было ближе к нашему представлению о модели робот скорее должен строить карту доступного к перемещению пространства, локализовать себя в нем, иметь какую-то модель будущего (например «отсутствие белых пятен на карте»), и следовать этой модели. как он будет при этом перемещаться — не столь важно, но может продемонстрировать степень интеллектуальности. Например, если он будет продолжать двигаться случайно при небольшой необследованной зоне — это не тот вариант поведения, который хотелось бы ожидать от машины с зачатками разума. ;)
Вы же понимаете, что техническая сложность и интеллектуальная деятельность коррелируют весьма относительно? Например: фракталы…
Да в принципе — можно. Вопрос — нужно ли? Есть же принцип Окама и здравый смысл… У муравьев просто нет нужного количества нейронов… да и некоторые факты, вроде хороводов смерти говорят о достаточно простой, хоть и весьма занятной организации этих насекомых.
Если так — то Тест Тьюринга вы прошли, т.к. я не смог отличить имитацию разума от настоящего! ;)
Восприятие может быть сознательным и бессознательным. Значит как минимум это не одно и то же.
Согласен — связывание ТРЕХ эпизодов в одну стратегию не то, что мы готовы ожидать от лосихи, но это не так, что бы невозможно.
Ну не перебирает мозг все возможные варианты! В условиях ограниченного времени это часто первое попавшееся решение, а далеко не оптимальное. именно поэтому скил большинства людей в большинстве процессов весьма низок.
Опять же — не будь возможности брать первое, что подвернется — буриданов осел сдох бы таки от голода! ;)
Тут важен процесс!
Я не вижу большой проблемы описать бессознательные процессы в рамках этой концепции. Просто мне придется тогда изменить определение «сознания», поэтому я и написал что нужно время.
На вскидку — логично предположить что сознание — некий фокус на текущем моменте, а построение и анализ модели может происходить и за пределами этого фокуса…
Я просто хочу пояснить.
Я не говорю о том, что знаю, как работает мозг и как реализовать его подобие на уровне, так сказать, аппаратном. Речь на данном этапе о концепции. Если мы принимаем (а у меня складывается ощущение, что принимаем — так или иначе) концепцию, то дальше перед нами большой ряд вопросов технических. А там — море нюансов! Например в случае с нейронной сетью вопрос может быть в настройке веса, а может быть в том (в отношении изображений), что мы пытаемся (пытались) анализировать статичную картинку целиком а в реальности присутствуют саккады и динамика. Как только это поняли — сверточные сети и вобщем-то прорыв в распознавании. Т.е. технические проблемы преодолимы. Можно пытаться реализовать все, как в природе, а можно использовать гибридный подход… Ну собственно все так и делают — ничего нового я не написал.
Нет, но это не принципиально. Они строят модель того, с чем не взаимодействуют непосредственно. Т.е. это все еще китайская комната.
А на каком основании вы вывели тождество база знаний=модель мира? Это далеко не одно и то же.
А как вы это делаете в реальной жизни? Вот я у вас спрошу: какую ногу надо поднять, что бы сделать шаг? Вы соотнесете вопрос с моделью: что такое шаг, как вы его делаете… Это совершенно конкретное ощущение вашего организма. Ответ: любую.
Вы не задаете себе таких вопросов — ваш организм является частью модели и он умеет соответствовать ей.
А вы твердо уверены, что разнообразие огромно? Ваш пример про ногу некорректен: организм почти случайным образом учится управлять телом и не занимается такой ерундой, как что бы решать какие мышцы в каком порядке напрягать: у него было около двух лет в начале жизни на то, что бы выбрать оптимальную схему и ей следовать.
Ну и вообще по жизни — приведите пример анализа «огромного разнообразия и пространства возможностей»? В каждом конкретном случае работает правило прецедента: в прошлый раз в такой же (на определенном уровне обобщения) ситуации действие было такое-то, результат — такой-то. Оценочная функция определяет считать ли опыт успешным, или, как вариант — попробовать что-то новое…
Давайте наберем пару-тройку примеров, что бы можно было понять в чем проблема поиска… В глобальности модели? Но она хорошо «индексирована» и связана ассоциациями. Я пока не вижу серьезной проблемы поиска, хотя вполне вероятно, что она есть.
Вообще не хватает, конечно практической реализации… Я все хочу запилить нечто в сильно условном мире, но пока и руки не доходят и скил не тот.