А что значит «понимание», которое вы так опрометчиво использовали в своем утверждении?
Согласен с michael_vostrikov — Понимание, размещение в модели… Мне вот сейчас начало казаться, что на карточках тоже можно замутить модель! ;) Но нет! Стоп. Есть непосредственное восприятие, которое собственно вероятно и отличает модель от базы знаний!
Кстати, я склонен соглашаться, что во многих отношениях нейронные сети как раз проявляют черты «разумности», причем не только по внешнему поведению, но именно и по внутреннему устройству…
Теперь, зная технические детали как это сделано, должно стать понятно, что такие атаки говорит совсем о другом, а не о том, что им тут приписывают.
Да нет же! Я ничего им не приписываю! Я именно об этом и говорю! Что, зная технические детали как это сделано, можно делать выводы о том чем оно является, а чем — не является! Бот может демонстрировать какие угодно чудеса, но когда вы влезете внутрь вы его раскроете. Или не раскроете, потому, что поймете, что это и правда работает!
Я не пытался сказать, что сеть плоха, потому, что «глючит»! Я полностью согласен, что человек глючит и похлеще! Я лишь о том, что понимание принципов дает сильно больше, чем анализ того, что на выходе. В случае с нейронной сетью Adversarial Attacks не демонстрация критических проблем, а скорее демонстрация нашего понимания, как оно работает — демонстрация, что это не черный ящик, а вполне понятная РАБОТАЮЩАЯ модель со своими ограничениями.
Вы все правильно говорите. Но несколько более абстрактно, чем хотелось бы! ;)
Нет, человек изнутри китайской комнаты тоже никак не может различить, есть у него сознание или нет.
Зачем мне человек внутри китайской комнаты! ;) Мне он не нужен. Это, вы правы, философия. Я говорю о порочности «утиной типизации» относительно вещей, которые мы можем разложить на составляющие и понять устройство. Я полагаю, что именно это внутреннее устройство нужно оценивать и исходя из этого определять разумность, а не по внешнему проявлению. По крайней мере не только по нему. Скорее всего — и так и так.
Как бы вы доказали сами себе, что у вас есть Сознание?
Вся эта статья — мое описание моего сознания. Проблема ведь не доказать, что оно у меня есть (себе — нет смысла, я это и так знаю, вам -невозможно, для вас я — китайская комната). Проблема так изложить что именно у меня есть (и что мы называем сознанием), что бы это можно было воспроизвести! Я не описываю сознание через «что он делает», по крайней мере — вовне. Я описываю, как оно устроено (в моем понимании). И если я встречу устройство, которое работает по тем же принципам, то я много чего пойму:
или оно будет работать так и будет демонстрировать разумное поведение и это лучший из вариантов,
или оно будет не будет работать, либо будет, но не будет демонстрировать ничего путного и тогда нужно дорабатывать теорию
или оно будет работать так и будет демонстрировать поведение, условно разумное, но не человеческое, например. Это тоже интересный опыт.
Вообще мысль про количество вариантов интересная, но полнотой определения похвастаться не может… Это стратегия проистекает напрямую из утверждения, что в противостоянии двух интеллектуальных систем побеждает та, что имеет больше вариантов действия (не ручаюсь за точность, и не помню кто сказал). Хотя, на мой взгляд это далеко не аксиома. В каких-то случаях, где важна оперативность принятия решений, число вариантов может стать проблемой (как уже говорилось где-то выше) и как раз разумное СНИЖЕНИЕ размерности выбора, без потери качества является одной из актуальных задач!
Еще пришло в голову, что это почти девиз клаустрофоба. ;) Ведь сем более замкнутое пространство тем меньше вариантов движения в нем.
«Интеллект поступает так, что-бы максимизировать в будущем количество возможных вариантов действия»
Я подумаю над этим.
Т.к. считаю что только построение модели — это лишь половина дела. Важным моментом является именно способность просчитывать поведение этой модели в будущем. И на основе этого, строить свое поведение.
Мне кажется не все воспринимают идею построения модели не только в понятийном и пространственном, но и во временном аспекте… (( Может быть потому, что основной упор на это планировался во второй части статьи?
Или вы как раз воспринимаете и соглашаетесь? ;) Я не очень понял: когда вы пишите «в данном определении», вы имеете ввиду данное мной, или данное вами? )))
Полную, непротиворечивую модель невозможно построить даже для замкнутых искусственных логических построений.
Ну… Я вроде несколько раз упоминал, что «полную» — не значит детализированную. Любая модель имеет определенную степень приближения к оригиналу, и избыточность деталей во многих отношениях скорее минус, чем плюс.
Идея полноты введена в определение с целью показать, что при построении модели разум использует ВЕСЬ объем знаний, а не часть, соответствующую текущей задаче. Т.е. выражаясь витиевато, элементы модели, связанные с танцами могут быть использованы при разведении пчел! ;)
Нельзя моделировать под задачу. Т.е. можно, но использование предыдущего опыта и глобальные обобщения не будут доступны.
Кроме того, я еще раз подчеркиваю — способность строить, не означает перспективу наконец-то закончить! Важен процесс, а не результат. Стремление не равно достижению.
Слово «итоговая» надо бы заменить на «текущую». И тогда согласен.
Не вижу причин не заменить! ;) «итоговая» в данном случае использовалась как результат деятельности на любой момент времени, а не интерполированный экстремум. Т.е. опять таки процесс, а не результат.
Множество по умолчанию разумных людей не смогло понять действий лосихи.
Это как-то коррелирует с вашим определением разумности? Ну, про невозможность объяснить на основании опыта? Я не понял просто. Потому, что на это очень много чего можно возразить:
не смогли понять, потому, что их личные модели не предполагали такую сложную модель у лосихи;
не смогли понять, потому, что лосихин «эпизод разумности» — он на базе ее опыта, а не опыта тех, кто пытался понять;
множество не смогло — но кто-то же в итоге смог? Это о чем-то говорит, или ...
Во-вторых, конкретными примерами можно доказать что угодно — с точностью до наоборот.
Полностью с вами согласен. Научной считается гипотеза, включающая в себя возможность опровержения.
Когда же идёт речь о разумных эпизодах, примеров множество, их может привести чуть ли не каждый, кто держал дома млекопитающее
Пока мы имеем один эпизод с лосихой, утверждение, что таких — полным полно и отсутствие пруфов. ;) Вы поймите — я не придираюсь, я разобраться хочу!
Я вот пришел к тем же выводам что автор, так сказать — независимо. Я не претендую на истину — это просто размышление, не более того. Однако оно вполне удовлетворяет приведенному выше определению научности гипотезы, благодаря вам же: при наличии примера «разумного эпизода» не объяснимого с точки зрения прошлого опыта — теория практически становится несостоятельной. Я готов признать ошибочность подхода, но случай с лосихой меня не убедил — это пример построения более сложной и комплексной модели, чем ожидалось от животного, но… НЕ в коем случае не то, что не возможно объяснить опытом!
Но она совсем не очевидна, как она получена? Есть 500 тысяч слов (ну пусть 30 тыс. наиболее употребительных), которые можно использовать. И в этой фразе аж 16 последовательных слов. Представляете какое это число комбинаций из комбинаторики… А вы выдали эту фразу сразу. Это удивительно.
Если подходить к ИИ, как к черному ящику у которого вход и выход — да, но… Давайте на примере!
Есть робот-пылесос. Ему нужно построить карту комнаты и выбрать оптимальный маршрут, что бы за меньшее количество пути пройти всю комнату (считай быстрее закончить, но не пропускать участков).Простой мир, простая задача. Простые сенсоры вида датчиков касания и энкодеров.
Есть Три подхода к решению задачи.
Первый: разработать мат модель произвольной комнаты, определить понятие оптимальной траектории, короче решить задачу в общем виде и ее захардкодить. Заложить в робота. В рамках заданного мира и возможных действия его поведение вероятно будет не слишком отличаться от интеллектуальной системы в тех же условиях (скорее даже будет превосходить оную, т.к. как мы уже говорили — интеллектуальный, далеко не всегда значит оптимальный). Это — китайская комната.
Второй: нейронная сеть в ваших интерпретациях. Мы стараемся построить и обучить такую сеть, что бы, получая на вход данные с датчиков, она в том или ином виде решала задачу. Я не знаю, как вам, а мне кажется, что в данном случае предется применить гораздо большую изворотливость и нетривиальный подход, чем в первом случае! Я пока не представляю с ходу, как оно на сетях — будь они сверточные или рекурентные!
Вариант третий: построитель модели. Как я уже говорил (или только собирался?), мне кажется, что понятие пространства, как и идея перемещения в нем является фундаментальными. Т.е. в данном случае это то, что воспринимается непосредственно и не требует выражения через другие абстрактные понятия. Таким образом модель пространства может и должна быть заложена изначально. Движение, особенно собственное… Ну можно конечно сделать, как природа и дать возможность системе самой научится, но для простоты — предлагаю тоже захардкодить! Т.е. система знает, что значит перемещение и что нужно делать, что бы из точки А в пространстве, попасть в точку Б. Дальше — самое интересное! Нужно что бы система сама построила модель от «я в точке старта и не знаю что вокруг» до «мир вот такой, я имею полную модель, и нахожусь здесь». Для начала. Мне почему-то кажется, что на основе изначально практически хаотичных действий с рекурсивным применением полученного в результате опыта это сделать реально. С нейронными сетями или без… И после решения первой задачи (с картой) — дальше система должна уже проще решать проблему оптимального пути. Причем чем больше будет итераций — тем более вероятно оптимальное решение.
Вот в моем понимании это будет система, демонстрирующая разумное поведение, которая хоть и схожа с первой по внешним проявлениям, но имеет принципиальное отличие по внутреннему устройству.
Поэтому обязательно пишите вторую часть, интересно читать. И может натолкнуть на какие-нибудь мысли.
Так проблема нейросетей в том, что обычно нельзя выделить эту составляющую. Даже отдельное направление есть для разработки сетей, которые могут объяснять свой вывод.
Не, не, не… ;)
Это разные задачи: Выделить составляющую и объяснить свой вывод. Объяснить свой вывод сеть не может — это просто подобранные веса во внутренних слоях.
А вот выделить некую корреляцию — вполне реально.
«Чистое изображение человека» тоже не нужно, это классы, а сначала нужны конкретные объекты, которые потом будут объединяться в классы на основе сходства признаков.
Я немного общее представление имею, но DesertFlow поправит, если что: то, о чем вы говорите, так примерно работают сверточные сети. В случае с анализом изображений, сначала работает сеть, обученная извлекать графические примитивы (линии, углы, контуры и тп) — результат ее работы подается на вход следующей сети, которая умеет находить элементы, типа глаза/уха/крыла/хвоста (а так же колеса/окна и прочего). Из них собираются объекты и в теории можно продолжать дальше. Могу ошибаться.
Тут уже идет некоторая нестыковка на уровне понятий…
Я не уверен, что можно поставить знак равенства между инструкциями/правилами, связями и моделью. Связи не равно инструкции. А модель — это не только связи.
Китайская комната работает по принципу «раздражитель»-«реакция». Это модель простейших насекомых.
Так же, как база знаний — граф высокой плотности в узлах которого понятия не есть модель реальности.
А то получается забавно — говорят о двух отличающихся вещах, но чем они отличаются, сказать не могут.
Вот! Именно так оно и работает… Если не отличается — то суть одно. Это правильно.
А изнутри их можно отличить?
Можно! Можно посмотреть устройство, алгоритм, принцип действия и тп. ;)
Вот, скажем, нейронная сеть, распознающая символы. Самое первое, что реализовали — OCR. Если провести определенный реверс, то можно выделить/подобрать определенные изображения, которые абсолютно, никак не похожи на буквы/символы, но опознаются сетью как определенный символ с высокой (выше 90%) степенью вероятности (не могу что-то пруф найти, но точно встречал такое).
Получается, что если глянуть (пристально) в исходники чат-бота, который смог меня обмануть и пройти тест Тьюринга — весьма вероятно не только понять, что он таки «китайская комната», но и найти «те самые» вопросы, на которых он спалится!
Я не спорю — во многих отношениях вы правы. НО есть и обратные аргументы — нельзя возводить принцип подобия в абсолют! Думаю истина где-то посередине…
Т.е. в модели мира допустимо использовать два понятия как одно, если между ними нет различий, но… Здесь они есть. Я же вижу, что я думаю не как китайская комната! НЕ смотря, на возможное формально неотличимое поведение.
Если мы не можем это сказать, если там это распределено по весам и срабатывает только всё вместе, то это не модель.
Я так понимаю идея такая: прогоняем через подобную систему 100500 фоток или что там еще. Потом даем «чистое» (т.е. выделенное) изображение человека… Или несколько разных людей. То, что будет на выходе — это «сигнал», соответствующий понятию. Насколько он будет постоянным (будет ли в нем хоть что-то постоянное, без специального натаскивания именно на людей) — как раз и показывает, насколько сеть смогла выделить в своей модели понятие «люди».
Как определить, что она выделила именно концепцию «шагать»
Так же. Дать ряд примеров, где шагают и извлечь постоянную составляющую — это и будет понятие «шагать»…
Как я понимаю — это сферическая концепция в вакууме, которая в лоб работает не очень хорошо. Ее можно и нужно иметь ввиду, но с разумной степенью осторожности.
Когда я сталкиваюсь с решением какой-то задачи, будь то выбор в магазине или размышления над серьезной проблемой — у меня нет ощущения «высокой размерности». Может поэтому я паршиво играю в шахматы и вообще не люблю игр с высокой вариативностью, где у меня слишком мало критериев для выбора «правильного» хода.
И мне кажется, что это не какой-то волшебный механизм, подобранный эволюцией! просто в рамках любой конкретной ситуации полнота модели и процессное восприятие обеспечивают довольно ограниченный набор подходящих решений… Блин, сложно объяснить, нужен пример.
Это как с нейронной сетью — она же не ищет (перебором), правильно? Она просто автоматически по весам нейронов получает нужный выход, по входным данным. Правильно? Так и здесь — выходом будет классификация ситуации определенным образом, до тех пор, пока не будет одной подходящей стратегии для развития в нужном направлении.
Правильное построение модели — и есть поиск решения. Вернее поиск решения и построение модели — одно и то же.
Пример: прохождение лабиринта. У вас есть лабиринт. И есть модель, развернутая во времени, в которой вы сейчас — в начальной точке, а в «светлом будущем» — в конечной. Что бы ваша модель совпала с реальностью, вам нужно смоделировать свои действия по перемещению из точки А в точку Б и следовать этой модели — только и всего.
Безотносительно нейронных сетей — если нечто обучено избегать определенных… Ну не знаю — в зависимости от уровня реализации можно сказать от «раздражителей» до «ситуаций», а вы это нечто постоянно этим пичкаете (сугубо в научных целях, ага) — полагаю можно говорить о том, что вы причиняете ему боль.
В моем понимании модельного подхода такая ситуация будет принудительной рассинхронизацией модели и реальности, что безусловно есть фрустрация и страдание. ;)
Согласен с michael_vostrikov — Понимание, размещение в модели… Мне вот сейчас начало казаться, что на карточках тоже можно замутить модель! ;) Но нет! Стоп. Есть непосредственное восприятие, которое собственно вероятно и отличает модель от базы знаний!
Кстати, я склонен соглашаться, что во многих отношениях нейронные сети как раз проявляют черты «разумности», причем не только по внешнему поведению, но именно и по внутреннему устройству…
Да нет же! Я ничего им не приписываю! Я именно об этом и говорю! Что, зная технические детали как это сделано, можно делать выводы о том чем оно является, а чем — не является! Бот может демонстрировать какие угодно чудеса, но когда вы влезете внутрь вы его раскроете. Или не раскроете, потому, что поймете, что это и правда работает!
Я не пытался сказать, что сеть плоха, потому, что «глючит»! Я полностью согласен, что человек глючит и похлеще! Я лишь о том, что понимание принципов дает сильно больше, чем анализ того, что на выходе. В случае с нейронной сетью Adversarial Attacks не демонстрация критических проблем, а скорее демонстрация нашего понимания, как оно работает — демонстрация, что это не черный ящик, а вполне понятная РАБОТАЮЩАЯ модель со своими ограничениями.
Зачем мне человек внутри китайской комнаты! ;) Мне он не нужен. Это, вы правы, философия. Я говорю о порочности «утиной типизации» относительно вещей, которые мы можем разложить на составляющие и понять устройство. Я полагаю, что именно это внутреннее устройство нужно оценивать и исходя из этого определять разумность, а не по внешнему проявлению. По крайней мере не только по нему. Скорее всего — и так и так.
Вся эта статья — мое описание моего сознания. Проблема ведь не доказать, что оно у меня есть (себе — нет смысла, я это и так знаю, вам -невозможно, для вас я — китайская комната). Проблема так изложить что именно у меня есть (и что мы называем сознанием), что бы это можно было воспроизвести! Я не описываю сознание через «что он делает», по крайней мере — вовне. Я описываю, как оно устроено (в моем понимании). И если я встречу устройство, которое работает по тем же принципам, то я много чего пойму:
Еще пришло в голову, что это почти девиз клаустрофоба. ;) Ведь сем более замкнутое пространство тем меньше вариантов движения в нем.
Мне кажется не все воспринимают идею построения модели не только в понятийном и пространственном, но и во временном аспекте… (( Может быть потому, что основной упор на это планировался во второй части статьи?
Или вы как раз воспринимаете и соглашаетесь? ;) Я не очень понял: когда вы пишите «в данном определении», вы имеете ввиду данное мной, или данное вами? )))
Впрочем, тут все-таки шмели…
Ну… Я вроде несколько раз упоминал, что «полную» — не значит детализированную. Любая модель имеет определенную степень приближения к оригиналу, и избыточность деталей во многих отношениях скорее минус, чем плюс.
Идея полноты введена в определение с целью показать, что при построении модели разум использует ВЕСЬ объем знаний, а не часть, соответствующую текущей задаче. Т.е. выражаясь витиевато, элементы модели, связанные с танцами могут быть использованы при разведении пчел! ;)
Нельзя моделировать под задачу. Т.е. можно, но использование предыдущего опыта и глобальные обобщения не будут доступны.
Кроме того, я еще раз подчеркиваю — способность строить, не означает перспективу наконец-то закончить! Важен процесс, а не результат. Стремление не равно достижению.
Не вижу причин не заменить! ;) «итоговая» в данном случае использовалась как результат деятельности на любой момент времени, а не интерполированный экстремум. Т.е. опять таки процесс, а не результат.
Тот факт, что они в должной мере не смогли смоделировать лосиху не делает их собственную модель проще модели лосихи!
Менее разумны — означает, что в такой же ситуации они бы не догадались остановить поезд…
Впрочем — кто его знает, может и не догадались бы! ;) Люди — они такие…
Пока мы имеем один эпизод с лосихой, утверждение, что таких — полным полно и отсутствие пруфов. ;) Вы поймите — я не придираюсь, я разобраться хочу!
Я вот пришел к тем же выводам что автор, так сказать — независимо. Я не претендую на истину — это просто размышление, не более того. Однако оно вполне удовлетворяет приведенному выше определению научности гипотезы, благодаря вам же: при наличии примера «разумного эпизода» не объяснимого с точки зрения прошлого опыта — теория практически становится несостоятельной. Я готов признать ошибочность подхода, но случай с лосихой меня не убедил — это пример построения более сложной и комплексной модели, чем ожидалось от животного, но… НЕ в коем случае не то, что не возможно объяснить опытом!
Если подходить к ИИ, как к черному ящику у которого вход и выход — да, но… Давайте на примере!
Есть робот-пылесос. Ему нужно построить карту комнаты и выбрать оптимальный маршрут, что бы за меньшее количество пути пройти всю комнату (считай быстрее закончить, но не пропускать участков).Простой мир, простая задача. Простые сенсоры вида датчиков касания и энкодеров.
Есть Три подхода к решению задачи.
Первый: разработать мат модель произвольной комнаты, определить понятие оптимальной траектории, короче решить задачу в общем виде и ее захардкодить. Заложить в робота. В рамках заданного мира и возможных действия его поведение вероятно будет не слишком отличаться от интеллектуальной системы в тех же условиях (скорее даже будет превосходить оную, т.к. как мы уже говорили — интеллектуальный, далеко не всегда значит оптимальный). Это — китайская комната.
Второй: нейронная сеть в ваших интерпретациях. Мы стараемся построить и обучить такую сеть, что бы, получая на вход данные с датчиков, она в том или ином виде решала задачу. Я не знаю, как вам, а мне кажется, что в данном случае предется применить гораздо большую изворотливость и нетривиальный подход, чем в первом случае! Я пока не представляю с ходу, как оно на сетях — будь они сверточные или рекурентные!
Вариант третий: построитель модели. Как я уже говорил (или только собирался?), мне кажется, что понятие пространства, как и идея перемещения в нем является фундаментальными. Т.е. в данном случае это то, что воспринимается непосредственно и не требует выражения через другие абстрактные понятия. Таким образом модель пространства может и должна быть заложена изначально. Движение, особенно собственное… Ну можно конечно сделать, как природа и дать возможность системе самой научится, но для простоты — предлагаю тоже захардкодить! Т.е. система знает, что значит перемещение и что нужно делать, что бы из точки А в пространстве, попасть в точку Б. Дальше — самое интересное! Нужно что бы система сама построила модель от «я в точке старта и не знаю что вокруг» до «мир вот такой, я имею полную модель, и нахожусь здесь». Для начала. Мне почему-то кажется, что на основе изначально практически хаотичных действий с рекурсивным применением полученного в результате опыта это сделать реально. С нейронными сетями или без… И после решения первой задачи (с картой) — дальше система должна уже проще решать проблему оптимального пути. Причем чем больше будет итераций — тем более вероятно оптимальное решение.
Вот в моем понимании это будет система, демонстрирующая разумное поведение, которая хоть и схожа с первой по внешним проявлениям, но имеет принципиальное отличие по внутреннему устройству.
Спасибо за поддержку. Напишу да…
Это разные задачи: Выделить составляющую и объяснить свой вывод. Объяснить свой вывод сеть не может — это просто подобранные веса во внутренних слоях.
А вот выделить некую корреляцию — вполне реально.
Я немного общее представление имею, но DesertFlow поправит, если что: то, о чем вы говорите, так примерно работают сверточные сети. В случае с анализом изображений, сначала работает сеть, обученная извлекать графические примитивы (линии, углы, контуры и тп) — результат ее работы подается на вход следующей сети, которая умеет находить элементы, типа глаза/уха/крыла/хвоста (а так же колеса/окна и прочего). Из них собираются объекты и в теории можно продолжать дальше. Могу ошибаться.
Тут уже идет некоторая нестыковка на уровне понятий…
Я не уверен, что можно поставить знак равенства между инструкциями/правилами, связями и моделью. Связи не равно инструкции. А модель — это не только связи.
Китайская комната работает по принципу «раздражитель»-«реакция». Это модель простейших насекомых.
Так же, как база знаний — граф высокой плотности в узлах которого понятия не есть модель реальности.
Но вы же сейчас спросите в чем разница, да? ;)
Можно! Можно посмотреть устройство, алгоритм, принцип действия и тп. ;)
Вот, скажем, нейронная сеть, распознающая символы. Самое первое, что реализовали — OCR. Если провести определенный реверс, то можно выделить/подобрать определенные изображения, которые абсолютно, никак не похожи на буквы/символы, но опознаются сетью как определенный символ с высокой (выше 90%) степенью вероятности (не могу что-то пруф найти, но точно встречал такое).
Получается, что если глянуть (пристально) в исходники чат-бота, который смог меня обмануть и пройти тест Тьюринга — весьма вероятно не только понять, что он таки «китайская комната», но и найти «те самые» вопросы, на которых он спалится!
Я не спорю — во многих отношениях вы правы. НО есть и обратные аргументы — нельзя возводить принцип подобия в абсолют! Думаю истина где-то посередине…
Т.е. в модели мира допустимо использовать два понятия как одно, если между ними нет различий, но… Здесь они есть. Я же вижу, что я думаю не как китайская комната! НЕ смотря, на возможное формально неотличимое поведение.
Так же. Дать ряд примеров, где шагают и извлечь постоянную составляющую — это и будет понятие «шагать»…
Как я понимаю — это сферическая концепция в вакууме, которая в лоб работает не очень хорошо. Ее можно и нужно иметь ввиду, но с разумной степенью осторожности.
Блин, вот это было бы интересно… Расскажите! Можно в общих чертах — что пробовали, почему не получилось.
Может ее надо просто немного развить/поменять? ;)
Просто ряд соображений:
Когда я сталкиваюсь с решением какой-то задачи, будь то выбор в магазине или размышления над серьезной проблемой — у меня нет ощущения «высокой размерности». Может поэтому я паршиво играю в шахматы и вообще не люблю игр с высокой вариативностью, где у меня слишком мало критериев для выбора «правильного» хода.
И мне кажется, что это не какой-то волшебный механизм, подобранный эволюцией! просто в рамках любой конкретной ситуации полнота модели и процессное восприятие обеспечивают довольно ограниченный набор подходящих решений… Блин, сложно объяснить, нужен пример.
Это как с нейронной сетью — она же не ищет (перебором), правильно? Она просто автоматически по весам нейронов получает нужный выход, по входным данным. Правильно? Так и здесь — выходом будет классификация ситуации определенным образом, до тех пор, пока не будет одной подходящей стратегии для развития в нужном направлении.
Пример: прохождение лабиринта. У вас есть лабиринт. И есть модель, развернутая во времени, в которой вы сейчас — в начальной точке, а в «светлом будущем» — в конечной. Что бы ваша модель совпала с реальностью, вам нужно смоделировать свои действия по перемещению из точки А в точку Б и следовать этой модели — только и всего.
Безотносительно нейронных сетей — если нечто обучено избегать определенных… Ну не знаю — в зависимости от уровня реализации можно сказать от «раздражителей» до «ситуаций», а вы это нечто постоянно этим пичкаете (сугубо в научных целях, ага) — полагаю можно говорить о том, что вы причиняете ему боль.
В моем понимании модельного подхода такая ситуация будет принудительной рассинхронизацией модели и реальности, что безусловно есть фрустрация и страдание. ;)