All streams
Search
Write a publication
Pull to refresh
23
0

AI preacher

Send message
Мало того — модель мало-мальски социально интегрированного человека, включает модели других людей! Однако дурная «бесконечность вложенности моделей» получается только у гуманитариев aka философы. Для ИТ-специалистов понятие рекурсивной ссылки не является чем-то невообразимым… ;)
Секунду, а не вы там выше в коментах рассуждали о некорректной импликации? ;) Давайте будем последовательны: если вы заявляете о невозможности объяснения такого поведения предыдущим опытом, и при этом апеллируете к строгим правилам риторики, то я хотел бы увидеть обоснованное доказательство утверждения о «невозможности...».
С моей точки зрения это говорит лишь о достаточно редком стечении обстоятельств, что в общем-то объясняет, почему лоси не занимаются подобными вещами каждый день!
Это проблема людей с гуманитарным складом ума


Зря вы так. ;) С той же википедии: Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла. Все прям гуманитарии?

Вы впадаете в ошибку того же Тьюринга. Он долго размышлял о природе интеллекта и не смог вывести критериев проверки ДЛЯ НЕСПЕЦИАЛИСТОВ. Т.е. чтоб любому гуманитарию было понятно, что вот эта вот штуковина не просто так тут гудит, а МЫСЛИТ! Поэтому он пошел по традиционному пути утиной типизации: «если крякает, как утка, плавает как утка, то...». Т.е. если не можем отличить от человека — значит думает.

И это ввергло отрасль в пучину чат-ботов! ;) Хотя вот мне кажется очевидным, что если есть машина, известны принципы ее построения и есть прямое проявление разумного поведения (в самых разных его проявлениях) то, даже если ее мышление не похоже на человеческое, а разговаривать она не может совсем, или только на своем особом языке, то оценить степень ее разумности вполне возможно. А чат-бот, он чат-бот и есть.

Что касается китайской комнаты — вы не совсем правы. Дело не в том, что раз невозможно разделить понимает или нет ПО ВНЕШНИМ ПРОЯВЛЕНИЯМ, то значит и нет разницы — вы правы. Нет. Просто нельзя судить о разумности по внешним проявлениям. Тут недавно было — мол людям же в голову не влезешь, откуда мы знаем, что они разумны? Может половина сплошь чат-боты! Так а я и не спорю! Может быть. Я знаю за себя — ибо осознаю. Буду знать за машину, если она будет по моим принципам построена. А за людей — не знаю! Наверняка — не знаю. Над более корректной проверкой, чем тест Тьюринга я еще не размышлял…

Кстати, я почти уверен, что довольно значительная часть людей не пройдет тест Тьюринга.

Так что для меня по комнате ответ простой — человек внутри комнаты не понимает иероглифов. И комната вместе с человеком не понимает. Это просто чат-бот, каким бы умным он не казался. И если он проходит тест Тьюринга, то или экзаминатор слабоват, или тест ни к черту! ;)
Дело в том, что разуму не нужна ни полнота, ни адекватность, ни непротиворечивость.
тонкость в том, что по определению — разум стремится к этому, однако, как я уже писал раньше — это недостижимо. Т.е. закончивший строить модель разум вероятно остановится. ВАжен сам процесс построения, устранения противоречий и тп.

Просто вы хотите оперировать в рамках математической логики
да не совсем математической… Логика может быть любая, хоть женская! Вопрос модели. Там скорее уместно говорить о теории множеств, или даже категорий.
1. Мыслит ли муравейник?
полагаю, что нет. Просто реагирует. НО возможно у меня недостаточно данных о примерах разумного поведения муравейника, которые нельзя объяснить уровнем реакции.
2. Разумен ли душевнобольной с неадекватной картиной мира?
безусловно. ОН просто имеет картину мира, которая не признается адекватной большинством. Я по «адекватностью» имел ввиду скорее корреляцию с реальностью, которая впрочем вполне легко может быть некорректной. Это не имеет значения.
3. Как соотносятся язык и мышление?
ох… Сложная тема. Практически прямо. Язык собственно и отличает нас от животных, позволяя, как писал уважаемый DesertFlow «снизить размерность» модели.
4. Как отличить разум от инстинкта?
Инстинкт требует отдельного определения. Под этим словом понимают как «инстинкт» выживания у высших животных, так и инстинктивное реагирование плоского червя на раздражители. Первое — предзагруженная часть модели, т.е. часть разума. Второе — простая нервная связь от рецепторов к двигательным нейронам.
Это круто! Но это вот тот самый случай, когда модель может и есть, но что с ней делать дальше — понятно не совсем…

Я же хочу строить такую модель, в которой действие и мотивация к действию — часть модели.
ИИ при том, что программисты создают модель, не имея модели (хотя это конечно не так — все имеют модель… Хоть плохонькую, но имеют). А я, будучи так же программистом, хочу понять модель в голове, что бы создать ее во внешнем мире… Ведь я же ее создаю без привязки к голове! Вроде бы…
Но на практике это не так — модель реальности отдельно, действия и принятия решений отдельно. И вот со вторым проблема.

А почему? Почему я не могу иметь модель в которой будущее задано, пошлое — постоянно уточняется, а мои действия — переход от одного к другому?

Я просыпаюсь с утра и мне нужно на работу. В принципе я вижу всю последовательность действий, необходимых для того, что бы там оказаться, с достаточной степенью как подробности, так и определенной вариативности. Т.е. в моей модели мира я завтра проснусь в шесть и через полтора часа буду на работе… И так в общем-то достаточно далеко. У меня есть планы и на выходные и на лето. И почему все мои действия не могут быть просто отработкой этой модели для сохранения соответствия?
Китайская комната — это мнимый философский парадокс. На самом деле его не существует.

Как я понимаю, существуют как минимум две категории людей: тех, для которых это вполне реальный пример, иллюстрирующий несостоятельность теста Тьюринга, и их противников, имеющих обратное мнение. ;) Причем автор парадокса Сёрл был таки из первых!
Насчет взаимодействия — а как же роботы, которые обучаются в виртуальных физических симуляторах?
Симуляторы как раз — замечательно! Я думаю так и нужно делать — создавать симуляцию реального мира (упрощенную) и симуляцию взаимодействия. Об этом я хотел написать во второй части. Но симуляция мира и база знаний с фактами не имеющими воплощения хотя бы в симуляции — не одно и то же.

Модель мира в автоэнкодере будет вполне адекватной.
Я не совсем уверен, что к автоэнкодеру применимо даже определение модели из википедии, ибо это явно не модель мира, а суперпозиция набора фотографий… Нейронные сети, особенно сверточные — прекрасный инструмент классификации и распознания, анализа входящей информации вообще, но их использование для постройки модели… НЕ то, что бы не возможно, но я пока не понимаю — как.

Проблема создания разума как раз в том, что дальше делать с этой моделью мира.
в приведенной мной концепции модель мира включает развертку модели во времени, с вариантом некоего «светлого будущего», для достижения которого необходимо предпринимать некие активные действия. Более развернуто об этом — во второй части… Т.е. модель должна включать в себя действие.
Не существует никаких индексированных и хорошо связанных ассоциациями баз, отражающих всю сложность реального мира. Делать такие еще не научились.

Ы этом главная ошибка. Нам не нужно «всю сложность»! Нам нужно всего мира. А насколько детально — вопрос. Меня бы устроил уровень трехлетнего ребенка. Не нужно пытаться на стадии проектирования впихивать в ИИ информацию, не имеющую значения для него. Пусть научится ходить в виртуальной симуляции, взаимодействовать с предметами, чего-то хотеть, а чего-то не хотеть. Различать объекты и строить модель с разверткой во времени. Нам не нужна база знаний, нам нужен разум!

Чтобы получить такую базу, нужен механизм снижения размерности, как это происходит в мозге.

Ну вообще, это называется индукция. Обобщение. Если два, формально разных объекта не различаются в плане использования — стратегии их использования одинаковы и в этих стратегиях указано обобщенное представление обоих объектов.

Но на само деле нужно наоборот — не детализировать без необходимости. Пока для тебя нет разницы — красный куб или зеленый шар — и то и то физический объект. они становятся разными, только при наличии разных кейсов использования.

Я вполне допускаю, что это сложно и размерность все равно получается заоблачная. НО я готов на то, что бы в начале получить тупой и медленный интеллект, но что бы он был реализацией заявленных принципов.
Механистический подход к жизни не единственный

Кто бы спорил…

Мне тоже близка концепция в стиле «органы чувств не столько источник информации о мире, сколько фильтр», но…

Что-то мне говорит, что одно другому не мешает. Иметь чисто механистическую парадигму, хотя бы для того, что бы допустим на практике доказать, то она не работает — уже не плохо! ;)
Я вполне непротив поговорить на не вполне материалистические темы… ;) Согласен, что это слегка офф (хотя кто знает), так что можно в личку!
Да почему нет-то — вот чего я понять не могу! Т.е. я вам верю, но пока не понимаю. У меня ощущение, что мы просто не много о разном говорим. Взять хотя бы АльфаЗеро. Ведь он работает ровно, как человек. Он не перебирает все варианты — он в ситуации неопределенности делает случайный ход. И таким образом набивает шишки (т.е. набирает опыт). Чем больше опыт тем меньше случайных ходов. Но в любом случае охвачено далеко не все пространство вариантов и почти в любом случае остается место тому самому случайному ходу.
Ваше модель прекрасна. Я серьезно.

Но это немного не то. Это скорее ближе к концепции Джеффа Хоккинга «память-предсказание», которую он изложил в книге «ОБ интеллекте».

Для того, что бы это было ближе к нашему представлению о модели робот скорее должен строить карту доступного к перемещению пространства, локализовать себя в нем, иметь какую-то модель будущего (например «отсутствие белых пятен на карте»), и следовать этой модели. как он будет при этом перемещаться — не столь важно, но может продемонстрировать степень интеллектуальности. Например, если он будет продолжать двигаться случайно при небольшой необследованной зоне — это не тот вариант поведения, который хотелось бы ожидать от машины с зачатками разума. ;)
Муравейник это сложнейшее техническое сооружение, а не куча мусора, в которой живут муравьи…

Вы же понимаете, что техническая сложность и интеллектуальная деятельность коррелируют весьма относительно? Например: фракталы…
Но с моей точки зрения это глупость, потому что тогда можно сколь угодно сложное поведение объяснять не разумом, а инстинктом.

Да в принципе — можно. Вопрос — нужно ли? Есть же принцип Окама и здравый смысл… У муравьев просто нет нужного количества нейронов… да и некоторые факты, вроде хороводов смерти говорят о достаточно простой, хоть и весьма занятной организации этих насекомых.
Вот например, я прямо сейчас чисто инстинктивно прочитал ваш ответ и аналогичным образом написал свой.

Если так — то Тест Тьюринга вы прошли, т.к. я не смог отличить имитацию разума от настоящего! ;)
Тогда вопрос поставлю так — чем восприятие вообще отличается от сознания?

Восприятие может быть сознательным и бессознательным. Значит как минимум это не одно и то же.
А почему собственно «не предсказуемые напрямую предыдущим опытом»? Лосиха вполне могла иметь опыт остановки поезда перед препятствием, а так же могла наблюдать людей, как выходящих из поезда, так и вытаскивающих кого-то из болота…

Согласен — связывание ТРЕХ эпизодов в одну стратегию не то, что мы готовы ожидать от лосихи, но это не так, что бы невозможно.
Поэтому голый Model-Based подход не работает. Даже если у нас есть идеальная модель мира и мы будем перебирать в ней все возможные варианты, проклятие размерности быстро сводит такие попытки на нет.

Ну не перебирает мозг все возможные варианты! В условиях ограниченного времени это часто первое попавшееся решение, а далеко не оптимальное. именно поэтому скил большинства людей в большинстве процессов весьма низок.

Опять же — не будь возможности брать первое, что подвернется — буриданов осел сдох бы таки от голода! ;)
Это показывает, что я действительно зря приравнял сознание и самоосознание. Что сознание несколько из другой области, и требует более глубокой проработки, но… НЕ отменяет концепции в целом! Ок, я согласен: большая часть процессов, в том числе и очевидно обработка модели, ее анализ и следование ей — могут проходить бессознательно. Можно сказать — в бекграунде, фоном.
Разум, построивший полную и непротиворечивую модель вероятно просто остановится. ;)

Тут важен процесс!
В том-то и дело, что это никак не сделать…


Я не вижу большой проблемы описать бессознательные процессы в рамках этой концепции. Просто мне придется тогда изменить определение «сознания», поэтому я и написал что нужно время.

На вскидку — логично предположить что сознание — некий фокус на текущем моменте, а построение и анализ модели может происходить и за пределами этого фокуса…
Это очень хороший комментарий. Я практически полностью с ним согласен.

Я просто хочу пояснить.

Я не говорю о том, что знаю, как работает мозг и как реализовать его подобие на уровне, так сказать, аппаратном. Речь на данном этапе о концепции. Если мы принимаем (а у меня складывается ощущение, что принимаем — так или иначе) концепцию, то дальше перед нами большой ряд вопросов технических. А там — море нюансов! Например в случае с нейронной сетью вопрос может быть в настройке веса, а может быть в том (в отношении изображений), что мы пытаемся (пытались) анализировать статичную картинку целиком а в реальности присутствуют саккады и динамика. Как только это поняли — сверточные сети и вобщем-то прорыв в распознавании. Т.е. технические проблемы преодолимы. Можно пытаться реализовать все, как в природе, а можно использовать гибридный подход… Ну собственно все так и делают — ничего нового я не написал.
Они строят модель мира именно как у вас описано — полную, непротиворечивую и так далее.


Нет, но это не принципиально. Они строят модель того, с чем не взаимодействуют непосредственно. Т.е. это все еще китайская комната.
Вот представьте, что у вас есть полная модель мира (база знаний)

А на каком основании вы вывели тождество база знаний=модель мира? Это далеко не одно и то же.
а дальше что? Как в ней ориентироваться, как искать нужные ответы?

А как вы это делаете в реальной жизни? Вот я у вас спрошу: какую ногу надо поднять, что бы сделать шаг? Вы соотнесете вопрос с моделью: что такое шаг, как вы его делаете… Это совершенно конкретное ощущение вашего организма. Ответ: любую.

Вы не задаете себе таких вопросов — ваш организм является частью модели и он умеет соответствовать ей.
И никто не знает, как разум это делает в таком огромном разнообразии возможностей (пространстве решений).

А вы твердо уверены, что разнообразие огромно? Ваш пример про ногу некорректен: организм почти случайным образом учится управлять телом и не занимается такой ерундой, как что бы решать какие мышцы в каком порядке напрягать: у него было около двух лет в начале жизни на то, что бы выбрать оптимальную схему и ей следовать.
Ну и вообще по жизни — приведите пример анализа «огромного разнообразия и пространства возможностей»? В каждом конкретном случае работает правило прецедента: в прошлый раз в такой же (на определенном уровне обобщения) ситуации действие было такое-то, результат — такой-то. Оценочная функция определяет считать ли опыт успешным, или, как вариант — попробовать что-то новое…

Проблема создания разума не в модели, а в том как реализовать этот поиск.

Давайте наберем пару-тройку примеров, что бы можно было понять в чем проблема поиска… В глобальности модели? Но она хорошо «индексирована» и связана ассоциациями. Я пока не вижу серьезной проблемы поиска, хотя вполне вероятно, что она есть.

Вообще не хватает, конечно практической реализации… Я все хочу запилить нечто в сильно условном мире, но пока и руки не доходят и скил не тот.

Information

Rating
Does not participate
Location
Москва и Московская обл., Россия
Registered
Activity