Что на самом деле проверяет Тест Тьюринга

    Некоторое время назад я предложил сыграть в Тест Тьюринга с моим ботом Мишей. Кто попробовал, тот знает, что игрок-робот определяется элементарно. Кто не пробовал, может прочитать об этом в первом же комментарии под той статьей.

    Теперь настал момент устроить разбор полетов, рассказать об устройстве бота и сделать выводы.



    Правила игры


    Правила игры были перечислены в предыдущей статье, повторю здесь, чтобы вам и мне не бегать по ссылкам.

    1. Каждый подключившийся к боту участник может взять на себя роль игрока, отвечающего на вопросы, или судьи, эти вопросы задающего.
    2. Если участник решил быть судьей, то бот случайным образом подбирает ему игрока – либо среди людей-игроков, либо подключает робота. То есть в игре отвечающий всегда один, и судья задает вопросы только ему.
    3. Если участник решил быть игроком, то бот аналогично ищет ему в пару участника-судью.
    4. Игра поделена на туры по 5 вопросов. По окончанию каждого тура судья принимает решение, с кем он общается, с человеком или с машиной — на этом игра заканчивается. Если он не может определиться, то может начать следующий тур или сдаться, прекратив игру.
    5. Робот играет роль маленького мальчика Миши пяти лет. Чтобы судье не облегчать задачу, человеку-игроку рекомендуется тоже отвечать от имени Миши.


    С момента запуска до момента написания статьи было сыграно 256 игр (немного странно, но факт).

    Из них закончились с явным результатом, то есть обе стороны сыграли до конца очередного тура (больше одного тура никто не играл) и судья принял решение — 115 игр

    • решение «робот» — 74
    • решение «человек»- 41

    Ошибочных решений было 26, из них:

    • решение «робот» (на самом деле человек) — 15
    • решение «человек» (на самом деле робот) — 11

    Как видите, чаще человека принимали за робота, чем робота за человека.

    В итоге робот правильно определялся в (74-15)/115 = 51% игр, а робота приняли за человека в 11/115 = 9.5% игр, то есть можно уверенно сказать, что Миша-бот тест не прошел.


    Для сравнения, на конкурсе в 2012 году в 29% из 150 бесед судьи приняли бота-одессита Женю Густмана за человека, а в 2014-ом — 33% судей по результатам 300 бесед.

    Что под капотом


    Бот написан на Python и по большому счету состоит из трех модулей:

    • собственно бот с движком игры
    • диспетчер роботов
    • робот

    Основной алгоритм игры содержится в классе Game, который хранит id участников и реализует простую машину состояний:

    • Начало игры
    • Ждём вопроса от судьи
    • Ждём ответа от игрока
    • Ждём решения от судьи
    • Игра закончена


    На переходах между состояниями бот передает вопросы судьи к игроку, ответы от игрока судье. Передается только по одному сообщению и бот становится в следующее состояние, поэтому если кто пытался спросить или ответить двумя, видел, что бот это не позволяет делать.

    Когда бот получает ответ от робота, он передает ее не сразу, а с задержкой времени — это не сразу появилось, я ее добавил по замечанию galqiwi, спасибо.

    Каждое изменение состояния сохраняется в БД SQLite, на случай непредвиденных ситуаций — пропадания электросети, перезагрузки операционки или попросту хозяину бота (мне, то бишь) захотелось остановить его и что-то переделать. При новом запуске бот загружает из БД сохраненные игры, и игра продолжается.

    Далее, есть две очереди ожидания — судей, ожидающих игроков, и игроков, ожидающих судей. Когда участник начинает новую игру, просматривается соответствующая очередь, есть ли ему партнёр. Если нет, то сам участник ставится в очередь.

    В отдельном потоке живёт диспетчер роботов. Он периодически просматривает очередь судей, ожидающих игроков, и создаёт для них экземпляр робота. В нём специально сделана задержка, чтобы робот не всегда успевал перехватить судью и человек-игрок тоже имел шанс подключиться к игре. В диспетчере заложена возможность создавать различные варианты роботов, нужно просто зарегистрировать их классы. Но пока реализован всего один.

    И, наконец, модуль робота. Но прежде, чем рассказать о внутренностях робота, расскажу о базе вопросов и ответов, с которой он работает.

    Сначала я набил такой текстовый файл:

    T: Миша
    T: Меня зовут Миша
    Q: Как тебя зовут?
    Q: Как тебя звать?
    Q: Как вас зовут?
    Q: Как твое имя?
    Q: Ты кто?
    
    T: Конечно
    Q: Ты настоящий мальчик?
    
    T: Я мальчик
    T: Конечно
    Q: Ты человек?
    Q: Ты настоящий человек?
    Q: Ты живой человек?
    
    T: Я мальчик
    T: Нет, конечно
    Q: Ты компьютер?
    Q: Ты машина?

    … ну и так далее. Затем отдельной утилиткой считал их в базу данных — таблица вопросов, таблица ответов, связь между ними многие-ко-многим. Плюс табличка использованных слов с линками на вопросы. Причем слова сохранялись не в оригинальной форме, а в нормальной и с синонимами. Нормальная форма слова определялась по pymorphy2 от kmike, а синонимы к ней искались из словаря YARN, предварительно сконвертированного из XML в SQLite — словарь занял всего 22 мегабайта, а сколько удовольствия…

    Метод поиска синонимов к нормальной форме слова:

        def normalSynonyms(self,orig):
            r = self.morph.parse(orig)
            res = []
            for parse in r:
                word = parse.normal_form
                syns = self.yarn.synonyms(word)
                for g in syns:
                    words = self.yarn.words(syns[g])
                    res = res + words
            return res

    Теперь собственно робот. Вообще от робота требуется реализация лишь одного метода

    getAnswer(self, text)

    , то есть просто получение ответа на заданный вопрос. Если роботу надо хранить предыдущие вопросы и контекст, какие-то дополнительные действия, то он делает это сам. Поскольку на каждую игру создается свой экземпляр класса робота, то контексты из разных чатов не пересекаются.

    Поиск нужного ответа мой робот делает в два этапа:

    1. Проверяет, известен ли ему вопрос. Если известен, то выбирает один из подходящих ответов.
    2. Иначе разбивает вопрос на токены-слова, также находит им синонимы в нормальной форме, отбирает среди известных вопросов те, в которых есть найденные слова, и уже из найденных вопросов выбирает наиболее вероятные по количеству совпадений. И выдает подходящий ответ.


    Как видите, робот не умеет «думать» над ответом, всё, что он может ответить — это одна из заготовок, подходящая или неподходящая для очередного вопроса. Вы скажете, что это фигня, а я скажу — читайте классиков.

    "Словарь Вильяма Шекспира, по подсчёту исследователей, составляет 12000 слов. Словарь негра из людоедского племени «Мумбо-Юмбо» составляет 300 слов. Эллочка Щукина легко и свободно обходилась тридцатью."

    Правда, классики не упомянули, обладала ли Эллочка Щукина интеллектом, пусть даже искусственным. Наверное, и сами не были уверены.

    Выбор персонажа


    Как видите, простота алгоритма робота не позволяет ему поддерживать сложные диалоги, поэтому встал вопрос, какого человека, точнее персонажа, сможет имитировать робот.

    Нужен был персонаж, который может отвечать уклончиво, путаться в ответах, не стесняется повторяться. Но, с другой стороны, который был бы похож на человека.  Так как я не обеспечил робота какими-либо книжными знаниями и не снабдил его возможностью искать в интернете, то его персонаж не мог быть взрослым образованным человеком. Его область знаний должна была ограничиваться минимумом, только тем, что он сам мог видеть и понять.

    Было соблазнительно выбрать Людоедку Эллочку — а что, минимум словарного и фразеологического запаса, любой заготовленный ответ годится практически на любой вопрос. Но это было не интересно, хотелось усложнить задачу.

    Поэтому выбор пал на роль ребенка. Возраст у ребенка должен быть такой, чтобы  позволять ему связно говорить, понимать — это где-то от двух-трех лет. Он должен знать какие-то базовые вещи, но еще плохо работать с абстракциями. Например, я не вкладывал в робот калькулятор, поэтому и робот в роли ребенка не сможет посчитать «один плюс два» — так что отпадает школьный возраст и близкий к нему. Так что я взял средний возраст в пять лет, когда дети достаточно самоуверенны, но толком еще ничего не знают.

    Однако, выбрав для робота роль ребенка, я понимал, что следствием этого выбора будет необходимость, чтобы все игроки-люди так же играли роль маленького мальчика. Практика показала, что мало кто это всерьез воспринял, отвечали как хотели, только что телефонами не обменивались.

    Железо


    Осталось показать тот суперкомпьютер, на котором живет Миша-бот:


    Это Raspberry Pi 3. На хвосте к нему висит SSD, прицеплен на всякий случай, если понадобится активная работа с базами данных, но в самом роботе не используется.

    Собственно, это всё о роботе Мише.

    Размышления о Тесте Тьюринга


    За почти семьдесят лет с момента написания статьи Тесту Тьюринга нашли определение, что это бихевиористский подход, сравнительный анализ на основе поведения — поведение человека сравнивается с поведением машины. Оно, конечно, так, однако я хочу обратить внимание на другие аспекты, на которые Алан Тьюринг, похоже, не обратил внимания.

    Итак, то, что мы называем Тестом Тьюринга, было описано Тьюрингом в статье "Может ли машина мыслить?" (первая публикация называлась «Computing Machinery and Intelligence»)  и названо автором «игрой в имитацию». Если исходить лишь из её названия, можно было полагать, что игроки действительно должны имитировать поведение друг друга — человек притворяется машиной, а машина человеком. Но по замыслу Тьюринга в игре лишь машина должна подражать человеку.

    Цитата:
    "Можно  было бы  заметить, что  при «игре в имитацию»  не исключена возможность того,  что простое подражание поведению  человека не окажется для машины наилучшей стратегией.  Такой случай возможен, но я не думаю, чтобы он привел  нас к чему-нибудь существенно новому. Во всяком случае никто  не пытался исследовать теорию нашей игры в этом направлении, и  мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать  ответы, которые в соответствующей обстановке дал бы человек."

    Человеку-игроку же Тьюринг отвел роль не активного участника, который может запутывать судью своими сознательно неправильными ответами, а лишь роль образца, контрольного примера, с которым задающий вопросы будет сравнивать ответы машины. От человека ожидается естественное поведение, типичное для человека.


    Цитата:
    "Если  бы человек попытался  притвориться машиной, то,  очевидно, вид у него был бы  весьма жалкий. Он сразу выдал бы  себя медлительностью и неточностью при  подсчетах."

    Замечу, что Тьюринг не говорит, что человек не должен имитировать машину. Хотя человек может, если хочет, имитировать машину, другого человека или инопланетянина, вообще заниматься чем угодно, даже игнорировать вопросы или задавать встречные, но цель игры — получить ответ на вопрос «может ли [данная] машина мыслить?», поэтому человек здесь лишь помогает задающему вопросы в достижении цели, а не препятствует ему.

    Из ответов бота:
    "2018-10-23 13:01:53,385 186 Player2Judge Стал бы человек вести себя как машина, чтобы обмануть другого человека?"

    Подытожу — два игрока, машина и человек:

    • машина имитирует человека как можно лучше — это ее основная цель в игре
    • человек ведет себя естественно

    Лучшее качество машины


    Разобравшись с правилами, следующим шагом предположим, что мы хотим построить мыслящую машину. Как она должна работать, точнее, как она должна проявлять свои мысленные способности?

    Мы можем воспользоваться представлениями о мыслящей машине из кинофантастики. Подходит ли Джарвис из «Железного человека» под это определение? R2-D2 или C-3PO из «Звездных войн»? Дэвид из «A.I.»? Долорес Абернати из «Мира Дикого Запада»? Афина из «Земли будущего»? ВАЛЛ-И из одноименного мультфильма? Вроде про каждого из них интуитивно можно сказать, что это мыслящие машины, потому что они ведут себя осмысленно, и не похоже, что они действуют по какой-то относительно простой программе.

    Теперь проведем мысленный эксперимент — зададимся вопросом, какая из перечисленных машин скорее всего пройдет Тест Тьюринга? По условиям игры для этого достаточно ответить на вопрос, какая из машин сможет сымитировать человека так, что по его ответам его нельзя будет отличить от настоящего человека.

    Очевидно, сразу отпадут роботы R2-D2 и ВАЛЛ-И, как не умеющие разговаривать на человеческом языке, и их я предлагаю далее не рассматривать.

    Также очевидно, что в претендентах на победу окажутся машины, специально сконструированные для такой имитации — из нашего списка это Долорес и Афина. Причем если Долорес (я имею в виду её в статусе «девы в беде» в начале первого сезона) сама считает себя человеком, то Афина, напротив, вполне чётко понимает, что она робот, но может исполнить, при необходимости, имитацию на достаточно высоком уровне.

    Что же касается Джарвиса, C-3PO и Дэвида, то они тоже осознают, что они машины, и не имеют ни склонности, ни способности скрывать это от людей. Задающему вопросы не придется подлавливать их на каких-то каверзных вопросах, они и сами во всем признаются.

    И вот к чему мы пришли. Оказалось, что Тест Тьюринга пройдет машина, которая:

    • либо будет считать себя человеком и иметь соответствующие человеку воспоминания, знания и жизненный опыт;
    • либо, зная о своем происхождении, будет лгать в ответах на вопросы, имитируя человека.

    То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи —  к сознательной или к самообману. Печалька.

    В защиту Тьюринга надо сказать, что перед ним не стояла задача оценки моральных качеств машины. Он искал даже не ответ, а способ получения ответа на вопрос «может ли машина мыслить?», и это в то время (1950), когда задача создания искусственного интеллекта казалась скорее фантастикой, чем теоретической наукой. На этом фоне «игра в имитацию» была значительным шагом вперёд в понимании, как оценивать искусственный интеллект.

    Цитата:
    "… нас интересует не то, будут ли все цифровые вычислительные машины хорошо играть в имитацию, и не то, будут ли хорошо играть в эту игру те вычислительные машины, которыми мы располагаем в настоящее время; вопрос заключается в том, существуют ли воображаемые вычислительные машины, которые могли бы играть хорошо."
    Поделиться публикацией

    Комментарии 221

      +14
      Я не боюсь компьютера, который пройдет тесть Тьюринга.
      Я боюсь компьютера, который его намеренно завалит.
      (с) Старый мемас
        –1
        особенно под игроком морочить голову другим судьям…
        +1
        Почему люди думают, что машина которая пройдет Тест Тьюринга будет мыслить? Мы может натренировать нейросеть на идеального собеседника, но будет ли она мыслить? По моему она просто будет уметь работать со словами не понимая их смысл, а просто зная какое слово нужно поставить, чтобы пройти тест.
          +9
          Потому что duck typing, если машина отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек, реализует человеческий интерфейса, то это, вероятно, и есть утка человек.
            –2
            Опять же нейросети. Сделать это все может и в данный момент трудно, но через лет пять это будет вполне возможно. Машина не понимает что значат эти слова, она просто делает свою работу.
              +8
              А вы понимаете, что значат ваши слова сейчас, или просто делаете свою работу?
                0
                Понимаю. Только вот в понимании главное не слова, то тот объект на которые они ссылаются. Мне понятны слова, но что ещё более важное мне понятно что они значат. Машина же манипулирует только словами, а что они значат нет. Она может хорошо отвечать на вопросы, задавать свои. Она знает как построить предложение и из чего построить предложение, но что оно значит нет. Это просто хороший чат бот.
                  +8
                  Попробуйте меня убедить, что вы не просто хороший чат бот, который только манипулирует словами.
                    0
                    Это просьба или команда?
                      0
                      А вот интересно, допустим, он попробует. Вы скажете, что нет, не убедил. Как он сможет определить, что вы не обманываете и он действительно не убедил?
                      +1
                      Разве машину нельзя натренировать, чтобы она понимала значение слов?
                        0
                        Можно. В зависимости от реализации её понимание может быть как крайне примитивным — «стол — это хорошо», «стул — это плохо», так и куда более сложным, но в любом случае будет отличаться от вашего. И что это даст в понимании, может ли она мыслить?
                          +1
                          Мышлением, понятно, это еще не будет. Тут вопрос в другом. Что такое мышление? Может ли человек обьяснить, как он мыслит? Почему он мыслит так, а не иначе? Могут ли мыслить животные? Почему люди, растущие в одинаковых условиях, могут кардинально отличаться в характере и мыслительных процессах? Для того, чтобы создать имитацию разума, сначала надо понять сам разум.
                            0
                            Может ли человек обьяснить, как он мыслит?

                            Смотря какой человек и кому. AlexeyR сможет, вероятно. Мой сосед-прораб — вряд ли, но у него такого вопроса и не возникает.
                            Для того, чтобы создать имитацию разума, сначала надо понять сам разум.

                            Тут у кого какой подход — одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке, а скорее в нескольких — и мы неожиданно выясним, что человеческий способ мышления не единственно возможный.
                              +2
                              sshmakov
                              одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке,
                              Так думали математики лет 100 назад, «доказывая» непротиворечивость математики. Не сошлось.

                              От расстройства кто-то стал «изобретать» новую логику — выкинули принцип «исключение третьего», кто-то просто перестал заниматься математикой.

                              Воз и ныне там — не сошлось.

                              Последняя (крайняя) гипотеза — не сходится потому что нет определения что такое понимать?

                              alfixer
                              Может ли человек обьяснить, как он мыслит?
                              Может.
                              Есть в мозгу «черный ящик» — аналог ИИ — в него поступают запросы (неявно) — он выдаёт ответы (асинхронно, бывает и через минуту, а бывает — «надо переспать с этой мыслью» — или иначе говоря — «утро вечера мудренее»)

                              Сама передача вопроса «черному ящику» не осознаётся — исключая возгласа к небесам — «Помоги, мне всемогущий ....»

                              Приём же ответа от «черного ящика» также не осознаётся, либо всё же регистрируется возгласом типа «эврика!» или «осенило меня братцы!».

                              Сознательная же часть мышления заключается в следовании «житейской логики» — не путать с логикой Аристотеля.

                              Пример:
                              Вопрос — Каждую субботу ваш сосед ходит в баню. Сегодня суббота. Пойдёт ли сосед в баню?

                              Единственно правильный ответ, используя логику Аристотеля: Да.

                              Один из возможных ответов, используя «житейскую логику»: Нет, он болен.

                              В жизни Логики нет. (С) — Не потому что типа так, а потому что — откуда ей в Природе то взяться то?

                              Трудно сейчас сказать, зачем Аристотель придумал (изобрёл) свою Логику и зачем её хранили и изучали в средние века арабские учёные?

                              В Европе логика Аристотеля появилась примерно в 12 веке (в тамошних универах) с целью… хоть как-то отделить ереси, кои ранее отделяли обычно силой — а то как?

                              Ну, и напоследок — человек отличается от иных животных не «чёрным ящиком», поди — «чёрные ящики», поди, многих животных «мощнее» (но как это измерить?) чем у человека.

                              Да и ИИ вскорости превзойдёт по «мощности» (к примеру, в количестве обработки картинок в секунду — нахождения чего-то на картинке), потом подключится «специализированный ИИ» который будет «выводить» заключение на «логическом языке» (или на языке «житейской логики», по вкусу) на приемлемое (опять, такие, «степень разжёвывания» будет по вкусу) количество текста (страниц).

                              Конечно будут возгласы типа — Как ИИ до этого додумался? — Как и сейчас мы можем так возгласить, глядя на гениальные тексты какого-нибудь гения (особенно если гений уничтожил все свои черновики).

                              Короче — «чёрный ящик» у животного есть. Нет этого самого «толмача» с «переводом» на «житейскую логику», которая одна только и осознаётся то! Ну, типа так считается наукой сейчас, поди.

                              А что есть «осознание» или «понимание»? Тут на помощь приходит известная "Китайская комната" (вариант с сидящим там уже разумным(!) существом, общающийся с внешним для него миром посредством, например, терминала и только терминала — а как иначе то сознательно(!) общается наш мозг то с внешним миром то?).

                              Анализ «Китайской комнаты» порождает два основных вывода:

                              1) Ребёнок (даже при условии что он изначально хоть как-то наделён разумом или способностями к нему) не может понять китайский язык (и любой иной язык, обобщая)

                              2.) Китайцы признают человека сидящего в «Китайской комнате» и общающегося с ними через терминал на китайском как человека понимающего китайский язык. Но — как только китайцы узнают КАК этот разумный человек научился китайскому языку, то они вмиг скажут что китайского языка он НЕ ПОНИМАЕТ!

                              Оба вывода есть парадоксальны. (С)

                                0
                                Черный ящик-подсознание?
                                  +1
                                  Китайская комната Сёрла есть не что иное, как экспертная система. ЭС имеет два фундаментальных отличия от человеческого ИИ:
                                  1) Она неизменна (не ответит на вопрос «каким был предыдущий вопрос»). Этот вопрос решаем, но очень сложно. В инструкциях может быть указание вести историю переписки и указание как с ними обходится. Но такие указания могут изменить логику работы комнаты (привет недавней статье о многоуровневых машинах тьюринга в наших устройствах).
                                  2) Была составлена заранее понимающим китайский язык агентом.

                                  Выводы:
                                  1) Общение с простой комнатой покажет полное отсутствие понимания с ее стороны.
                                  2) Общение с улучшенной комнатой неотличимо от общения с живым агентом, составившим внутренние инструкции.
                                  3) Понимает не внутренний аппарат (нейрон), а вся система имеющая интеллектуальное начало.
                                    0
                                    1) Она неизменна (не ответит на вопрос «каким был предыдущий вопрос»).

                                    Китайская комната изменяется.


                                    2) Была составлена заранее понимающим китайский язык агентом.

                                    Человеческий интеллект этому соответствкет — языку вас учил тот, кто знал это язык.

                                      0
                                      1) Оригинальная комната Сёрла неизменна.
                                      2) Мой аргумент придется долго объяснять. Суть в абстрагировании. Мы можем поместить комнату и автора комнаты в одну большую супер-комнату. При получении новой записки автор редактирует книгу и дает ее и записку в под-комнату. С под-комнаты вылазит ответ и он передается на выход супер-комнаты. Супер-внешний наблюдатель будет думать, что общается с китайцем, хотя китаец ему не отвечает, а его суб-комната действует по алгоритму.
                                      Человеческий интеллект соответствует супер-комнате, а не комнате Сёрла. В этом отличие.
                                        0
                                        1) Оригинальная комната Сёрла неизменна.

                                        С чего бы? В оригинальном описании, вроде бы, нет никаких ограничений на наличие памяти.


                                        Человеческий интеллект соответствует супер-комнате, а не комнате Сёрла. В этом отличие.

                                        Так супер-комната и комната ничем не отличаются в вашем описании, у них одинаковое поведение.

                                          0
                                          1) в оригинальном эксперименте человек внутри рассматривает только входящий текст, инструкции он не может поменять. Данная комната не является полной по Тьюрингу. В машине Тьюринга вообще нет разницы между программой и данными. В «правильном» эксперименте с комнатой инструкции и вопрос состоят из одинаковых символов и могут спокойно подаваться на одной бумажке.
                                          (другие интерпретации комнаты тоже не решают вопрос, я же написал, что долго объяснять)
                                          2) Вы совершаете фундаментальную ошибку большинства людей. Нужно рассматривать не исполнение алгоритма, а его создание. Супер-комната генерирует алгоритм. А суб-комната его исполняет. Вот и всё!
                                            0
                                            P.S. первый пункт из-за ошибки в логике людей уходит в бесконечную рекурсию в обе стороны. Читайте «Гедель, Эшер, Бах: эта бесконечная гирлянда» Хофштадтера Дагласа.
                                              0
                                              1) в оригинальном эксперименте человек внутри рассматривает только входящий текст, инструкции он не может поменять.

                                              В смысле не может? как раз инструкции он и применяет, чтобы сформировать ответ.


                                              В «правильном» эксперименте с комнатой инструкции и вопрос состоят из одинаковых символов и могут спокойно подаваться на одной бумажке.

                                              С чего вы взяли?


                                              Супер-комната генерирует алгоритм. А суб-комната его исполняет. Вот и всё!

                                              Так генерация алгоритма есть исполнение алгоритма генерации.

                                                0
                                                О чем с вами беседовать, если вы:
                                                1) Не читали оригинальные утверждения Тьюринга.
                                                2) Не знаете что такое вычисления, алгоритм и абстрагирование.
                                                3) Не изучали другие источники, вроде Хофштадтера, Пенроуза и других.
                                                  0
                                                  1) Не читали оригинальные утверждения Тьюринга.

                                                  При чем тут Тьюринг, если мы говорим о китайской комнате?


                                                  Не знаете что такое вычисления, алгоритм и абстрагирование.

                                                  Конечно же, знаю.


                                                  Не изучали другие источники, вроде Хофштадтера, Пенроуза и других.

                                                  То, что несет Пенроуз, всерьез воспринимать невозможно. А раз вы Хофштадтера ставите в тот же ряд — это и хорошо, что я его не изучал.


                                                  Я вам задал пару простейших вопросов, ответа не услышал, а услышал кококо ad hominem.
                                                  Уровень владения вами предметом теперь совершенно ясен.

                                                    0

                                                    Давайте по пунктам.
                                                    Китайская комната придумана как доказательство отсутствия понимания у машин, которые претендуют на это. Тьюринг предложил тестировать машины, задавая им вопросы. Серл же утвержал, что прошедшие тест машины ничего не понимают, например отвечают на китайском, даже не зная язык. Этот эксперимент имеет грубые ошибки:
                                                    1) смешивание уровней абстракций. Эквивалент КК по отношению к людям: «человек тупой, потому что нейрон не знает китайский язык». Это тупое утверждение само по себе, неприменимо к людям и тем более к машинам. Внешний испытатель спрашивает комнату, а не внутреннего исполнителя, так что на китайском может отвечать комната в целом. Абстрагирование как раз в том, что высший уровень не знает о низшем. Комната "не знает", сидит внутри человек или железка, инструкции на русском или в двоичнос коде. Нельзя смешивать разные уровни.
                                                    2) Серл забыл, что инструкции были составлены! Они имели начало. Автор инструкций понимает китайский. Так что эксперимент можно рассматривать как общение с автором, а не с внутренним исполнителем. Эквивалент из быта: "китаец отправил СМС и потом получил ответ. Но не может же телефон понимать китайский, как же он ответил?"

                                                      0
                                                      Серл же утвержал, что прошедшие тест машины ничего не понимают, например отвечают на китайском, даже не зная язык. Этот эксперимент имеет грубые ошибки:

                                                      Ошибки имеет не эксперимент, ошибки имеет вывод "комната не разумна", хотя на самом деле она вполне разумна, ведь именно это и показывает эксперимент — комната демонстрирует разумное поведение.
                                                      Ошибка Серла в игнорировании результата эксперимента.


                                                      Что такое вычисление? Это физический процесс.

                                                      Не всегда.


                                                      Об интерфейсе забывают 99.999% говорящих об ИИ, а ведь это необходимая(!) вещь для вычислений.

                                                      Конечно же, нет. Никакого интерфейса для вычислений не нужно. Интерфейс нужен для взаимодействия с вычислительным устройством. Но не для работы самого вычислительного устройства (не для проведения вычислений, с-но).


                                                      КК имеет только табличку вопрос-ответ. Сами инструкции не меняются в процессе.

                                                      Я повторяю вопрос — с чего вы это взяли? Почему вы решили что не может быть инструкций вида: "инструкция Х: внесите изменения Y в инструкцию Z"?


                                                      И даже если это так — это совершенно бессодержательно, даже если вдруг в оригинальной постановке был явный запрет на память, то правильнее считать, что его не было.


                                                      Имея эти свойства, можно ли запустить на МТ интеллект?

                                                      Ответ "да" очевиден просто в силу того, что человеческий мозг с точки зрения вычислимости не сильнее МТ.


                                                      1) МТ низшого уровня, которая для решения задачи запускает другие МТ внутри себя. Если данная МТ зависла — убираем ее и запускаем другую.

                                                      Невозможно определить, зависла МТ или нет.


                                                      И никаких "уровней МТ" тоже нет, это вы выдумали что-то.

                                                        0

                                                        В самом оригинале эксперимента Серла внутрь комнаты подано только 3 бумажки: символы, правила и вопрос. Черновиков нет! Один из его критиков упомянул о "черновиках", но если они не предусмотрены в правилах, то их невозможно использовать в рамках правил. КК не является полной по Тьюрингу. И вообще, Серл невежественно рассуждает на уровне школьника и его комната популярна только у тех, кто сам застрял там. Серл смешивает уровни, неправомерно применяет аналогии и манипулирует понятиями, доходя даже до утверждения, что термостат не воспринимает температуры, а человек вообще как вроде "сверхестественный".


                                                        Дальше не вижу смысла объяснять вам. Вы не знаете о вычислимости и алгоритмичности, не знаете принципы вычислений, и не поняли что такое МТ.

                                                          0
                                                          Вы не знаете о вычислимости и алгоритмичности, не знаете принципы вычислений, и не поняли что такое МТ.

                                                          В отличии от вас, я все это прекрасно знаю.


                                                          Ваши же знания вполне себе демонстрирует оговорка про: "если МТ зависла, то вырубаем ее".
                                                          Видимо, википедия и Хофштадтер — не лучшие источники. Попробуйте на досуге почитать учебник.


                                                          КК не является полной по Тьюрингу. И вообще, Серл невежественно рассуждает на уровне школьника и его комната популярна только у тех, кто сам застрял там.

                                                          Тогда какой смысл обсуждать исходную постановку? Пусть вместо комнаты Серла будет комната Серла 2.0, с памятью. Содержательно это ничего не меняет.

                                                            0
                                                            если МТ зависла, то вырубаем ее

                                                            Как раз вы ничего не поняли. Сколько раз я говорил о уровнях системы, а вы продолжаете гнуть свою линию. Придется ткнуть вашим носом в конкретные слова:
                                                            Машина Тьюринга может исполнять любую другую Машину Тьюринга — полнота по Тьюрингу . Хотя никакой уровень не знает, что он «завис», но ведь есть уровень ниже, который может это узнать! Признаки зависания: следующий шаг не отличается от предыдущего, возврат в точности к одному из шагов, неожиданно долгое выполнение. ИЗУЧИТЕ БЛИН МАШИНУ ТЬЮРИНГА, ПРОБЛЕМУ ОСТАНОВА И ТЕОРЕМУ О НЕПОЛНОТЕ ГЕДЕЛЯ. Добавляя уровень выше, мы решаем проблему останова в МТ уровня ниже и доказываем недоказуемую теорему в формальной системе уровня ниже.

                                                            Попробуйте на досуге почитать учебник.
                                                            Какой учебник? Школьный? Ну доставайте из своего портфеля.

                                                            Пусть вместо комнаты Серла будет комната Серла 2.0, с памятью. Содержательно это ничего не меняет.

                                                            Комната Серла 2.0 = Машина Тьюринга. В таком случае лучше уже обсуждать саму машину, а не комнату.
                                                              0
                                                              Признаки зависания: следующий шаг не отличается от предыдущего, возврат в точности к одному из шагов, неожиданно долгое выполнение.

                                                              Видите ли в чем дело, если бы зависание гарантированно приводило к циклам, то задача останова была бы алгоритмически разрешимой — достаточно было бы залогировать все состояния и сравнивать с ними. Но проблема именно в том, что программа может зависнуть при отсутствии каких либо повторов в состоянии. Тривиальный пример — машина Тьюринга, которая на каждом смешает ленту вправо и записывает единицу, повторяя эти действия до бесконечности. Повторного состояния не возникнет никогда, но эта МТ, очевидно, висит.


                                                              Нет никакого способа определить, висит производная программа или нет. Не важно в каком вы там "уровне" что собираетесь делать. Смиритесь с этим.


                                                              Добавляя уровень выше, мы решаем проблему останова в МТ уровня ниже и доказываем недоказуемую теорему в формальной системе уровня ниже.

                                                              Нет, это так не работает.


                                                              ИЗУЧИТЕ БЛИН МАШИНУ ТЬЮРИНГА, ПРОБЛЕМУ ОСТАНОВА И ТЕОРЕМУ О НЕПОЛНОТЕ ГЕДЕЛЯ.

                                                              Повторюсь, в отличии от вас, я все это знаю. А вы — не знаете и говорите глупости.


                                                              Какой учебник? Школьный?

                                                              Нет, университетский. По математической логике, теории вычислимости, теории алгоритмов.
                                                              Если осилите — перестанете позориться, говоря глупости с пафосным умным видом.


                                                              Комната Серла 2.0 = Машина Тьюринга. В таком случае лучше уже обсуждать саму машину, а не комнату.

                                                              Зачем? У нас есть некий мысленный эксперимент — китайская комната, в которой все, что надо есть. Ее и обсуждаем.

                                                                0
                                                                Вы утверждаете, что если завис фотошоп, то нужно перезагружать компьютер. На самом деле ОС определяет, что задача не отвечает за разумное время. Какая бы ни была была задача, ОС никогда не зависнет (в идеале). Будь то while(true){}, или «на каждом смешает ленту вправо и записывает единицу».
                                                                Я привел 3 признака зависания. Не обязательно это одинаковое состояние системы. Дело в том, что скорость выполнения конечная (бесконечная скорость решает все вопросы перебором). Так что в каждой задаче есть разумное время выполнения (даже при первом выполнении). Например, машина может давать новой задаче время в одну минуту, если задача и близко не решена, то дается больше или меняет алгоритм.

                                                                Нет, это так не работает.

                                                                Как раз это суть формальных систем. Иначе вы не могли бы знать, что утверждение истинно, но недоказуемо!

                                                                китайская комната, в которой все, что надо есть. Ее и обсуждаем.

                                                                В ней нет полноты по Тьюрингу. Если ее добавить, то она превращается в Машину Тьюринга. Исходя из пункта 1 (выше) можно рассматривать только Машину Тьюринга.
                                                                  0
                                                                  Я привел 3 признака зависания. Не обязательно это одинаковое состояние системы. Дело в том, что скорость выполнения конечная (бесконечная скорость решает все вопросы перебором). Так что в каждой задаче есть разумное время выполнения (даже при первом выполнении).

                                                                  Я вам для любого количества операций могу легко написать МТ, которая работает дольше и при этом завершается. Так что не работает такой критерий. И никакой не работает.


                                                                  Как раз это суть формальных систем. Иначе вы не могли бы знать, что утверждение истинно, но недоказуемо!

                                                                  Видите ли, в чем дело, из теоремы Геделя о неполноте никак не следует, что невыводимое утверждение истинно. Наоборот, из нее в сумме с теоремой Геделя о полноте следует, что существует интерпретация, на которой утверждение истинно, и интерпретация, на которой оно ложно. Так что мы ничего не можем утверждать об истинности невыводимого утверждения. Именно потому оно и невыводимо, с-но говоря. То есть, не "знаю что истинно, но недоказуемо", а "знаю, что может быть как истинно, так и ложно, потому — недоказуемо".
                                                                  Это во-первых. А во-вторых — теорема Геделя о неполноте не требует каких-то систем "более высокого уровня".

                                                                    0
                                                                    Знаю что истинно, но недоказуемо
                                                                    В этом и суть теоремы Геделя. Вы думаете, что формальная система неизменна и существует независимо. На самом деле в любую ФС можно расширять. Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.
                                                                    Я вам для любого количества операций могу легко написать МТ, которая работает дольше и при этом завершается.
                                                                    Отлично, вы нашли неэффективный алгоритм, бросаем выполнять и ищем другой. Не нашелся? Придется выполнять, че поделаешь. Блин, это настолько очевидно! Люди делают так каждый день в любой задаче. Повторяю в десятый раз — это полнота по Тьюрингу.
                                                                      0
                                                                      В этом и суть теоремы Геделя.

                                                                      Еще раз, невыводимое по Геделю утверждение истинным не является. Прочитайте про разницу между истинностью и выводимостью.
                                                                      Вы пытаетесь рассуждать об области, в которой практически не разбираетесь, и по-этому говорите безграмотные вещи, от которой людям, которые разбираются, становится смешно. Снизьте уровень пафоса и почитайте учебник по математической логике, все-таки. Википедия и художественная литература — не лучший источник для образования.


                                                                      Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.

                                                                      Только систему вы можете расширить как для доказательства утверждения "А", так и для доказательства "! А".
                                                                      В итоге у вас есть три разные системы — в одной ни "А" ни "! А" не выводимо (с-но существуют интерпретации как с ложными так и с истинными "А"), во второй выводимо "А" (существуют интерпретации только с истинными "А") и в третьей выводимо "! А "(существуют интерпретации только с ложными А).


                                                                      Отлично, вы нашли неэффективный алгоритм, бросаем выполнять и ищем другой. Не нашелся? Придется выполнять, че поделаешь.

                                                                      Ну то есть никакого способа определить, зависла программа, или нет, не существует. С чего мы и начали.

                                                                        0
                                                                        По вашему, есть одна формальная система и она является законченной и неизменной. Но на самом деле, мы можем придумать любую произвольную формальную систему. Какая из них будет самая «правильная»?
                                                                        И хватит приписывать мне то, что я не утверждал:
                                                                        невыводимое по Геделю утверждение истинным не является.

                                                                        Я сказал другое: «Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.» В рамках конкретной ФС есть утверждение X, которое невозможно вывести. Но расширив данную ФС, мы доказываем Х. Будь это невозможно узнать, Геделя не доказал бы свою теорему! Доказательство видимо только с высоты птичьего полета, но никак не внутри ФС.
                                                                        Невыводимость (неопределенность) существует только внутри ФС. Вы же, зачем-то, переносите данное утверждение на всю Вселенную.

                                                                        Ну то есть никакого способа определить, зависла программа, или нет, не существует. С чего мы и начали.
                                                                        Как раз это я начал именно с этого: " МТ не знает, остановится ли заданный алгоритм". Неясно зачем, вы начали опровергать мои слова таким же утверждением.
                                                                        Суть в другом, подумайте над следующим: вас просят вывести невыводимое утверждение и решить парадокс лжеца одновременно. Вы зависли от ТАКОЙ нагрузки? Нет! Ваш мозг не обрабатывает эти утверждения в реальном режиме, а запускает их в «песочнице» или «виртуалке» и смотрит со стороны на процесс. Долго всё расписывать, я уже устал повторять. Мое последнее утверждение и я ухожу с разговора.
                                                                        1) Запускаем определенную виртуалку.
                                                                        2) Определяем зависание по заданным критериям (я привел 3).
                                                                        3) п.1 пока не найден нужный алгоритм.
                                                                        О проблеме останова «главного» уровня даже не хочу слышать, если заикнетесь — минус в карму, детский сад прям.
                                                                          –1
                                                                          По вашему, есть одна формальная система и она является законченной и неизменной.

                                                                          Почему одна? Их много разных.


                                                                          Какая из них будет самая «правильная»?

                                                                          Нету такого понятия как "правильная" формальная система. У формальных систем есть много разных свойств, но свойства "правильная" среди них — нет.


                                                                          Я сказал другое: «Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.»

                                                                          Зачем?


                                                                          В рамках конкретной ФС есть утверждение X, которое невозможно вывести. Но расширив данную ФС, мы доказываем Х.

                                                                          Теорема Геделя никак не связана с доказательством Х в какой-то более широкой системе.


                                                                          Будь это невозможно узнать, Геделя не доказал бы свою теорему!

                                                                          Без "бы". В доказательстве Геделя по факту не используется никаких "доказательств в более широкой системе".
                                                                          Давайте сперва вы ознакомитесь с этим доказательством, а потом будете о нем рассуждать? Вы ведь его не читали. Зачем вы говорите о доказательстве, с которым совершенно незнакомы?


                                                                          Вы же, зачем-то, переносите данное утверждение на всю Вселенную.

                                                                          Я ничего не говорил ни о каких вселенных.


                                                                          1) Запускаем определенную виртуалку.
                                                                          2) Определяем зависание по заданным критериям (я привел 3).

                                                                          И в п.2 у вас проблема, потому что вы не можете определить зависание при помощи указанных вами критериев. Конец истории.


                                                                          О проблеме останова «главного» уровня даже не хочу слышать

                                                                          Нету никакого "главного" или "не главного" уровня. Есть один единственный уровень, и проблема останова неразрешима. Конец истории.


                                                                          Мое последнее утверждение и я ухожу с разговора.

                                                                          Жаль, я был бы не против еще посмеяться над вашей воинствующей безграмотностью.

                                                        0
                                                        2) Серл забыл, что инструкции были составлены! Они имели начало. Автор инструкций понимает китайский. Так что эксперимент можно рассматривать как общение с автором, а не с внутренним исполнителем.

                                                        А вы уверены, что Серл забыл? Может он под автором инструкции понимал Создателя, тогда КК доказывала неосуществимость ИИ.
                                                          0

                                                          Нет, он не учел, что алгоритм был составлен. Исполнить алгоритм может и кирпич, но вот правильно СОСТАВИТЬ может только интеллект.

                                                        0

                                                        Дальше изучаем.
                                                        Машина Тьюринга (МТ). Это исполнитель алгоритмов. Машина заведомо понимает символы на ленте, но символы это низкий уровень и говорить об интеллекте очень рано.
                                                        МТ абстрактная. В реальности экземпляр МТ реализуют железом.
                                                        Что такое вычисление? Это физический процесс. По сути и кирпич может считать, ведь в нем происходят разные процессы (тепловые например). Чтобы кирпич стал экземпляром МТ ( с точки зрения людей) нужен интерфейс. Об интерфейсе забывают 99.999% говорящих об ИИ, а ведь это необходимая(!) вещь для вычислений.
                                                        Итак, по Тьюринг утверждал, что его машина сможет быть неотличимой от человека. Так ли это? Многие ученые скажут нет, причина — неалгоритмичность и невычислимость процессов мозга. Аналоговые процессы невозможно моделировать дискретными состояниями. Будут неизбежные потери точности. Так что мозг нельзя оцифровать. Но это не значит, что интеллект присущ только человеку. Возможно стоит работать с самим интеллектом, а не с мозгом? Это же разные уровни. Можно ли заменить низкий уровень так, чтобы верхний не заметил? Или может верхний уровень сделать другим?

                                                          +1

                                                          Идем еще дальше.
                                                          Говоря о КК и о МТ мы говорили, что они выполняют инструкции. Рассмотрим более подробно.
                                                          КК имеет только табличку вопрос-ответ. Сами инструкции не меняются в процессе. Так что КК не годится даже для элементарных задач.
                                                          МТ же имеет кучу интересных свойств:
                                                          1) На одной МТ можно запустить другую МТ (вообще неограниченная рекурсия).
                                                          2) МТ выполняет любой валидный алгоритм. Но…
                                                          3) МТ не знает, остановится ли заданный алгоритм (эквивалент неполноты Геделя в мате).
                                                          4) МТ может попасть в бесконечный цикл.


                                                          Имея эти свойства, можно ли запустить на МТ интеллект? Сторонники сильного ИИ считают, что да (я тоже).
                                                          По очереди:
                                                          п.1 дает МТ возможность работать на любом уровне, имея внизу только 2 разных символа. Может играть в шахматы и переводить с китайского. И главное — может запускать «песочницы».
                                                          п.2 дает возможность… вычислять.
                                                          п.3 обычная ограниченность формальных систем, которая иногда не дает машинам закончить задачу.
                                                          п.4 смертельный номер, отсюда уже не выйти.
                                                          Чтобы реализовать интеллект в МТ учитывая эти пункты, нужно всего лишь:
                                                          1) МТ низшого уровня, которая для решения задачи запускает другие МТ внутри себя. Если данная МТ зависла — убираем ее и запускаем другую. Иерархрия может составлять сотни нечетких уровней. Обобщая все это мы имеем ответ на главный вопрос:
                                                          Интеллект это система, которая ищет алгоритм для решения задачи (Система может быть неалгоритмической (аналоговая/квантовая) или алгоритмической (запущена на МТ).

                                                            0
                                                            Сильно. Последнее утверждение вообще класс. Но 3 и 4 совсем не проблема для любых машин. А человеческий мозг — тот не останавливается ни на секунду. Важна не точка останова и не выход из цикла, а результаты, которые выдает программа в процессе работы, ведь после её завершения всё, что обычно можно получить от программы, это errorlevel.
                                                              +1
                                                              Интеллект это система, которая ищет алгоритм для решения задачи

                                                              Подумав ещё, решил, что этого мало. Кот тоже ищет решение задачи, как украсть котлеты — считать ли его интеллектуалом?

                                                              Предлагаю добавить к вашему определению "[задачи], не дающей немедленной выгоды, и которую система сама себе поставила".
                                                                0
                                                                «Уровень» интеллекта недискретная величина. Кто-то более, кто-то менее.
                                                                Общепринято, что люди обладают интеллектом. Младенец тоже человек. Следовательно младенец интеллектуал? Младенцы умеют намного меньше, чем некоторые животные. Так что можно утверждать, животные обладают неким минимальным интеллектом.

                                                                Ваше второе замечание очень важное. Я назвал это «теорема о неполноте интеллекта». Дело в том, что люди стремятся удовлетворить определенные потребности (максимизация функции), но в какой период времени смотреть? Чтобы было хорошо через год? Через десять лет? Через сто лет? Допустим, люди не умирают. Но есть такое действие, которое приносит огромную удовлетворенность сейчас, а через триллион лет убивает. Теперь думаем — максимизировать функцию сейчас или потом. Если сейчас, то потом уже не сможем и интеллект провалил задачу. Если потом, то так умрем с голоду сейчас. Снова интеллект проиграл.
                                                                (я очень неясно написал, но это дело можно строго формализировать и применить к ИИ)
                                                                  0
                                                                  Общепринято, что люди обладают интеллектом. Младенец тоже человек. Следовательно младенец интеллектуал? Младенцы умеют намного меньше, чем некоторые животные. Так что можно утверждать, животные обладают неким минимальным интеллектом.

                                                                  Поскольку у нас всё ещё нет определения интеллекта, то утверждать здесь нечего.

                                                                  Дело в том, что люди стремятся удовлетворить определенные потребности (максимизация функции), но в какой период времени смотреть?

                                                                  Нет, ни на грамм. Могу посочувствовать математике, но люди не являются идеальными объектами, стремящимися максимизировать функцию удовлетворения потребностей. Наши действия чаще всего не рациональны, не ведут к выигрышу, ни к личному, ни к общественному, ни в краткосрочной перспективе, ни на более отдаленный срок. Для признания интеллекта это всё не нужно. Достаточно знать, что задачу он поставил себе сам, и не основываясь на потребностях.

                                                                  (я очень неясно написал, но это дело можно строго формализировать и применить к ИИ)

                                                                  И тогда только формалисты будут им пользоваться для определения ИИ. Формального ИИ, замечу. А понятие искусственного интеллекта не количественное, а качественное, субъективное, а не объективное.
                                                                    0
                                                                    Я пока думаю над более строгим утверждением. Сейчас приведу более практичный пример. Очень идеализированный пример, будем считать, что других вариантов заведомо нет.
                                                                    Итак, объект размером с Луну влетит в Землю через 100 лет. Чтобы его отклонить, нужно отправить туда множество ракет. Но изготовление и запуск ракет приведет к уничтожению экологии, а это приведет к уничтожению всего живого. Эта задача даже не моральная дилемма. Это пример задачи, которую не может решить интеллект.
                                                                    Аналогичный математический пример тоже будет нереашем никаким алгоритмом.
                                                +1
                                                alfixer
                                                Черный ящик-подсознание?
                                                Так как у животных нет сознания, а есть «Черный ящик», то ответ на ваш вопрос в общем отрицательный.
                                                Да и кроме «сознания» и «подсознания» есть "пограничные состояния" — например:
                                                — иногда вы осознаёте что вам снится, но не можете никак повлиять ни на содержание вашего сна, ни на его анализ. Это уже НЕ «чёрный ящик» и ещё не «сознание».
                                                — иногда вы осознаёте что делаете что-то постыдное, нехорошее, вредное или ужасное, но не в силах сами перестать это делать.

                                                DjSapsan
                                                Китайская комната Сёрла есть не что иное, как экспертная система.
                                                О «китайской комнате» столько написано…

                                                Моя современная интерпретация проста:

                                                Разумного человека посадили в комнату и он общается с внешним миром участвуя в китайском чате посредством текстового терминала на котором можно набирать только китайские иероглифы.

                                                Он может создавать базы данных, программировать их, составлять программы, анализировать как ему угодно текст китайского чата, записывать его, изучать, воспроизводить на чём угодно, сортировать, создавать сети ИИ и базы знаний.

                                                Важно что он разумен и чат китайский (китайский — чтобы он не мог сопоставить никаких аналогий между теми языками что он знает и текстом в китайском).

                                                Он разумен — означает, что он не программа и не бот, то есть он заведомо изначально может понимать , чтобы под этим слово не понимали, тут это не важно.

                                                Вначале, наблюдая за чатом — он его изучает, отмечает повторы, появления тех или иных персонажей по времени, их текст, анализируют что они пишут и что им отвечают.

                                                Китайских персонажей не должно быть уж много — хватит и пару-тройки китайцев в чате.

                                                Со временем он робко начнёт вмешиваться в китайский чат, возможно впопад или невпопад.

                                                С течение большего промежутка времени ничего не мешает ему полноценно участвовать на равных в беседах в этом китайском чате. Китайцы принимают его за своего.

                                                Как это возможно?

                                                1) Используя свою отличную память или написанный им (или только натренированный им) ИИ, он ловко и к месту вставляет свои иероглифы в беседу в китайском чате. — Но понимает ли в этом случае он китайский? — Ответ — НЕТ! (Часто в жизни мы видим «зубрилку» сдающего экзамен на отлично, но так, по нашему мнению(!), и не понявшему почти ничего или вовсе ничего).

                                                2). Он решил вписаться в китайский чат используя уже имеющиеся у него знания. Какие? — Разнообразные:
                                                — Люди приходят утром и уходят поздно вечером.
                                                — При встрече люди здороваются, а при уходе прощаются (кроме англичан)
                                                — Вначале беседы люди обсуждают… погоду.
                                                — Когда слова становятся короче, это часто означает, что люди начинают ругаться, доходят до «Гитлера», обзывая друг друга «фашистом».
                                                — когда текст в чате разрастается, то это часто означает, что люди уходят в философские беседы, где часто вспоминают «китайскую комнату».
                                                — и т.п.

                                                И… он вписался в китайский чат — на одном своём воображении, что он знает что же пишут эти китайцы в своём чате! — но этот его "выдуманный мир китайского чата" попахивает солипсизмом!

                                                Ну, а теперь осознайте, что фактически любой ребёнок и есть тот человек, который «заперт» с рождения в «китайской комнате», общаясь с внешним миром только и только посредством «терминала», в котором воспитывающие его родители пишут «китайские (для ребёнка любой язык как для нас китайский) иероглифы».

                                                  0
                                                  Куча отформатированного текста, и я не совсем понял вашу позицию. Вы утверждаете, что и человек ничего не понимает? Это из рода ванили «Любви не существует, это всего лишь химические реакции в мозгу». Не нужно заниматься редукционизмом! Если человек последовательно действует согласно входящей информации, то значит он ее понимает. Если искусственная система делает так же, то она тоже понимает. Не нужно иметь 100% одно и тоже состояние мозга/ИИ для понимания, главное последовательность в ответах/действиях.
                                                    0
                                                    DjSapsan
                                                    Если человек последовательно действует согласно входящей информации, то значит он ее понимает. Если искусственная система делает так же, то она тоже понимает. Не нужно иметь 100% одно и тоже состояние мозга/ИИ для понимания, главное последовательность в ответах/действиях.
                                                    Нет.

                                                    Суть в том, если Тест Тьюринга фактически говорит — вот программа в терминале, определи что это не человек тебе отвечает.

                                                    Но Китайская Комната фактически говорит — вот человек разумный в комнате за терминалом — смотри, нет никаких доказательств что он понимает китайский язык, хотя его ответы неотличимы от ответов настоящих китайцев.
                                                      0
                                                      Китайская Комната фактически говорит — вот человек разумный в комнате за терминалом

                                                      Вы не поняли смысла ни теста Тьюринга ни Китайской Комнаты. В Китайской Комнате человек представляет не разумного человека, а hardware. Я в других комментариях к этой статье уже всё расписал, не хочу тратить время на повторы.
                                                      Просто напоминаю — не мешайте уровни. Ваш аргумент похож на «Если запустить Виндоус на машине Бэббиджа, то это уже не Виндоус»
                                                        –1
                                                        DjSapsan
                                                        В Китайской Комнате человек представляет не разумного человека, а hardware.
                                                        Это вы не поняли смысла.
                                                        Уберите человека разумного из описания Китайской комнаты и она… перестанет существовать.

                                                        "Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает." (ваше мнение ведь!) — «Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние.»

                                                        Иначе говоря, Сёрл утверждает — смотрите, мы помещает ЧЕЛОВЕКА РАЗУМНОГО в нашу комнату и даже ЭТО не помогает нам сформулировать (то есть описать словами) что есть «понимание»? — В этом суть Китайской комнаты.

                                                        А отсюда и следствие — наблюдая КАК ребёнок учиться понимать, мы НЕ в состоянии сформулировать (то есть описать словами) КАК ему это удалось?
                                                          0
                                                          Это вы не поняли смысла.
                                                          Уберите человека разумного из описания Китайской комнаты и она… перестанет существовать.

                                                          Вытяните процессор с компьютера и нажимайте на кнопки. Скажите что вы видите на мониторе.

                                                          Ваши остальные слова — полный бред. Даже не хочется разоблачать. Откройте хоть что-нибудь кроме педивикии.
                                                            +1
                                                            Вытяните процессор с компьютера и нажимайте на кнопки. Скажите что вы видите на мониторе.
                                                            Дело не в кнопках.

                                                            Тест Тьюринга:
                                                            Слева компьютер (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
                                                            Вопрос — Понимает ли компьютер?

                                                            Китайская комната:
                                                            Слева (в китайской комнате) человек разумный (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) - и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

                                                            Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

                                                            Сёрл убрал компьютер из схемы (терминал не в счёт, он может быть любого типа, не только в виде электронного монитора) и спросил — Что есть понимание?

                                                            Иначе говоря он спросил — Вы не можете вообще сказать что есть понимание, а уже ставите более общий вопрос — понимает ли компьютер?

                                                            DjSapsan
                                                            Откройте хоть что-нибудь кроме педивикии.

                                                            Хм. "Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла".

                                                            Хм, а сколько было до 2010 года то? — поди еще больше!
                                                            Статей тысячи! В научных(!) журналах. И не все эти статьи на стороне функционализма то.

                                                              0
                                                              Откройте хоть что-нибудь кроме педивикии.
                                                              Хм. «Только с 2010 по 2014 год [ссылка на вики]

                                                              Откройте хоть что-нибудь кроме педивикии.

                                                              Сёрл убрал компьютер из схемы

                                                              Вы хоть знаете, что такое компьютер? Похоже нет. И вы не знаете что изначально подразумевали Тьюринг и его „разоблачитель“ Серл. Тьюринг максимально абстрагировал компьютер до формального исполнителя алгоритма. Каждый компьютер — физическая реализация этой абстрактной машины. Мы не можем убрать компьютер, нам же нужно как-то выполнять программу! Не важно кто/что выполняет, это могут быть шестеренки/лампы/транзисторы/человек/кирпич. Серл хотел сказать, что формальный алгоритм (неважно кем исполняется) не может понять значение иероглифов.
                                                              Тупость эксперимента в том, что система низводится до нижнего уровня, да еще и не в полном виде. А затем смешивает разные уровни. На самом деле его утверждения подобны следующим:
                                                              »транзистор не может найти кота на картинке"
                                                              «фотошоп не может посчитать 1+1»
                                                              «это утверждение не текст, а выключенные пиксели на экране»
                                                              «люди не общаются, а просто двигают молекулы воздуха»
                                                              «любви не существует, это лишь химические реакции в мозгу».
                                                              Хватит заниматься редукционизмом!
                                                                –1
                                                                DjSapsan
                                                                Мы не можем убрать компьютер, нам же нужно как-то выполнять программу! Не важно кто/что выполняет, это могут быть шестеренки/лампы/транзисторы/человек/кирпич. Серл хотел сказать, что формальный алгоритм (неважно кем исполняется) не может понять значение иероглифов.
                                                                Хорошо. Пусть человек — это абстрактная машина Тьюринга + разум (неважно, что бы мы под этим понимали).
                                                                Это ничего не меняет:

                                                                Тест Тьюринга:
                                                                Слева «реализация абстрактной машина Тьюринга» (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
                                                                Вопрос — Понимает ли эта «реализация»?

                                                                Китайская комната:
                                                                Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

                                                                Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

                                                                Так что ваша замена — Ничего НЕ меняет.

                                                                DjSapsan
                                                                На самом деле его утверждения подобны следующим: »транзистор не может найти кота на картинке"
                                                                Нет, он утверждает, что даже если к каждому транзистору мы приставим по китайцу (человеку разумному) — вся совокупность всех этих «окитаеных» транзисторов не порождает «понимание».

                                                                DjSapsan
                                                                «любви не существует, это лишь химические реакции в мозгу».
                                                                Нет, — он утверждает, что химические реакции даже в совокупности с разумом не порождают любви.

                                                                В своих ответах на наскоки на его комнату он всегда добавляет разум и спрашивает — и что? Понимание то НЕ возникает и в этом случае то!

                                                                DjSapsan
                                                                Хватит заниматься редукционизмом!
                                                                Нет. Сёрл не низводит всё до молекулы — наоборот — он добавляет к молекуле разум и утверждает что и в этом случае понимание НЕ возникает.

                                                                Druu
                                                                Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?
                                                                В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

                                                                «Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).»

                                                                В этом варианте человеку в комнату НИКТО не подложил никакие правила, как отвечать в китайском чате.

                                                                В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

                                                                Но понимания и тут нет. И оно НЕ возникает.

                                                                Любой китаец скажет в этом случае — что ни человек в Китайской комнате, сам придумавший правила ответов, ни комната с человеком, придумавший правила ответов, ни Земля с комнатой в которой находится человек, придумавший правила ответов, ни Вселенная с Землёй и комнатой на ней в которой человек, придумавший правила ответов в китайском чате — НЕ понимают китайского.

                                                                P.S. "… Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык"

                                                                Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!
                                                                И всё равно — понимание китайского НЕ возникает.

                                                                  0
                                                                  Что за бред. Я больше не буду контраргументировать. Я приведу лишь правила, с которыми нужно смотреть на любой механизм (био- тоже):
                                                                  1) Каждый уровень нужно строго разделять(вроде «уровень пикселей — уровень букв — уровень слов — уровень идеи»)
                                                                  2) Нельзя сравнивать два уровня между собой, особенно в разных системах (вроде «транзистор — программа, химия — чувство, символы — семантика»)
                                                                  3) Для правомерного сравнения нужно явно привести (програм. «cast») обе «переменные» к одному «типу» — уровню (уровень манипуляции символами поднять к уровню ИИ и только тогда сравнивать с человеческим интеллектом). Вы же не сравниваете красоту букв с красотой стиха?
                                                                  4) Перед утверждением невозможности чего-то нужно попробовать сделать это. Вы пропустили множество сверхумных систем, а уже что-то пытаетесь доказать. Примеры — SHRLDU и ALPHA ZERO. Они действительно понимают свой мир в полной мере (вплоть до понимания намерения не имея полной информации).
                                                                  И каждый раз, когда пишете о каком-то механизме, думайте как он устроен. Помните, что мозг тоже устроен, и разум не на нижнем уровне.
                                                                    –1
                                                                    DjSapsan
                                                                    Что за бред.
                                                                    Эх, если бы так сам Сёрл отвечал его оппонентам, а не придумывал бы различные варианты в ответ, которые всё равно им что… горохом об стену. Столько бы нервных клеток сберёг, поди.

                                                                    DjSapsan
                                                                    3) Для правомерного сравнения нужно явно привести (програм. «cast») обе «переменные» к одному «типу» — уровню (уровень манипуляции символами поднять к уровню ИИ и только тогда сравнивать с человеческим интеллектом). Вы же не сравниваете красоту букв с красотой стиха?
                                                                    Стоп, с чего вы взяли что ИИ можно сравнить с человеком разумным в плане понимания?

                                                                    О том и речь, что Сёрл создал свою Китайскую комнату, показывая что споры о том, может ли программа (алгоритм, ИИ и прочая и прочая) понимать? — смысла НЕ имеют, так как даже добавлении человека-разумного в схему НЕ порождает «понимания».

                                                                    И сравнивать калькулятор, или программу играющую в шахматы или играющую в Го, или программу берущую интегралы, или ИИ занятый анализом картинок — смысла НЕТ, ибо даже добавлении человека-разумного в схему НЕ порождает «понимания».

                                                                    Да, «Китайская комната» Сёрла фактически отправила в нокаут функционализм (и попытку как-то разрешить тест Тьюринга).

                                                                    DjSapsan
                                                                    4) Перед утверждением невозможности чего-то нужно попробовать сделать это. Вы пропустили множество сверхумных систем, а уже что-то пытаетесь доказать. Примеры — SHRLDU и ALPHA ZERO. Они действительно понимают свой мир в полной мере (вплоть до понимания намерения не имея полной информации).
                                                                    Они не понимают. Они могут выести (породить) что угодно, конечно, но в них не возникает феномена «понимания» как не возникает его даже в Китайской комнате.

                                                                    Druu
                                                                    Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?
                                                                    По привычным ему правилам. Перед ним терминал. На нём китайский чат. Есть клавиатура, с помощью которой можно набирать китайские символы китайского текста. И всё!

                                                                    Больше НИКАКИХ правил у него нет. А есть его разум, компьютер, ИИ, он учился чему-то, может сам программировать, анализировать, комбинировать, но — никогда никто его НЕ учил ни китайскому, ни грамоте китайской.

                                                                    Нет у него и заранее припасённых карточек как ему себя вести и что, в каком порядке, писать в китайский чат.

                                                                    Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат — сначала неуверенно, потом всё точнее и точнее, делая ошибки, конечно, — пока китайцы в чате не признают его за понимающего китайский — а он его, китайский, так и НЕ будет никогда понимать. — Никогда!

                                                                    Ни он, ни он с комнатой, ни он со всем своим знанием, умением, ИИ, программами, компьютером, базой знаний и прочим и прочим — никогда НЕ будет понимать(!!!) китайский.

                                                                    Druu
                                                                    Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?
                                                                    Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

                                                                    Вначале у него сидел человек с заранее составленными кем-то карточками.

                                                                    Потом Сёрл, в ответ на — «Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык» — модернизировал исходный вариант своей Китайской комнаты: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы.»

                                                                    Я ещё более модернизировал его Китайскую комнату — теперь там сидит человек-разумный, который и карточек составленных кем-то заранее то не имеет и ничего заранее из того как отвечать в китайском чате НЕ учил и не знает — он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

                                                                    Druu
                                                                    Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.
                                                                    Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете. Таков вывод Китайской комнаты (её различных, модернизированных вариантов).

                                                                    Druu
                                                                    Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.
                                                                    Это хороший вопрос. Но почему нет? С помощью ИИ, человек наверняка может «правильно» отвечать в китайском чате, — ведь научил же («натаскал», обучил) человек ИИ выигрывать человека в Го!

                                                                    Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

                                                                    Но феномена «понимания» и тут НЕ возникает. (С)

                                                                    P.S.
                                                                    image
                                                                      0
                                                                      taujavarob Я не встречал такой тупости даже у гуманитариев! Прекратите спекулировать словами. Если соизволите ответить, то сразу же в самом начале определите понятие «понимание». И только потом доказывайте, что кто-то чего-то не понимает.

                                                                      Применим правила рассмотрения вопроса:
                                                                      1) Каждый уровень нужно строго разделять
                                                                      В человеке: уровень нейронов — уровень разума. Это разные уровни. Можно потерять миллионы нейронов и остаться в сознании и здравии (травма). А можно потерять сознание, не имея никаких изменений в структуре мозга (сон).
                                                                      В общем, произвольный уровень произвольной системы не знает об уровнях ниже. Когда-то люди считали, что они думают сердцем. И даже сейчас не нашли конкретный «нейрон интеллекта» или «нейрон сознания».
                                                                      В машине: уровень железа — уровень алгоритма. К слову, программа это уровень железа. Алгоритм не знает где он запущен. Можно запустить его на машине Беббиджа, на лампах, на транзисторах или на кирпиче. Алгоритм не зависит от железа. Можно закрыть железо в комнате и никто не определит где транзисторы а где шестеренки.
                                                                      В КК: уровень железо в виде человека и книги/памяти —
                                                                      уровень комнаты. Китаец сможет определить, что сам человек (железо) не понимает китайский. Но он не сможет определить в какой комнате китаец, а в какой — самозванец. Это два принципиально разных уровня!

                                                                      2) Нельзя сравнивать два уровня между собой, особенно в разных системах.
                                                                      В человеке: размер мозга — уровень интеллекта. Когда-то люди повелись на эту ошибку. На самом деле это ужасно глупая ошибка, которую многие допускают практически везде, даже не замечая. Или уровень ДНК — уровень белка — уровень ткани — уровень органа и тд.
                                                                      В машине: уровень процессора — уровень алгоритма. Нельзя сравнивать сложность алгоритма и процессора. Размер кристалла и размер алгоритма. Ошибки в проводах и ошибки в алгоритме. Это нельзя.
                                                                      В КК: понимание человека нельзя сравнивать с пониманием комнаты. Комната может понимать иначе китайский чем человек внутри.

                                                                      3) Для правомерного сравнения нужно явно привести обе «переменные» к одному «типу» — уровню.
                                                                      В человеке: нельзя сравнить размер гена и размер белка. Нужно сделать белок из этого гена и можно уже сравнивать непосредственно.
                                                                      В литературе: Уровень букв — уровень текста. Поднять уровень букв до уровня текста и сравнивать «красоту»
                                                                      В машине: можно сравнить скорость процессора на транзисторах и на лампах. Можно сравнить O(n) сложность двух разных алгоритмов для одной и той же задачи (ага, над уровнем алгоритмов есть уровень выше)
                                                                      В КК: поднять уровень «исполнитель и правила» на уровень «комната» и сравнивать с человеком.

                                                                      4) Перед утверждением невозможности чего-то нужно попробовать сделать это.
                                                                      Формально а не догматично докажите невозможность понимания комнатой китайского языка (исходя из своего определения этого понятия)
                                                                        0
                                                                        DjSapsan
                                                                        Если соизволите ответить, то сразу же в самом начале определите понятие «понимание». И только потом доказывайте, что кто-то чего-то не понимает.
                                                                        В том то и дело, что Китайская комната обходится без определения понятия «понимание» — Это тесту Тьюринга нужно это определение, а его нет, поэтому все и спорят «понимает ли машина, компьютер, программа, алгоритм и прочее и прочее? », а Китайская комната то и создана для того чтобы обойти вообще определение что есть «понимание». В этом суть Китайкой комнаты.

                                                                        DjSapsan
                                                                        В машине: уровень железа — уровень алгоритма. К слову, программа это уровень железа. Алгоритм не знает где он запущен. Можно запустить его на машине Беббиджа, на лампах, на транзисторах или на кирпиче. Алгоритм не зависит от железа. Можно закрыть железо в комнате и никто не определит где транзисторы а где шестеренки.
                                                                        В КК: уровень железо в виде человека и книги/памяти —
                                                                        уровень комнаты. Китаец сможет определить, что сам человек (железо) не понимает китайский. Но он не сможет определить в какой комнате китаец, а в какой — самозванец. Это два принципиально разных уровня!
                                                                        Уровни не важны. При желании вы можете любое железо смоделировать в облаке, которое само крутится на виртуальной машине. И в этом случае — понять какой транзистор открылся (при выполнении вашей программы) не представляет определить вовсе.

                                                                        Кстати, учёные уже моделируют нейроны (миллионы пока) — моделируют не на железе или биологически — а виртуально — в памяти компьютера.

                                                                        DjSapsan
                                                                        В КК: понимание человека нельзя сравнивать с пониманием комнаты. Комната может понимать иначе китайский чем человек внутри.
                                                                        Говоря о «понимании комнаты» — вы сваливаетесь опять к тесту Тьюринга, где вам необходимо вводить понятие — что есть «понимание».

                                                                        В Китайской комнате понимать может только человек — это аксиома.
                                                                        Почему аксиома — потому что в китайской комнате сидит человек разумный, что означает, что неважно что есть понимание, важно то, что у нас есть способный к понимаю объект — человек разумный, который по определению (и это аксиома) уже понимает и способен понимать (в отличии от компьютера, программы, алгоритма и прочих уровней в тесте Тьюринга).

                                                                        DjSapsan
                                                                        Формально а не догматично докажите невозможность понимания комнатой китайского языка (исходя из своего определения этого понятия)
                                                                        Ваш вопрос опять касается текста Тьюринга. Может или нет комната понимать?
                                                                        В Китайской комнате есть человек разумный и речь только и только о его понимании.

                                                                        Может ли понять человек разумный(!) в китайской комнате китайский язык? — ответ отрицательный.

                                                                        Druu
                                                                        Окей, у вас своя модернизированная китайская комната. Давайте все-таки вернемся к оригиналу и будем обсуждать комнату, в которой сидит человек с правилами, и общается так, будто знает язык

                                                                        Druu — давайте все-таки вернемся к оригиналу

                                                                        Сёрл — я не просто так модернизирую КК, а для того чтобы у вас возникло понимание. Как я понял, вас мучит физическое наличие карточек с правилами в исходном варианте КК? Давайте их уберём и предположим что человек заранее их вызубрил и сел в КК.

                                                                        Druu — я не верю что человек может заранее вызубрить эти карточки.

                                                                        Сёрл — хорошо, но предположим что это всё же возможно. У многих людей есть отличная память и мы можем наверняка найти хоть одного способного человека на это.

                                                                        Druu — не найдёте.

                                                                        Сёрл — хорошо, не найду, но мы можем предположить что найду — пускай чисто гипотетически — и рассмотрим уже модернизированную комнату, без карточек, обсудим её.

                                                                        Druu — нет, карточки положите на их первоначальное место в КК.

                                                                        Сёрл — Понимаете, дело не в карточках в КК. Если вы этого не понимаете, как я вижу, то я уберу их, не для того, чтобы вас запутать, а для того, чтобы вам стало более понятно, но дело не в карточках в КК. — "В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык"

                                                                        Druu — нет, я согласен рассматривать КК только с карточками в ней.

                                                                        Сёрл — мы вернём эти карточки в КК. Я вам обещаю, но давайте вначале рассмотрим вариант где карточек в КК нет, а есть человек зазубривший эти карточки.

                                                                        Druu — я не хочу рассматривать этот вариант вовсе. Мне он кажется каким то нереальным. Не верю я в способности зазубрить карточки человеком.

                                                                        Сёрл — но мы же можем предположить это, по крайней мере. Разве не так?

                                                                        Druu — я хочу карточки в КК. И только их. Без карточек в КК вся моя философия рухнет. А я этого не хочу. Она такая складная.

                                                                        Сёрл — моё мнение, вам надо всё же выкинуть эти карточки из КК, разобраться, а потом уже вернуть карточки в КК. Иначе вам не продвинутся в понимании КК.

                                                                        Druu
                                                                        Кроме того, нам не важно, понимает китайский язык сам человек или нет. Такого вопроса не стоит, непонятно почему вы на него все время скатываетесь. Мы обсуждаем понимает ли язык китайская комната вцелом. И она, совершенно точно, его будет понимает, при условии что нормально общается и китайцы, которые с ней разговаривают, считают, что все ок.
                                                                        Ответ вам от Сёрла: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык»

                                                                        И от меня — Говоря о «понимании комнаты» — вы сваливаетесь опять к тесту Тьюринга.
                                                                        Выбросите карты из КК и рассмотрите этот вариант. Иначе вы так и останетесь в неведении.

                                                                        Druu
                                                                        Как же не возникает, если в вашей комнате сидит разумный ИИ, который понимает китайский? Вы вообще вводите несущественные детали. Могли сразу вместо человека который в комнате собрал ИИ сразу посадить туда этого ИИ, без человека. Вопрос: понимает ли этот ИИ язык? Ответ: очевидно, да.
                                                                        ИИ в КК — это тест Тьюринга. Человек не зря посажен в КК. Для того чтобы обойти вопрос — «что такое „понимание“?» — Убери человека из КК и мы свалимся к тесту Тьюринга.

                                                                        DjSapsan
                                                                        На текущем уровне ИИ чаще всего понимает текст как взаимосвязь внутренних понятий.
                                                                        Для понимания нашего физического мира нужен вход с реального мира — камеры/тактильные датчики/термометры/обоняние и тд.
                                                                        Для понимания чисто человеческих понятий, нужно добавить машине человеческие потребности — голод/жажда/сон/социальное одобрение/размножение/познание.
                                                                        Никакое добавление никаких «голод/жажда/сон/социальное одобрение/размножение/познание» и никаких «камеры/тактильные датчики/термометры/обоняние » не помогает разрешить феномен КК.

                                                                        На это Сёрл ответил вам «эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек.

                                                                        Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами»

                                                                        Отсюда, немного поразмышляв, можно прийти к выводу, что родившийся ребёнок есть по сути «человек способный к пониманию, помещённый в КК» — то есть мы не способны объяснить как ребёнок учиться понимать!

                                                                        Но этот вывод для вас, как я понимаю, является… шоком. И не воспринимается вашим разумом.
                                                                          0
                                                                          taujavarob вы это серьезно высрали? Я не могу поверить, что читатель Хабра может ТАКОЕ выдумать…
                                                                          Если вы так зациклены на КК и не понимаете что такое МТ, вот вам настоящая КК:
                                                                          Садим в эту же комнату настоящего китайца. И пусть он манипулирует символами. Что получается? А вот что:
                                                                          1) Понимающий китайский человек не понимает, что он отвечает на китайском. ПРОТИВОРЕЧИЕ! КК даже формально не может служить доказательством непонимания системы китайского, так это же доказательство говорит, что и китаец не понимает китайский, то есть t = ~t
                                                                          2) Отвечает и понимает не сидящий внутри человек. Допустим, китаец любит яблоки. Испытатель спрашивает его: «что ты любишь», а с комнаты выходит ответ «я люблю картошку». Китаец не только не понимает китайский, а даже дает не тот ответ, на который бы он ответил напрямую. Так кто в этом случае понимает китайский? Внутренний человек или комната в целом?
                                                                          3)
                                                                          Уровни не важны

                                                                          Именно уровни позволяют скрывать реализацию. Именно уровни позволяют запустить виртуалку в виртуалке в облаке на шестеренках Беббиджа. Именно уровни позволяют иметь семантику в типографике. Именно уровни позволяют иметь понимание в «железе».

                                                                          Надоели уже эти диванные выскочки, начитаются википедии и уже строят из себя ньютонов
                                                                            0
                                                                            Ответ вам от Сёрла: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык»

                                                                            Человек понимать не будет, а система "человек+заученные правила" — будет.

                                                                              0

                                                                              Уважаемые, честно, я пытаюсь следить за ходом вашей дискуссии, но никак не разберусь, где у вас точка расхождения мнений.


                                                                              Насколько я понимаю, основная идея китайской комнаты — показать, что совокупность сколь угодно сложного автомата и сколь угодно сложных инструкций для него (да, составленных человеком) — вот это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.


                                                                              То есть Сёрл своим мысленным экспериментом показал, что прохождение теста Тьюринга машиной ещё не означает существования в ней искусственного интеллекта.


                                                                              Человека в китайскую комнату Сёрл в принципе мог не вводить, но ввёл и ввёл не случайно — во-первых, чтобы примитивностью автомата не ограничивать сложность инструкций, а во-вторых и в главных — выявить отсутствие какого-либо понимания происходящего внутри машины. Тут фишка в том, что понимает или нет машина — вопрос спорный и самим экспериментом рассматривается, а непонимание человека внутри машины берется априори, условием эксперимента. То есть Сёрл как бы говорит — если уж человек внутри ничего не понимает, то почему вы думаете, что просто заменив человека на машину ("женщину вынули, автомат засунули..."), выполняющую те же инструкции, вы получите мыслящую и понимающую машину?


                                                                              Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.


                                                                              И ещё один вывод — не сложностью машины и не сложностью инструкций создаётся искусственный интеллект.

                                                                                0

                                                                                В английской Вики больше написано, чем в русской. Сёрл говорит, что Китайская комната это не доказательство, а пример, требующий объяснения.


                                                                                However, the thought experiment is not intended to be a reduction ad absurdum, but rather an example that requires explanation. Searle is not asserting that the situation is impossible, but rather that it is difficult or impossible to explain how this system can have subjection conscious experience.
                                                                                  0
                                                                                  А в моем комментарии вы где-то увидели обратное? По-моему, я был вполне аккуратен со словами: "это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.". Ну еще можно добавить, что равным образом не доказывает обратного утверждения, что нет мысли в этом ящике.
                                                                                    0
                                                                                    Да не, это дополнение, а не возражение) Я просто тоже за их перепиской наблюдаю.
                                                                                  –1
                                                                                  sshmakov
                                                                                  Насколько я понимаю, основная идея китайской комнаты — показать, что совокупность сколь угодно сложного автомата и сколь угодно сложных инструкций для него (да, составленных человеком) — вот это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.
                                                                                  Нет. Основная идея КК показать что мы не можем описать процесс возникновения понимания.

                                                                                  sshmakov
                                                                                  То есть Сёрл своим мысленным экспериментом показал, что прохождение теста Тьюринга машиной ещё не означает существования в ней искусственного интеллекта.
                                                                                  ИИ может существовать. Понимания не возникает.

                                                                                  sshmakov
                                                                                  Человека в китайскую комнату Сёрл в принципе мог не вводить, но ввёл и ввёл не случайно — во-первых, чтобы примитивностью автомата не ограничивать сложность инструкций, а во-вторых и в главных — выявить отсутствие какого-либо понимания происходящего внутри машины.
                                                                                  Дело в том, что Сёрл не задавался вопросом "может ли машина мыслить"? Потому что тогда надо как-то определять что такое «мыслить и понимать»? — Он элегантно обошёл это, введя «человека разумного» — в способности понимать которого никто не сомневается же! Но даже это НЕ помогло описать процесс возникновения «понимания».

                                                                                  sshmakov
                                                                                  Тут фишка в том, что понимает или нет машина — вопрос спорный и самим экспериментом рассматривается, а непонимание человека внутри машины берется априори, условием эксперимента.
                                                                                  Для ответа на вопрос «понимает машина или нет?» надо определить «что есть понимание»?
                                                                                  КК показывает, что мы не можем описать возникновение «понимания» даже у человека, априори способного к пониманию.

                                                                                  sshmakov
                                                                                  Сёрл как бы говорит — если уж человек внутри ничего не понимает, то почему вы думаете, что просто заменив человека на машину («женщину вынули, автомат засунули...»), выполняющую те же инструкции, вы получите мыслящую и понимающую машину?
                                                                                  Верно. Он говорит — даже несомненно наличие способности к пониманию, не позволяет нам описать процесс возникновения понимания. — А в случае теста Тьюринга все силы уходят на формулировку — что есть понимание? (в КК этого не требуется, ибо человек уже способен понимать).

                                                                                  sshmakov
                                                                                  Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.
                                                                                  Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.

                                                                                  sshmakov
                                                                                  И ещё один вывод — не сложностью машины и не сложностью инструкций создаётся искусственный интеллект.
                                                                                  ИИ может быть любой сложности или простоты, но ИИ не способны понимать.

                                                                                  P.S.
                                                                                  michael_vostrikov
                                                                                  В английской Вики больше написано, чем в русской. Сёрл говорит, что Китайская комната это не доказательство, а пример, требующий объяснения.
                                                                                  Верно. КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека), который априори способен понимать. — Вам это не напоминает аналогичное описание известного «опыта», созданное… пару тысяч лет назад? :-)

                                                                                  P.P.S.
                                                                                  Druu
                                                                                  Человек понимать не будет, а система «человек+заученные правила» — будет.
                                                                                  Вам осталось всего ничего — определить что такое "понимание системы?"

                                                                                  P.P.P.S.

                                                                                  DjSapsan
                                                                                  Садим в эту же комнату настоящего китайца. И пусть он манипулирует символами. Что получается? А вот что:
                                                                                  1) Понимающий китайский человек не понимает, что он отвечает на китайском. ПРОТИВОРЕЧИЕ!

                                                                                  Хм. Противоречия нет. Понимающий китайский, манипулируя символами, составленными понимающими китайский, вполне понимает, находясь в КК, что он отвечает.

                                                                                  Для того, чтобы вам продвинутся в понимании КК, вам нужно ответить самому себе на два вопроса:
                                                                                  1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?
                                                                                  2) Зачем туда посажен человек (а не машина Бэббиджа)?

                                                                                  DjSapsan
                                                                                  Именно уровни позволяют иметь понимание в «железе».
                                                                                  Я привёл пример виртуалки, чтобы пояснить, что при реализации железа в облаке, когда всё стало алгоритмом, мы можем сравнивать всё со всем, так как всё стало одной сущностью — алгоритмом. А одну сущность можно сравнить с такой же иной сущностью.

                                                                                  DjSapsan
                                                                                  вы это серьезно вы...? Надоели уже эти диванные выскочки, начитаются википедии и уже строят из себя ньютонов
                                                                                  Выбирайте выражения, вы не у себя на кухне. Вас противно физически читать.
                                                                                    0
                                                                                    Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.

                                                                                    Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.

                                                                                    Китайская комната не «понимает». Она успешно проходит тест Тьюринга, а это не одно и тоже.
                                                                                    Может быть у вас есть определение слова «понимание»? У Тьюринга и Сёрла его не было, поэтому появились их эксперименты.
                                                                                      +2
                                                                                      Вам осталось всего ничего — определить что такое "понимание системы?"

                                                                                      Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя ("я понимаю") либо при помощи переноса ("Х ведет себя точно так же как я, если бы понимал => Х понимает").

                                                                                        +2
                                                                                        КК показывает, что мы не можем описать возникновение «понимания» даже у человека, априори способного к пониманию.

                                                                                        Вы абсолютно не поняли смысл эксперимента Сёрла и тем более смысл аргументов его противников. Прочитайте английскую Вики, особенно аргументы.


                                                                                        В комнате есть другая система, кроме человека, способная к пониманию. Понимание происходит не в восприятии человека, а на более высоком уровне. Оно связано не с процессами биологической системы, а с процессами комнаты. Поэтому неважно, кто будет исполнять инструкцию, человек или процессор, их способность к пониманию здесь не требуется.


                                                                                        КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека),

                                                                                        Перевод второго предложения:


                                                                                        Сёрл не утверждает, что эта ситуация невозможна, скорее что сложно или невозможно объяснить, как эта система может иметь субъективный сознательный опыт.


                                                                                        Сёрл говорит про понимание комнаты, а не человека. И не утверждает, что "понимания не возникает". Он задает вопрос "как оно возникает в вашем варианте".

                                                                                          0
                                                                                          michael_vostrikov
                                                                                          Вы абсолютно не поняли смысл эксперимента Сёрла и тем более смысл аргументов его противников. Прочитайте английскую Вики, особенно аргументы.
                                                                                          Английская версия более «осовременена», по сравнению с русской. Там вовсю упоминается ИИ, кое при создании эксперимента КК вовсе нигде не фигурировало.

                                                                                          Но пару цитат оттуда можно взять:

                                                                                          «Colin McGinn argues that the Chinese room provides strong evidence that the hard problem of consciousness is fundamentally insoluble.»

                                                                                          «Колин Макгинн утверждает, что китайская комната является убедительным доказательством того, что трудная проблема сознания принципиально неразрешима.»

                                                                                          Я об этом уже в сотый раз пишу — что горохом об…

                                                                                          «The whole point of the thought experiment is to put someone inside the room, where they can directly observe the operations of consciousness. Searle claims that from his vantage point within the room there is nothing he can see that could imaginably give rise to consciousness, other than himself, and clearly he does not have a mind that can speak Chinese.»

                                                                                          "Весь смысл мысленного эксперимента состоит в том, чтобы поместить кого-то в комнату, где он может непосредственно наблюдать за операциями сознания. Сирл утверждает, что с его точки зрения в комнате он не видит ничего, что могло бы вызвать сознание, кроме самого себя, и, очевидно, у него нет ума, который может говорить по-китайски."

                                                                                          Я уже в сотый раз писал и пишу — весь смысл КК в том, что внутри находится ЧЕЛОВЕК РАЗУМНЫЙ, который НЕ понимает в данных обстоятельствах! — но вам что горохом об…

                                                                                          «Brains must have something that causes a mind to exist. Science has yet to determine exactly what it is, but it must exist, because minds exist. Searle calls it „causal powers“. „Causal powers“ is whatever the brain uses to create a mind. If anything else can cause a mind to exist, it must have „equivalent causal powers“. „Equivalent causal powers“ is whatever else that could be used to make a mind...»

                                                                                          «Мозг должен иметь то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что разум существует. Сирл называет это „причинными силами“. «Причинная сила» — это то, что мозг использует для создания ума. Если что-то еще может заставить ум существовать, оно должно обладать «эквивалентными причинно-следственными связями». «Эквивалентные причинно-следственные связи» — это все, что может быть использовано для создания разума...» (и далее до конца абзаца)

                                                                                          Короче говоря — единственное что мы знаем на сегодня абсолютно ясно для — это то что понимать может только и только человек! — Я об этом сто раз писал — но вам что горохом об…

                                                                                          michael_vostrikov
                                                                                          В комнате есть другая система, кроме человека, способная к пониманию. Понимание происходит не в восприятии человека, а на более высоком уровне. Оно связано не с процессами биологической системы, а с процессами комнаты.
                                                                                          А вот и ответ Сёрла на ваше замечание:

                                                                                          «Searle then responds by simplifying this list of physical objects: he asks what happens if the man memorizes the rules and keeps track of everything in his head? Then the whole system consists of just one object: the man himself. Searle argues that if the man doesn't understand Chinese then the system doesn't understand Chinese either because now „the system“ and „the man“ both describe exactly the same object.»

                                                                                          «Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запоминает правила и отслеживает все в своей голове? Тогда вся система состоит только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайский, то система тоже не понимает китайский, потому что теперь и «система», и «человек» описывают один и тот же объект.»

                                                                                          Выкиньте карточки — в комнате сидит ОДИН человек — какая такая СИСТЕМА БОЛЕЕ ВЫСОКОГО ПОРЯДКА и где она — комната и ОДИН человек в ней — и всё! — СИСТЕМА стала из ОДНОГО человека и стенок комнаты!!! — Вы считаете что БОЛЕЕ ВЫСОКИЙ ПОРЯДОК придают такому варианту КК стенки комнаты - кирпич или бетон или брус? Я об этом сто раз писал — но вам что горохом об…

                                                                                          michael_vostrikov
                                                                                          Сёрл не утверждает, что эта ситуация невозможна, скорее что сложно или невозможно объяснить, как эта система может иметь субъективный сознательный опыт.
                                                                                          А я что пишу? -> «КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека)»

                                                                                          Никто НЕ возражает против того, что ребёнок как-то начинает понимать!

                                                                                          Никто НЕ возражает против того, что у человека разумного возникает при некоторых обстоятельствах понимание!

                                                                                          Я пишу — «КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека)»

                                                                                          Мы НЕ можем описать КАК возникает понимание у человека — именно это и показывает эксперимент КК.

                                                                                          Я вам задал уже вопрос то, — Вам это не напоминает аналогичное описание известного «опыта», созданное… пару тысяч лет назад? :-) Вы мне так и не ответили на него. — Подсказать, или сами догадаетесь?

                                                                                          Там также описывался обычный процесс, но описывался так, что этот обычный процесс становился… недостижимым! - ВСПОМНИЛИ?

                                                                                          Вердикт: русский текст описания КК на Википедии яснее и меньше воды, чем английский текст описания КК.


                                                                                          P.S.
                                                                                          Druu
                                                                                          Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя («я понимаю») либо при помощи переноса («Х ведет себя точно так же как я, если бы понимал => Х понимает»).
                                                                                          Хм, вот вы в автомате(он сломался временно) сидите и наливаете пиво.
                                                                                          Вот автомат починили и он сам стал пиво наливать.
                                                                                          Когда вы сидели в автомате и наливали пиво — вы ПОНИМАЛИ что наливаете пиво.
                                                                                          По вашему определению и пивной автомат понимает что наливает пиво. — Но это не так. Вам надо как-то отделить пивной автомат от «понимающей системы» — по крайней мере как это сделал Сократ при определении понятия… человека. :-)

                                                                                          P.P.S.
                                                                                          sshmakov
                                                                                          Китайская комната не «понимает». Она успешно проходит тест Тьюринга, а это не одно и тоже.
                                                                                          Хм, мой «Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.»
                                                                                          Следует читать "«Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть эксперимента с КК.»

                                                                                          Я уже сто раз писал — ПОНИМАЕТ ТОЛЬКО ЧЕЛОВЕК — это аксиома!

                                                                                          sshmakov
                                                                                          Может быть у вас есть определение слова «понимание»? У Тьюринга и Сёрла его не было, поэтому появились их эксперименты.
                                                                                          Тест Тьюринга приводит к спорам — ЧТО ТАКОЕ ПОНИМАНИЕ? — которые продолжаются до сих пор(каждый даёт некие определения этому понятию).

                                                                                          Эксперимент с КК специально так был сформулирован чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание». — Я об этом уже СТО РАЗ ПИСАЛ!

                                                                                          P.P.P.S.
                                                                                          DjSapsan
                                                                                          ответ показывает не мнение внутреннего исполнителя, а комнаты в целом
                                                                                          В комнате из кирпича сидит ОДИН челове — что означает вообще «комнаты в целом?» — ОДИН ЧЕЛОВЕК В ПУСТОЙ КОМНАТЕ — что такое «в комнате в целом?» — ОДИН ЧЕЛОВЕК, огороженный 6-ю перегородками! — ВЫ считаете что эти перегородки вкупе с человеком что-то понимают? — С какого это бодуна?

                                                                                          DjSapsan
                                                                                          Допустим, внутренний исполнитель (пусть даже китаец) не понимает квантовую механику, но экспериментатор снаружи будет другого мнения, он может видеть понимание!
                                                                                          Бывает, Druu даже выше сформулировал понимание пивным автоматом процесса разлива пива.

                                                                                          Но дело в том, что в случае с экспериментом КК китайцы вас не поймут — для них НЕТ комнаты, для них ЕСТЬ человек, который сидит в этой комнате и НЕ понимает ничего по китайски!

                                                                                          DjSapsan
                                                                                          не путайте аппарат и алгоритм.
                                                                                          Всё что есть в облаке есть одна сущность — алгоритм! (С)

                                                                                          Вы так и не ответили на мои ДВА вопроса (так тяжело?), добавлю третий к ним:

                                                                                          1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?

                                                                                          2) Зачем туда посажен человек (а не машина Бэббиджа)?

                                                                                          3) Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом) — ибо всё что в облако попало алгоритмом стало! (С)
                                                                                            0
                                                                                            Хм, мой «Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.»
                                                                                            Следует читать "«Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть эксперимента с КК.»

                                                                                            Так может стоит вас читать «Да, ваш Миша-бот априори не имеет способности к пониманию — именно в этом вся суть эксперимента с КК»? Если уж мы сошлись на том, что ни китайская комната, ни Миша-бот не понимают, что творят.

                                                                                            Эксперимент с КК специально так был сформулирован чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание». — Я об этом уже СТО РАЗ ПИСАЛ!

                                                                                            Есть подтверждение вашим словам у Сёрла? Вот этим «чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание»»
                                                                                              –2
                                                                                              sshmakov
                                                                                              Так может стоит вас читать «Да, ваш Миша-бот априори не имеет способности к пониманию — именно в этом вся суть эксперимента с КК»? Если уж мы сошлись на том, что ни китайская комната, ни Миша-бот не понимают, что творят.
                                                                                              Нет вся суть эксперимента КК можно выразить отдним предложением — Мы не можем описать как возникает понимание у ребёнка.

                                                                                              Всё остальное — это прелюдия к этому умозаключению.

                                                                                              sshmakov
                                                                                              Есть подтверждение вашим словам у Сёрла? Вот этим «чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание»»
                                                                                              Не видел дословно, но можно сказать и так — «в эксперименте КК нет необходимости в формулировке что такое „понимание“ вовсе». (Это как в ОТО нет необходимости в понятии «масса», «энергия», «импульс, „момент импульса“).

                                                                                              Вы конечно можете спорить о „понимании комнаты“ или о „понимании некой системы“ — неизвестно где расположенной (по крайней мере в комнате её нет) или о понимании некой „виртуальную машины со своим состоянием создаваемой человеком в КК (по michael_vostrikov ), но где создаваемой? — там только стены и человек и всё! — но к эксперименту КК это не имеет никакого отношения.

                                                                                              Он прост: есть человек в КК. Подходят китайцы и вступает с ним в беседу. — О, человек в КК понимает нас, — говорят китайцы. Как он научился то китайскому? — спрашивают они. Им отвечают. Узнав КАК человек “научился китайскому» (зазубрил правила или использовал карточки с подсказками), китайцы восклицают, — Нет, он не знает китайского. И уходят. Занавес.

                                                                                              Китайцы не рассуждают — понимает ли комната?, система?, виртуальное состояние? и прочее и прочее — у них может понимать только и только человек. То есть именно человек понимает или нет? — И узнав КАК этот человек отвечает им из КК — они выносят свой китайский вердикт — человек в КК НЕ понимает китайского. Занавес.

                                                                                              michael_vostrikov
                                                                                              И в этом он не прав, в комнате есть то, что имеет сознание и понимание, кроме самого его.
                                                                                              Хорошо, где оно?

                                                                                              michael_vostrikov
                                                                                              Это недоказанное утверждение, которое принимается за аксиому. Но в вопросах ИИ его доказательство имеет приципиальное значение.
                                                                                              КК к ИИ не относится. ИИ — это новое и именно поэтому ИИ «натягивают» на КК.

                                                                                              В КК нет ИИ — она в нём НЕ нуждается вовсе. Там человек и… всё!

                                                                                              michael_vostrikov
                                                                                              Я нигде не говорил, что инструкции должны быть записаны на бумаге. Неважно, где она записана, неважно, кто ее исполняет, понимание возникает внутри процесса, который ее исполняет.
                                                                                              Дело не в бумаге, это Сёрл отвечал уж простым людям, типа Druu. Ну, если появился некий процесс — то где он? Где этот мифический процесс в КК? Где?

                                                                                              michael_vostrikov
                                                                                              Человек, исполняющий запомненные инструкции, создает виртуальную машину со своим состоянием. Абсолютно неважно, где оно хранится, в шкафах комнаты или в реакциях нейронов. Важно то, что это состояние изменяется соответственно входящей информации.
                                                                                              Где создаёт? Место? В Голове? — Человек в КК, если и создаёт виртуальную ментальную свою машину в своей голове, то только для того, чтобы понять то, что, отвечая китайцам вне КК, он всё равно НЕ понимает китайского.

                                                                                              DjSapsan
                                                                                              Специальный план для изучения:…
                                                                                              Нет, пока вы не ответите мне на ТРИ вопроса (задаю уже в третий раз их вам), никаких планов вы не имеете права составлять вовсе, ибо пока неясно, что же вы знаете в эксперименте КК?

                                                                                              1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?

                                                                                              2) Зачем туда посажен человек (а не машина Бэббиджа)?

                                                                                              3) Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом) — ибо всё что в облако попало алгоритмом стало! (С)

                                                                                                +2
                                                                                                Мдааа…
                                                                                                1) I know no Chinese, either written or spoken, and that I'm not even confident that I could recognize Chinese writing as Chinese writing distinct from, say, Japanese writing or
                                                                                                meaningless squiggles. To me, Chinese writing is just so many meaningless squiggles.
                                                                                                Заменяем китайский на язык ассемблера и ничего не поменяется.
                                                                                                2) The obvious answer is that I know what the former [english letter] mean, while I haven't the faintest idea what the latter mean. But in what does this consist and why couldn't we give it to a machine, whatever it is?…
                                                                                                3) Это то что я вас прошу. Сравниваем:

                                                                                                КК[человек, правила, входящее письмо, алфавит, выходящее письмо, (+черновики) ]

                                                                                                ИИ[процессор, программа, вход, двоичный код, выход, (+память)]

                                                                                                Абстрактная Машина Тьюринга [исполнитель, блок состояний, лента, символы, участок ленты, (+способность записывать на ленту)]

                                                                                                Естественный интеллект [нейроны, физика, воздействие, состояние нейронов (электр., хим., аналоговое, частотное), мышцы, (+память)]

                                                                                                Полнота по Тьюрингу доказывает, что любую машину полную по Тьюрингу можно запустить на Машине Тьюринга. КК с черновиками является полной по Тьюрингу. Значит нет смысла рассматривать КК, т.к. это только одна из возможных реализаций МТ. Другие реализации намного быстрее работают и выдают тот же результат.

                                                                                                Теперь для детсада разъясняю в сотый раз:
                                                                                                КК Серла была возражением на то, что машина может мыслить (оригинал Тьюринга
                                                                                                П.С. вот лучшая ссылка с Нейманом )
                                                                                                Это не отдельный эксперимент, а именно возражение против теста Тьюринга.
                                                                                                Я ответил на ваши вопросы. Теперь жду ответ на мои вопросы без «разоблачений»:
                                                                                                — алгоритм
                                                                                                — программа
                                                                                                — формальная система
                                                                                                — символы
                                                                                                — семантика
                                                                                                — исполнитель
                                                                                                — понимание (в контексте человека, вы же используете это слово, значит знаете как определить его наличие ( «вася не понимает мои намеки» или «ты меня понял»))
                                                                                                — изоморфизм и аналогия
                                                                                                П.С. не подменяйте слова «сознание» и «понимание»
                                                                                                  0
                                                                                                  Нет вся суть эксперимента КК можно выразить отдним предложением — Мы не можем описать как возникает понимание у ребёнка.


                                                                                                  Я, пожалуй, не буду вам отдельно отвечать, потому что практически теми же словами вам ответил DjSapsan.
                                                                                                    0
                                                                                                    но где создаваемой? — там только стены и человек и всё!

                                                                                                    А в компьютере только стенки системного блока и аппаратура с ПО Windows, и все! Где там виртуальная машина, которая понимает ext3? Вы проигнорировали неудобный для себя вопрос, потому что ответ на него означает ответ и на ваш вопрос, что в свою очередь означает, что вы не правы и сами это понимаете.


                                                                                                    КК к ИИ не относится.

                                                                                                    Ну здрасьте. Описание эксперимента начинается словами "suppose that artificial intelligence research has succeeded in constructing a computer that behaves as if it understands Chinese".


                                                                                                    Хорошо, где оно?
                                                                                                    Ну, если появился некий процесс — то где он? Где этот мифический процесс в КК? Где?
                                                                                                    Где создаёт? Место? В Голове?

                                                                                                    Прочитайте комментарий полностью. Там есть ответы на все эти вопросы.

                                                                                                      –2
                                                                                                      michael_vostrikov
                                                                                                      Ну здрасьте. Описание эксперимента начинается словами «suppose that artificial intelligence research has succeeded in constructing a computer that behaves as if it understands Chinese».
                                                                                                      И вам не хворать. Это НЕ описание эксперимента — это прилюдия к описанию самого эксперимента!
                                                                                                      Вот само описание эксперимента: «Searle then supposes that he is in a closed room and has a book with an English version of the computer program, along with sufficient papers, pencils, erasers, and filing cabinets. Searle could receive Chinese characters through a slot in the door, process them according to the program's instructions, and produce Chinese characters as output.»

                                                                                                      Эксперимент с КК не имеет никакого отношения к ИИ — от слова — абсолютно никакого. Это чистая философия.

                                                                                                      Кстати, это понимают многие — «lthough the Chinese Room argument was originally presented in reaction to the statements of AI researchers, philosophers have come to view it as an important part of the philosophy of mind. It is a challenge to functionalism and the computational theory of mind,[g] and is related to such questions as the mind–body problem, the problem of other minds, the symbol-grounding problem, and the hard problem of consciousness.»

                                                                                                      Понимаете, человек в комнате, зазубривший правила и общающийся с китайцами вне комнаты — в этом описание НЕТ ни йоты ИИ. Это описание НЕ нуждается вовсе вообще в понятии ИИ. Всё что «навешивают» на этот эксперимент — ИИ, загрузку драйверов компьютера, прохождения теста Тьюринга и прочая и прочая — есть не более чем «бантик на комнате» — или, грубо говоря — "натягивание совы на КК".

                                                                                                      Ну, и напоследок: «The Chinese room argument is primarily an argument in the philosophy of mind, and both major computer scientists and artificial intelligence researchers consider it irrelevant to their fields

                                                                                                      «Аргумент о китайской комнате — это, прежде всего, аргумент в философии мышления, и как крупные ученые-компьютерщики, так и исследователи искусственного интеллекта считают его не относящимся к их областям.»

                                                                                                      Иными словами — эксперимент с КК и ИИ перепендикулярны друг другу. (С)

                                                                                                      michael_vostrikov
                                                                                                      Где там виртуальная машина, которая понимает ext3? Вы проигнорировали неудобный для себя вопрос, потому что ответ на него означает ответ и на ваш вопрос, что в свою очередь означает, что вы не правы и сами это понимаете.
                                                                                                      Я не стал разжёвывать вам, то есть низводить вашу загрузку драйверов к жаккардовому ткацкому станку и далее к взводу пружины панетофона — тут, либо вы сами проделаете эту несложную логическую работу, либо так и останетесь при своём нелогичном мнении.

                                                                                                      P.S.
                                                                                                      DjSapsan
                                                                                                      Заменяем китайский на язык ассемблера и ничего не поменяется.
                                                                                                      А в том то и дело что ПОМЕНЯЕТСЯ! — То есть, по вашему ответу, я понял что вы НЕ знаете почему комната называется китайской. — Тогда чего вы ввязались в этот тред?

                                                                                                      Вы и на второй вопрос НЕ ответили — Зачем туда посажен человек (а не машина Бэббиджа)? ЗАЧЕМ? Но ведь Серл туда посадил человека, а не компьютер или нечто иное. ПОЧЕМУ? — ответ вы НЕ знаете — Тогда чего вы ввязались в этот тред?

                                                                                                      И на просто третий вопрос — «Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом)? Вы НЕ ответили мне. — Так МОЖНО ЛИ СРАВНИВАТЬ ОДНИ СУЩНОСТИ (АЛГОРИТМЫ) или нет? — ДА ИЛИ НЕТ? (не надо растекаться мыслью по древу). — Кратко — ДА ИЛИ НЕТ?
                                                                                                        0
                                                                                                        ну и что делать с этим дитям?..
                                                                                                          +1
                                                                                                          Эксперимент с КК не имеет никакого отношения к ИИ — от слова — абсолютно никакого.

                                                                                                          Дискуссия уже затянулась, но отвечу вам еще раз, так как ссылка на первоисточник здесь не помешает.


                                                                                                          "The argument was first presented by philosopher John Searle in his paper, "Minds, Brains, and Programs", published in Behavioral and Brain Sciences in 1980."


                                                                                                          Minds, Brains, and Programs — John R. Searle, 1980


                                                                                                          Открываем, проверяем. "AI" встречается 39 раз, и "artificial intelligence" еще несколько. Сам Сёрл писал об AI. Так что имеет, и самое прямое.


                                                                                                          Вот само описание эксперимента: "Searle then supposes that he is in a closed room and has a book with an English version of the computer program"

                                                                                                          Правильно. А что представляет собой эта самая "computer program"? Она и есть ИИ.

                                                                                                            –2
                                                                                                            michael_vostrikov
                                                                                                            но отвечу вам еще раз, так как ссылка на первоисточник здесь не помешает.
                                                                                                            То есть вы прелюдию не отличаете от самого эксперимента?

                                                                                                            michael_vostrikov
                                                                                                            А что представляет собой эта самая «computer program»? Она и есть ИИ.
                                                                                                            Пойдём в глубь веков, читаем:
                                                                                                            «Suppose that I'm locked in a room and given a large batch of Chinese writing.
                                                                                                            Suppose furthermore (as is indeed the case) that I know no Chinese, either written or spoken, and that I'm not even confident that I could recognize Chinese writing as Chinese writing distinct from, say, Japanese writing or meaningless squiggles. To me, Chinese writing is just so many meaningless squiggles.
                                                                                                            Now suppose further that after this first batch of Chinese writing I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules as well as any other native speaker of English. They enable me to correlate one set of formal symbols with another set of formal symbols, and all that 'formal' means here is that I can identify the symbols entirely by their shapes. Now suppose also that I am given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate
                                                                                                            elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch. Unknown to me, the people who are giving me all of these
                                                                                                            symbols call the first batch „a script,“ they call the second batch a „story. ' and they call the third batch “questions.» Furthermore, they call the symbols I give them back in response to the third batch «answers to the questions.» and the set of rules in English that they gave me, they call «the program

                                                                                                            … и набор правил на английском языке, которые они дали мне, они называют" программой "

                                                                                                            Надо заменить, что потом Сёрл вынужден защищаться от таких как вы (и типа Druu ) — Сёрл вынужден был убрать всё из Китайской Комнаты — и «программу» и «карточки» и… стены комнаты!:

                                                                                                            Now to the replies:
                                                                                                            I. The systems reply (Berkeley). «While it is true that the individual person who is locked in the room does not understand the story, the fact is that he is merely part of a whole system, and the system does understand the story. The person has a large ledger in front of him in which are written the rules, he has a lot of scratch paper and pencils for doing calculations, he has 'data banks' of sets of Chinese symbols.
                                                                                                            Now, understanding is not being ascribed to the mere individual; rather it is being ascribed to this whole system of which he is a part.»
                                                                                                            Тут нет у нас упоминая «программы» (вместо неё — a large ledger in front of him in which are written the rules) — "здоровенная книга с правилами", но появилось «убойная» версия — понимает некая система!

                                                                                                            Ответ Сёрла прост — "
                                                                                                            My response to the systems theory is quite simple: let the individual internalize all of these elements of the system. He memorizes the rules in the ledger and the data banks of Chinese symbols, and he does all the calculations in his head. The individual then incorporates the entire system. There isn't anything at all to the system that he does not encompass. We can even get rid of the room and suppose he works outdoors. All the same, he understands nothing of the Chinese, and a fortiori neither does the system, because there isn't anything in the system that isn't in him. If he doesn't understand, then there is no way the system could understand because the system is just a part of him."
                                                                                                            — Человек зазубрил заранее все правила (долой «дух ИИ» вообще из комнаты в том или ином виде) и даже лишился комнаты выйдя на свежий воздух! — Результат — человек всё равно НЕ понимает китайского.

                                                                                                            Помогло ли это Сёрлу? — Нет, критики всё равно нападают на него с лозунгом — «Система понимает!», подразумевая под системой что угодно и как угодно:

                                                                                                            Actually I feel somewhat embarrassed to give even this answer to the systems theory because the theory seems to me so implausible to start with. The idea is that while a person doesn't understand Chinese, somehow the conjunction of that person and bits of paper might understand Chinese. It is not easy for me to imagine how someone who was not in the grip of an ideology would find the idea at all plausible.
                                                                                                            Короче говоря, он не может представить что вообще есть (находятся) люди, способные думать о некой «Системе Понимающей», — ему тяжело это вообще представить себе! (мне тоже, но они есть же -> michael_vostrikov, Druu, DjSapsan, sshmakov и др. )

                                                                                                            Кстати, michael_vostrikov, а вы понимаете почему Китайская Комната называется Китайской, а не, например, — Санскритской Комнатой?

                                                                                                              0
                                                                                                              Короче говоря, он не может представить что вообще есть (находятся) люди, способные думать о некой «Системе Понимающей», — ему тяжело это вообще представить себе!

                                                                                                              Очевидно, это проблемы Серла, если он чего-то не может представить. Аргументом "не могу представить" не является.

                                                                                                                0
                                                                                                                taujavarob
                                                                                                                Немного поздно отвечаю, но у VSauce даются все ответы. Хотя не затрагиваются эти ваши «эксперименты», но даже мельчайшие тонкости объясняются. Всё непонимание сразу уйдет.
                                                                                                                Ссылка — www.youtube.com/watch?v=rA5qnZUXcqo. Если нет према, сочувствую.
                                                                                                              0

                                                                                                              Давайте немного к началу вернемся. Что вам непонятно в тезисе: "человек в комнате язык не понимает, а система из человека+правил работы (т.е. комната в целом) — понимает"?

                                                                                                                –1
                                                                                                                Druu
                                                                                                                Давайте немного к началу вернемся. Что вам непонятно в тезисе: «человек в комнате язык не понимает, а система из человека+правил работы (т.е. комната в целом) — понимает»?
                                                                                                                Что такое «человек язык понимает или нет»? — мы не можем сформулировать, но мы можем вынести вердикт — понимает или нет.

                                                                                                                Что такое «система из человека+правил работы (т.е. комната в целом) — понимает» мы не только не можем сформулировать, но и вынести вердикт не можем.

                                                                                                                Ваша формулировка: "Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя («я понимаю») либо при помощи переноса ("Х ведет себя точно так же как я, если бы понимал => Х понимает")."

                                                                                                                Я уже писал об пивном автомате. Он ведёт себя как человек наливающий пиво, но НЕ понимает.

                                                                                                                Или пример проще простого, наверное — пружина патефона ведёт себя как музыкант — но музыки не понимает.

                                                                                                                Автоматическая система открывания двери на фотодиоде ведёт себя как швейцар, но ничего НЕ понимает.

                                                                                                                Человек в КК ведёт себя как китаец, но китайского ни он, ни какая-то мифическая система, НЕ понимает.

                                                                                                                Мы топчемся на месте и ходим по кругу с вами лично.

                                                                                                                Давайте и я вам задам контрольный вопрос в голову (на который никто не решился ответить) — в чём суть Китайской Комнаты? — Почему она именно китайская, а не, к примеру, санскритская?
                                                                                                                  +3
                                                                                                                  Что такое «система из человека+правил работы (т.е. комната в целом) — понимает» мы не только не можем сформулировать, но и вынести вердикт не можем.

                                                                                                                  Почему же не можем? Точно так же можем вынести вердикт, как и в случае с человеком.


                                                                                                                  Я уже писал об пивном автомате. Он ведёт себя как человек наливающий пиво, но НЕ понимает.

                                                                                                                  Пивной автомат НЕ ведет себя как человек => не понимает.
                                                                                                                  Вот так будет верно.


                                                                                                                  Или пример проще простого, наверное — пружина патефона ведёт себя как музыкант — но музыки не понимает.

                                                                                                                  Опять же, пружина патефона НЕ ведет себя как музыкант => музыки не понимает.


                                                                                                                  Автоматическая система открывания двери на фотодиоде ведёт себя как швейцар, но ничего НЕ понимает.

                                                                                                                  Автоматическая система открывания дверей НЕ ведет себя как швейцар


                                                                                                                  Вы делаете ложные предположения и из них выводите ложные выводы.


                                                                                                                  Человек в КК ведёт себя как китаец, но китайского ни он, ни какая-то мифическая система, НЕ понимает.

                                                                                                                  Не человек в КК, а сама КК в целом (человек + правила) ведет себя как китаец => она понимает китайский.


                                                                                                                  в чём суть Китайской Комнаты? — Почему она именно китайская, а не, к примеру, санскритская?

                                                                                                                  Абсолютно не важно. Могла бы быть и санкритской, или японской или русской, или еще какой. Выбор языка совершенно произволен.

                                                                                                                    –1
                                                                                                                    Druu
                                                                                                                    Почему же не можем? Точно так же можем вынести вердикт, как и в случае с человеком.
                                                                                                                    Нет, не можем.
                                                                                                                    В случае человека у нас есть аксиома «Человек может понимать или нет» — в случае системы нам надо определить «что такое понимание системы» — вы его определили как функцию — "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)." — но КК именно по функциональному этому вашему подходу и бьёт под дых! — Вам надо доказать что ваш подход есть истина. В случае КК — Человек понимает или нет — этого доказывать НЕ надо, ибо в случае КК у нас есть аксиома — Человек может понимать.

                                                                                                                    Druu
                                                                                                                    Автоматическая система открывания дверей НЕ ведет себя как швейцар
                                                                                                                    Не ведёт, но она(система) полностью соответствует вашему определению: "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)."

                                                                                                                    Druu
                                                                                                                    Не человек в КК, а сама КК в целом (человек + правила) ведет себя как китаец => она понимает китайский.
                                                                                                                    Это соотвествует вашему определению «понимания». Верно. Но ваше определение «понимания» вам надо доказать. А вот то что «человек может понимать» — принимается БЕЗ доказательств в эксперименте КК.

                                                                                                                    Druu
                                                                                                                    Абсолютно не важно. Могла бы быть и санкритской, или японской или русской, или еще какой. Выбор языка совершенно произволен.
                                                                                                                    Это не верно. Вы не понимаете суть эксперимента в Китайской Комнате. (но вы хоть ответили, остальные отмолчались).

                                                                                                                    Удачи!

                                                                                                                      +1
                                                                                                                      Нет, не можем.
                                                                                                                      В случае человека у нас есть аксиома «Человек может понимать или нет» — в случае системы нам надо > определить «что такое понимание системы»

                                                                                                                      Все не так. У нас определение понимания системы, а поскольку человек — система, то для него это определение тоже подходит. Никаких аксиом для человека у нас нету.


                                                                                                                      Вам надо доказать что ваш подход есть истина.

                                                                                                                      Всмысле? Это просто определение. Определение не может быть истинным или ложным. Но окей, допустим, мое определение плохое, предложите свое, альтернативное.


                                                                                                                      В случае КК — Человек понимает или нет — этого доказывать НЕ надо, ибо в случае КК у нас есть аксиома — Человек может понимать.

                                                                                                                      Нет, у нас есть аксиома: "любая система может понимать"


                                                                                                                      Не ведёт, но она(система) полностью соответствует вашему определению: "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)."

                                                                                                                      Нет, не соответствует, с чего бы вдруг?


                                                                                                                      Но ваше определение «понимания» вам надо доказать.

                                                                                                                      Что значит "доказать определение"? Доказать можно утверждение, а определение утверждение не является. Определение является соглашением.


                                                                                                                      А вот то что «человек может понимать» — принимается БЕЗ доказательств в эксперименте КК.

                                                                                                                      Нет, принимается, что понимать может система. А то, что человек может понимать — это уже следствие.


                                                                                                                      Это не верно. Вы не понимаете суть эксперимента в Китайской Комнате.

                                                                                                                      Ну так чего вы сами не написали, почему комната китайская, а не санскритская? Я бы с удовольствием послушал.

                                                                                                                        0
                                                                                                                        Зачем вы продолжаете гнуть свою линию и еще перекручивать факты? Во-первых, я дал ответы на все вопросы — habr.com/ru/post/427259/#comment_19531636.
                                                                                                                        Во-вторых, вы несете наглую чушь даже о самом оригинале Серла! Хватит заставлять своим бредом меня возвращаться к теме. Я уже всё написал, осталось лишь прочитать мои выключенные пиксели… ой буквы… ой слова
                                                                                                          +1
                                                                                                          Колин Макгинн утверждает

                                                                                                          И что с того, что он это утверждает? Другие другое утверждают, в том числе и сам Сёрл.


                                                                                                          Сирл утверждает, что с его точки зрения в комнате он не видит ничего, что могло бы вызвать сознание, кроме самого себя
                                                                                                          Я уже в сотый раз писал и пишу

                                                                                                          И в этом он не прав, в комнате есть то, что имеет сознание и понимание, кроме самого его. Это описано ниже в секции "Systems and virtual mind replies".
                                                                                                          И да, абсолютно неважно, сколько раз вы что-то написали. Ваши утверждения от этого не становятся верными.


                                                                                                          это то что понимать может только и только человек

                                                                                                          Нет. Это недоказанное утверждение, которое принимается за аксиому. Но в вопросах ИИ его доказательство имеет приципиальное значение.
                                                                                                          И нет, Китайская комната это не доказательство, а пример для проверки. Именно об этом и пишет Сёрл. И написано это именно в секции "Systems and virtual mind replies".


                                                                                                          А вот и ответ Сёрла на ваше замечание:
                                                                                                          что произойдет, если человек запоминает правила

                                                                                                          Это не ответ на мое замечание. Я нигде не говорил, что инструкции должны быть записаны на бумаге. Неважно, где она записана, неважно, кто ее исполняет, понимание возникает внутри процесса, который ее исполняет. Но не внутри процессора.


                                                                                                          какая такая СИСТЕМА БОЛЕЕ ВЫСОКОГО ПОРЯДКА и где она

                                                                                                          Ровно такая же, которая возникает при создании виртуальной машины в компьютере.
                                                                                                          Имеется компьютер (машина) с Windows. Система одна? Одна. Процессор один? Один.


                                                                                                          На нем запущена виртуальная машина с Ubuntu в VirtualBox. Ubuntu понимает файловую систему ext3, Windows нет. Ubuntu понимает команду ls, Windows нет. Windows работает с оборудованием, процессор выполняет инструкции, но ни Windows ни процессор не умеют работать с ext3 и выводить список файлов на ней.


                                                                                                          Какая такая система, которая понимает формат ext3, и где она? У нас же один компьютер и стенки системного блока? Как так получается? Потому что у нас не одна система, а две.


                                                                                                          Человек, исполняющий запомненные инструкции, создает виртуальную машину со своим состоянием. Абсолютно неважно, где оно хранится, в шкафах комнаты или в реакциях нейронов. Важно то, что это состояние изменяется соответственно входящей информации.


                                                                                                          А я что пишу?

                                                                                                          А вы пишете "ИИ может существовать. Понимания не возникает.", при этом говорите, что это доказал Сёрл своим экспериментом. Он такого не доказывал. Возникает понимание или нет, это открытый вопрос.

                                                                                                            0
                                                                                                            Ребята это, уже похлеще бабушкина, у него хоть интерфейс был… а тут просто набор жирных подчеркнутых восклицательных знаков!
                                                                                                            taujavarob просто нет слов… вы даже не пытались что-либо исследовать, а уже бросаетесь заявлениями.
                                                                                                            Специальный план для изучения:
                                                                                                            1) пифагорийская школа
                                                                                                            2) формальные системы
                                                                                                            3) Декарт
                                                                                                            4) Ньютон
                                                                                                            5) Гедель + неевклидова геометрия
                                                                                                            6) фон Нейман
                                                                                                            7) Тьюринг
                                                                                                            8) Серл
                                                                                                            9) машины и алгоритмы
                                                                                                            Не просто биография или вики, изучайте до основания!
                                                                                                            Как еще можно вам аргументировать, если вы мешаете все понятия?
                                                                                                            Жду только определения без «разоблачений»:
                                                                                                            — алгоритм
                                                                                                            — программа
                                                                                                            — формальная система
                                                                                                            — символы
                                                                                                            — семантика
                                                                                                            — исполнитель
                                                                                                            — понимание (в контексте человека, вы же используете это слово, значит знаете как определить его наличие ( «вася не понимает мои намеки» или «ты меня понял»))
                                                                                                            — изоморфизм и аналогия
                                                                                                            П.С. не подменяйте слова «сознание» и «понимание»
                                                                                                              0
                                                                                                              По вашему определению и пивной автомат понимает что наливает пиво.

                                                                                                              Конечно, нет, с чего бы? Автомат не ведет себя как понимающий, что наливал пиво, по-этому и вывод о наличии понимания сделать нельзя. А вот комната — ведет себя как понимающая.


                                                                                                              китайцы вас не поймут — для них НЕТ комнаты, для них ЕСТЬ человек, который сидит в этой комнате и НЕ понимает ничего по китайски!

                                                                                                              Для них есть человек, который китайского не понимает, и комната, которая китайский понимает. С чего вдруг комнаты для них нет, если она есть? В чем проблема, что вы не можете этого понять? Все просто ведь.


                                                                                                              Тест Тьюринга приводит к спорам — ЧТО ТАКОЕ ПОНИМАНИЕ?

                                                                                                              Нет не приводит. Такого спора в принципе нет и быть не может.

                                                                                                            +1
                                                                                                            taujavarob вы всё напутали. И цель теста Тьюринга и цель Комнаты и все аналогии в примерах и определения понятий. Вам не хватает технического опыта. Вы просто спекулируете словами. Уже нет желания разбирать каждое ошибочное утверждение…
                                                                                                            Вы не понимаете, что такое формальная система. Поэтому не поняли случай с китайцем в Комнате. Вы не представляете как технически реализовать правила, а я знаю. Попытайтесь хоть немного пописать код, может разберетесь, пустой и необоснованной философии тут не место. Если коротко, то технически сам китаец не понимает смысла набора знаков (имеется ввиду дамп). Это легко показать, поменяв начертание знаков и обеспечив биекцию (есть и другие способы показать непонимание символов, но вы их не поймете). Кроме этого, в процессе дериваций китаец не понимает промежуточные результаты, даже если работает с оригинальными символами. И еще, ответ показывает не мнение внутреннего исполнителя, а комнаты в целом. И еще важная особенность. Допустим, внутренний исполнитель (пусть даже китаец) не понимает квантовую механику, но экспериментатор снаружи будет другого мнения, он может видеть понимание!
                                                                                                            одной сущностью — алгоритмом. А одну сущность можно сравнить с такой же иной сущностью.

                                                                                                            Это то что я вас прошу делать.
                                                                                                            1) уровень внутреннего исполнителя нужно сравнивать с нейронами, а не с целым человеком. Нейроны тоже не понимают свою работу. А правила работы соответствуют физическим законам, по которым действуют нейроны
                                                                                                            2) не путайте аппарат и алгоритм.
                                                                                                    0
                                                                                                    Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат

                                                                                                    Не выведет и не начнет.


                                                                                                    Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

                                                                                                    Окей, у вас своя модернизированная китайская комната. Давайте все-таки вернемся к оригиналу и будем обсуждать комнату, в которой сидит человек с правилами, и общается так, будто знает язык. А не комнату, которая вам отдает случайные каракули в качестве ответа. Потом что в вашей постановке эксперимент бессодержателен.


                                                                                                    он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

                                                                                                    Ну вот я утверждаю, что он в принципе не научится сколько-нибудь осмысленно отвечать, будет отвечать каракулями и все. Так что вы рассматриваете внутренне противоречивую ситуацию, с-но, из нее можно вывести что угодно.


                                                                                                    Кроме того, нам не важно, понимает китайский язык сам человек или нет. Такого вопроса не стоит, непонятно почему вы на него все время скатываетесь. Мы обсуждаем понимает ли язык китайская комната вцелом. И она, совершенно точно, его будет понимает, при условии что нормально общается и китайцы, которые с ней разговаривают, считают, что все ок.


                                                                                                    Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете.

                                                                                                    Что значит "понимать" алфавит? Буквы собственного смысла не несут, там нечего понимать.


                                                                                                    Это хороший вопрос. Но почему нет?

                                                                                                    А почему да?


                                                                                                    Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

                                                                                                    Тогда ИИ понимает китайский язык. С-но китайская комната понимает язык, т.к. включает в себя этот ИИ, который язык понимает.


                                                                                                    Но феномена «понимания» и тут НЕ возникает. (С)

                                                                                                    Как же не возникает, если в вашей комнате сидит разумный ИИ, который понимает китайский? Вы вообще вводите несущественные детали. Могли сразу вместо человека который в комнате собрал ИИ сразу посадить туда этого ИИ, без человека. Вопрос: понимает ли этот ИИ язык? Ответ: очевидно, да.

                                                                                                      0
                                                                                                      Druu Все правильно. Хотел бы дополнить. На текущем уровне ИИ чаще всего понимает текст как взаимосвязь внутренних понятий.
                                                                                                      Для понимания нашего физического мира нужен вход с реального мира — камеры/тактильные датчики/термометры/обоняние и тд.
                                                                                                      Для понимания чисто человеческих понятий, нужно добавить машине человеческие потребности — голод/жажда/сон/социальное одобрение/размножение/познание.
                                                                                                      С ребенком, кстати, то же самое. Никто не требует в 5 лет понять теорию относительности или Шекспира Хотя сможет понять что трогать руками плиту нельзя. «Непонимание» чего-то одного не означает «непонимание» в принципе.
                                                                                                  +2
                                                                                                  В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

                                                                                                  Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?


                                                                                                  В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

                                                                                                  Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?


                                                                                                  По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык

                                                                                                  Все как и было — человек язык не понимает, а система из человека и правил — понимает. Совершенно несущественно находятся правила вне человека в виде некоего справочника, или он их заучил. В обоих случаях они являются отдельным объектом и их нельзя рассматривать как составную часть человека. Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.


                                                                                                  Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!

                                                                                                  Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.

                                                                                                +1
                                                                                                Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате!

                                                                                                Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?

                                                                            0
                                                                            Наверняка вы чувствуете запах вкусного супа, а собака отдельно: морковь, картошку и мясо. Широкий градиент восприятия и эмоциональных реакцией является отличительной чертой человека от животного (натренировать можно, привить понимание — нет. Для неё это не более чем реакция на определенный стимул).
                                                                            А елси для пгоррммаы оепчтаок понаделать — она схлопнется. Если не согласны, то когда ждать «режим бога» в шахматах?
                                                                              0
                                                                              «А елси для пгоррммаы оепчтаок понаделать — она схлопнется.» — это неудачный пример, он говорит лишь о том, что мы не умеем писать надежные программы и умные компиляторы. А не умеем лишь потому, что не стараемся. Разработчики, которым приходится это делать, занимающиеся очисткой сырых данных могут много рассказать, обработку каких очепяток они уже встроили в свои алгоритмы.

                                                                                0
                                                                                Вы правы.
                                                                                  0
                                                                                  Умность компиляторов зачастую упирается в проблему останова, но это, конечно, мелочи.
                                                                                    0
                                                                                    Да, только это не проблема машин Тьюринга, а общая. Если мы дадим заинтересованному разработчику задание сделать максимально умный компилятор, то через некоторое время нам придется его принудительно остановить, чтобы получить хоть какой-нибудь результат. Иначе он будет бесконечно работать и вносить улучшения.
                                                                                  0
                                                                                  А что за «режим бога» в шахматах? В принципе машины уже сейчас в шахматы и многие логические игры играют как «бог» — в смысле намного лучше людей.
                                                                                  Или еще еще какие-то качества помимо качества и скорости игры?
                                                                                0
                                                                                Текущая версия такова, что нет. Она может строить определённые ассоциации, и соотносить объекты с чем-то внутри алгоритма. Однако, на одно слово «синий» у нас есть миллионы нейронных связей, ассоциаций и так далее. Мы не можем объяснить что такое «синий» но мы понимаем это.
                                                                                  0
                                                                                  А если у машины тоже будут миллионы динамических связей и ассоциаций по каждому обьекту?
                                                                                    0
                                                                                    Пока у человеков нет таких вычислительных мощностей. Кроме, собственно, их мозга.
                                                                                      0
                                                                                      Пока нет.
                                                                                        0

                                                                                        Возможно, миллионы связей по одному объекту и не нужно. Я, правда, забегаю вперёд. Рассмотрим, к примеру ассоциацию "Стол — плоская поверхность с ножками". Здесь одно понятие связано с двумя другими плюс с двумя отношениями между ними. Каждое из них тоже в свою очередь "расшифровывается" через другие понятия. Ножки — ну это такие палки, обычно длинные, иногда короткие. Понятие стола с палками напрямую не связано, но вычислимо, можно перейти от палок к столу и наоборот. Я, конечно, утрирую, но количество прямых связей между понятиями получается не слишком большое.

                                                                                          –1
                                                                                          Речь ведь идёт конкретно о понимании. Даже кошка на уровне условных рефлексов может знать, что на стол запрыгивать нельзя. Стол у неё ассоциируется одновременно с положительным (еда) и негативным (когда выгоняют). Но у неё нет понимания. Даже если она будет знать материал, из которого изготовлен этот стол, да и вообще достанет кошачий масс-спектрометр, лазерный дальномер, и всё такое. В общем, даже если она произведёт все возможные вычисления и анализы, она просто будет знать всё об этом столе. Но знание и понимание — не одно и то же (по крайней мере, так утверждают)
                                                                                            0
                                                                                            Тогда надо разобраться с пониманием слова «понимание». Знание, что это и из чего оно состоит — не понимание. Ок. А моделирование в голове поведения — если я запрыгну на стол, то под лапами будет белая шуршащая скатерть, по которой надо сделать пять шагов, чтобы дойти до тарелки с хозяйскими котлетами, которых я сейчас не вижу — это понимание?
                                                                                              +1
                                                                                              Понятия не имею.
                                                                                                +1
                                                                                                Кот понимает что такое стол, но по своему, не по человечески. Покажи коту другой стол (другой цвет и форма), он всё равно будет искать там тарелки и спрыгивать, когда приходит хозяин
                                                                                                  0
                                                                                                  Не всякий кот. По моим наблюдениям, некоторые коты отлично умеют обобщать, а у некоторых всё очень конкретно: если нельзя на этот стол, то нельзя на него, другой стол (а может и этот же, но в другом углу) тут не причём. Некоторые ещё и предположения строят. Например, если подозревает, что нельзя, но точно не знает, то привлекает внимание хозяина голосом, внимательно следит за реакцией и аккуратно пробует сделать что-то. А другие даже на неприятных ошибках не учатся. Конечно в условиях далёких от городской квартиры (деревня, лес), это прямо отражается на продолжительности жизни.
                                                                                      +1
                                                                                      Видимо, есть несколько версий текущих версий. Предположим, вы хотите объяснить человеку, с которым у вас нет общих языков, какой-то особый оттенок синего. Наверное, вы будете играть в ассоциации — показывать на небо, на море, на красный цветок, зелёную траву, чтобы он понял, как соотносится искомое понятие с уже известными. Он в уме построит свою ассоциацию. Она наверняка будет совсем не похожа на вашу («много голубого с капелькой красного»), а будет связана с его жизненным опытом («это тот цвет, про который говорил странный чувак из странной страны»). Но, при достаточной настойчивости, он будет понимать, про какой цвет теперь вы говорите.

                                                                                      Теперь заменяем в нашем мысленном эксперименте дикаря на машину — и ничего не изменилось. Если машина способна строить ассоциации, если ее память основана на ассоциациях — она так же способна вас понять и усвоить урок.
                                                                                        +1
                                                                                        Да, но если дикарь слеп от рождения, то задача существенно усложняется.
                                                                                        У него нет подходящих ассоциаций. Человеческое мышление — это не только сигналы, передаваемые между синапсами. Мозг человека постоянно подвержен сотням факторов. От возраста до количества света и атмосферного давления. В зависимости от них вырабатываются гормоны, ферменты, и т.д. и они тоже влияют на мышление. И при том на каждого человека иначе, чем на другого. Проблема именно в понимании. Как минимум, чтобы создать интеллект, мы должны в достаточной степени изучить человека. Но мозг — вещь всё ещё достаточно загадочная. Нет ни одной работы, теории, или чего-то подобного, что бы полностью, подробно и достоверно описывало человеческое мышление. Я не говорю, что я придерживаюсь вышеприведённой версии. Просто она сейчас наиболее популярна, и большинство крупных учёных склоняются к ней. Такие дела.
                                                                                        На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект. А если вдруг завтра-послезавтра появится компьютер, который пройдет этот самый тесть Тьюринга с процентом, близким к сотне, лично меня будет пытать мысль о том, действительно ли он мысли, или у него просто такой сложный алгоритм. Понимает ли он так, как человек. Ну и тому подобное.
                                                                                          0
                                                                                          чтобы быть «человеком» — вне зависимости от широты трактовки сего термина по сути, всё-же — не забывайте про воспитание, и взросление в социуме.
                                                                                          см «проблему маугли» — человечкский ребёнок, выросший среди зверей, вырастит зверем, а не человеком. обезьяной, если угодно, похоже, и по интеллекту в том числе.
                                                                                          то есть — неспособность освоить речь, и прочая.
                                                                                            0
                                                                                            > лично меня будет пытать мысль о том, действительно ли он мыслит, или у него просто такой сложный алгоритм.

                                                                                            И вы будете правы в своих сомнениях.

                                                                                            > На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект.

                                                                                            На мой взгляд, уже вполне. Мы просто пока не знаем, как именно это делается, какие части надо в каком порядке соединить, чтобы получить сильный ИИ. Но… тут опять не обойтись без классика...:
                                                                                            Но на какого дьявола, спрашивается. Объясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно.
                                                                                              0
                                                                                              9 месяцев + 20 лет с негарантированным результатом. А должно быть вседоступно, до уровня «скачать на торрентах».
                                                                                              0
                                                                                              >Да, но если дикарь слеп от рождения, то задача существенно усложняется

                                                                                              Про это Тьюринга тоже сказал: "Например, машину нельзя снабдить ногами; поэтому ее нельзя попросить выйти и принести ведро угля. Машина, по-видимому, не будет обладать глазами.… Отметим, что не стоит особенно беспокоиться относительно ног, глаз и т. д. Пример мисс Елены Келлер показывает, что воспитание возможно, если только удается тем или иным способом установить двустороннюю связь между учителем и учеником."
                                                                                                0
                                                                                                примеры показывают, что такие учителя практически всегда неправильно интерпретируют действия слепо-глухо-немых. Интересно, что возможно они могут считать этих учителей тупыми и низкоинтеллектуальными, потому что они не понимают «элементарных» вещей.
                                                                                          0
                                                                                          А что такое понимать?
                                                                                          +3
                                                                                          Если машина x проходит тест Тюьринга, кажется, это значит, что её можно научить чему угодно, чему можно научить человека. Так понятнее?
                                                                                            0
                                                                                            с чего бы?
                                                                                            и что вы понимаете под «человеком», к примеру?
                                                                                            алкаша с айкю в 85?
                                                                                            хокинга?
                                                                                            они ведь «немного» различаются, вам не кажется?
                                                                                            0
                                                                                            А что значит, что вам этот понятно? Как вы… нет, это слишком просто. Как я могу отличить понимание от непонимания? Как я могу убедить вас в своём понимании?
                                                                                              0

                                                                                              А это давно известный прием) "Расскажите об этом своими словами".

                                                                                          +1
                                                                                          Хотел привести в пример
                                                                                          Гло́кая ку́здра ште́ко будлану́ла бо́кра и курдя́чит бокрёнка

                                                                                          но нашел еще один пример по-проще.
                                                                                          Варкалось. Хливкие шорьки
                                                                                          Пырялись по наве,
                                                                                          И хрюкотали зелюки,
                                                                                          Как мюмзики в мове.

                                                                                          несмотря на то что никто не видел Шорьков, но приблизительно я понимаю, что это такие маленькие зверьки. Понимание основано на ассоциациях — когда говорят СТОЛ, каждый себе представляет какой-то стол, поскольку видел стол и сидит за ним каждый день. Чтобы понимать не нужно логически мыслить, нужно иметь ассоциации.
                                                                                          Ассоциации могут быть не четкими и тогда понимание будет не точным или ошибочным. Стоит добавить что ассоциации основаны на жизненном опыте и поэтому у каждого свои.
                                                                                          Можно сказать, что нейронная сеть натренированная на поиск котов на изображениях тоже понимает что такое «абстрактный кот»
                                                                                          Если вам кажется что человеческий мозг что-то «понимает» — посмотрите на 2-х мерное анимированное изображение
                                                                                          image
                                                                                          ваш мозг просто совершает работу (не подконтрольную вашему сознанию) превращая его во вращающуюся 3-х мерную фигуру девушки, что в итоге создает иллюзию… понимания.
                                                                                            0
                                                                                            Несмотря на то, что никто не видел Шорьков, этот текст мозг «вытягивает», достраивая и заменяя понятия на уже знакомые. Форма стиха дает дополнительные «коды рида-соломона», от чего и получается иллюзия понимания текста.
                                                                                              +1
                                                                                              Подумалось: мы составляем своё «понимание» слова «Шорьки» на основе неких привычных способов формировать слова в русском языке. Т.е. определенные комбинации корней, приставок, суффиксов и окончаний дают нам некоторое представление об объекте. Подтверждающий эффект я наблюдаю у себя когда пытаюсь по латинскому названию лекарства или животного создать некий образ (от чего лекарство или что за животное) и крайне часто оказываюсь неправ по причине незнакомого языка.
                                                                                              Таким образом, я думаю, наше понимание радикально отличается от понимания машины в том смысле, что машина хранит образы не в языковой форме. В любом случае для общения с машиной потребуется трансляция с её машления в наше и наоборот. Это даже не перевод с языка на язык. Перевод между человеческими языками имеет под собой общую основу в виде образов и понятий. С машиной у нас нет ничего общего.

                                                                                              прошу прощения за поток сознания :)
                                                                                                0
                                                                                                Вы правы, но, на мой взгляд, ассоциации необязательно должны быть связаны с языком. Не зная имени человека, мы способны его узнать среди тысячи других людей, причем не каждый может описать, чем этот человек отличается от других. Узнаёт и всё.

                                                                                                И ещё, наше понимание отличается от машинного на нынешнем этапе радикально, но я думаю, что этот разрыв будет со временем уменьшаться, хотя и никогда не пропадет совсем.
                                                                                                  +1
                                                                                                  Вот вы правильно насчёт неосознанного распознования сказали. Это типа как битовая маска, выдаёт степень похожести. И вот как раз «биты» составляющие цельную картину у нас с машинами раличные. У машины всё просто — бинарное значение «да-нет». У человека гораздо сложнее. Человеческое сознание хранит не сами значения, а их соотношения между собой. Этого и пытаются добиться в машинном распозновании лиц (насколько я это понимаю).
                                                                                                  Имя человека не является определяющим. Как раз наоборот, это один из параметров сущности, служащий для её наименования. А реальное идентифицирование происходит по некоей «хэш-функции» всех параметров (лицо, голос, манеры).
                                                                                                  Я думаю теоретически возможно закодить всё это дело в булеву логику. Однако, количество параметров будет стремиться к бесконечности и требуется механизм абстракции.

                                                                                                  Вот я всё это написал и почему то мне кажется, что развитие ИИ как раз в эту сторону и идёт…
                                                                                                    0
                                                                                                    У машин, точнее в машинном обучении, не булевые «да/нет», а «с некоторой вероятностью 'да', с другой вероятностью 'нет', а вообще я с такой-то вероятностью 'не знаю'». Поэтому по поводу неприспособленности машинной логики к сильному ИИ можно пока не беспокоиться.
                                                                                              –1
                                                                                              Если разобрать гифосик по кадрам, то видно что вы обманываете нас тут. Можете проверить. Это не 2-д рисунок. И даже не псевдо-3д. Я допускаю, что для каждого кадра было отрисовано отдельное изображение. Но тогда это уже не анимированное изображение.
                                                                                              +1
                                                                                              но через лет пять это будет вполне возможно

                                                                                              Не будет.


                                                                                              Машина не понимает что значат эти слова

                                                                                              А вы — понимаете? Уверены?

                                                                                              0
                                                                                              если машина отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек,


                                                                                              В некоторых компьютерных играх программа отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек.
                                                                                              См. например, серию игр Fallout…
                                                                                                0
                                                                                                Наоборот. В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант». А то, как этот «вариант ответа 28» оформлен сюжетописателями и изображен актёрами — вообще роли не играет — выбор диалога компьютером идёт по таблице, например.
                                                                                                  0
                                                                                                  В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант».


                                                                                                  У меня был ответ на конкретное процитированное замечание.

                                                                                                  Если же тему развить — то надо вспомнить про Сири и Кортану.
                                                                                                    +2
                                                                                                    кто не смог
                                                                                                    вспомнить про Сири и Кортану
                                                                                                    image
                                                                                                      0
                                                                                                      ага, Сири просто душка, я уже говорил…
                                                                                                      по ключевым siri-isms ещё многго интересного можно почитать.
                                                                                                      вечером попробую в контексте сирю помучить, немогу только придумать — пытатся на английском ( у меня с ним не оченб ярко само по себе, не говоря уж за произношение), или переключить сири на русский...?
                                                                                                        0
                                                                                                        Я знаю человека, который смог поругаться с Алисой на телефоне. В трезвом виде, что характерно. Алиса кстати, произносит «Думаю, нам стоит закончить этот разговор» таким холодным тоном, что мурашки бегут.
                                                                                                          0
                                                                                                          поглядел в вебе, ставить приложение на телефон — лень.
                                                                                                          голос то у этой алисы приятный, естественный, или как у окейгугля?
                                                                                                            0
                                                                                                              0
                                                                                                              Не знаю специально она так или сбой но повторить такое больше не удавалось
                                                                                                              Заголовок спойлера
                                                                                                              image
                                                                                                        0
                                                                                                        Есть определенная психологическая граница в сложности взаимодействия — собака тоже понимает настроение человека и ограниченный набор команд, а так же может эмоционально реагировать и обижаться (говорить не может в силу определенного строения гортани), и говорят что гориллу даже научили языку жестов, но до уровня «как человек» = «равного человеческому» они не доросли впрочем как и Fallou
                                                                                                      0
                                                                                                      «Я тебя услышал». Но понял ли я тебя, что думаешь?
                                                                                                        0
                                                                                                        Задайтесь тогда и другим вопросом: человек по сути всего лишь чёрный ящик воздействие-реакция (в том числе зависящая от времени!). Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат? По сути это мозг как функция, только функция задана таблично, а не «аналитически» (как мозг). Формально, такое устройство полностью (абсолютно!) действует как человек. Поставленное вместо какого-либо человека оно «проживёт» его жизнь абсолютно так же, как и тот человек, с которого оно скопировано. Только мыслить оно не мыслит. Но является ли человеком то, что от него неотличимо?
                                                                                                          0
                                                                                                          Так как ответ на вопрос «как дела?» зависит от внешних событий, то в этой таблице придется вводить измерение «время» и спрогнозировать все события, которые произойдут в будущем.
                                                                                                            0
                                                                                                            Это не важно. Вопрос в том, что будет если ваш мозг заменить бесконечной таблицей. Будет ли это человеком?
                                                                                                              0
                                                                                                              Вы описываете «китайскую комнату», возведенную в абсолют. На самом деле ответ прост — это будет невозможно подтвердить или опровергнуть.

                                                                                                                0

                                                                                                                Так а разве мозг не имеет черты этой самой таблицы? В конце концов у нас все на ассоциациях работает.

                                                                                                                  0
                                                                                                                  Если я правильно понимаю, то мозг умеет в абстракции. Таблица же будет перечнем пережитого опыта.
                                                                                                                0

                                                                                                                Встречный вопросы — что такое мышление?
                                                                                                                Почему вы считаете, что проходящий тест Тьюринга на отлично чат-бот думает не так как вы?

                                                                                                                  0
                                                                                                                  Я этого не говорил и не считал. :)
                                                                                                                    0

                                                                                                                    Тогда извините за недопонимание)

                                                                                                                  0
                                                                                                                  Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат?

                                                                                                                  Ответ на вопрос "Какая сейчас температура на улице?" вы так закодировать не сможете. А еще подозреваю, что размер такой базы будет очень большой, поэтому время на то, чтобы выдать результат будет порядка времени существования Вселенной.


                                                                                                                  Но даже если ограничиться текстовым чатом, то человеком оно не является, так как отличаются процессы обработки информации. У человека активируются информационные элементы, соответствующие описанным понятиям, или появляются новые понятия, а у устройства происходит сравнение по заранее заданной базе.

                                                                                                                    +1
                                                                                                                    Ответ на вопрос о температуре подразумевает текущее состояние системы, которое является воздействием (и время, кстати, тоже воздействие). Иначе говоря, на каждое состояние мира задана реакция человека. Это совершенно умозрительный эксперимент и не привязан ни к вычислимости такой базы, ни к поиску по ней.

                                                                                                                    Так как отличаются процессы обработки информации.


                                                                                                                    Не более, чем решение уравнения с выдачей результата и мгновенный ответ для уже известного уравнения. Результат для вас внешне одинаков и корректен.
                                                                                                                      0

                                                                                                                      Совершенно умозрительные эксперименты приводят к совершенно умозрительным результатам, которые имеют мало отношения к реальности.


                                                                                                                      Результат для вас внешне одинаков и корректен.

                                                                                                                      Ну так внутренне-то отличается. Почему мы разрешаем хранить в базе состояние всего мира, но не разрешаем анализировать часть этого состояния снаружи?

                                                                                                                      0
                                                                                                                      Ответ на вопрос «Какая сейчас температура на улице?» вы так закодировать не сможете.

                                                                                                                      Смогу, напишу в таблице «не знаю», ведь ответы в таблице не обязательно должны быть верными и конкретными. Единственное требование, которое предъявляется к ответам — он должны быть похожими на ответы человека.
                                                                                                                      Я вот тоже не знал температуру еще полчаса назад, и не знал бы дальше, если бы не посмотрел на градусник.
                                                                                                                        0

                                                                                                                        Согласен, но это ничего не меняет. Так же берем отладчик и проверяем информационные процессы. Снаружи наверно не всегда можно определить, но могут быть косвенные признаки, как частота ответов "не знаю". Ну если не учитывать, что такое устройство физически невозможно.

                                                                                                                          0
                                                                                                                          Погодите, какой ещё отладчик? Ни о каком отладчике мы не договаривались, у нас слепой тест с черным ящиком.

                                                                                                                          Косвенные признаки есть, однако люди настолько все разные, что у вас не будет уверенности, что это машина, а не человек с особенностями.

                                                                                                                          Кстати, возникает интересный вопрос — если на тест отвечает инопланетянин, у которого мышление и жизненный опыт отличаются от человеческого, то к какой категории его отнесут судьи?
                                                                                                                            +1

                                                                                                                            Вы рассматриваете соответствие тесту ради соответствия, забывая об изначальной цели. Цель — определить, мыслит ли машина, имеет ли она интеллект. Тест Тьюрин