Что на самом деле проверяет Тест Тьюринга

    Некоторое время назад я предложил сыграть в Тест Тьюринга с моим ботом Мишей. Кто попробовал, тот знает, что игрок-робот определяется элементарно. Кто не пробовал, может прочитать об этом в первом же комментарии под той статьей.

    Теперь настал момент устроить разбор полетов, рассказать об устройстве бота и сделать выводы.



    Правила игры


    Правила игры были перечислены в предыдущей статье, повторю здесь, чтобы вам и мне не бегать по ссылкам.

    1. Каждый подключившийся к боту участник может взять на себя роль игрока, отвечающего на вопросы, или судьи, эти вопросы задающего.
    2. Если участник решил быть судьей, то бот случайным образом подбирает ему игрока – либо среди людей-игроков, либо подключает робота. То есть в игре отвечающий всегда один, и судья задает вопросы только ему.
    3. Если участник решил быть игроком, то бот аналогично ищет ему в пару участника-судью.
    4. Игра поделена на туры по 5 вопросов. По окончанию каждого тура судья принимает решение, с кем он общается, с человеком или с машиной — на этом игра заканчивается. Если он не может определиться, то может начать следующий тур или сдаться, прекратив игру.
    5. Робот играет роль маленького мальчика Миши пяти лет. Чтобы судье не облегчать задачу, человеку-игроку рекомендуется тоже отвечать от имени Миши.


    С момента запуска до момента написания статьи было сыграно 256 игр (немного странно, но факт).

    Из них закончились с явным результатом, то есть обе стороны сыграли до конца очередного тура (больше одного тура никто не играл) и судья принял решение — 115 игр

    • решение «робот» — 74
    • решение «человек»- 41

    Ошибочных решений было 26, из них:

    • решение «робот» (на самом деле человек) — 15
    • решение «человек» (на самом деле робот) — 11

    Как видите, чаще человека принимали за робота, чем робота за человека.

    В итоге робот правильно определялся в (74-15)/115 = 51% игр, а робота приняли за человека в 11/115 = 9.5% игр, то есть можно уверенно сказать, что Миша-бот тест не прошел.


    Для сравнения, на конкурсе в 2012 году в 29% из 150 бесед судьи приняли бота-одессита Женю Густмана за человека, а в 2014-ом — 33% судей по результатам 300 бесед.

    Что под капотом


    Бот написан на Python и по большому счету состоит из трех модулей:

    • собственно бот с движком игры
    • диспетчер роботов
    • робот

    Основной алгоритм игры содержится в классе Game, который хранит id участников и реализует простую машину состояний:

    • Начало игры
    • Ждём вопроса от судьи
    • Ждём ответа от игрока
    • Ждём решения от судьи
    • Игра закончена


    На переходах между состояниями бот передает вопросы судьи к игроку, ответы от игрока судье. Передается только по одному сообщению и бот становится в следующее состояние, поэтому если кто пытался спросить или ответить двумя, видел, что бот это не позволяет делать.

    Когда бот получает ответ от робота, он передает ее не сразу, а с задержкой времени — это не сразу появилось, я ее добавил по замечанию galqiwi, спасибо.

    Каждое изменение состояния сохраняется в БД SQLite, на случай непредвиденных ситуаций — пропадания электросети, перезагрузки операционки или попросту хозяину бота (мне, то бишь) захотелось остановить его и что-то переделать. При новом запуске бот загружает из БД сохраненные игры, и игра продолжается.

    Далее, есть две очереди ожидания — судей, ожидающих игроков, и игроков, ожидающих судей. Когда участник начинает новую игру, просматривается соответствующая очередь, есть ли ему партнёр. Если нет, то сам участник ставится в очередь.

    В отдельном потоке живёт диспетчер роботов. Он периодически просматривает очередь судей, ожидающих игроков, и создаёт для них экземпляр робота. В нём специально сделана задержка, чтобы робот не всегда успевал перехватить судью и человек-игрок тоже имел шанс подключиться к игре. В диспетчере заложена возможность создавать различные варианты роботов, нужно просто зарегистрировать их классы. Но пока реализован всего один.

    И, наконец, модуль робота. Но прежде, чем рассказать о внутренностях робота, расскажу о базе вопросов и ответов, с которой он работает.

    Сначала я набил такой текстовый файл:

    T: Миша
    T: Меня зовут Миша
    Q: Как тебя зовут?
    Q: Как тебя звать?
    Q: Как вас зовут?
    Q: Как твое имя?
    Q: Ты кто?
    
    T: Конечно
    Q: Ты настоящий мальчик?
    
    T: Я мальчик
    T: Конечно
    Q: Ты человек?
    Q: Ты настоящий человек?
    Q: Ты живой человек?
    
    T: Я мальчик
    T: Нет, конечно
    Q: Ты компьютер?
    Q: Ты машина?

    … ну и так далее. Затем отдельной утилиткой считал их в базу данных — таблица вопросов, таблица ответов, связь между ними многие-ко-многим. Плюс табличка использованных слов с линками на вопросы. Причем слова сохранялись не в оригинальной форме, а в нормальной и с синонимами. Нормальная форма слова определялась по pymorphy2 от kmike, а синонимы к ней искались из словаря YARN, предварительно сконвертированного из XML в SQLite — словарь занял всего 22 мегабайта, а сколько удовольствия…

    Метод поиска синонимов к нормальной форме слова:

        def normalSynonyms(self,orig):
            r = self.morph.parse(orig)
            res = []
            for parse in r:
                word = parse.normal_form
                syns = self.yarn.synonyms(word)
                for g in syns:
                    words = self.yarn.words(syns[g])
                    res = res + words
            return res

    Теперь собственно робот. Вообще от робота требуется реализация лишь одного метода

    getAnswer(self, text)

    , то есть просто получение ответа на заданный вопрос. Если роботу надо хранить предыдущие вопросы и контекст, какие-то дополнительные действия, то он делает это сам. Поскольку на каждую игру создается свой экземпляр класса робота, то контексты из разных чатов не пересекаются.

    Поиск нужного ответа мой робот делает в два этапа:

    1. Проверяет, известен ли ему вопрос. Если известен, то выбирает один из подходящих ответов.
    2. Иначе разбивает вопрос на токены-слова, также находит им синонимы в нормальной форме, отбирает среди известных вопросов те, в которых есть найденные слова, и уже из найденных вопросов выбирает наиболее вероятные по количеству совпадений. И выдает подходящий ответ.


    Как видите, робот не умеет «думать» над ответом, всё, что он может ответить — это одна из заготовок, подходящая или неподходящая для очередного вопроса. Вы скажете, что это фигня, а я скажу — читайте классиков.

    "Словарь Вильяма Шекспира, по подсчёту исследователей, составляет 12000 слов. Словарь негра из людоедского племени «Мумбо-Юмбо» составляет 300 слов. Эллочка Щукина легко и свободно обходилась тридцатью."

    Правда, классики не упомянули, обладала ли Эллочка Щукина интеллектом, пусть даже искусственным. Наверное, и сами не были уверены.

    Выбор персонажа


    Как видите, простота алгоритма робота не позволяет ему поддерживать сложные диалоги, поэтому встал вопрос, какого человека, точнее персонажа, сможет имитировать робот.

    Нужен был персонаж, который может отвечать уклончиво, путаться в ответах, не стесняется повторяться. Но, с другой стороны, который был бы похож на человека.  Так как я не обеспечил робота какими-либо книжными знаниями и не снабдил его возможностью искать в интернете, то его персонаж не мог быть взрослым образованным человеком. Его область знаний должна была ограничиваться минимумом, только тем, что он сам мог видеть и понять.

    Было соблазнительно выбрать Людоедку Эллочку — а что, минимум словарного и фразеологического запаса, любой заготовленный ответ годится практически на любой вопрос. Но это было не интересно, хотелось усложнить задачу.

    Поэтому выбор пал на роль ребенка. Возраст у ребенка должен быть такой, чтобы  позволять ему связно говорить, понимать — это где-то от двух-трех лет. Он должен знать какие-то базовые вещи, но еще плохо работать с абстракциями. Например, я не вкладывал в робот калькулятор, поэтому и робот в роли ребенка не сможет посчитать «один плюс два» — так что отпадает школьный возраст и близкий к нему. Так что я взял средний возраст в пять лет, когда дети достаточно самоуверенны, но толком еще ничего не знают.

    Однако, выбрав для робота роль ребенка, я понимал, что следствием этого выбора будет необходимость, чтобы все игроки-люди так же играли роль маленького мальчика. Практика показала, что мало кто это всерьез воспринял, отвечали как хотели, только что телефонами не обменивались.

    Железо


    Осталось показать тот суперкомпьютер, на котором живет Миша-бот:


    Это Raspberry Pi 3. На хвосте к нему висит SSD, прицеплен на всякий случай, если понадобится активная работа с базами данных, но в самом роботе не используется.

    Собственно, это всё о роботе Мише.

    Размышления о Тесте Тьюринга


    За почти семьдесят лет с момента написания статьи Тесту Тьюринга нашли определение, что это бихевиористский подход, сравнительный анализ на основе поведения — поведение человека сравнивается с поведением машины. Оно, конечно, так, однако я хочу обратить внимание на другие аспекты, на которые Алан Тьюринг, похоже, не обратил внимания.

    Итак, то, что мы называем Тестом Тьюринга, было описано Тьюрингом в статье "Может ли машина мыслить?" (первая публикация называлась «Computing Machinery and Intelligence»)  и названо автором «игрой в имитацию». Если исходить лишь из её названия, можно было полагать, что игроки действительно должны имитировать поведение друг друга — человек притворяется машиной, а машина человеком. Но по замыслу Тьюринга в игре лишь машина должна подражать человеку.

    Цитата:
    "Можно  было бы  заметить, что  при «игре в имитацию»  не исключена возможность того,  что простое подражание поведению  человека не окажется для машины наилучшей стратегией.  Такой случай возможен, но я не думаю, чтобы он привел  нас к чему-нибудь существенно новому. Во всяком случае никто  не пытался исследовать теорию нашей игры в этом направлении, и  мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать  ответы, которые в соответствующей обстановке дал бы человек."

    Человеку-игроку же Тьюринг отвел роль не активного участника, который может запутывать судью своими сознательно неправильными ответами, а лишь роль образца, контрольного примера, с которым задающий вопросы будет сравнивать ответы машины. От человека ожидается естественное поведение, типичное для человека.


    Цитата:
    "Если  бы человек попытался  притвориться машиной, то,  очевидно, вид у него был бы  весьма жалкий. Он сразу выдал бы  себя медлительностью и неточностью при  подсчетах."

    Замечу, что Тьюринг не говорит, что человек не должен имитировать машину. Хотя человек может, если хочет, имитировать машину, другого человека или инопланетянина, вообще заниматься чем угодно, даже игнорировать вопросы или задавать встречные, но цель игры — получить ответ на вопрос «может ли [данная] машина мыслить?», поэтому человек здесь лишь помогает задающему вопросы в достижении цели, а не препятствует ему.

    Из ответов бота:
    "2018-10-23 13:01:53,385 186 Player2Judge Стал бы человек вести себя как машина, чтобы обмануть другого человека?"

    Подытожу — два игрока, машина и человек:

    • машина имитирует человека как можно лучше — это ее основная цель в игре
    • человек ведет себя естественно

    Лучшее качество машины


    Разобравшись с правилами, следующим шагом предположим, что мы хотим построить мыслящую машину. Как она должна работать, точнее, как она должна проявлять свои мысленные способности?

    Мы можем воспользоваться представлениями о мыслящей машине из кинофантастики. Подходит ли Джарвис из «Железного человека» под это определение? R2-D2 или C-3PO из «Звездных войн»? Дэвид из «A.I.»? Долорес Абернати из «Мира Дикого Запада»? Афина из «Земли будущего»? ВАЛЛ-И из одноименного мультфильма? Вроде про каждого из них интуитивно можно сказать, что это мыслящие машины, потому что они ведут себя осмысленно, и не похоже, что они действуют по какой-то относительно простой программе.

    Теперь проведем мысленный эксперимент — зададимся вопросом, какая из перечисленных машин скорее всего пройдет Тест Тьюринга? По условиям игры для этого достаточно ответить на вопрос, какая из машин сможет сымитировать человека так, что по его ответам его нельзя будет отличить от настоящего человека.

    Очевидно, сразу отпадут роботы R2-D2 и ВАЛЛ-И, как не умеющие разговаривать на человеческом языке, и их я предлагаю далее не рассматривать.

    Также очевидно, что в претендентах на победу окажутся машины, специально сконструированные для такой имитации — из нашего списка это Долорес и Афина. Причем если Долорес (я имею в виду её в статусе «девы в беде» в начале первого сезона) сама считает себя человеком, то Афина, напротив, вполне чётко понимает, что она робот, но может исполнить, при необходимости, имитацию на достаточно высоком уровне.

    Что же касается Джарвиса, C-3PO и Дэвида, то они тоже осознают, что они машины, и не имеют ни склонности, ни способности скрывать это от людей. Задающему вопросы не придется подлавливать их на каких-то каверзных вопросах, они и сами во всем признаются.

    И вот к чему мы пришли. Оказалось, что Тест Тьюринга пройдет машина, которая:

    • либо будет считать себя человеком и иметь соответствующие человеку воспоминания, знания и жизненный опыт;
    • либо, зная о своем происхождении, будет лгать в ответах на вопросы, имитируя человека.

    То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи —  к сознательной или к самообману. Печалька.

    В защиту Тьюринга надо сказать, что перед ним не стояла задача оценки моральных качеств машины. Он искал даже не ответ, а способ получения ответа на вопрос «может ли машина мыслить?», и это в то время (1950), когда задача создания искусственного интеллекта казалась скорее фантастикой, чем теоретической наукой. На этом фоне «игра в имитацию» была значительным шагом вперёд в понимании, как оценивать искусственный интеллект.

    Цитата:
    "… нас интересует не то, будут ли все цифровые вычислительные машины хорошо играть в имитацию, и не то, будут ли хорошо играть в эту игру те вычислительные машины, которыми мы располагаем в настоящее время; вопрос заключается в том, существуют ли воображаемые вычислительные машины, которые могли бы играть хорошо."
    Поделиться публикацией
    Комментарии 181
      +14
      Я не боюсь компьютера, который пройдет тесть Тьюринга.
      Я боюсь компьютера, который его намеренно завалит.
      (с) Старый мемас
        –1
        особенно под игроком морочить голову другим судьям…
        +1
        Почему люди думают, что машина которая пройдет Тест Тьюринга будет мыслить? Мы может натренировать нейросеть на идеального собеседника, но будет ли она мыслить? По моему она просто будет уметь работать со словами не понимая их смысл, а просто зная какое слово нужно поставить, чтобы пройти тест.
          +9
          Потому что duck typing, если машина отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек, реализует человеческий интерфейса, то это, вероятно, и есть утка человек.
            –2
            Опять же нейросети. Сделать это все может и в данный момент трудно, но через лет пять это будет вполне возможно. Машина не понимает что значат эти слова, она просто делает свою работу.
              +8
              А вы понимаете, что значат ваши слова сейчас, или просто делаете свою работу?
                0
                Понимаю. Только вот в понимании главное не слова, то тот объект на которые они ссылаются. Мне понятны слова, но что ещё более важное мне понятно что они значат. Машина же манипулирует только словами, а что они значат нет. Она может хорошо отвечать на вопросы, задавать свои. Она знает как построить предложение и из чего построить предложение, но что оно значит нет. Это просто хороший чат бот.
                  +8
                  Попробуйте меня убедить, что вы не просто хороший чат бот, который только манипулирует словами.
                    0
                    Это просьба или команда?
                      0
                      А вот интересно, допустим, он попробует. Вы скажете, что нет, не убедил. Как он сможет определить, что вы не обманываете и он действительно не убедил?
                      +1
                      Разве машину нельзя натренировать, чтобы она понимала значение слов?
                        0
                        Можно. В зависимости от реализации её понимание может быть как крайне примитивным — «стол — это хорошо», «стул — это плохо», так и куда более сложным, но в любом случае будет отличаться от вашего. И что это даст в понимании, может ли она мыслить?
                          +1
                          Мышлением, понятно, это еще не будет. Тут вопрос в другом. Что такое мышление? Может ли человек обьяснить, как он мыслит? Почему он мыслит так, а не иначе? Могут ли мыслить животные? Почему люди, растущие в одинаковых условиях, могут кардинально отличаться в характере и мыслительных процессах? Для того, чтобы создать имитацию разума, сначала надо понять сам разум.
                            0
                            Может ли человек обьяснить, как он мыслит?

                            Смотря какой человек и кому. AlexeyR сможет, вероятно. Мой сосед-прораб — вряд ли, но у него такого вопроса и не возникает.
                            Для того, чтобы создать имитацию разума, сначала надо понять сам разум.

                            Тут у кого какой подход — одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке, а скорее в нескольких — и мы неожиданно выясним, что человеческий способ мышления не единственно возможный.
                              +2
                              sshmakov
                              одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке,
                              Так думали математики лет 100 назад, «доказывая» непротиворечивость математики. Не сошлось.

                              От расстройства кто-то стал «изобретать» новую логику — выкинули принцип «исключение третьего», кто-то просто перестал заниматься математикой.

                              Воз и ныне там — не сошлось.

                              Последняя (крайняя) гипотеза — не сходится потому что нет определения что такое понимать?

                              alfixer
                              Может ли человек обьяснить, как он мыслит?
                              Может.
                              Есть в мозгу «черный ящик» — аналог ИИ — в него поступают запросы (неявно) — он выдаёт ответы (асинхронно, бывает и через минуту, а бывает — «надо переспать с этой мыслью» — или иначе говоря — «утро вечера мудренее»)

                              Сама передача вопроса «черному ящику» не осознаётся — исключая возгласа к небесам — «Помоги, мне всемогущий ....»

                              Приём же ответа от «черного ящика» также не осознаётся, либо всё же регистрируется возгласом типа «эврика!» или «осенило меня братцы!».

                              Сознательная же часть мышления заключается в следовании «житейской логики» — не путать с логикой Аристотеля.

                              Пример:
                              Вопрос — Каждую субботу ваш сосед ходит в баню. Сегодня суббота. Пойдёт ли сосед в баню?

                              Единственно правильный ответ, используя логику Аристотеля: Да.

                              Один из возможных ответов, используя «житейскую логику»: Нет, он болен.

                              В жизни Логики нет. (С) — Не потому что типа так, а потому что — откуда ей в Природе то взяться то?

                              Трудно сейчас сказать, зачем Аристотель придумал (изобрёл) свою Логику и зачем её хранили и изучали в средние века арабские учёные?

                              В Европе логика Аристотеля появилась примерно в 12 веке (в тамошних универах) с целью… хоть как-то отделить ереси, кои ранее отделяли обычно силой — а то как?

                              Ну, и напоследок — человек отличается от иных животных не «чёрным ящиком», поди — «чёрные ящики», поди, многих животных «мощнее» (но как это измерить?) чем у человека.

                              Да и ИИ вскорости превзойдёт по «мощности» (к примеру, в количестве обработки картинок в секунду — нахождения чего-то на картинке), потом подключится «специализированный ИИ» который будет «выводить» заключение на «логическом языке» (или на языке «житейской логики», по вкусу) на приемлемое (опять, такие, «степень разжёвывания» будет по вкусу) количество текста (страниц).

                              Конечно будут возгласы типа — Как ИИ до этого додумался? — Как и сейчас мы можем так возгласить, глядя на гениальные тексты какого-нибудь гения (особенно если гений уничтожил все свои черновики).

                              Короче — «чёрный ящик» у животного есть. Нет этого самого «толмача» с «переводом» на «житейскую логику», которая одна только и осознаётся то! Ну, типа так считается наукой сейчас, поди.

                              А что есть «осознание» или «понимание»? Тут на помощь приходит известная "Китайская комната" (вариант с сидящим там уже разумным(!) существом, общающийся с внешним для него миром посредством, например, терминала и только терминала — а как иначе то сознательно(!) общается наш мозг то с внешним миром то?).

                              Анализ «Китайской комнаты» порождает два основных вывода:

                              1) Ребёнок (даже при условии что он изначально хоть как-то наделён разумом или способностями к нему) не может понять китайский язык (и любой иной язык, обобщая)

                              2.) Китайцы признают человека сидящего в «Китайской комнате» и общающегося с ними через терминал на китайском как человека понимающего китайский язык. Но — как только китайцы узнают КАК этот разумный человек научился китайскому языку, то они вмиг скажут что китайского языка он НЕ ПОНИМАЕТ!

                              Оба вывода есть парадоксальны. (С)

                                0
                                Черный ящик-подсознание?
                                  +1
                                  Китайская комната Сёрла есть не что иное, как экспертная система. ЭС имеет два фундаментальных отличия от человеческого ИИ:
                                  1) Она неизменна (не ответит на вопрос «каким был предыдущий вопрос»). Этот вопрос решаем, но очень сложно. В инструкциях может быть указание вести историю переписки и указание как с ними обходится. Но такие указания могут изменить логику работы комнаты (привет недавней статье о многоуровневых машинах тьюринга в наших устройствах).
                                  2) Была составлена заранее понимающим китайский язык агентом.

                                  Выводы:
                                  1) Общение с простой комнатой покажет полное отсутствие понимания с ее стороны.
                                  2) Общение с улучшенной комнатой неотличимо от общения с живым агентом, составившим внутренние инструкции.
                                  3) Понимает не внутренний аппарат (нейрон), а вся система имеющая интеллектуальное начало.
                                    0
                                    1) Она неизменна (не ответит на вопрос «каким был предыдущий вопрос»).

                                    Китайская комната изменяется.


                                    2) Была составлена заранее понимающим китайский язык агентом.

                                    Человеческий интеллект этому соответствкет — языку вас учил тот, кто знал это язык.

                                      0
                                      1) Оригинальная комната Сёрла неизменна.
                                      2) Мой аргумент придется долго объяснять. Суть в абстрагировании. Мы можем поместить комнату и автора комнаты в одну большую супер-комнату. При получении новой записки автор редактирует книгу и дает ее и записку в под-комнату. С под-комнаты вылазит ответ и он передается на выход супер-комнаты. Супер-внешний наблюдатель будет думать, что общается с китайцем, хотя китаец ему не отвечает, а его суб-комната действует по алгоритму.
                                      Человеческий интеллект соответствует супер-комнате, а не комнате Сёрла. В этом отличие.
                                        0
                                        1) Оригинальная комната Сёрла неизменна.

                                        С чего бы? В оригинальном описании, вроде бы, нет никаких ограничений на наличие памяти.


                                        Человеческий интеллект соответствует супер-комнате, а не комнате Сёрла. В этом отличие.

                                        Так супер-комната и комната ничем не отличаются в вашем описании, у них одинаковое поведение.

                                          0
                                          1) в оригинальном эксперименте человек внутри рассматривает только входящий текст, инструкции он не может поменять. Данная комната не является полной по Тьюрингу. В машине Тьюринга вообще нет разницы между программой и данными. В «правильном» эксперименте с комнатой инструкции и вопрос состоят из одинаковых символов и могут спокойно подаваться на одной бумажке.
                                          (другие интерпретации комнаты тоже не решают вопрос, я же написал, что долго объяснять)
                                          2) Вы совершаете фундаментальную ошибку большинства людей. Нужно рассматривать не исполнение алгоритма, а его создание. Супер-комната генерирует алгоритм. А суб-комната его исполняет. Вот и всё!
                                            0
                                            P.S. первый пункт из-за ошибки в логике людей уходит в бесконечную рекурсию в обе стороны. Читайте «Гедель, Эшер, Бах: эта бесконечная гирлянда» Хофштадтера Дагласа.
                                              0
                                              1) в оригинальном эксперименте человек внутри рассматривает только входящий текст, инструкции он не может поменять.

                                              В смысле не может? как раз инструкции он и применяет, чтобы сформировать ответ.


                                              В «правильном» эксперименте с комнатой инструкции и вопрос состоят из одинаковых символов и могут спокойно подаваться на одной бумажке.

                                              С чего вы взяли?


                                              Супер-комната генерирует алгоритм. А суб-комната его исполняет. Вот и всё!

                                              Так генерация алгоритма есть исполнение алгоритма генерации.

                                                0
                                                О чем с вами беседовать, если вы:
                                                1) Не читали оригинальные утверждения Тьюринга.
                                                2) Не знаете что такое вычисления, алгоритм и абстрагирование.
                                                3) Не изучали другие источники, вроде Хофштадтера, Пенроуза и других.
                                                  0
                                                  1) Не читали оригинальные утверждения Тьюринга.

                                                  При чем тут Тьюринг, если мы говорим о китайской комнате?


                                                  Не знаете что такое вычисления, алгоритм и абстрагирование.

                                                  Конечно же, знаю.


                                                  Не изучали другие источники, вроде Хофштадтера, Пенроуза и других.

                                                  То, что несет Пенроуз, всерьез воспринимать невозможно. А раз вы Хофштадтера ставите в тот же ряд — это и хорошо, что я его не изучал.


                                                  Я вам задал пару простейших вопросов, ответа не услышал, а услышал кококо ad hominem.
                                                  Уровень владения вами предметом теперь совершенно ясен.

                                                    0

                                                    Давайте по пунктам.
                                                    Китайская комната придумана как доказательство отсутствия понимания у машин, которые претендуют на это. Тьюринг предложил тестировать машины, задавая им вопросы. Серл же утвержал, что прошедшие тест машины ничего не понимают, например отвечают на китайском, даже не зная язык. Этот эксперимент имеет грубые ошибки:
                                                    1) смешивание уровней абстракций. Эквивалент КК по отношению к людям: «человек тупой, потому что нейрон не знает китайский язык». Это тупое утверждение само по себе, неприменимо к людям и тем более к машинам. Внешний испытатель спрашивает комнату, а не внутреннего исполнителя, так что на китайском может отвечать комната в целом. Абстрагирование как раз в том, что высший уровень не знает о низшем. Комната "не знает", сидит внутри человек или железка, инструкции на русском или в двоичнос коде. Нельзя смешивать разные уровни.
                                                    2) Серл забыл, что инструкции были составлены! Они имели начало. Автор инструкций понимает китайский. Так что эксперимент можно рассматривать как общение с автором, а не с внутренним исполнителем. Эквивалент из быта: "китаец отправил СМС и потом получил ответ. Но не может же телефон понимать китайский, как же он ответил?"

                                                      0
                                                      Серл же утвержал, что прошедшие тест машины ничего не понимают, например отвечают на китайском, даже не зная язык. Этот эксперимент имеет грубые ошибки:

                                                      Ошибки имеет не эксперимент, ошибки имеет вывод "комната не разумна", хотя на самом деле она вполне разумна, ведь именно это и показывает эксперимент — комната демонстрирует разумное поведение.
                                                      Ошибка Серла в игнорировании результата эксперимента.


                                                      Что такое вычисление? Это физический процесс.

                                                      Не всегда.


                                                      Об интерфейсе забывают 99.999% говорящих об ИИ, а ведь это необходимая(!) вещь для вычислений.

                                                      Конечно же, нет. Никакого интерфейса для вычислений не нужно. Интерфейс нужен для взаимодействия с вычислительным устройством. Но не для работы самого вычислительного устройства (не для проведения вычислений, с-но).


                                                      КК имеет только табличку вопрос-ответ. Сами инструкции не меняются в процессе.

                                                      Я повторяю вопрос — с чего вы это взяли? Почему вы решили что не может быть инструкций вида: "инструкция Х: внесите изменения Y в инструкцию Z"?


                                                      И даже если это так — это совершенно бессодержательно, даже если вдруг в оригинальной постановке был явный запрет на память, то правильнее считать, что его не было.


                                                      Имея эти свойства, можно ли запустить на МТ интеллект?

                                                      Ответ "да" очевиден просто в силу того, что человеческий мозг с точки зрения вычислимости не сильнее МТ.


                                                      1) МТ низшого уровня, которая для решения задачи запускает другие МТ внутри себя. Если данная МТ зависла — убираем ее и запускаем другую.

                                                      Невозможно определить, зависла МТ или нет.


                                                      И никаких "уровней МТ" тоже нет, это вы выдумали что-то.

                                                        0

                                                        В самом оригинале эксперимента Серла внутрь комнаты подано только 3 бумажки: символы, правила и вопрос. Черновиков нет! Один из его критиков упомянул о "черновиках", но если они не предусмотрены в правилах, то их невозможно использовать в рамках правил. КК не является полной по Тьюрингу. И вообще, Серл невежественно рассуждает на уровне школьника и его комната популярна только у тех, кто сам застрял там. Серл смешивает уровни, неправомерно применяет аналогии и манипулирует понятиями, доходя даже до утверждения, что термостат не воспринимает температуры, а человек вообще как вроде "сверхестественный".


                                                        Дальше не вижу смысла объяснять вам. Вы не знаете о вычислимости и алгоритмичности, не знаете принципы вычислений, и не поняли что такое МТ.

                                                          0
                                                          Вы не знаете о вычислимости и алгоритмичности, не знаете принципы вычислений, и не поняли что такое МТ.

                                                          В отличии от вас, я все это прекрасно знаю.


                                                          Ваши же знания вполне себе демонстрирует оговорка про: "если МТ зависла, то вырубаем ее".
                                                          Видимо, википедия и Хофштадтер — не лучшие источники. Попробуйте на досуге почитать учебник.


                                                          КК не является полной по Тьюрингу. И вообще, Серл невежественно рассуждает на уровне школьника и его комната популярна только у тех, кто сам застрял там.

                                                          Тогда какой смысл обсуждать исходную постановку? Пусть вместо комнаты Серла будет комната Серла 2.0, с памятью. Содержательно это ничего не меняет.

                                                            0
                                                            если МТ зависла, то вырубаем ее

                                                            Как раз вы ничего не поняли. Сколько раз я говорил о уровнях системы, а вы продолжаете гнуть свою линию. Придется ткнуть вашим носом в конкретные слова:
                                                            Машина Тьюринга может исполнять любую другую Машину Тьюринга — полнота по Тьюрингу . Хотя никакой уровень не знает, что он «завис», но ведь есть уровень ниже, который может это узнать! Признаки зависания: следующий шаг не отличается от предыдущего, возврат в точности к одному из шагов, неожиданно долгое выполнение. ИЗУЧИТЕ БЛИН МАШИНУ ТЬЮРИНГА, ПРОБЛЕМУ ОСТАНОВА И ТЕОРЕМУ О НЕПОЛНОТЕ ГЕДЕЛЯ. Добавляя уровень выше, мы решаем проблему останова в МТ уровня ниже и доказываем недоказуемую теорему в формальной системе уровня ниже.

                                                            Попробуйте на досуге почитать учебник.
                                                            Какой учебник? Школьный? Ну доставайте из своего портфеля.

                                                            Пусть вместо комнаты Серла будет комната Серла 2.0, с памятью. Содержательно это ничего не меняет.

                                                            Комната Серла 2.0 = Машина Тьюринга. В таком случае лучше уже обсуждать саму машину, а не комнату.
                                                              0
                                                              Признаки зависания: следующий шаг не отличается от предыдущего, возврат в точности к одному из шагов, неожиданно долгое выполнение.

                                                              Видите ли в чем дело, если бы зависание гарантированно приводило к циклам, то задача останова была бы алгоритмически разрешимой — достаточно было бы залогировать все состояния и сравнивать с ними. Но проблема именно в том, что программа может зависнуть при отсутствии каких либо повторов в состоянии. Тривиальный пример — машина Тьюринга, которая на каждом смешает ленту вправо и записывает единицу, повторяя эти действия до бесконечности. Повторного состояния не возникнет никогда, но эта МТ, очевидно, висит.


                                                              Нет никакого способа определить, висит производная программа или нет. Не важно в каком вы там "уровне" что собираетесь делать. Смиритесь с этим.


                                                              Добавляя уровень выше, мы решаем проблему останова в МТ уровня ниже и доказываем недоказуемую теорему в формальной системе уровня ниже.

                                                              Нет, это так не работает.


                                                              ИЗУЧИТЕ БЛИН МАШИНУ ТЬЮРИНГА, ПРОБЛЕМУ ОСТАНОВА И ТЕОРЕМУ О НЕПОЛНОТЕ ГЕДЕЛЯ.

                                                              Повторюсь, в отличии от вас, я все это знаю. А вы — не знаете и говорите глупости.


                                                              Какой учебник? Школьный?

                                                              Нет, университетский. По математической логике, теории вычислимости, теории алгоритмов.
                                                              Если осилите — перестанете позориться, говоря глупости с пафосным умным видом.


                                                              Комната Серла 2.0 = Машина Тьюринга. В таком случае лучше уже обсуждать саму машину, а не комнату.

                                                              Зачем? У нас есть некий мысленный эксперимент — китайская комната, в которой все, что надо есть. Ее и обсуждаем.

                                                                0
                                                                Вы утверждаете, что если завис фотошоп, то нужно перезагружать компьютер. На самом деле ОС определяет, что задача не отвечает за разумное время. Какая бы ни была была задача, ОС никогда не зависнет (в идеале). Будь то while(true){}, или «на каждом смешает ленту вправо и записывает единицу».
                                                                Я привел 3 признака зависания. Не обязательно это одинаковое состояние системы. Дело в том, что скорость выполнения конечная (бесконечная скорость решает все вопросы перебором). Так что в каждой задаче есть разумное время выполнения (даже при первом выполнении). Например, машина может давать новой задаче время в одну минуту, если задача и близко не решена, то дается больше или меняет алгоритм.

                                                                Нет, это так не работает.

                                                                Как раз это суть формальных систем. Иначе вы не могли бы знать, что утверждение истинно, но недоказуемо!

                                                                китайская комната, в которой все, что надо есть. Ее и обсуждаем.

                                                                В ней нет полноты по Тьюрингу. Если ее добавить, то она превращается в Машину Тьюринга. Исходя из пункта 1 (выше) можно рассматривать только Машину Тьюринга.
                                                                  0
                                                                  Я привел 3 признака зависания. Не обязательно это одинаковое состояние системы. Дело в том, что скорость выполнения конечная (бесконечная скорость решает все вопросы перебором). Так что в каждой задаче есть разумное время выполнения (даже при первом выполнении).

                                                                  Я вам для любого количества операций могу легко написать МТ, которая работает дольше и при этом завершается. Так что не работает такой критерий. И никакой не работает.


                                                                  Как раз это суть формальных систем. Иначе вы не могли бы знать, что утверждение истинно, но недоказуемо!

                                                                  Видите ли, в чем дело, из теоремы Геделя о неполноте никак не следует, что невыводимое утверждение истинно. Наоборот, из нее в сумме с теоремой Геделя о полноте следует, что существует интерпретация, на которой утверждение истинно, и интерпретация, на которой оно ложно. Так что мы ничего не можем утверждать об истинности невыводимого утверждения. Именно потому оно и невыводимо, с-но говоря. То есть, не "знаю что истинно, но недоказуемо", а "знаю, что может быть как истинно, так и ложно, потому — недоказуемо".
                                                                  Это во-первых. А во-вторых — теорема Геделя о неполноте не требует каких-то систем "более высокого уровня".

                                                                    0
                                                                    Знаю что истинно, но недоказуемо
                                                                    В этом и суть теоремы Геделя. Вы думаете, что формальная система неизменна и существует независимо. На самом деле в любую ФС можно расширять. Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.
                                                                    Я вам для любого количества операций могу легко написать МТ, которая работает дольше и при этом завершается.
                                                                    Отлично, вы нашли неэффективный алгоритм, бросаем выполнять и ищем другой. Не нашелся? Придется выполнять, че поделаешь. Блин, это настолько очевидно! Люди делают так каждый день в любой задаче. Повторяю в десятый раз — это полнота по Тьюрингу.
                                                                      0
                                                                      В этом и суть теоремы Геделя.

                                                                      Еще раз, невыводимое по Геделю утверждение истинным не является. Прочитайте про разницу между истинностью и выводимостью.
                                                                      Вы пытаетесь рассуждать об области, в которой практически не разбираетесь, и по-этому говорите безграмотные вещи, от которой людям, которые разбираются, становится смешно. Снизьте уровень пафоса и почитайте учебник по математической логике, все-таки. Википедия и художественная литература — не лучший источник для образования.


                                                                      Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.

                                                                      Только систему вы можете расширить как для доказательства утверждения "А", так и для доказательства "! А".
                                                                      В итоге у вас есть три разные системы — в одной ни "А" ни "! А" не выводимо (с-но существуют интерпретации как с ложными так и с истинными "А"), во второй выводимо "А" (существуют интерпретации только с истинными "А") и в третьей выводимо "! А "(существуют интерпретации только с ложными А).


                                                                      Отлично, вы нашли неэффективный алгоритм, бросаем выполнять и ищем другой. Не нашелся? Придется выполнять, че поделаешь.

                                                                      Ну то есть никакого способа определить, зависла программа, или нет, не существует. С чего мы и начали.

                                                                        0
                                                                        По вашему, есть одна формальная система и она является законченной и неизменной. Но на самом деле, мы можем придумать любую произвольную формальную систему. Какая из них будет самая «правильная»?
                                                                        И хватит приписывать мне то, что я не утверждал:
                                                                        невыводимое по Геделю утверждение истинным не является.

                                                                        Я сказал другое: «Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.» В рамках конкретной ФС есть утверждение X, которое невозможно вывести. Но расширив данную ФС, мы доказываем Х. Будь это невозможно узнать, Геделя не доказал бы свою теорему! Доказательство видимо только с высоты птичьего полета, но никак не внутри ФС.
                                                                        Невыводимость (неопределенность) существует только внутри ФС. Вы же, зачем-то, переносите данное утверждение на всю Вселенную.

                                                                        Ну то есть никакого способа определить, зависла программа, или нет, не существует. С чего мы и начали.
                                                                        Как раз это я начал именно с этого: " МТ не знает, остановится ли заданный алгоритм". Неясно зачем, вы начали опровергать мои слова таким же утверждением.
                                                                        Суть в другом, подумайте над следующим: вас просят вывести невыводимое утверждение и решить парадокс лжеца одновременно. Вы зависли от ТАКОЙ нагрузки? Нет! Ваш мозг не обрабатывает эти утверждения в реальном режиме, а запускает их в «песочнице» или «виртуалке» и смотрит со стороны на процесс. Долго всё расписывать, я уже устал повторять. Мое последнее утверждение и я ухожу с разговора.
                                                                        1) Запускаем определенную виртуалку.
                                                                        2) Определяем зависание по заданным критериям (я привел 3).
                                                                        3) п.1 пока не найден нужный алгоритм.
                                                                        О проблеме останова «главного» уровня даже не хочу слышать, если заикнетесь — минус в карму, детский сад прям.
                                                                          –1
                                                                          По вашему, есть одна формальная система и она является законченной и неизменной.

                                                                          Почему одна? Их много разных.


                                                                          Какая из них будет самая «правильная»?

                                                                          Нету такого понятия как "правильная" формальная система. У формальных систем есть много разных свойств, но свойства "правильная" среди них — нет.


                                                                          Я сказал другое: «Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.»

                                                                          Зачем?


                                                                          В рамках конкретной ФС есть утверждение X, которое невозможно вывести. Но расширив данную ФС, мы доказываем Х.

                                                                          Теорема Геделя никак не связана с доказательством Х в какой-то более широкой системе.


                                                                          Будь это невозможно узнать, Геделя не доказал бы свою теорему!

                                                                          Без "бы". В доказательстве Геделя по факту не используется никаких "доказательств в более широкой системе".
                                                                          Давайте сперва вы ознакомитесь с этим доказательством, а потом будете о нем рассуждать? Вы ведь его не читали. Зачем вы говорите о доказательстве, с которым совершенно незнакомы?


                                                                          Вы же, зачем-то, переносите данное утверждение на всю Вселенную.

                                                                          Я ничего не говорил ни о каких вселенных.


                                                                          1) Запускаем определенную виртуалку.
                                                                          2) Определяем зависание по заданным критериям (я привел 3).

                                                                          И в п.2 у вас проблема, потому что вы не можете определить зависание при помощи указанных вами критериев. Конец истории.


                                                                          О проблеме останова «главного» уровня даже не хочу слышать

                                                                          Нету никакого "главного" или "не главного" уровня. Есть один единственный уровень, и проблема останова неразрешима. Конец истории.


                                                                          Мое последнее утверждение и я ухожу с разговора.

                                                                          Жаль, я был бы не против еще посмеяться над вашей воинствующей безграмотностью.

                                                        0
                                                        2) Серл забыл, что инструкции были составлены! Они имели начало. Автор инструкций понимает китайский. Так что эксперимент можно рассматривать как общение с автором, а не с внутренним исполнителем.

                                                        А вы уверены, что Серл забыл? Может он под автором инструкции понимал Создателя, тогда КК доказывала неосуществимость ИИ.
                                                          0

                                                          Нет, он не учел, что алгоритм был составлен. Исполнить алгоритм может и кирпич, но вот правильно СОСТАВИТЬ может только интеллект.

                                                        0

                                                        Дальше изучаем.
                                                        Машина Тьюринга (МТ). Это исполнитель алгоритмов. Машина заведомо понимает символы на ленте, но символы это низкий уровень и говорить об интеллекте очень рано.
                                                        МТ абстрактная. В реальности экземпляр МТ реализуют железом.
                                                        Что такое вычисление? Это физический процесс. По сути и кирпич может считать, ведь в нем происходят разные процессы (тепловые например). Чтобы кирпич стал экземпляром МТ ( с точки зрения людей) нужен интерфейс. Об интерфейсе забывают 99.999% говорящих об ИИ, а ведь это необходимая(!) вещь для вычислений.
                                                        Итак, по Тьюринг утверждал, что его машина сможет быть неотличимой от человека. Так ли это? Многие ученые скажут нет, причина — неалгоритмичность и невычислимость процессов мозга. Аналоговые процессы невозможно моделировать дискретными состояниями. Будут неизбежные потери точности. Так что мозг нельзя оцифровать. Но это не значит, что интеллект присущ только человеку. Возможно стоит работать с самим интеллектом, а не с мозгом? Это же разные уровни. Можно ли заменить низкий уровень так, чтобы верхний не заметил? Или может верхний уровень сделать другим?

                                                          +1

                                                          Идем еще дальше.
                                                          Говоря о КК и о МТ мы говорили, что они выполняют инструкции. Рассмотрим более подробно.
                                                          КК имеет только табличку вопрос-ответ. Сами инструкции не меняются в процессе. Так что КК не годится даже для элементарных задач.
                                                          МТ же имеет кучу интересных свойств:
                                                          1) На одной МТ можно запустить другую МТ (вообще неограниченная рекурсия).
                                                          2) МТ выполняет любой валидный алгоритм. Но…
                                                          3) МТ не знает, остановится ли заданный алгоритм (эквивалент неполноты Геделя в мате).
                                                          4) МТ может попасть в бесконечный цикл.


                                                          Имея эти свойства, можно ли запустить на МТ интеллект? Сторонники сильного ИИ считают, что да (я тоже).
                                                          По очереди:
                                                          п.1 дает МТ возможность работать на любом уровне, имея внизу только 2 разных символа. Может играть в шахматы и переводить с китайского. И главное — может запускать «песочницы».
                                                          п.2 дает возможность… вычислять.
                                                          п.3 обычная ограниченность формальных систем, которая иногда не дает машинам закончить задачу.
                                                          п.4 смертельный номер, отсюда уже не выйти.
                                                          Чтобы реализовать интеллект в МТ учитывая эти пункты, нужно всего лишь:
                                                          1) МТ низшого уровня, которая для решения задачи запускает другие МТ внутри себя. Если данная МТ зависла — убираем ее и запускаем другую. Иерархрия может составлять сотни нечетких уровней. Обобщая все это мы имеем ответ на главный вопрос:
                                                          Интеллект это система, которая ищет алгоритм для решения задачи (Система может быть неалгоритмической (аналоговая/квантовая) или алгоритмической (запущена на МТ).

                                                            0
                                                            Сильно. Последнее утверждение вообще класс. Но 3 и 4 совсем не проблема для любых машин. А человеческий мозг — тот не останавливается ни на секунду. Важна не точка останова и не выход из цикла, а результаты, которые выдает программа в процессе работы, ведь после её завершения всё, что обычно можно получить от программы, это errorlevel.
                                                              +1
                                                              Интеллект это система, которая ищет алгоритм для решения задачи

                                                              Подумав ещё, решил, что этого мало. Кот тоже ищет решение задачи, как украсть котлеты — считать ли его интеллектуалом?

                                                              Предлагаю добавить к вашему определению "[задачи], не дающей немедленной выгоды, и которую система сама себе поставила".
                                                                0
                                                                «Уровень» интеллекта недискретная величина. Кто-то более, кто-то менее.
                                                                Общепринято, что люди обладают интеллектом. Младенец тоже человек. Следовательно младенец интеллектуал? Младенцы умеют намного меньше, чем некоторые животные. Так что можно утверждать, животные обладают неким минимальным интеллектом.

                                                                Ваше второе замечание очень важное. Я назвал это «теорема о неполноте интеллекта». Дело в том, что люди стремятся удовлетворить определенные потребности (максимизация функции), но в какой период времени смотреть? Чтобы было хорошо через год? Через десять лет? Через сто лет? Допустим, люди не умирают. Но есть такое действие, которое приносит огромную удовлетворенность сейчас, а через триллион лет убивает. Теперь думаем — максимизировать функцию сейчас или потом. Если сейчас, то потом уже не сможем и интеллект провалил задачу. Если потом, то так умрем с голоду сейчас. Снова интеллект проиграл.
                                                                (я очень неясно написал, но это дело можно строго формализировать и применить к ИИ)
                                                                  0
                                                                  Общепринято, что люди обладают интеллектом. Младенец тоже человек. Следовательно младенец интеллектуал? Младенцы умеют намного меньше, чем некоторые животные. Так что можно утверждать, животные обладают неким минимальным интеллектом.

                                                                  Поскольку у нас всё ещё нет определения интеллекта, то утверждать здесь нечего.

                                                                  Дело в том, что люди стремятся удовлетворить определенные потребности (максимизация функции), но в какой период времени смотреть?

                                                                  Нет, ни на грамм. Могу посочувствовать математике, но люди не являются идеальными объектами, стремящимися максимизировать функцию удовлетворения потребностей. Наши действия чаще всего не рациональны, не ведут к выигрышу, ни к личному, ни к общественному, ни в краткосрочной перспективе, ни на более отдаленный срок. Для признания интеллекта это всё не нужно. Достаточно знать, что задачу он поставил себе сам, и не основываясь на потребностях.

                                                                  (я очень неясно написал, но это дело можно строго формализировать и применить к ИИ)

                                                                  И тогда только формалисты будут им пользоваться для определения ИИ. Формального ИИ, замечу. А понятие искусственного интеллекта не количественное, а качественное, субъективное, а не объективное.
                                                                    0
                                                                    Я пока думаю над более строгим утверждением. Сейчас приведу более практичный пример. Очень идеализированный пример, будем считать, что других вариантов заведомо нет.
                                                                    Итак, объект размером с Луну влетит в Землю через 100 лет. Чтобы его отклонить, нужно отправить туда множество ракет. Но изготовление и запуск ракет приведет к уничтожению экологии, а это приведет к уничтожению всего живого. Эта задача даже не моральная дилемма. Это пример задачи, которую не может решить интеллект.
                                                                    Аналогичный математический пример тоже будет нереашем никаким алгоритмом.
                                                +1
                                                alfixer
                                                Черный ящик-подсознание?
                                                Так как у животных нет сознания, а есть «Черный ящик», то ответ на ваш вопрос в общем отрицательный.
                                                Да и кроме «сознания» и «подсознания» есть "пограничные состояния" — например:
                                                — иногда вы осознаёте что вам снится, но не можете никак повлиять ни на содержание вашего сна, ни на его анализ. Это уже НЕ «чёрный ящик» и ещё не «сознание».
                                                — иногда вы осознаёте что делаете что-то постыдное, нехорошее, вредное или ужасное, но не в силах сами перестать это делать.

                                                DjSapsan
                                                Китайская комната Сёрла есть не что иное, как экспертная система.
                                                О «китайской комнате» столько написано…

                                                Моя современная интерпретация проста:

                                                Разумного человека посадили в комнату и он общается с внешним миром участвуя в китайском чате посредством текстового терминала на котором можно набирать только китайские иероглифы.

                                                Он может создавать базы данных, программировать их, составлять программы, анализировать как ему угодно текст китайского чата, записывать его, изучать, воспроизводить на чём угодно, сортировать, создавать сети ИИ и базы знаний.

                                                Важно что он разумен и чат китайский (китайский — чтобы он не мог сопоставить никаких аналогий между теми языками что он знает и текстом в китайском).

                                                Он разумен — означает, что он не программа и не бот, то есть он заведомо изначально может понимать , чтобы под этим слово не понимали, тут это не важно.

                                                Вначале, наблюдая за чатом — он его изучает, отмечает повторы, появления тех или иных персонажей по времени, их текст, анализируют что они пишут и что им отвечают.

                                                Китайских персонажей не должно быть уж много — хватит и пару-тройки китайцев в чате.

                                                Со временем он робко начнёт вмешиваться в китайский чат, возможно впопад или невпопад.

                                                С течение большего промежутка времени ничего не мешает ему полноценно участвовать на равных в беседах в этом китайском чате. Китайцы принимают его за своего.

                                                Как это возможно?

                                                1) Используя свою отличную память или написанный им (или только натренированный им) ИИ, он ловко и к месту вставляет свои иероглифы в беседу в китайском чате. — Но понимает ли в этом случае он китайский? — Ответ — НЕТ! (Часто в жизни мы видим «зубрилку» сдающего экзамен на отлично, но так, по нашему мнению(!), и не понявшему почти ничего или вовсе ничего).

                                                2). Он решил вписаться в китайский чат используя уже имеющиеся у него знания. Какие? — Разнообразные:
                                                — Люди приходят утром и уходят поздно вечером.
                                                — При встрече люди здороваются, а при уходе прощаются (кроме англичан)
                                                — Вначале беседы люди обсуждают… погоду.
                                                — Когда слова становятся короче, это часто означает, что люди начинают ругаться, доходят до «Гитлера», обзывая друг друга «фашистом».
                                                — когда текст в чате разрастается, то это часто означает, что люди уходят в философские беседы, где часто вспоминают «китайскую комнату».
                                                — и т.п.

                                                И… он вписался в китайский чат — на одном своём воображении, что он знает что же пишут эти китайцы в своём чате! — но этот его "выдуманный мир китайского чата" попахивает солипсизмом!

                                                Ну, а теперь осознайте, что фактически любой ребёнок и есть тот человек, который «заперт» с рождения в «китайской комнате», общаясь с внешним миром только и только посредством «терминала», в котором воспитывающие его родители пишут «китайские (для ребёнка любой язык как для нас китайский) иероглифы».

                                                  0
                                                  Куча отформатированного текста, и я не совсем понял вашу позицию. Вы утверждаете, что и человек ничего не понимает? Это из рода ванили «Любви не существует, это всего лишь химические реакции в мозгу». Не нужно заниматься редукционизмом! Если человек последовательно действует согласно входящей информации, то значит он ее понимает. Если искусственная система делает так же, то она тоже понимает. Не нужно иметь 100% одно и тоже состояние мозга/ИИ для понимания, главное последовательность в ответах/действиях.
                                                    0
                                                    DjSapsan
                                                    Если человек последовательно действует согласно входящей информации, то значит он ее понимает. Если искусственная система делает так же, то она тоже понимает. Не нужно иметь 100% одно и тоже состояние мозга/ИИ для понимания, главное последовательность в ответах/действиях.
                                                    Нет.

                                                    Суть в том, если Тест Тьюринга фактически говорит — вот программа в терминале, определи что это не человек тебе отвечает.

                                                    Но Китайская Комната фактически говорит — вот человек разумный в комнате за терминалом — смотри, нет никаких доказательств что он понимает китайский язык, хотя его ответы неотличимы от ответов настоящих китайцев.
                                                      0
                                                      Китайская Комната фактически говорит — вот человек разумный в комнате за терминалом

                                                      Вы не поняли смысла ни теста Тьюринга ни Китайской Комнаты. В Китайской Комнате человек представляет не разумного человека, а hardware. Я в других комментариях к этой статье уже всё расписал, не хочу тратить время на повторы.
                                                      Просто напоминаю — не мешайте уровни. Ваш аргумент похож на «Если запустить Виндоус на машине Бэббиджа, то это уже не Виндоус»
                                                        –1
                                                        DjSapsan
                                                        В Китайской Комнате человек представляет не разумного человека, а hardware.
                                                        Это вы не поняли смысла.
                                                        Уберите человека разумного из описания Китайской комнаты и она… перестанет существовать.

                                                        "Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает." (ваше мнение ведь!) — «Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние.»

                                                        Иначе говоря, Сёрл утверждает — смотрите, мы помещает ЧЕЛОВЕКА РАЗУМНОГО в нашу комнату и даже ЭТО не помогает нам сформулировать (то есть описать словами) что есть «понимание»? — В этом суть Китайской комнаты.

                                                        А отсюда и следствие — наблюдая КАК ребёнок учиться понимать, мы НЕ в состоянии сформулировать (то есть описать словами) КАК ему это удалось?
                                                          0
                                                          Это вы не поняли смысла.
                                                          Уберите человека разумного из описания Китайской комнаты и она… перестанет существовать.

                                                          Вытяните процессор с компьютера и нажимайте на кнопки. Скажите что вы видите на мониторе.

                                                          Ваши остальные слова — полный бред. Даже не хочется разоблачать. Откройте хоть что-нибудь кроме педивикии.
                                                            +1
                                                            Вытяните процессор с компьютера и нажимайте на кнопки. Скажите что вы видите на мониторе.
                                                            Дело не в кнопках.

                                                            Тест Тьюринга:
                                                            Слева компьютер (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
                                                            Вопрос — Понимает ли компьютер?

                                                            Китайская комната:
                                                            Слева (в китайской комнате) человек разумный (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) - и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

                                                            Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

                                                            Сёрл убрал компьютер из схемы (терминал не в счёт, он может быть любого типа, не только в виде электронного монитора) и спросил — Что есть понимание?

                                                            Иначе говоря он спросил — Вы не можете вообще сказать что есть понимание, а уже ставите более общий вопрос — понимает ли компьютер?

                                                            DjSapsan
                                                            Откройте хоть что-нибудь кроме педивикии.

                                                            Хм. "Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла".

                                                            Хм, а сколько было до 2010 года то? — поди еще больше!
                                                            Статей тысячи! В научных(!) журналах. И не все эти статьи на стороне функционализма то.

                                                              0
                                                              Откройте хоть что-нибудь кроме педивикии.
                                                              Хм. «Только с 2010 по 2014 год [ссылка на вики]

                                                              Откройте хоть что-нибудь кроме педивикии.

                                                              Сёрл убрал компьютер из схемы

                                                              Вы хоть знаете, что такое компьютер? Похоже нет. И вы не знаете что изначально подразумевали Тьюринг и его „разоблачитель“ Серл. Тьюринг максимально абстрагировал компьютер до формального исполнителя алгоритма. Каждый компьютер — физическая реализация этой абстрактной машины. Мы не можем убрать компьютер, нам же нужно как-то выполнять программу! Не важно кто/что выполняет, это могут быть шестеренки/лампы/транзисторы/человек/кирпич. Серл хотел сказать, что формальный алгоритм (неважно кем исполняется) не может понять значение иероглифов.
                                                              Тупость эксперимента в том, что система низводится до нижнего уровня, да еще и не в полном виде. А затем смешивает разные уровни. На самом деле его утверждения подобны следующим:
                                                              »транзистор не может найти кота на картинке"
                                                              «фотошоп не может посчитать 1+1»
                                                              «это утверждение не текст, а выключенные пиксели на экране»
                                                              «люди не общаются, а просто двигают молекулы воздуха»
                                                              «любви не существует, это лишь химические реакции в мозгу».
                                                              Хватит заниматься редукционизмом!
                                                                –1
                                                                DjSapsan
                                                                Мы не можем убрать компьютер, нам же нужно как-то выполнять программу! Не важно кто/что выполняет, это могут быть шестеренки/лампы/транзисторы/человек/кирпич. Серл хотел сказать, что формальный алгоритм (неважно кем исполняется) не может понять значение иероглифов.
                                                                Хорошо. Пусть человек — это абстрактная машина Тьюринга + разум (неважно, что бы мы под этим понимали).
                                                                Это ничего не меняет:

                                                                Тест Тьюринга:
                                                                Слева «реализация абстрактной машина Тьюринга» (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
                                                                Вопрос — Понимает ли эта «реализация»?

                                                                Китайская комната:
                                                                Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

                                                                Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

                                                                Так что ваша замена — Ничего НЕ меняет.

                                                                DjSapsan
                                                                На самом деле его утверждения подобны следующим: »транзистор не может найти кота на картинке"
                                                                Нет, он утверждает, что даже если к каждому транзистору мы приставим по китайцу (человеку разумному) — вся совокупность всех этих «окитаеных» транзисторов не порождает «понимание».

                                                                DjSapsan
                                                                «любви не существует, это лишь химические реакции в мозгу».
                                                                Нет, — он утверждает, что химические реакции даже в совокупности с разумом не порождают любви.

                                                                В своих ответах на наскоки на его комнату он всегда добавляет разум и спрашивает — и что? Понимание то НЕ возникает и в этом случае то!

                                                                DjSapsan
                                                                Хватит заниматься редукционизмом!
                                                                Нет. Сёрл не низводит всё до молекулы — наоборот — он добавляет к молекуле разум и утверждает что и в этом случае понимание НЕ возникает.

                                                                Druu
                                                                Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?
                                                                В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

                                                                «Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).»

                                                                В этом варианте человеку в комнату НИКТО не подложил никакие правила, как отвечать в китайском чате.

                                                                В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

                                                                Но понимания и тут нет. И оно НЕ возникает.

                                                                Любой китаец скажет в этом случае — что ни человек в Китайской комнате, сам придумавший правила ответов, ни комната с человеком, придумавший правила ответов, ни Земля с комнатой в которой находится человек, придумавший правила ответов, ни Вселенная с Землёй и комнатой на ней в которой человек, придумавший правила ответов в китайском чате — НЕ понимают китайского.

                                                                P.S. "… Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык"

                                                                Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!
                                                                И всё равно — понимание китайского НЕ возникает.

                                                                  0
                                                                  Что за бред. Я больше не буду контраргументировать. Я приведу лишь правила, с которыми нужно смотреть на любой механизм (био- тоже):
                                                                  1) Каждый уровень нужно строго разделять(вроде «уровень пикселей — уровень букв — уровень слов — уровень идеи»)
                                                                  2) Нельзя сравнивать два уровня между собой, особенно в разных системах (вроде «транзистор — программа, химия — чувство, символы — семантика»)
                                                                  3) Для правомерного сравнения нужно явно привести (програм. «cast») обе «переменные» к одному «типу» — уровню (уровень манипуляции символами поднять к уровню ИИ и только тогда сравнивать с человеческим интеллектом). Вы же не сравниваете красоту букв с красотой стиха?
                                                                  4) Перед утверждением невозможности чего-то нужно попробовать сделать это. Вы пропустили множество сверхумных систем, а уже что-то пытаетесь доказать. Примеры — SHRLDU и ALPHA ZERO. Они действительно понимают свой мир в полной мере (вплоть до понимания намерения не имея полной информации).
                                                                  И каждый раз, когда пишете о каком-то механизме, думайте как он устроен. Помните, что мозг тоже устроен, и разум не на нижнем уровне.
                                                                    –1
                                                                    DjSapsan
                                                                    Что за бред.
                                                                    Эх, если бы так сам Сёрл отвечал его оппонентам, а не придумывал бы различные варианты в ответ, которые всё равно им что… горохом об стену. Столько бы нервных клеток сберёг, поди.

                                                                    DjSapsan
                                                                    3) Для правомерного сравнения нужно явно привести (програм. «cast») обе «переменные» к одному «типу» — уровню (уровень манипуляции символами поднять к уровню ИИ и только тогда сравнивать с человеческим интеллектом). Вы же не сравниваете красоту букв с красотой стиха?
                                                                    Стоп, с чего вы взяли что ИИ можно сравнить с человеком разумным в плане понимания?

                                                                    О том и речь, что Сёрл создал свою Китайскую комнату, показывая что споры о том, может ли программа (алгоритм, ИИ и прочая и прочая) понимать? — смысла НЕ имеют, так как даже добавлении человека-разумного в схему НЕ порождает «понимания».

                                                                    И сравнивать калькулятор, или программу играющую в шахматы или играющую в Го, или программу берущую интегралы, или ИИ занятый анализом картинок — смысла НЕТ, ибо даже добавлении человека-разумного в схему НЕ порождает «понимания».

                                                                    Да, «Китайская комната» Сёрла фактически отправила в нокаут функционализм (и попытку как-то разрешить тест Тьюринга).

                                                                    DjSapsan
                                                                    4) Перед утверждением невозможности чего-то нужно попробовать сделать это. Вы пропустили множество сверхумных систем, а уже что-то пытаетесь доказать. Примеры — SHRLDU и ALPHA ZERO. Они действительно понимают свой мир в полной мере (вплоть до понимания намерения не имея полной информации).
                                                                    Они не понимают. Они могут выести (породить) что угодно, конечно, но в них не возникает феномена «понимания» как не возникает его даже в Китайской комнате.

                                                                    Druu
                                                                    Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?
                                                                    По привычным ему правилам. Перед ним терминал. На нём китайский чат. Есть клавиатура, с помощью которой можно набирать китайские символы китайского текста. И всё!

                                                                    Больше НИКАКИХ правил у него нет. А есть его разум, компьютер, ИИ, он учился чему-то, может сам программировать, анализировать, комбинировать, но — никогда никто его НЕ учил ни китайскому, ни грамоте китайской.

                                                                    Нет у него и заранее припасённых карточек как ему себя вести и что, в каком порядке, писать в китайский чат.

                                                                    Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат — сначала неуверенно, потом всё точнее и точнее, делая ошибки, конечно, — пока китайцы в чате не признают его за понимающего китайский — а он его, китайский, так и НЕ будет никогда понимать. — Никогда!

                                                                    Ни он, ни он с комнатой, ни он со всем своим знанием, умением, ИИ, программами, компьютером, базой знаний и прочим и прочим — никогда НЕ будет понимать(!!!) китайский.

                                                                    Druu
                                                                    Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?
                                                                    Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

                                                                    Вначале у него сидел человек с заранее составленными кем-то карточками.

                                                                    Потом Сёрл, в ответ на — «Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык» — модернизировал исходный вариант своей Китайской комнаты: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы.»

                                                                    Я ещё более модернизировал его Китайскую комнату — теперь там сидит человек-разумный, который и карточек составленных кем-то заранее то не имеет и ничего заранее из того как отвечать в китайском чате НЕ учил и не знает — он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

                                                                    Druu
                                                                    Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.
                                                                    Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете. Таков вывод Китайской комнаты (её различных, модернизированных вариантов).

                                                                    Druu
                                                                    Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.
                                                                    Это хороший вопрос. Но почему нет? С помощью ИИ, человек наверняка может «правильно» отвечать в китайском чате, — ведь научил же («натаскал», обучил) человек ИИ выигрывать человека в Го!

                                                                    Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

                                                                    Но феномена «понимания» и тут НЕ возникает. (С)

                                                                    P.S.
                                                                    image
                                                                      0
                                                                      taujavarob Я не встречал такой тупости даже у гуманитариев! Прекратите спекулировать словами. Если соизволите ответить, то сразу же в самом начале определите понятие «понимание». И только потом доказывайте, что кто-то чего-то не понимает.

                                                                      Применим правила рассмотрения вопроса:
                                                                      1) Каждый уровень нужно строго разделять
                                                                      В человеке: уровень нейронов — уровень разума. Это разные уровни. Можно потерять миллионы нейронов и остаться в сознании и здравии (травма). А можно потерять сознание, не имея никаких изменений в структуре мозга (сон).
                                                                      В общем, произвольный уровень произвольной системы не знает об уровнях ниже. Когда-то люди считали, что они думают сердцем. И даже сейчас не нашли конкретный «нейрон интеллекта» или «нейрон сознания».
                                                                      В машине: уровень железа — уровень алгоритма. К слову, программа это уровень железа. Алгоритм не знает где он запущен. Можно запустить его на машине Беббиджа, на лампах, на транзисторах или на кирпиче. Алгоритм не зависит от железа. Можно закрыть железо в комнате и никто не определит где транзисторы а где шестеренки.
                                                                      В КК: уровень железо в виде человека и книги/памяти —
                                                                      уровень комнаты. Китаец сможет определить, что сам человек (железо) не понимает китайский. Но он не сможет определить в какой комнате китаец, а в какой — самозванец. Это два принципиально разных уровня!

                                                                      2) Нельзя сравнивать два уровня между собой, особенно в разных системах.
                                                                      В человеке: размер мозга — уровень интеллекта. Когда-то люди повелись на эту ошибку. На самом деле это ужасно глупая ошибка, которую многие допускают практически везде, даже не замечая. Или уровень ДНК — уровень белка — уровень ткани — уровень органа и тд.
                                                                      В машине: уровень процессора — уровень алгоритма. Нельзя сравнивать сложность алгоритма и процессора. Размер кристалла и размер алгоритма. Ошибки в проводах и ошибки в алгоритме. Это нельзя.
                                                                      В КК: понимание человека нельзя сравнивать с пониманием комнаты. Комната может понимать иначе китайский чем человек внутри.

                                                                      3) Для правомерного сравнения нужно явно привести обе «переменные» к одному «типу» — уровню.
                                                                      В человеке: нельзя сравнить размер гена и размер белка. Нужно сделать белок из этого гена и можно уже сравнивать непосредственно.
                                                                      В литературе: Уровень букв — уровень текста. Поднять уровень букв до уровня текста и сравнивать «красоту»
                                                                      В машине: можно сравнить скорость процессора на транзисторах и на лампах. Можно сравнить O(n) сложность двух разных алгоритмов для одной и той же задачи (ага, над уровнем алгоритмов есть уровень выше)
                                                                      В КК: поднять уровень «исполнитель и правила» на уровень «комната» и сравнивать с человеком.

                                                                      4) Перед утверждением невозможности чего-то нужно попробовать сделать это.
                                                                      Формально а не догматично докажите невозможность понимания комнатой китайского языка (исходя из своего определения этого понятия)
                                                                        0
                                                                        Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат

                                                                        Не выведет и не начнет.


                                                                        Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

                                                                        Окей, у вас своя модернизированная китайская комната. Давайте все-таки вернемся к оригиналу и будем обсуждать комнату, в которой сидит человек с правилами, и общается так, будто знает язык. А не комнату, которая вам отдает случайные каракули в качестве ответа. Потом что в вашей постановке эксперимент бессодержателен.


                                                                        он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

                                                                        Ну вот я утверждаю, что он в принципе не научится сколько-нибудь осмысленно отвечать, будет отвечать каракулями и все. Так что вы рассматриваете внутренне противоречивую ситуацию, с-но, из нее можно вывести что угодно.


                                                                        Кроме того, нам не важно, понимает китайский язык сам человек или нет. Такого вопроса не стоит, непонятно почему вы на него все время скатываетесь. Мы обсуждаем понимает ли язык китайская комната вцелом. И она, совершенно точно, его будет понимает, при условии что нормально общается и китайцы, которые с ней разговаривают, считают, что все ок.


                                                                        Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете.

                                                                        Что значит "понимать" алфавит? Буквы собственного смысла не несут, там нечего понимать.


                                                                        Это хороший вопрос. Но почему нет?

                                                                        А почему да?


                                                                        Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

                                                                        Тогда ИИ понимает китайский язык. С-но китайская комната понимает язык, т.к. включает в себя этот ИИ, который язык понимает.


                                                                        Но феномена «понимания» и тут НЕ возникает. (С)

                                                                        Как же не возникает, если в вашей комнате сидит разумный ИИ, который понимает китайский? Вы вообще вводите несущественные детали. Могли сразу вместо человека который в комнате собрал ИИ сразу посадить туда этого ИИ, без человека. Вопрос: понимает ли этот ИИ язык? Ответ: очевидно, да.

                                                                          0
                                                                          Druu Все правильно. Хотел бы дополнить. На текущем уровне ИИ чаще всего понимает текст как взаимосвязь внутренних понятий.
                                                                          Для понимания нашего физического мира нужен вход с реального мира — камеры/тактильные датчики/термометры/обоняние и тд.
                                                                          Для понимания чисто человеческих понятий, нужно добавить машине человеческие потребности — голод/жажда/сон/социальное одобрение/размножение/познание.
                                                                          С ребенком, кстати, то же самое. Никто не требует в 5 лет понять теорию относительности или Шекспира Хотя сможет понять что трогать руками плиту нельзя. «Непонимание» чего-то одного не означает «непонимание» в принципе.
                                                                      +2
                                                                      В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

                                                                      Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?


                                                                      В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

                                                                      Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?


                                                                      По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык

                                                                      Все как и было — человек язык не понимает, а система из человека и правил — понимает. Совершенно несущественно находятся правила вне человека в виде некоего справочника, или он их заучил. В обоих случаях они являются отдельным объектом и их нельзя рассматривать как составную часть человека. Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.


                                                                      Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!

                                                                      Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.

                                                                    +1
                                                                    Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате!

                                                                    Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?

                                                0
                                                Наверняка вы чувствуете запах вкусного супа, а собака отдельно: морковь, картошку и мясо. Широкий градиент восприятия и эмоциональных реакцией является отличительной чертой человека от животного (натренировать можно, привить понимание — нет. Для неё это не более чем реакция на определенный стимул).
                                                А елси для пгоррммаы оепчтаок понаделать — она схлопнется. Если не согласны, то когда ждать «режим бога» в шахматах?
                                                  0
                                                  «А елси для пгоррммаы оепчтаок понаделать — она схлопнется.» — это неудачный пример, он говорит лишь о том, что мы не умеем писать надежные программы и умные компиляторы. А не умеем лишь потому, что не стараемся. Разработчики, которым приходится это делать, занимающиеся очисткой сырых данных могут много рассказать, обработку каких очепяток они уже встроили в свои алгоритмы.

                                                    0
                                                    Вы правы.
                                                      0
                                                      Умность компиляторов зачастую упирается в проблему останова, но это, конечно, мелочи.
                                                        0
                                                        Да, только это не проблема машин Тьюринга, а общая. Если мы дадим заинтересованному разработчику задание сделать максимально умный компилятор, то через некоторое время нам придется его принудительно остановить, чтобы получить хоть какой-нибудь результат. Иначе он будет бесконечно работать и вносить улучшения.
                                                  0
                                                  Текущая версия такова, что нет. Она может строить определённые ассоциации, и соотносить объекты с чем-то внутри алгоритма. Однако, на одно слово «синий» у нас есть миллионы нейронных связей, ассоциаций и так далее. Мы не можем объяснить что такое «синий» но мы понимаем это.
                                                    0
                                                    А если у машины тоже будут миллионы динамических связей и ассоциаций по каждому обьекту?
                                                      0
                                                      Пока у человеков нет таких вычислительных мощностей. Кроме, собственно, их мозга.
                                                        0
                                                        Пока нет.
                                                          0

                                                          Возможно, миллионы связей по одному объекту и не нужно. Я, правда, забегаю вперёд. Рассмотрим, к примеру ассоциацию "Стол — плоская поверхность с ножками". Здесь одно понятие связано с двумя другими плюс с двумя отношениями между ними. Каждое из них тоже в свою очередь "расшифровывается" через другие понятия. Ножки — ну это такие палки, обычно длинные, иногда короткие. Понятие стола с палками напрямую не связано, но вычислимо, можно перейти от палок к столу и наоборот. Я, конечно, утрирую, но количество прямых связей между понятиями получается не слишком большое.

                                                            –1
                                                            Речь ведь идёт конкретно о понимании. Даже кошка на уровне условных рефлексов может знать, что на стол запрыгивать нельзя. Стол у неё ассоциируется одновременно с положительным (еда) и негативным (когда выгоняют). Но у неё нет понимания. Даже если она будет знать материал, из которого изготовлен этот стол, да и вообще достанет кошачий масс-спектрометр, лазерный дальномер, и всё такое. В общем, даже если она произведёт все возможные вычисления и анализы, она просто будет знать всё об этом столе. Но знание и понимание — не одно и то же (по крайней мере, так утверждают)
                                                              0
                                                              Тогда надо разобраться с пониманием слова «понимание». Знание, что это и из чего оно состоит — не понимание. Ок. А моделирование в голове поведения — если я запрыгну на стол, то под лапами будет белая шуршащая скатерть, по которой надо сделать пять шагов, чтобы дойти до тарелки с хозяйскими котлетами, которых я сейчас не вижу — это понимание?
                                                                +1
                                                                Понятия не имею.
                                                                  +1
                                                                  Кот понимает что такое стол, но по своему, не по человечески. Покажи коту другой стол (другой цвет и форма), он всё равно будет искать там тарелки и спрыгивать, когда приходит хозяин
                                                                    0
                                                                    Не всякий кот. По моим наблюдениям, некоторые коты отлично умеют обобщать, а у некоторых всё очень конкретно: если нельзя на этот стол, то нельзя на него, другой стол (а может и этот же, но в другом углу) тут не причём. Некоторые ещё и предположения строят. Например, если подозревает, что нельзя, но точно не знает, то привлекает внимание хозяина голосом, внимательно следит за реакцией и аккуратно пробует сделать что-то. А другие даже на неприятных ошибках не учатся. Конечно в условиях далёких от городской квартиры (деревня, лес), это прямо отражается на продолжительности жизни.
                                                        +1
                                                        Видимо, есть несколько версий текущих версий. Предположим, вы хотите объяснить человеку, с которым у вас нет общих языков, какой-то особый оттенок синего. Наверное, вы будете играть в ассоциации — показывать на небо, на море, на красный цветок, зелёную траву, чтобы он понял, как соотносится искомое понятие с уже известными. Он в уме построит свою ассоциацию. Она наверняка будет совсем не похожа на вашу («много голубого с капелькой красного»), а будет связана с его жизненным опытом («это тот цвет, про который говорил странный чувак из странной страны»). Но, при достаточной настойчивости, он будет понимать, про какой цвет теперь вы говорите.

                                                        Теперь заменяем в нашем мысленном эксперименте дикаря на машину — и ничего не изменилось. Если машина способна строить ассоциации, если ее память основана на ассоциациях — она так же способна вас понять и усвоить урок.
                                                          +1
                                                          Да, но если дикарь слеп от рождения, то задача существенно усложняется.
                                                          У него нет подходящих ассоциаций. Человеческое мышление — это не только сигналы, передаваемые между синапсами. Мозг человека постоянно подвержен сотням факторов. От возраста до количества света и атмосферного давления. В зависимости от них вырабатываются гормоны, ферменты, и т.д. и они тоже влияют на мышление. И при том на каждого человека иначе, чем на другого. Проблема именно в понимании. Как минимум, чтобы создать интеллект, мы должны в достаточной степени изучить человека. Но мозг — вещь всё ещё достаточно загадочная. Нет ни одной работы, теории, или чего-то подобного, что бы полностью, подробно и достоверно описывало человеческое мышление. Я не говорю, что я придерживаюсь вышеприведённой версии. Просто она сейчас наиболее популярна, и большинство крупных учёных склоняются к ней. Такие дела.
                                                          На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект. А если вдруг завтра-послезавтра появится компьютер, который пройдет этот самый тесть Тьюринга с процентом, близким к сотне, лично меня будет пытать мысль о том, действительно ли он мысли, или у него просто такой сложный алгоритм. Понимает ли он так, как человек. Ну и тому подобное.
                                                            0
                                                            чтобы быть «человеком» — вне зависимости от широты трактовки сего термина по сути, всё-же — не забывайте про воспитание, и взросление в социуме.
                                                            см «проблему маугли» — человечкский ребёнок, выросший среди зверей, вырастит зверем, а не человеком. обезьяной, если угодно, похоже, и по интеллекту в том числе.
                                                            то есть — неспособность освоить речь, и прочая.
                                                              0
                                                              > лично меня будет пытать мысль о том, действительно ли он мыслит, или у него просто такой сложный алгоритм.

                                                              И вы будете правы в своих сомнениях.

                                                              > На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект.

                                                              На мой взгляд, уже вполне. Мы просто пока не знаем, как именно это делается, какие части надо в каком порядке соединить, чтобы получить сильный ИИ. Но… тут опять не обойтись без классика...:
                                                              Но на какого дьявола, спрашивается. Объясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно.
                                                                0
                                                                9 месяцев + 20 лет с негарантированным результатом. А должно быть вседоступно, до уровня «скачать на торрентах».
                                                                0
                                                                >Да, но если дикарь слеп от рождения, то задача существенно усложняется

                                                                Про это Тьюринга тоже сказал: "Например, машину нельзя снабдить ногами; поэтому ее нельзя попросить выйти и принести ведро угля. Машина, по-видимому, не будет обладать глазами.… Отметим, что не стоит особенно беспокоиться относительно ног, глаз и т. д. Пример мисс Елены Келлер показывает, что воспитание возможно, если только удается тем или иным способом установить двустороннюю связь между учителем и учеником."
                                                                  0
                                                                  примеры показывают, что такие учителя практически всегда неправильно интерпретируют действия слепо-глухо-немых. Интересно, что возможно они могут считать этих учителей тупыми и низкоинтеллектуальными, потому что они не понимают «элементарных» вещей.
                                                            0
                                                            А что такое понимать?
                                                            +3
                                                            Если машина x проходит тест Тюьринга, кажется, это значит, что её можно научить чему угодно, чему можно научить человека. Так понятнее?
                                                              0
                                                              с чего бы?
                                                              и что вы понимаете под «человеком», к примеру?
                                                              алкаша с айкю в 85?
                                                              хокинга?
                                                              они ведь «немного» различаются, вам не кажется?
                                                              0
                                                              А что значит, что вам этот понятно? Как вы… нет, это слишком просто. Как я могу отличить понимание от непонимания? Как я могу убедить вас в своём понимании?
                                                                0

                                                                А это давно известный прием) "Расскажите об этом своими словами".

                                                            +1
                                                            Хотел привести в пример
                                                            Гло́кая ку́здра ште́ко будлану́ла бо́кра и курдя́чит бокрёнка

                                                            но нашел еще один пример по-проще.
                                                            Варкалось. Хливкие шорьки
                                                            Пырялись по наве,
                                                            И хрюкотали зелюки,
                                                            Как мюмзики в мове.

                                                            несмотря на то что никто не видел Шорьков, но приблизительно я понимаю, что это такие маленькие зверьки. Понимание основано на ассоциациях — когда говорят СТОЛ, каждый себе представляет какой-то стол, поскольку видел стол и сидит за ним каждый день. Чтобы понимать не нужно логически мыслить, нужно иметь ассоциации.
                                                            Ассоциации могут быть не четкими и тогда понимание будет не точным или ошибочным. Стоит добавить что ассоциации основаны на жизненном опыте и поэтому у каждого свои.
                                                            Можно сказать, что нейронная сеть натренированная на поиск котов на изображениях тоже понимает что такое «абстрактный кот»
                                                            Если вам кажется что человеческий мозг что-то «понимает» — посмотрите на 2-х мерное анимированное изображение
                                                            image
                                                            ваш мозг просто совершает работу (не подконтрольную вашему сознанию) превращая его во вращающуюся 3-х мерную фигуру девушки, что в итоге создает иллюзию… понимания.
                                                              0
                                                              Несмотря на то, что никто не видел Шорьков, этот текст мозг «вытягивает», достраивая и заменяя понятия на уже знакомые. Форма стиха дает дополнительные «коды рида-соломона», от чего и получается иллюзия понимания текста.
                                                                +1
                                                                Подумалось: мы составляем своё «понимание» слова «Шорьки» на основе неких привычных способов формировать слова в русском языке. Т.е. определенные комбинации корней, приставок, суффиксов и окончаний дают нам некоторое представление об объекте. Подтверждающий эффект я наблюдаю у себя когда пытаюсь по латинскому названию лекарства или животного создать некий образ (от чего лекарство или что за животное) и крайне часто оказываюсь неправ по причине незнакомого языка.
                                                                Таким образом, я думаю, наше понимание радикально отличается от понимания машины в том смысле, что машина хранит образы не в языковой форме. В любом случае для общения с машиной потребуется трансляция с её машления в наше и наоборот. Это даже не перевод с языка на язык. Перевод между человеческими языками имеет под собой общую основу в виде образов и понятий. С машиной у нас нет ничего общего.

                                                                прошу прощения за поток сознания :)
                                                                  0
                                                                  Вы правы, но, на мой взгляд, ассоциации необязательно должны быть связаны с языком. Не зная имени человека, мы способны его узнать среди тысячи других людей, причем не каждый может описать, чем этот человек отличается от других. Узнаёт и всё.

                                                                  И ещё, наше понимание отличается от машинного на нынешнем этапе радикально, но я думаю, что этот разрыв будет со временем уменьшаться, хотя и никогда не пропадет совсем.
                                                                    +1
                                                                    Вот вы правильно насчёт неосознанного распознования сказали. Это типа как битовая маска, выдаёт степень похожести. И вот как раз «биты» составляющие цельную картину у нас с машинами раличные. У машины всё просто — бинарное значение «да-нет». У человека гораздо сложнее. Человеческое сознание хранит не сами значения, а их соотношения между собой. Этого и пытаются добиться в машинном распозновании лиц (насколько я это понимаю).
                                                                    Имя человека не является определяющим. Как раз наоборот, это один из параметров сущности, служащий для её наименования. А реальное идентифицирование происходит по некоей «хэш-функции» всех параметров (лицо, голос, манеры).
                                                                    Я думаю теоретически возможно закодить всё это дело в булеву логику. Однако, количество параметров будет стремиться к бесконечности и требуется механизм абстракции.

                                                                    Вот я всё это написал и почему то мне кажется, что развитие ИИ как раз в эту сторону и идёт…
                                                                      0
                                                                      У машин, точнее в машинном обучении, не булевые «да/нет», а «с некоторой вероятностью 'да', с другой вероятностью 'нет', а вообще я с такой-то вероятностью 'не знаю'». Поэтому по поводу неприспособленности машинной логики к сильному ИИ можно пока не беспокоиться.
                                                                –1
                                                                Если разобрать гифосик по кадрам, то видно что вы обманываете нас тут. Можете проверить. Это не 2-д рисунок. И даже не псевдо-3д. Я допускаю, что для каждого кадра было отрисовано отдельное изображение. Но тогда это уже не анимированное изображение.
                                                                +1
                                                                но через лет пять это будет вполне возможно

                                                                Не будет.


                                                                Машина не понимает что значат эти слова

                                                                А вы — понимаете? Уверены?

                                                                0
                                                                если машина отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек,


                                                                В некоторых компьютерных играх программа отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек.
                                                                См. например, серию игр Fallout…
                                                                  0
                                                                  Наоборот. В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант». А то, как этот «вариант ответа 28» оформлен сюжетописателями и изображен актёрами — вообще роли не играет — выбор диалога компьютером идёт по таблице, например.
                                                                    0
                                                                    В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант».


                                                                    У меня был ответ на конкретное процитированное замечание.

                                                                    Если же тему развить — то надо вспомнить про Сири и Кортану.
                                                                      +2
                                                                      кто не смог
                                                                      вспомнить про Сири и Кортану
                                                                      image
                                                                        0
                                                                        ага, Сири просто душка, я уже говорил…
                                                                        по ключевым siri-isms ещё многго интересного можно почитать.
                                                                        вечером попробую в контексте сирю помучить, немогу только придумать — пытатся на английском ( у меня с ним не оченб ярко само по себе, не говоря уж за произношение), или переключить сири на русский...?
                                                                          0
                                                                          Я знаю человека, который смог поругаться с Алисой на телефоне. В трезвом виде, что характерно. Алиса кстати, произносит «Думаю, нам стоит закончить этот разговор» таким холодным тоном, что мурашки бегут.
                                                                            0
                                                                            поглядел в вебе, ставить приложение на телефон — лень.
                                                                            голос то у этой алисы приятный, естественный, или как у окейгугля?
                                                                              0
                                                                                0
                                                                                Не знаю специально она так или сбой но повторить такое больше не удавалось
                                                                                Заголовок спойлера
                                                                                image
                                                                          0
                                                                          Есть определенная психологическая граница в сложности взаимодействия — собака тоже понимает настроение человека и ограниченный набор команд, а так же может эмоционально реагировать и обижаться (говорить не может в силу определенного строения гортани), и говорят что гориллу даже научили языку жестов, но до уровня «как человек» = «равного человеческому» они не доросли впрочем как и Fallou
                                                                        0
                                                                        «Я тебя услышал». Но понял ли я тебя, что думаешь?
                                                                          0
                                                                          Задайтесь тогда и другим вопросом: человек по сути всего лишь чёрный ящик воздействие-реакция (в том числе зависящая от времени!). Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат? По сути это мозг как функция, только функция задана таблично, а не «аналитически» (как мозг). Формально, такое устройство полностью (абсолютно!) действует как человек. Поставленное вместо какого-либо человека оно «проживёт» его жизнь абсолютно так же, как и тот человек, с которого оно скопировано. Только мыслить оно не мыслит. Но является ли человеком то, что от него неотличимо?
                                                                            0
                                                                            Так как ответ на вопрос «как дела?» зависит от внешних событий, то в этой таблице придется вводить измерение «время» и спрогнозировать все события, которые произойдут в будущем.
                                                                              0
                                                                              Это не важно. Вопрос в том, что будет если ваш мозг заменить бесконечной таблицей. Будет ли это человеком?
                                                                                0
                                                                                Вы описываете «китайскую комнату», возведенную в абсолют. На самом деле ответ прост — это будет невозможно подтвердить или опровергнуть.

                                                                                  0

                                                                                  Так а разве мозг не имеет черты этой самой таблицы? В конце концов у нас все на ассоциациях работает.

                                                                                    0
                                                                                    Если я правильно понимаю, то мозг умеет в абстракции. Таблица же будет перечнем пережитого опыта.
                                                                                  0

                                                                                  Встречный вопросы — что такое мышление?
                                                                                  Почему вы считаете, что проходящий тест Тьюринга на отлично чат-бот думает не так как вы?

                                                                                    0
                                                                                    Я этого не говорил и не считал. :)
                                                                                      0

                                                                                      Тогда извините за недопонимание)

                                                                                    0
                                                                                    Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат?

                                                                                    Ответ на вопрос "Какая сейчас температура на улице?" вы так закодировать не сможете. А еще подозреваю, что размер такой базы будет очень большой, поэтому время на то, чтобы выдать результат будет порядка времени существования Вселенной.


                                                                                    Но даже если ограничиться текстовым чатом, то человеком оно не является, так как отличаются процессы обработки информации. У человека активируются информационные элементы, соответствующие описанным понятиям, или появляются новые понятия, а у устройства происходит сравнение по заранее заданной базе.

                                                                                      +1
                                                                                      Ответ на вопрос о температуре подразумевает текущее состояние системы, которое является воздействием (и время, кстати, тоже воздействие). Иначе говоря, на каждое состояние мира задана реакция человека. Это совершенно умозрительный эксперимент и не привязан ни к вычислимости такой базы, ни к поиску по ней.

                                                                                      Так как отличаются процессы обработки информации.


                                                                                      Не более, чем решение уравнения с выдачей результата и мгновенный ответ для уже известного уравнения. Результат для вас внешне одинаков и корректен.
                                                                                        0

                                                                                        Совершенно умозрительные эксперименты приводят к совершенно умозрительным результатам, которые имеют мало отношения к реальности.


                                                                                        Результат для вас внешне одинаков и корректен.

                                                                                        Ну так внутренне-то отличается. Почему мы разрешаем хранить в базе состояние всего мира, но не разрешаем анализировать часть этого состояния снаружи?

                                                                                        0
                                                                                        Ответ на вопрос «Какая сейчас температура на улице?» вы так закодировать не сможете.

                                                                                        Смогу, напишу в таблице «не знаю», ведь ответы в таблице не обязательно должны быть верными и конкретными. Единственное требование, которое предъявляется к ответам — он должны быть похожими на ответы человека.
                                                                                        Я вот тоже не знал температуру еще полчаса назад, и не знал бы дальше, если бы не посмотрел на градусник.
                                                                                          0

                                                                                          Согласен, но это ничего не меняет. Так же берем отладчик и проверяем информационные процессы. Снаружи наверно не всегда можно определить, но могут быть косвенные признаки, как частота ответов "не знаю". Ну если не учитывать, что такое устройство физически невозможно.

                                                                                            0
                                                                                            Погодите, какой ещё отладчик? Ни о каком отладчике мы не договаривались, у нас слепой тест с черным ящиком.

                                                                                            Косвенные признаки есть, однако люди настолько все разные, что у вас не будет уверенности, что это машина, а не человек с особенностями.

                                                                                            Кстати, возникает интересный вопрос — если на тест отвечает инопланетянин, у которого мышление и жизненный опыт отличаются от человеческого, то к какой категории его отнесут судьи?
                                                                                              +1

                                                                                              Вы рассматриваете соответствие тесту ради соответствия, забывая об изначальной цели. Цель — определить, мыслит ли машина, имеет ли она интеллект. Тест Тьюринга этого не показывает, хотя на момент появления он мог казаться достаточным из-за недостатка информации и технических возможностей. Ну то есть это работает в одну сторону, интеллект подразумевает прохождение теста, но прохождение теста не означает интеллект.


                                                                                              Я склоняюсь к мысли, что принципы обработки информации универсальны. Скажем, теорема Пифагора верна даже для инопланетян, неважно, видят ли они треугольник в обычном свете, инфракрасном, или щупальцами исследуют. То есть проверяющие определенно скажут, что перед ними мыслящее существо.

                                                                                                0
                                                                                                Тест Тьюринга этого не показывает

                                                                                                Почему не показывает? Если машина не мыслит, то и тест Тьюринга она пройти не сможет никак.

                                                                                                  0

                                                                                                  Его некоторые боты уже проходят. По тесту получается человек, а по возможностям нет.

                                                                                                    0
                                                                                                    Его некоторые боты уже проходят.

                                                                                                    То, что проходят — это не оригинальный тест Тьюринга. Там очень существенные ограничения в плане того, о чем и как можно разговаривать с ботом. При свободном общении не проходят даже близко.

                                                                                                    0
                                                                                                    Женя Густман (ссылка в статье) не согласен с вами.
                                                                                                      –1

                                                                                                      Женя Густман — не первый и не последний человек с неправильным мнением.

                                                                                                        0
                                                                                                        Он даже не человек. И я сильно сомневаюсь, что он имеет и способен иметь какое-либо мнение.
                                                                                                          0
                                                                                                          Он даже не человек. И я сильно сомневаюсь, что он имеет и способен иметь какое-либо мнение.

                                                                                                          Если не согласен — значит мнение имеет.

                                                                                                            0
                                                                                                            Мнение без описания алгоритма своего мышления веса не имеет. Добро пожаловать в науку!
                                                                                                              0
                                                                                                              Мнение без описания алгоритма своего мышления веса не имеет.

                                                                                                              Это мнение? Если да, то без описания алгоритма своего мышления веса не имеет.
                                                                                                              Это теорема? Если да, то без доказателсьва веса не имеет.
                                                                                                              Это аксиома? Тогда без теории, в которой она теорема, веса не имеет.
                                                                                                              Ну и можно развить по желанию на сколько фантазии хватит.
                                                                                                                0
                                                                                                                Всё проще. Это демагогия.
                                                                                                                  0
                                                                                                                  Сказка детская, сто у.ё. Демагогия: у живой природы заложены инстинкты, которые позволяют адаптироваться к меняющимся условиям окружающей среды. У неживой природы инстинктов нет. Это постулат — ведь людям не приходит в голову повернуть реки вспять или обучить собаку говорить/считать.
                                                                                                                  Но некоторые разработчики упорно хотят научить камни.

                                                                                                                  Неверно решил, что мы поняли друг друга (нормально). Всё-таки подожду… «режим бога» в комбинаторике.
                                                                                                                    0
                                                                                                                    Почему вы думаете, что режим бога возможен, и что он как-то коррелирует с мышлением?

                                                                                                                    На мой взгляд, режим бога достижим без всякой мысли, особенно, если учесть, что с другой стороны сидит обычный человек. Гроссмейстер, но всё же человек.
                                                                                                                  0
                                                                                                                  Как будете развивать набор лингвистических утверждений, когда от слов перейдём к объектам?
                                                                                                                  0
                                                                                                                  Мнение без описания алгоритма своего мышления веса не имеет.

                                                                                                                  При чем тут вес, да еще и мнения?

                                                                                                                    0
                                                                                                                    Вес (абстрактно) — это векторная величина, определяющая ложность или истинность утверждения. Вес посылки "Земля плоская" вполне определён — ложное. Суждение «люди могут жить на Марсе» — является неопределённым, а значит веса не имеет.
                                                                                                                  0
                                                                                                                  Ну, вам же известно, наверное, что единогласное решение не означает наличие мнения.
                                                                                                          +1

                                                                                                          Учитывая это:


                                                                                                          интеллект подразумевает прохождение теста, но прохождение теста не означает интеллект.

                                                                                                          вот это становится неверным:


                                                                                                          То есть проверяющие определенно скажут, что перед ними мыслящее существо.

                                                                                                          Проверяющие скажут, что тест прошло, а мыслящее оно или нет — не знаем!


                                                                                                          Вот ещё пример из другого классика:
                                                                                                          — Какой у нас год? Какой месяц? Число? День недели? — спрашивали эксперты.
                                                                                                          Но Ихтиандр отвечал: — Не знаю.
                                                                                                          Он затруднялся в ответах на самые обычные вопросы. Но ненормальным его назвать нельзя было. Он многого не знал благодаря своеобразным условиям своего существования и воспитания. Он оставался как бы большим ребенком. И эксперты пришли к заключению: "Ихтиандр недееспособен". Это освобождало его от судебной ответственности. Суд прекратил дело по обвинению Ихтиандра и назначил над ним опеку.

                                                                                                            0
                                                                                                            вот это становится неверным

                                                                                                            Ну строго говоря нет. Разговор же был о том, что скажут проверяющие, а не о том, правы ли они.


                                                                                                            Вот ещё пример из другого классика

                                                                                                            Ну так о чем я и говорю. Главное это механизмы обработки информации, а не конкретные ответы.


                                                                                                            Способность Ихтиандра обрабатывать информацию можно проверить и без отладчика, мы ведь не ограничены только текстовой беседой на заданную тему. Он не знает, какой день недели, но можно сказать ему, что вон там висит календарь, сегодня такое-то число, какой сегодня день недели? Если он подойдет куда нужно, посмотрит на календарь, и даст правильный ответ, значит он понял вопрос и способ получения ответа. Чем больше таких проверок, связанных с заранее неизвестной информацией, тем больше вероятность, что это мыслящее существо.

                                                                                                              0
                                                                                                              Проверяющие скажут, что тест прошло, а мыслящее оно или нет — не знаем!

                                                                                                              Как не знаем? Знаем. Если бы оно не было мыслящим, то не прошло бы теста.

                                                                                                    0
                                                                                                    Только мыслить оно не мыслит.

                                                                                                    Почему не мыслит? Мыслит. Описанный вами процесс вычисления по таблице — и есть мышление, разве нет?

                                                                                                      0
                                                                                                      Интересно, а этакая денотационная семантика с мю, отображающей мышление в эту таблицу, имеет смысл?
                                                                                                    +2
                                                                                                    0
                                                                                                    Дайте пожалуйста ссылку на этого бота в тг
                                                                                                    +2
                                                                                                    > «Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману.» — возможно ли лгать, если отсутствует способность мыслить? Особенно, если говорить о сознательной лжи или самообмане, что подразумевает под собой наличие самосознания.

                                                                                                    Ну и Тест Тьюринга, это не игра, как вы её понимаете, судя по вашей заметке, а эксперимент, с определенными условиями эксперимента, а не «правилами игры», в котором нет игроков и нет победителей, а есть задача — может ли испытуемая машина, отвечая на вопросы, вести себя как человек используя для этого любые доступные методы.
                                                                                                      0
                                                                                                      «Тест — не игра», и «условия — не правила» — это спор о терминах, мне он не интересен.

                                                                                                      «Может ли испытуемая машина, отвечая на вопросы, вести себя как человек используя для этого любые доступные методы» — вот тут есть нюанс. Я согласен, что идея Тьюринга была именно в этом, в проверке «может ли вести себя как человек». Просто у теста оказался побочный эффект — из-за того, что результат определяется по формальным признакам («можно ли человек определить, кто из двоих машина»), возникает (а) соблазн не реализовать мышление, а сымитировать поведение человека, и (б) необходимость сокрытия жизненного опыта машины, который очевидно отличается от человеческого.

                                                                                                      То есть успешный результат эксперимента с такими условиями не дает окончательного ответа на вопрос, может ли данная машина мыслить.
                                                                                                      0
                                                                                                      простое подражание поведению человека не окажется для машины наилучшей стратегией… мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать ответы, которые в соответствующей обстановке дал бы человек.


                                                                                                      Тут, скорее всего, неправильный перевод.
                                                                                                      Так как попытка давать ответы, которые в соответствующей обстановке дал бы человек — это и есть подражание поведению человека.
                                                                                                        0
                                                                                                        В оригинале «It might be urged that when playing the „imitation game“ the best strategy for the machine may possibly be something other than imitation of the behaviour of a man. This may be, but I think it is unlikely that there is any great effect of this kind. In any case there is no intention to investigate here the theory of the game, and it will be assumed that the best strategy is to try to provide answers that would naturally be given by a man.»

                                                                                                        Вроде перевод соответствует.
                                                                                                          0
                                                                                                          Вроде перевод соответствует.


                                                                                                          Ну, я не настолько силен в английском, что бы оценить все тонкости оригинала.
                                                                                                          А вот то, что перевод содержит логическую ошибку — это очевидно.
                                                                                                        0
                                                                                                        Очевидно, сразу отпадут роботы R2-D2 и ВАЛЛ-И, как не умеющие разговаривать на человеческом языке, и их я предлагаю далее не рассматривать


                                                                                                        Да в общем, любой современный ПК, изначально не умеющий издавать звуки человеческой речи и играть музыку — можно достаточно легко снабдить звуковой картой и соотв. софтом.
                                                                                                        Например, подключив к нему внешнюю звуковую карту через USB (универсальный разъем)

                                                                                                        Поэтому для цивилизации, подобной той, что показана в обоих фильмах — снабдить каждого робота голосовым интерфейсом не составляет никаких проблем (что еще не было очевидно на момент выхода первых ЗВ)
                                                                                                        Единственное разумное объяснение немоте дроидов с ИИ — чтоб не надоедали лишними вопросами и глупыми речами. Но само существование C-3PO несколько противоречит этой версии )
                                                                                                          +1
                                                                                                          C-3PO был роботом переводчиком. Так что говорить умел из за по профессиональной необходимости. При этом болтал без умолку что и показывало почему других роботов не делали говорящими :)
                                                                                                            0
                                                                                                            По сюжету R2-D2 и ВАЛЛ-И были утилитарными роботами, общение с человеком при их основной деятельности не предполагалось, поэтому речью пожертвовали в целях удешевления производства и, что не менее важно, удешевления поддержки — скажет такой робот что-нибудь невпопад, и разбирайся потом в суде с недовольным клиентом.
                                                                                                            0
                                                                                                            Мы можем воспользоваться представлениями о мыслящей машине из кинофантастики. Подходит ли Джарвис из «Железного человека» под это определение? R2-D2 или C-3PO из «Звездных войн»? Дэвид из «A.I.»? Долорес Абернати из «Мира Дикого Запада»? Афина из «Земли будущего»?

                                                                                                            Я бы еще добавил ИИ из фильма She (Она). Мне кажется этот нехитрый фильм задал очень высокую планку для того, как должен выглядеть искусственный интеллект и голосовые помощники.
                                                                                                              +1
                                                                                                              То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману. Печалька.


                                                                                                              Умение убедительно лгать — один из ключевых признаков интеллекта, способствующий выживанию человека.
                                                                                                              В шуточной форме это хорошо показано в фильме Liar Liar 1997 года.
                                                                                                                0
                                                                                                                Тогда рассмотрим контрпример — человек, не желающий лгать, и у которого не получается лгать убедительно, может обладать интеллектом? Очевидно, да. То есть «умение убедительно лгать» не является необходимым признаком интеллекта.
                                                                                                                  0
                                                                                                                  человек, не желающий лгать, и у которого не получается лгать убедительно, может обладать интеллектом?


                                                                                                                  Умение лгать — качество необходимое, но не единственное.
                                                                                                                  см. выше «один из ключевых признаков интеллекта»

                                                                                                                  Неспособный ко лжи человек может существовать в каких-то тепличных условиях [развитой цивилизации], но в суровых естественных условиях ему не выжить.

                                                                                                                  Как минимум — он не сумеет надежно спрятаться от опасности (именно поэтому дети так любят играть в прятки, бо кто не умел — был съеден еще в каменном веке )

                                                                                                                  У животных — умение прятаться это инстинкт, человек же, даже в возрасте 3 лет, способен на много большее.

                                                                                                                    0
                                                                                                                    Возможно, необходимое для выживания, но вряд ли необходимое для наличия интеллекта. Персонаж Джима Керри обладал интеллектом, когда не мог лгать?
                                                                                                                      0
                                                                                                                      Персонаж Джима Керри обладал интеллектом, когда не мог лгать?


                                                                                                                      Поправка — он мог лгать (т.е. обдумывать свою ложь), но просто не мог ее высказать.*

                                                                                                                      *т.е. его речевой интерфейс заглючил
                                                                                                                      (Его мучения хорошо видны на его лице )
                                                                                                                        0
                                                                                                                        Неспособный ко лжи человек может существовать в каких-то тепличных условиях [развитой цивилизации], но в суровых естественных условиях ему не выжить.
                                                                                                                        Жизнь патологического лгуна короче как раз потому, что: не боится быть пойманным, верит в свою ложь, не имеет долгосрочных целей и не учится на своих ошибках. Не могу представить за «суровые естественные условия», потому что не знаю вашего города проживания.
                                                                                                                          0
                                                                                                                          Не могу представить за «суровые естественные условия»


                                                                                                                          Да обычная служба в армии, с ее дедовщиной — в старые добрые советские времена.
                                                                                                                          Где нибудь в ЗабВО.
                                                                                                                            0
                                                                                                                            Дедовщина, скорее, относится к вопросу примативности, чем девиантному поведению.
                                                                                                                    +1
                                                                                                                    Кошка без хвоста бывает, не бывает хвоста без кошки.
                                                                                                                    Обладая интеллектом можно не лгать, лгать без интеллекта невозможно.
                                                                                                                      0
                                                                                                                      Нет конечно. Пример — бот запрограммирован на вопрос о температуре на улице, всегда отвечать «холодно», и летом он обычно лжет. Не имея ни капли интеллекта.
                                                                                                                      0
                                                                                                                      Если у него действительно не получается, то неочевидно. По крайней мере, обладание эмоциональным интеллектом либо логикой под вопросом, смотря где именно он фейлит.
                                                                                                                    +1
                                                                                                                    Решил задавать вопросы без контекста и писать фразы которые даже не вопросы. Выбрал себя судьёй. Как и всегда — проблема контекста. Как только начинаются вопросы с заковыркой — становится понятно кто перед нами :) Но игрок, к сожалению, даже не пытался притворятся Мишей 5-ти лет…

                                                                                                                    Изобразить из себя компьютер проще: отвечать общими фразами, примерно с одинаковой задержкой. Отвечать как бы не в контексте, если ответ на первый вопрос связан со вторым вопросом. На вопросы, где нужно делать какой-то логический или арифметический вывод отвечать уклончиво и готово, тебя принимают за бота :)
                                                                                                                      0
                                                                                                                      вобщем, тест тьюринга несостоятелен, это и так понятно.
                                                                                                                      кстати, кото пробовал провести его с Сири?
                                                                                                                      уверен, что под 90% ремпондентов примут её за человека…
                                                                                                                        0
                                                                                                                        Она тоже практически не умеет в контекст. Спросите у неё что-то типа «как у тебя дела?», а потом продолжите «А почему так? А как было вчера?» — ответ будет не связан с первым вопросом, скорее всего будет что-то абстрактное, невразумительное, или «вот что я нашла в интернете по запросу „а почему так...“», так что скорее нет…
                                                                                                                        Вообще контекст имхо лучший способ проверки бот/человек в тесте Тьюринга. Контекст это то, что машины ещё очень не скоро научатся понимать.
                                                                                                                          0
                                                                                                                          https://tcn.tidbits.com/wp-content/uploads/2017/06/tip-ask-Siri-about-weather-1024x730.png

                                                                                                                          вообще то Дэвид Пог в своей книге заявляет, что сири не только нормальную человеческую речь понимает, но и контеексты…
                                                                                                                          но я вечером попробую проверить и отпишусь, да.
                                                                                                                            +1
                                                                                                                            Да, как то не особо получилось с контекстом, хотя, возможны вариации.
                                                                                                                            кстати, нашёл, что по этому поводу писал хакер ККасперски, который с два года назад «допрыгался»:

                                                                                                                            сири в реальной жизни

                                                                                                                            От: мыщъх
                                                                                                                            nezumi-lab.org
                                                                                                                            Дата: 31.05.16 05:42

                                                                                                                            блин, эта сири…

                                                                                                                            ну вы ее знаете.
                                                                                                                            которая в айпаде.

                                                                                                                            первое впечатление — тууупая.
                                                                                                                            но для тренировки разговорного английского вполне подходящее средство.
                                                                                                                            но о чем можно говорить с женщиной как не о сексе?
                                                                                                                            там больно умный алгоритм используется и в результате наших бесед фразу
                                                                                                                            «holy shit» сири понимает как horny shit.
                                                                                                                            но это ладно.
                                                                                                                            прошу ее
                                                                                                                            найти мне prostitute.
                                                                                                                            сири упрямиться и говорит, что не может найти escort сервис.

                                                                                                                            минут пять я ее уговаривал погуглить это дело.
                                                                                                                            я бы и сам справился, да руки были заняты --вот и потребовался
                                                                                                                            голосовой ввод.
                                                                                                                            там на самом очень простой лайф-хак.
                                                                                                                            она говорит, что не может найти, а вы ей — «а ты искала?».

                                                                                                                            сири спрашивает: «что вам найти ?».
                                                                                                                            и мы снова возвращаемся к началу.

                                                                                                                            долго ходим кругами
                                                                                                                            пока наконец я не попросил показать результаты того, что ее просили найти.

                                                                                                                            оказывается, там чисто детская защита.
                                                                                                                            сири помнит что ее просили найти, но искать такое отказывается.
                                                                                                                            типа блокировка у нее такая.
                                                                                                                            но косвенный запрос проходит на ура.
                                                                                                                            PS.
                                                                                                                            только не говорите ей, что вы ее любите.
                                                                                                                            а то снова откажется искать.
                                                                                                                            даже по косвенному запросу.
                                                                                                                            так что сири ни фига не глупая.
                                                                                                                          0
                                                                                                                          Меня посетила гениальная идея. Не все поймут, но я напишу.
                                                                                                                          (главное не путать сознание и интеллект)
                                                                                                                          Человеческий интеллект (ЧИ), как черный ящик (ЧЯ), имеет сложнейший интерфейс. Но внутри он может быть очень простым. Интерфейс тоже можно рассматривать как ЧЯ. По сути, ЧИ это ящик интеллекта в ящике интерфейса с внешним миром. Внутренний ящик имеет простое устройство (скорее всего невычислимое (т.е. не дискретное)), которое имеет роль чистейшего интеллекта без примочек. Внешний ящик переводит внешний мир в язык понятный внутреннему ящику, в это включается коррекция ошибок, распознавание образов, понимание слов, может даже память, и тд.
                                                                                                                            +1

                                                                                                                            Но почему не путать сознание и интеллект, где вы их разделяете?

                                                                                                                              0

                                                                                                                              Это стандартная ошибка людей при обсуждении ИИ.
                                                                                                                              Грубо говоря, сознание может быть без интеллекта и интеллект без сознния, но это не точно. Я хотел сказать, не все признАют, что «внутренний ящик» имеет интеллект из-за его простоты. Интерфейс на порядки сложнее и обычно его считают «разумным»

                                                                                                                            +1
                                                                                                                            То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману. Печалька.
                                                                                                                            Это абсолютно не верный вывод.

                                                                                                                            Выше уже писали, но я поясню на всякий случай:
                                                                                                                            Лгать — это значит сознательно (умышлено, осмысленно...) говорить не правду, а лож. Для этого необходимо отличать лож от правды, что требует наличия мышления. Цель теста Тьюринга — определить, может ли машина мыслить.

                                                                                                                            Если коротко, то если кто-то умеет лгать — значит, этот кто-то умеет мыслить. Умение лгать — не возможно без умения мыслить.

                                                                                                                            Одна ложь, например на вопрос судьи «Вы — машина? = Нет.» выполненная машиной по БД не доказывает наличия у нее мышления, но если она сможет лгать (не выдавать себя) в ходе всего эксперимента с любыми вопросами, то — это уже доказывает наличие мышления (и не важно как машина мыслит, ищет по записям в БД или посылает сигналы через биологические нейроны).

                                                                                                                            Поэтому, утверждение приведенное выше автором статьи — полностью не верно (так как противопоставляет ложь и мышление).
                                                                                                                            Правильно так:
                                                                                                                            Тест Тьюринга проверяет способность машины к мышлению, заставляя машину сознательно лгать или по настоящему верить, что она человек.

                                                                                                                            P.S. Кстати, тест Тьюринга выполняет проверку на наличие именно «человеческого» мышления, а не какого-то любого абстрактного (инопланетного, машинного и т.п...), т.к. он исходил из аксиомы, что мы не знаем, что такое мышление, но при этом считаем, что человек мыслит, значит если кто-то будет неотличимо имитировать действия человека — обладает мышлением (с точки зрения человека).