Pull to refresh

Comments 221

Я не боюсь компьютера, который пройдет тесть Тьюринга.
Я боюсь компьютера, который его намеренно завалит.
(с) Старый мемас
особенно под игроком морочить голову другим судьям…
Почему люди думают, что машина которая пройдет Тест Тьюринга будет мыслить? Мы может натренировать нейросеть на идеального собеседника, но будет ли она мыслить? По моему она просто будет уметь работать со словами не понимая их смысл, а просто зная какое слово нужно поставить, чтобы пройти тест.
UFO just landed and posted this here
Опять же нейросети. Сделать это все может и в данный момент трудно, но через лет пять это будет вполне возможно. Машина не понимает что значат эти слова, она просто делает свою работу.
А вы понимаете, что значат ваши слова сейчас, или просто делаете свою работу?
Понимаю. Только вот в понимании главное не слова, то тот объект на которые они ссылаются. Мне понятны слова, но что ещё более важное мне понятно что они значат. Машина же манипулирует только словами, а что они значат нет. Она может хорошо отвечать на вопросы, задавать свои. Она знает как построить предложение и из чего построить предложение, но что оно значит нет. Это просто хороший чат бот.
Попробуйте меня убедить, что вы не просто хороший чат бот, который только манипулирует словами.
Это просьба или команда?
А вот интересно, допустим, он попробует. Вы скажете, что нет, не убедил. Как он сможет определить, что вы не обманываете и он действительно не убедил?
Разве машину нельзя натренировать, чтобы она понимала значение слов?
Можно. В зависимости от реализации её понимание может быть как крайне примитивным — «стол — это хорошо», «стул — это плохо», так и куда более сложным, но в любом случае будет отличаться от вашего. И что это даст в понимании, может ли она мыслить?
Мышлением, понятно, это еще не будет. Тут вопрос в другом. Что такое мышление? Может ли человек обьяснить, как он мыслит? Почему он мыслит так, а не иначе? Могут ли мыслить животные? Почему люди, растущие в одинаковых условиях, могут кардинально отличаться в характере и мыслительных процессах? Для того, чтобы создать имитацию разума, сначала надо понять сам разум.
Может ли человек обьяснить, как он мыслит?

Смотря какой человек и кому. AlexeyR сможет, вероятно. Мой сосед-прораб — вряд ли, но у него такого вопроса и не возникает.
Для того, чтобы создать имитацию разума, сначала надо понять сам разум.

Тут у кого какой подход — одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке, а скорее в нескольких — и мы неожиданно выясним, что человеческий способ мышления не единственно возможный.
sshmakov
одни аналитически пытаются понять процессы мышления, другие ставят эксперименты, третьи механистически повторяют биологические процессы, четвертые строят математические модели… В какой-то момент все это сойдется в одной точке,
Так думали математики лет 100 назад, «доказывая» непротиворечивость математики. Не сошлось.

От расстройства кто-то стал «изобретать» новую логику — выкинули принцип «исключение третьего», кто-то просто перестал заниматься математикой.

Воз и ныне там — не сошлось.

Последняя (крайняя) гипотеза — не сходится потому что нет определения что такое понимать?

alfixer
Может ли человек обьяснить, как он мыслит?
Может.
Есть в мозгу «черный ящик» — аналог ИИ — в него поступают запросы (неявно) — он выдаёт ответы (асинхронно, бывает и через минуту, а бывает — «надо переспать с этой мыслью» — или иначе говоря — «утро вечера мудренее»)

Сама передача вопроса «черному ящику» не осознаётся — исключая возгласа к небесам — «Помоги, мне всемогущий ....»

Приём же ответа от «черного ящика» также не осознаётся, либо всё же регистрируется возгласом типа «эврика!» или «осенило меня братцы!».

Сознательная же часть мышления заключается в следовании «житейской логики» — не путать с логикой Аристотеля.

Пример:
Вопрос — Каждую субботу ваш сосед ходит в баню. Сегодня суббота. Пойдёт ли сосед в баню?

Единственно правильный ответ, используя логику Аристотеля: Да.

Один из возможных ответов, используя «житейскую логику»: Нет, он болен.

В жизни Логики нет. (С) — Не потому что типа так, а потому что — откуда ей в Природе то взяться то?

Трудно сейчас сказать, зачем Аристотель придумал (изобрёл) свою Логику и зачем её хранили и изучали в средние века арабские учёные?

В Европе логика Аристотеля появилась примерно в 12 веке (в тамошних универах) с целью… хоть как-то отделить ереси, кои ранее отделяли обычно силой — а то как?

Ну, и напоследок — человек отличается от иных животных не «чёрным ящиком», поди — «чёрные ящики», поди, многих животных «мощнее» (но как это измерить?) чем у человека.

Да и ИИ вскорости превзойдёт по «мощности» (к примеру, в количестве обработки картинок в секунду — нахождения чего-то на картинке), потом подключится «специализированный ИИ» который будет «выводить» заключение на «логическом языке» (или на языке «житейской логики», по вкусу) на приемлемое (опять, такие, «степень разжёвывания» будет по вкусу) количество текста (страниц).

Конечно будут возгласы типа — Как ИИ до этого додумался? — Как и сейчас мы можем так возгласить, глядя на гениальные тексты какого-нибудь гения (особенно если гений уничтожил все свои черновики).

Короче — «чёрный ящик» у животного есть. Нет этого самого «толмача» с «переводом» на «житейскую логику», которая одна только и осознаётся то! Ну, типа так считается наукой сейчас, поди.

А что есть «осознание» или «понимание»? Тут на помощь приходит известная "Китайская комната" (вариант с сидящим там уже разумным(!) существом, общающийся с внешним для него миром посредством, например, терминала и только терминала — а как иначе то сознательно(!) общается наш мозг то с внешним миром то?).

Анализ «Китайской комнаты» порождает два основных вывода:

1) Ребёнок (даже при условии что он изначально хоть как-то наделён разумом или способностями к нему) не может понять китайский язык (и любой иной язык, обобщая)

2.) Китайцы признают человека сидящего в «Китайской комнате» и общающегося с ними через терминал на китайском как человека понимающего китайский язык. Но — как только китайцы узнают КАК этот разумный человек научился китайскому языку, то они вмиг скажут что китайского языка он НЕ ПОНИМАЕТ!

Оба вывода есть парадоксальны. (С)

Черный ящик-подсознание?
UFO just landed and posted this here
1) Она неизменна (не ответит на вопрос «каким был предыдущий вопрос»).

Китайская комната изменяется.


2) Была составлена заранее понимающим китайский язык агентом.

Человеческий интеллект этому соответствкет — языку вас учил тот, кто знал это язык.

UFO just landed and posted this here
1) Оригинальная комната Сёрла неизменна.

С чего бы? В оригинальном описании, вроде бы, нет никаких ограничений на наличие памяти.


Человеческий интеллект соответствует супер-комнате, а не комнате Сёрла. В этом отличие.

Так супер-комната и комната ничем не отличаются в вашем описании, у них одинаковое поведение.

UFO just landed and posted this here
UFO just landed and posted this here
1) в оригинальном эксперименте человек внутри рассматривает только входящий текст, инструкции он не может поменять.

В смысле не может? как раз инструкции он и применяет, чтобы сформировать ответ.


В «правильном» эксперименте с комнатой инструкции и вопрос состоят из одинаковых символов и могут спокойно подаваться на одной бумажке.

С чего вы взяли?


Супер-комната генерирует алгоритм. А суб-комната его исполняет. Вот и всё!

Так генерация алгоритма есть исполнение алгоритма генерации.

UFO just landed and posted this here
1) Не читали оригинальные утверждения Тьюринга.

При чем тут Тьюринг, если мы говорим о китайской комнате?


Не знаете что такое вычисления, алгоритм и абстрагирование.

Конечно же, знаю.


Не изучали другие источники, вроде Хофштадтера, Пенроуза и других.

То, что несет Пенроуз, всерьез воспринимать невозможно. А раз вы Хофштадтера ставите в тот же ряд — это и хорошо, что я его не изучал.


Я вам задал пару простейших вопросов, ответа не услышал, а услышал кококо ad hominem.
Уровень владения вами предметом теперь совершенно ясен.

UFO just landed and posted this here
Серл же утвержал, что прошедшие тест машины ничего не понимают, например отвечают на китайском, даже не зная язык. Этот эксперимент имеет грубые ошибки:

Ошибки имеет не эксперимент, ошибки имеет вывод "комната не разумна", хотя на самом деле она вполне разумна, ведь именно это и показывает эксперимент — комната демонстрирует разумное поведение.
Ошибка Серла в игнорировании результата эксперимента.


Что такое вычисление? Это физический процесс.

Не всегда.


Об интерфейсе забывают 99.999% говорящих об ИИ, а ведь это необходимая(!) вещь для вычислений.

Конечно же, нет. Никакого интерфейса для вычислений не нужно. Интерфейс нужен для взаимодействия с вычислительным устройством. Но не для работы самого вычислительного устройства (не для проведения вычислений, с-но).


КК имеет только табличку вопрос-ответ. Сами инструкции не меняются в процессе.

Я повторяю вопрос — с чего вы это взяли? Почему вы решили что не может быть инструкций вида: "инструкция Х: внесите изменения Y в инструкцию Z"?


И даже если это так — это совершенно бессодержательно, даже если вдруг в оригинальной постановке был явный запрет на память, то правильнее считать, что его не было.


Имея эти свойства, можно ли запустить на МТ интеллект?

Ответ "да" очевиден просто в силу того, что человеческий мозг с точки зрения вычислимости не сильнее МТ.


1) МТ низшого уровня, которая для решения задачи запускает другие МТ внутри себя. Если данная МТ зависла — убираем ее и запускаем другую.

Невозможно определить, зависла МТ или нет.


И никаких "уровней МТ" тоже нет, это вы выдумали что-то.

UFO just landed and posted this here
Вы не знаете о вычислимости и алгоритмичности, не знаете принципы вычислений, и не поняли что такое МТ.

В отличии от вас, я все это прекрасно знаю.


Ваши же знания вполне себе демонстрирует оговорка про: "если МТ зависла, то вырубаем ее".
Видимо, википедия и Хофштадтер — не лучшие источники. Попробуйте на досуге почитать учебник.


КК не является полной по Тьюрингу. И вообще, Серл невежественно рассуждает на уровне школьника и его комната популярна только у тех, кто сам застрял там.

Тогда какой смысл обсуждать исходную постановку? Пусть вместо комнаты Серла будет комната Серла 2.0, с памятью. Содержательно это ничего не меняет.

UFO just landed and posted this here
Признаки зависания: следующий шаг не отличается от предыдущего, возврат в точности к одному из шагов, неожиданно долгое выполнение.

Видите ли в чем дело, если бы зависание гарантированно приводило к циклам, то задача останова была бы алгоритмически разрешимой — достаточно было бы залогировать все состояния и сравнивать с ними. Но проблема именно в том, что программа может зависнуть при отсутствии каких либо повторов в состоянии. Тривиальный пример — машина Тьюринга, которая на каждом смешает ленту вправо и записывает единицу, повторяя эти действия до бесконечности. Повторного состояния не возникнет никогда, но эта МТ, очевидно, висит.


Нет никакого способа определить, висит производная программа или нет. Не важно в каком вы там "уровне" что собираетесь делать. Смиритесь с этим.


Добавляя уровень выше, мы решаем проблему останова в МТ уровня ниже и доказываем недоказуемую теорему в формальной системе уровня ниже.

Нет, это так не работает.


ИЗУЧИТЕ БЛИН МАШИНУ ТЬЮРИНГА, ПРОБЛЕМУ ОСТАНОВА И ТЕОРЕМУ О НЕПОЛНОТЕ ГЕДЕЛЯ.

Повторюсь, в отличии от вас, я все это знаю. А вы — не знаете и говорите глупости.


Какой учебник? Школьный?

Нет, университетский. По математической логике, теории вычислимости, теории алгоритмов.
Если осилите — перестанете позориться, говоря глупости с пафосным умным видом.


Комната Серла 2.0 = Машина Тьюринга. В таком случае лучше уже обсуждать саму машину, а не комнату.

Зачем? У нас есть некий мысленный эксперимент — китайская комната, в которой все, что надо есть. Ее и обсуждаем.

UFO just landed and posted this here
Я привел 3 признака зависания. Не обязательно это одинаковое состояние системы. Дело в том, что скорость выполнения конечная (бесконечная скорость решает все вопросы перебором). Так что в каждой задаче есть разумное время выполнения (даже при первом выполнении).

Я вам для любого количества операций могу легко написать МТ, которая работает дольше и при этом завершается. Так что не работает такой критерий. И никакой не работает.


Как раз это суть формальных систем. Иначе вы не могли бы знать, что утверждение истинно, но недоказуемо!

Видите ли, в чем дело, из теоремы Геделя о неполноте никак не следует, что невыводимое утверждение истинно. Наоборот, из нее в сумме с теоремой Геделя о полноте следует, что существует интерпретация, на которой утверждение истинно, и интерпретация, на которой оно ложно. Так что мы ничего не можем утверждать об истинности невыводимого утверждения. Именно потому оно и невыводимо, с-но говоря. То есть, не "знаю что истинно, но недоказуемо", а "знаю, что может быть как истинно, так и ложно, потому — недоказуемо".
Это во-первых. А во-вторых — теорема Геделя о неполноте не требует каких-то систем "более высокого уровня".

UFO just landed and posted this here
В этом и суть теоремы Геделя.

Еще раз, невыводимое по Геделю утверждение истинным не является. Прочитайте про разницу между истинностью и выводимостью.
Вы пытаетесь рассуждать об области, в которой практически не разбираетесь, и по-этому говорите безграмотные вещи, от которой людям, которые разбираются, становится смешно. Снизьте уровень пафоса и почитайте учебник по математической логике, все-таки. Википедия и художественная литература — не лучший источник для образования.


Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.

Только систему вы можете расширить как для доказательства утверждения "А", так и для доказательства "! А".
В итоге у вас есть три разные системы — в одной ни "А" ни "! А" не выводимо (с-но существуют интерпретации как с ложными так и с истинными "А"), во второй выводимо "А" (существуют интерпретации только с истинными "А") и в третьей выводимо "! А "(существуют интерпретации только с ложными А).


Отлично, вы нашли неэффективный алгоритм, бросаем выполнять и ищем другой. Не нашелся? Придется выполнять, че поделаешь.

Ну то есть никакого способа определить, зависла программа, или нет, не существует. С чего мы и начали.

UFO just landed and posted this here
По вашему, есть одна формальная система и она является законченной и неизменной.

Почему одна? Их много разных.


Какая из них будет самая «правильная»?

Нету такого понятия как "правильная" формальная система. У формальных систем есть много разных свойств, но свойства "правильная" среди них — нет.


Я сказал другое: «Доказательство недоказуемой теоремы происходит именно за счет расширения ФС.»

Зачем?


В рамках конкретной ФС есть утверждение X, которое невозможно вывести. Но расширив данную ФС, мы доказываем Х.

Теорема Геделя никак не связана с доказательством Х в какой-то более широкой системе.


Будь это невозможно узнать, Геделя не доказал бы свою теорему!

Без "бы". В доказательстве Геделя по факту не используется никаких "доказательств в более широкой системе".
Давайте сперва вы ознакомитесь с этим доказательством, а потом будете о нем рассуждать? Вы ведь его не читали. Зачем вы говорите о доказательстве, с которым совершенно незнакомы?


Вы же, зачем-то, переносите данное утверждение на всю Вселенную.

Я ничего не говорил ни о каких вселенных.


1) Запускаем определенную виртуалку.
2) Определяем зависание по заданным критериям (я привел 3).

И в п.2 у вас проблема, потому что вы не можете определить зависание при помощи указанных вами критериев. Конец истории.


О проблеме останова «главного» уровня даже не хочу слышать

Нету никакого "главного" или "не главного" уровня. Есть один единственный уровень, и проблема останова неразрешима. Конец истории.


Мое последнее утверждение и я ухожу с разговора.

Жаль, я был бы не против еще посмеяться над вашей воинствующей безграмотностью.

2) Серл забыл, что инструкции были составлены! Они имели начало. Автор инструкций понимает китайский. Так что эксперимент можно рассматривать как общение с автором, а не с внутренним исполнителем.

А вы уверены, что Серл забыл? Может он под автором инструкции понимал Создателя, тогда КК доказывала неосуществимость ИИ.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Сильно. Последнее утверждение вообще класс. Но 3 и 4 совсем не проблема для любых машин. А человеческий мозг — тот не останавливается ни на секунду. Важна не точка останова и не выход из цикла, а результаты, которые выдает программа в процессе работы, ведь после её завершения всё, что обычно можно получить от программы, это errorlevel.
Интеллект это система, которая ищет алгоритм для решения задачи

Подумав ещё, решил, что этого мало. Кот тоже ищет решение задачи, как украсть котлеты — считать ли его интеллектуалом?

Предлагаю добавить к вашему определению "[задачи], не дающей немедленной выгоды, и которую система сама себе поставила".
UFO just landed and posted this here
Общепринято, что люди обладают интеллектом. Младенец тоже человек. Следовательно младенец интеллектуал? Младенцы умеют намного меньше, чем некоторые животные. Так что можно утверждать, животные обладают неким минимальным интеллектом.

Поскольку у нас всё ещё нет определения интеллекта, то утверждать здесь нечего.

Дело в том, что люди стремятся удовлетворить определенные потребности (максимизация функции), но в какой период времени смотреть?

Нет, ни на грамм. Могу посочувствовать математике, но люди не являются идеальными объектами, стремящимися максимизировать функцию удовлетворения потребностей. Наши действия чаще всего не рациональны, не ведут к выигрышу, ни к личному, ни к общественному, ни в краткосрочной перспективе, ни на более отдаленный срок. Для признания интеллекта это всё не нужно. Достаточно знать, что задачу он поставил себе сам, и не основываясь на потребностях.

(я очень неясно написал, но это дело можно строго формализировать и применить к ИИ)

И тогда только формалисты будут им пользоваться для определения ИИ. Формального ИИ, замечу. А понятие искусственного интеллекта не количественное, а качественное, субъективное, а не объективное.
UFO just landed and posted this here
alfixer
Черный ящик-подсознание?
Так как у животных нет сознания, а есть «Черный ящик», то ответ на ваш вопрос в общем отрицательный.
Да и кроме «сознания» и «подсознания» есть "пограничные состояния" — например:
— иногда вы осознаёте что вам снится, но не можете никак повлиять ни на содержание вашего сна, ни на его анализ. Это уже НЕ «чёрный ящик» и ещё не «сознание».
— иногда вы осознаёте что делаете что-то постыдное, нехорошее, вредное или ужасное, но не в силах сами перестать это делать.

DjSapsan
Китайская комната Сёрла есть не что иное, как экспертная система.
О «китайской комнате» столько написано…

Моя современная интерпретация проста:

Разумного человека посадили в комнату и он общается с внешним миром участвуя в китайском чате посредством текстового терминала на котором можно набирать только китайские иероглифы.

Он может создавать базы данных, программировать их, составлять программы, анализировать как ему угодно текст китайского чата, записывать его, изучать, воспроизводить на чём угодно, сортировать, создавать сети ИИ и базы знаний.

Важно что он разумен и чат китайский (китайский — чтобы он не мог сопоставить никаких аналогий между теми языками что он знает и текстом в китайском).

Он разумен — означает, что он не программа и не бот, то есть он заведомо изначально может понимать , чтобы под этим слово не понимали, тут это не важно.

Вначале, наблюдая за чатом — он его изучает, отмечает повторы, появления тех или иных персонажей по времени, их текст, анализируют что они пишут и что им отвечают.

Китайских персонажей не должно быть уж много — хватит и пару-тройки китайцев в чате.

Со временем он робко начнёт вмешиваться в китайский чат, возможно впопад или невпопад.

С течение большего промежутка времени ничего не мешает ему полноценно участвовать на равных в беседах в этом китайском чате. Китайцы принимают его за своего.

Как это возможно?

1) Используя свою отличную память или написанный им (или только натренированный им) ИИ, он ловко и к месту вставляет свои иероглифы в беседу в китайском чате. — Но понимает ли в этом случае он китайский? — Ответ — НЕТ! (Часто в жизни мы видим «зубрилку» сдающего экзамен на отлично, но так, по нашему мнению(!), и не понявшему почти ничего или вовсе ничего).

2). Он решил вписаться в китайский чат используя уже имеющиеся у него знания. Какие? — Разнообразные:
— Люди приходят утром и уходят поздно вечером.
— При встрече люди здороваются, а при уходе прощаются (кроме англичан)
— Вначале беседы люди обсуждают… погоду.
— Когда слова становятся короче, это часто означает, что люди начинают ругаться, доходят до «Гитлера», обзывая друг друга «фашистом».
— когда текст в чате разрастается, то это часто означает, что люди уходят в философские беседы, где часто вспоминают «китайскую комнату».
— и т.п.

И… он вписался в китайский чат — на одном своём воображении, что он знает что же пишут эти китайцы в своём чате! — но этот его "выдуманный мир китайского чата" попахивает солипсизмом!

Ну, а теперь осознайте, что фактически любой ребёнок и есть тот человек, который «заперт» с рождения в «китайской комнате», общаясь с внешним миром только и только посредством «терминала», в котором воспитывающие его родители пишут «китайские (для ребёнка любой язык как для нас китайский) иероглифы».

UFO just landed and posted this here
DjSapsan
Если человек последовательно действует согласно входящей информации, то значит он ее понимает. Если искусственная система делает так же, то она тоже понимает. Не нужно иметь 100% одно и тоже состояние мозга/ИИ для понимания, главное последовательность в ответах/действиях.
Нет.

Суть в том, если Тест Тьюринга фактически говорит — вот программа в терминале, определи что это не человек тебе отвечает.

Но Китайская Комната фактически говорит — вот человек разумный в комнате за терминалом — смотри, нет никаких доказательств что он понимает китайский язык, хотя его ответы неотличимы от ответов настоящих китайцев.
UFO just landed and posted this here
DjSapsan
В Китайской Комнате человек представляет не разумного человека, а hardware.
Это вы не поняли смысла.
Уберите человека разумного из описания Китайской комнаты и она… перестанет существовать.

"Если компьютер ведёт себя так же, как человек, владеющий китайской письменностью, то тогда нам следует полагать, что и компьютер её понимает." (ваше мнение ведь!) — «Таким критикам Сёрл отвечал, что суть аргумента не в том, откуда мы знаем, что у других людей есть ментальные состояния, а в том, что́ есть эти ментальные состояния. С точки зрения Сёрла, ментальные состояния не могут быть определены как просто вычислительный процесс и его вывод, поскольку для этого не требуется ментальное состояние.»

Иначе говоря, Сёрл утверждает — смотрите, мы помещает ЧЕЛОВЕКА РАЗУМНОГО в нашу комнату и даже ЭТО не помогает нам сформулировать (то есть описать словами) что есть «понимание»? — В этом суть Китайской комнаты.

А отсюда и следствие — наблюдая КАК ребёнок учиться понимать, мы НЕ в состоянии сформулировать (то есть описать словами) КАК ему это удалось?
UFO just landed and posted this here
Вытяните процессор с компьютера и нажимайте на кнопки. Скажите что вы видите на мониторе.
Дело не в кнопках.

Тест Тьюринга:
Слева компьютер (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
Вопрос — Понимает ли компьютер?

Китайская комната:
Слева (в китайской комнате) человек разумный (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) - и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

Сёрл убрал компьютер из схемы (терминал не в счёт, он может быть любого типа, не только в виде электронного монитора) и спросил — Что есть понимание?

Иначе говоря он спросил — Вы не можете вообще сказать что есть понимание, а уже ставите более общий вопрос — понимает ли компьютер?

DjSapsan
Откройте хоть что-нибудь кроме педивикии.

Хм. "Только с 2010 по 2014 год было выпущено более 750 статей в научных журналах, где обсуждается мысленный эксперимент Сёрла".

Хм, а сколько было до 2010 года то? — поди еще больше!
Статей тысячи! В научных(!) журналах. И не все эти статьи на стороне функционализма то.

UFO just landed and posted this here
DjSapsan
Мы не можем убрать компьютер, нам же нужно как-то выполнять программу! Не важно кто/что выполняет, это могут быть шестеренки/лампы/транзисторы/человек/кирпич. Серл хотел сказать, что формальный алгоритм (неважно кем исполняется) не может понять значение иероглифов.
Хорошо. Пусть человек — это абстрактная машина Тьюринга + разум (неважно, что бы мы под этим понимали).
Это ничего не меняет:

Тест Тьюринга:
Слева «реализация абстрактной машина Тьюринга» (с программами, базами знаний, ИИ и прочим и прочим) — терминал — справа человек разумный.
Вопрос — Понимает ли эта «реализация»?

Китайская комната:
Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).

Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате! Или кратно — мы не можем вообще описать что есть «понимание» человека.

Так что ваша замена — Ничего НЕ меняет.

DjSapsan
На самом деле его утверждения подобны следующим: »транзистор не может найти кота на картинке"
Нет, он утверждает, что даже если к каждому транзистору мы приставим по китайцу (человеку разумному) — вся совокупность всех этих «окитаеных» транзисторов не порождает «понимание».

DjSapsan
«любви не существует, это лишь химические реакции в мозгу».
Нет, — он утверждает, что химические реакции даже в совокупности с разумом не порождают любви.

В своих ответах на наскоки на его комнату он всегда добавляет разум и спрашивает — и что? Понимание то НЕ возникает и в этом случае то!

DjSapsan
Хватит заниматься редукционизмом!
Нет. Сёрл не низводит всё до молекулы — наоборот — он добавляет к молекуле разум и утверждает что и в этом случае понимание НЕ возникает.

Druu
Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?
В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

«Слева (в китайской комнате) человек разумный — то есть абстрактная машина Тьюринга плюс разум (со всем его багажом знаний и умений, что он УЖЕ взял при своём обучении, со знанием программ, программирования, как обучать ИИ и прочим и прочим) — терминал-левый (в китайской комнате) — терминал-правый (вне китайской комнаты) — и справа снова человек разумный — то есть китаец (или много китайцев в китайском чате).»

В этом варианте человеку в комнату НИКТО не подложил никакие правила, как отвечать в китайском чате.

В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

Но понимания и тут нет. И оно НЕ возникает.

Любой китаец скажет в этом случае — что ни человек в Китайской комнате, сам придумавший правила ответов, ни комната с человеком, придумавший правила ответов, ни Земля с комнатой в которой находится человек, придумавший правила ответов, ни Вселенная с Землёй и комнатой на ней в которой человек, придумавший правила ответов в китайском чате — НЕ понимают китайского.

P.S. "… Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык"

Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!
И всё равно — понимание китайского НЕ возникает.

UFO just landed and posted this here
DjSapsan
Что за бред.
Эх, если бы так сам Сёрл отвечал его оппонентам, а не придумывал бы различные варианты в ответ, которые всё равно им что… горохом об стену. Столько бы нервных клеток сберёг, поди.

DjSapsan
3) Для правомерного сравнения нужно явно привести (програм. «cast») обе «переменные» к одному «типу» — уровню (уровень манипуляции символами поднять к уровню ИИ и только тогда сравнивать с человеческим интеллектом). Вы же не сравниваете красоту букв с красотой стиха?
Стоп, с чего вы взяли что ИИ можно сравнить с человеком разумным в плане понимания?

О том и речь, что Сёрл создал свою Китайскую комнату, показывая что споры о том, может ли программа (алгоритм, ИИ и прочая и прочая) понимать? — смысла НЕ имеют, так как даже добавлении человека-разумного в схему НЕ порождает «понимания».

И сравнивать калькулятор, или программу играющую в шахматы или играющую в Го, или программу берущую интегралы, или ИИ занятый анализом картинок — смысла НЕТ, ибо даже добавлении человека-разумного в схему НЕ порождает «понимания».

Да, «Китайская комната» Сёрла фактически отправила в нокаут функционализм (и попытку как-то разрешить тест Тьюринга).

DjSapsan
4) Перед утверждением невозможности чего-то нужно попробовать сделать это. Вы пропустили множество сверхумных систем, а уже что-то пытаетесь доказать. Примеры — SHRLDU и ALPHA ZERO. Они действительно понимают свой мир в полной мере (вплоть до понимания намерения не имея полной информации).
Они не понимают. Они могут выести (породить) что угодно, конечно, но в них не возникает феномена «понимания» как не возникает его даже в Китайской комнате.

Druu
Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?
По привычным ему правилам. Перед ним терминал. На нём китайский чат. Есть клавиатура, с помощью которой можно набирать китайские символы китайского текста. И всё!

Больше НИКАКИХ правил у него нет. А есть его разум, компьютер, ИИ, он учился чему-то, может сам программировать, анализировать, комбинировать, но — никогда никто его НЕ учил ни китайскому, ни грамоте китайской.

Нет у него и заранее припасённых карточек как ему себя вести и что, в каком порядке, писать в китайский чат.

Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат — сначала неуверенно, потом всё точнее и точнее, делая ошибки, конечно, — пока китайцы в чате не признают его за понимающего китайский — а он его, китайский, так и НЕ будет никогда понимать. — Никогда!

Ни он, ни он с комнатой, ни он со всем своим знанием, умением, ИИ, программами, компьютером, базой знаний и прочим и прочим — никогда НЕ будет понимать(!!!) китайский.

Druu
Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?
Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

Вначале у него сидел человек с заранее составленными кем-то карточками.

Потом Сёрл, в ответ на — «Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык» — модернизировал исходный вариант своей Китайской комнаты: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы.»

Я ещё более модернизировал его Китайскую комнату — теперь там сидит человек-разумный, который и карточек составленных кем-то заранее то не имеет и ничего заранее из того как отвечать в китайском чате НЕ учил и не знает — он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

Druu
Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.
Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете. Таков вывод Китайской комнаты (её различных, модернизированных вариантов).

Druu
Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.
Это хороший вопрос. Но почему нет? С помощью ИИ, человек наверняка может «правильно» отвечать в китайском чате, — ведь научил же («натаскал», обучил) человек ИИ выигрывать человека в Го!

Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

Но феномена «понимания» и тут НЕ возникает. (С)

P.S.
image
UFO just landed and posted this here
DjSapsan
Если соизволите ответить, то сразу же в самом начале определите понятие «понимание». И только потом доказывайте, что кто-то чего-то не понимает.
В том то и дело, что Китайская комната обходится без определения понятия «понимание» — Это тесту Тьюринга нужно это определение, а его нет, поэтому все и спорят «понимает ли машина, компьютер, программа, алгоритм и прочее и прочее? », а Китайская комната то и создана для того чтобы обойти вообще определение что есть «понимание». В этом суть Китайкой комнаты.

DjSapsan
В машине: уровень железа — уровень алгоритма. К слову, программа это уровень железа. Алгоритм не знает где он запущен. Можно запустить его на машине Беббиджа, на лампах, на транзисторах или на кирпиче. Алгоритм не зависит от железа. Можно закрыть железо в комнате и никто не определит где транзисторы а где шестеренки.
В КК: уровень железо в виде человека и книги/памяти —
уровень комнаты. Китаец сможет определить, что сам человек (железо) не понимает китайский. Но он не сможет определить в какой комнате китаец, а в какой — самозванец. Это два принципиально разных уровня!
Уровни не важны. При желании вы можете любое железо смоделировать в облаке, которое само крутится на виртуальной машине. И в этом случае — понять какой транзистор открылся (при выполнении вашей программы) не представляет определить вовсе.

Кстати, учёные уже моделируют нейроны (миллионы пока) — моделируют не на железе или биологически — а виртуально — в памяти компьютера.

DjSapsan
В КК: понимание человека нельзя сравнивать с пониманием комнаты. Комната может понимать иначе китайский чем человек внутри.
Говоря о «понимании комнаты» — вы сваливаетесь опять к тесту Тьюринга, где вам необходимо вводить понятие — что есть «понимание».

В Китайской комнате понимать может только человек — это аксиома.
Почему аксиома — потому что в китайской комнате сидит человек разумный, что означает, что неважно что есть понимание, важно то, что у нас есть способный к понимаю объект — человек разумный, который по определению (и это аксиома) уже понимает и способен понимать (в отличии от компьютера, программы, алгоритма и прочих уровней в тесте Тьюринга).

DjSapsan
Формально а не догматично докажите невозможность понимания комнатой китайского языка (исходя из своего определения этого понятия)
Ваш вопрос опять касается текста Тьюринга. Может или нет комната понимать?
В Китайской комнате есть человек разумный и речь только и только о его понимании.

Может ли понять человек разумный(!) в китайской комнате китайский язык? — ответ отрицательный.

Druu
Окей, у вас своя модернизированная китайская комната. Давайте все-таки вернемся к оригиналу и будем обсуждать комнату, в которой сидит человек с правилами, и общается так, будто знает язык

Druu — давайте все-таки вернемся к оригиналу

Сёрл — я не просто так модернизирую КК, а для того чтобы у вас возникло понимание. Как я понял, вас мучит физическое наличие карточек с правилами в исходном варианте КК? Давайте их уберём и предположим что человек заранее их вызубрил и сел в КК.

Druu — я не верю что человек может заранее вызубрить эти карточки.

Сёрл — хорошо, но предположим что это всё же возможно. У многих людей есть отличная память и мы можем наверняка найти хоть одного способного человека на это.

Druu — не найдёте.

Сёрл — хорошо, не найду, но мы можем предположить что найду — пускай чисто гипотетически — и рассмотрим уже модернизированную комнату, без карточек, обсудим её.

Druu — нет, карточки положите на их первоначальное место в КК.

Сёрл — Понимаете, дело не в карточках в КК. Если вы этого не понимаете, как я вижу, то я уберу их, не для того, чтобы вас запутать, а для того, чтобы вам стало более понятно, но дело не в карточках в КК. — "В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык"

Druu — нет, я согласен рассматривать КК только с карточками в ней.

Сёрл — мы вернём эти карточки в КК. Я вам обещаю, но давайте вначале рассмотрим вариант где карточек в КК нет, а есть человек зазубривший эти карточки.

Druu — я не хочу рассматривать этот вариант вовсе. Мне он кажется каким то нереальным. Не верю я в способности зазубрить карточки человеком.

Сёрл — но мы же можем предположить это, по крайней мере. Разве не так?

Druu — я хочу карточки в КК. И только их. Без карточек в КК вся моя философия рухнет. А я этого не хочу. Она такая складная.

Сёрл — моё мнение, вам надо всё же выкинуть эти карточки из КК, разобраться, а потом уже вернуть карточки в КК. Иначе вам не продвинутся в понимании КК.

Druu
Кроме того, нам не важно, понимает китайский язык сам человек или нет. Такого вопроса не стоит, непонятно почему вы на него все время скатываетесь. Мы обсуждаем понимает ли язык китайская комната вцелом. И она, совершенно точно, его будет понимает, при условии что нормально общается и китайцы, которые с ней разговаривают, считают, что все ок.
Ответ вам от Сёрла: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык»

И от меня — Говоря о «понимании комнаты» — вы сваливаетесь опять к тесту Тьюринга.
Выбросите карты из КК и рассмотрите этот вариант. Иначе вы так и останетесь в неведении.

Druu
Как же не возникает, если в вашей комнате сидит разумный ИИ, который понимает китайский? Вы вообще вводите несущественные детали. Могли сразу вместо человека который в комнате собрал ИИ сразу посадить туда этого ИИ, без человека. Вопрос: понимает ли этот ИИ язык? Ответ: очевидно, да.
ИИ в КК — это тест Тьюринга. Человек не зря посажен в КК. Для того чтобы обойти вопрос — «что такое „понимание“?» — Убери человека из КК и мы свалимся к тесту Тьюринга.

DjSapsan
На текущем уровне ИИ чаще всего понимает текст как взаимосвязь внутренних понятий.
Для понимания нашего физического мира нужен вход с реального мира — камеры/тактильные датчики/термометры/обоняние и тд.
Для понимания чисто человеческих понятий, нужно добавить машине человеческие потребности — голод/жажда/сон/социальное одобрение/размножение/познание.
Никакое добавление никаких «голод/жажда/сон/социальное одобрение/размножение/познание» и никаких «камеры/тактильные датчики/термометры/обоняние » не помогает разрешить феномен КК.

На это Сёрл ответил вам «эти критики полагают, что эффект понимания достижим, если создать робота с самообучающейся программой, а также оснастить его сенсорами для восприятия мира. Такой робот, по их мнению, может взаимодействовать с миром, познавать его и быть способен обучиться подобно ребёнку, а следовательно начать понимать так же, как человек.

Сёрл возражал против того, что в случае робота применим тот же аргумент. Сёрл предлагал поместить человека внутрь робота, и человек, в зависимости от увиденных через сенсоры иероглифов, выполнял бы движение телом робота, и в то же время он бы не имел никакого понимания происходящего, а лишь выполнял синтаксические манипуляции над символами»

Отсюда, немного поразмышляв, можно прийти к выводу, что родившийся ребёнок есть по сути «человек способный к пониманию, помещённый в КК» — то есть мы не способны объяснить как ребёнок учиться понимать!

Но этот вывод для вас, как я понимаю, является… шоком. И не воспринимается вашим разумом.
UFO just landed and posted this here
Ответ вам от Сёрла: «В качестве контраргумента Сёрл предлагает заставить человека запомнить формальные правила ответов для системы. По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык»

Человек понимать не будет, а система "человек+заученные правила" — будет.

Уважаемые, честно, я пытаюсь следить за ходом вашей дискуссии, но никак не разберусь, где у вас точка расхождения мнений.


Насколько я понимаю, основная идея китайской комнаты — показать, что совокупность сколь угодно сложного автомата и сколь угодно сложных инструкций для него (да, составленных человеком) — вот это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.


То есть Сёрл своим мысленным экспериментом показал, что прохождение теста Тьюринга машиной ещё не означает существования в ней искусственного интеллекта.


Человека в китайскую комнату Сёрл в принципе мог не вводить, но ввёл и ввёл не случайно — во-первых, чтобы примитивностью автомата не ограничивать сложность инструкций, а во-вторых и в главных — выявить отсутствие какого-либо понимания происходящего внутри машины. Тут фишка в том, что понимает или нет машина — вопрос спорный и самим экспериментом рассматривается, а непонимание человека внутри машины берется априори, условием эксперимента. То есть Сёрл как бы говорит — если уж человек внутри ничего не понимает, то почему вы думаете, что просто заменив человека на машину ("женщину вынули, автомат засунули..."), выполняющую те же инструкции, вы получите мыслящую и понимающую машину?


Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.


И ещё один вывод — не сложностью машины и не сложностью инструкций создаётся искусственный интеллект.

В английской Вики больше написано, чем в русской. Сёрл говорит, что Китайская комната это не доказательство, а пример, требующий объяснения.


However, the thought experiment is not intended to be a reduction ad absurdum, but rather an example that requires explanation. Searle is not asserting that the situation is impossible, but rather that it is difficult or impossible to explain how this system can have subjection conscious experience.
А в моем комментарии вы где-то увидели обратное? По-моему, я был вполне аккуратен со словами: "это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.". Ну еще можно добавить, что равным образом не доказывает обратного утверждения, что нет мысли в этом ящике.
Да не, это дополнение, а не возражение) Я просто тоже за их перепиской наблюдаю.
sshmakov
Насколько я понимаю, основная идея китайской комнаты — показать, что совокупность сколь угодно сложного автомата и сколь угодно сложных инструкций для него (да, составленных человеком) — вот это соединение в целом, как черный ящик, может пройти тест Тьюринга, но не доказывает наличие мысли в этом черном ящике.
Нет. Основная идея КК показать что мы не можем описать процесс возникновения понимания.

sshmakov
То есть Сёрл своим мысленным экспериментом показал, что прохождение теста Тьюринга машиной ещё не означает существования в ней искусственного интеллекта.
ИИ может существовать. Понимания не возникает.

sshmakov
Человека в китайскую комнату Сёрл в принципе мог не вводить, но ввёл и ввёл не случайно — во-первых, чтобы примитивностью автомата не ограничивать сложность инструкций, а во-вторых и в главных — выявить отсутствие какого-либо понимания происходящего внутри машины.
Дело в том, что Сёрл не задавался вопросом "может ли машина мыслить"? Потому что тогда надо как-то определять что такое «мыслить и понимать»? — Он элегантно обошёл это, введя «человека разумного» — в способности понимать которого никто не сомневается же! Но даже это НЕ помогло описать процесс возникновения «понимания».

sshmakov
Тут фишка в том, что понимает или нет машина — вопрос спорный и самим экспериментом рассматривается, а непонимание человека внутри машины берется априори, условием эксперимента.
Для ответа на вопрос «понимает машина или нет?» надо определить «что есть понимание»?
КК показывает, что мы не можем описать возникновение «понимания» даже у человека, априори способного к пониманию.

sshmakov
Сёрл как бы говорит — если уж человек внутри ничего не понимает, то почему вы думаете, что просто заменив человека на машину («женщину вынули, автомат засунули...»), выполняющую те же инструкции, вы получите мыслящую и понимающую машину?
Верно. Он говорит — даже несомненно наличие способности к пониманию, не позволяет нам описать процесс возникновения понимания. — А в случае теста Тьюринга все силы уходят на формулировку — что есть понимание? (в КК этого не требуется, ибо человек уже способен понимать).

sshmakov
Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.
Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.

sshmakov
И ещё один вывод — не сложностью машины и не сложностью инструкций создаётся искусственный интеллект.
ИИ может быть любой сложности или простоты, но ИИ не способны понимать.

P.S.
michael_vostrikov
В английской Вики больше написано, чем в русской. Сёрл говорит, что Китайская комната это не доказательство, а пример, требующий объяснения.
Верно. КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека), который априори способен понимать. — Вам это не напоминает аналогичное описание известного «опыта», созданное… пару тысяч лет назад? :-)

P.P.S.
Druu
Человек понимать не будет, а система «человек+заученные правила» — будет.
Вам осталось всего ничего — определить что такое "понимание системы?"

P.P.P.S.

DjSapsan
Садим в эту же комнату настоящего китайца. И пусть он манипулирует символами. Что получается? А вот что:
1) Понимающий китайский человек не понимает, что он отвечает на китайском. ПРОТИВОРЕЧИЕ!

Хм. Противоречия нет. Понимающий китайский, манипулируя символами, составленными понимающими китайский, вполне понимает, находясь в КК, что он отвечает.

Для того, чтобы вам продвинутся в понимании КК, вам нужно ответить самому себе на два вопроса:
1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?
2) Зачем туда посажен человек (а не машина Бэббиджа)?

DjSapsan
Именно уровни позволяют иметь понимание в «железе».
Я привёл пример виртуалки, чтобы пояснить, что при реализации железа в облаке, когда всё стало алгоритмом, мы можем сравнивать всё со всем, так как всё стало одной сущностью — алгоритмом. А одну сущность можно сравнить с такой же иной сущностью.

DjSapsan
вы это серьезно вы...? Надоели уже эти диванные выскочки, начитаются википедии и уже строят из себя ньютонов
Выбирайте выражения, вы не у себя на кухне. Вас противно физически читать.
Так вот, что я хочу сказать — мой Миша-бот — это такая же китайская комната, с вводом-выводом данных, с инструкциями по их обработке, только без человека внутри.

Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.

Китайская комната не «понимает». Она успешно проходит тест Тьюринга, а это не одно и тоже.
Может быть у вас есть определение слова «понимание»? У Тьюринга и Сёрла его не было, поэтому появились их эксперименты.
Вам осталось всего ничего — определить что такое "понимание системы?"

Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя ("я понимаю") либо при помощи переноса ("Х ведет себя точно так же как я, если бы понимал => Х понимает").

КК показывает, что мы не можем описать возникновение «понимания» даже у человека, априори способного к пониманию.

Вы абсолютно не поняли смысл эксперимента Сёрла и тем более смысл аргументов его противников. Прочитайте английскую Вики, особенно аргументы.


В комнате есть другая система, кроме человека, способная к пониманию. Понимание происходит не в восприятии человека, а на более высоком уровне. Оно связано не с процессами биологической системы, а с процессами комнаты. Поэтому неважно, кто будет исполнять инструкцию, человек или процессор, их способность к пониманию здесь не требуется.


КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека),

Перевод второго предложения:


Сёрл не утверждает, что эта ситуация невозможна, скорее что сложно или невозможно объяснить, как эта система может иметь субъективный сознательный опыт.


Сёрл говорит про понимание комнаты, а не человека. И не утверждает, что "понимания не возникает". Он задает вопрос "как оно возникает в вашем варианте".

michael_vostrikov
Вы абсолютно не поняли смысл эксперимента Сёрла и тем более смысл аргументов его противников. Прочитайте английскую Вики, особенно аргументы.
Английская версия более «осовременена», по сравнению с русской. Там вовсю упоминается ИИ, кое при создании эксперимента КК вовсе нигде не фигурировало.

Но пару цитат оттуда можно взять:

«Colin McGinn argues that the Chinese room provides strong evidence that the hard problem of consciousness is fundamentally insoluble.»

«Колин Макгинн утверждает, что китайская комната является убедительным доказательством того, что трудная проблема сознания принципиально неразрешима.»

Я об этом уже в сотый раз пишу — что горохом об…

«The whole point of the thought experiment is to put someone inside the room, where they can directly observe the operations of consciousness. Searle claims that from his vantage point within the room there is nothing he can see that could imaginably give rise to consciousness, other than himself, and clearly he does not have a mind that can speak Chinese.»

"Весь смысл мысленного эксперимента состоит в том, чтобы поместить кого-то в комнату, где он может непосредственно наблюдать за операциями сознания. Сирл утверждает, что с его точки зрения в комнате он не видит ничего, что могло бы вызвать сознание, кроме самого себя, и, очевидно, у него нет ума, который может говорить по-китайски."

Я уже в сотый раз писал и пишу — весь смысл КК в том, что внутри находится ЧЕЛОВЕК РАЗУМНЫЙ, который НЕ понимает в данных обстоятельствах! — но вам что горохом об…

«Brains must have something that causes a mind to exist. Science has yet to determine exactly what it is, but it must exist, because minds exist. Searle calls it „causal powers“. „Causal powers“ is whatever the brain uses to create a mind. If anything else can cause a mind to exist, it must have „equivalent causal powers“. „Equivalent causal powers“ is whatever else that could be used to make a mind...»

«Мозг должен иметь то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что разум существует. Сирл называет это „причинными силами“. «Причинная сила» — это то, что мозг использует для создания ума. Если что-то еще может заставить ум существовать, оно должно обладать «эквивалентными причинно-следственными связями». «Эквивалентные причинно-следственные связи» — это все, что может быть использовано для создания разума...» (и далее до конца абзаца)

Короче говоря — единственное что мы знаем на сегодня абсолютно ясно для — это то что понимать может только и только человек! — Я об этом сто раз писал — но вам что горохом об…

michael_vostrikov
В комнате есть другая система, кроме человека, способная к пониманию. Понимание происходит не в восприятии человека, а на более высоком уровне. Оно связано не с процессами биологической системы, а с процессами комнаты.
А вот и ответ Сёрла на ваше замечание:

«Searle then responds by simplifying this list of physical objects: he asks what happens if the man memorizes the rules and keeps track of everything in his head? Then the whole system consists of just one object: the man himself. Searle argues that if the man doesn't understand Chinese then the system doesn't understand Chinese either because now „the system“ and „the man“ both describe exactly the same object.»

«Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запоминает правила и отслеживает все в своей голове? Тогда вся система состоит только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайский, то система тоже не понимает китайский, потому что теперь и «система», и «человек» описывают один и тот же объект.»

Выкиньте карточки — в комнате сидит ОДИН человек — какая такая СИСТЕМА БОЛЕЕ ВЫСОКОГО ПОРЯДКА и где она — комната и ОДИН человек в ней — и всё! — СИСТЕМА стала из ОДНОГО человека и стенок комнаты!!! — Вы считаете что БОЛЕЕ ВЫСОКИЙ ПОРЯДОК придают такому варианту КК стенки комнаты - кирпич или бетон или брус? Я об этом сто раз писал — но вам что горохом об…

michael_vostrikov
Сёрл не утверждает, что эта ситуация невозможна, скорее что сложно или невозможно объяснить, как эта система может иметь субъективный сознательный опыт.
А я что пишу? -> «КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека)»

Никто НЕ возражает против того, что ребёнок как-то начинает понимать!

Никто НЕ возражает против того, что у человека разумного возникает при некоторых обстоятельствах понимание!

Я пишу — «КК — это пример нашей неспособности описать процесс возникновения понимая у объекта (человека)»

Мы НЕ можем описать КАК возникает понимание у человека — именно это и показывает эксперимент КК.

Я вам задал уже вопрос то, — Вам это не напоминает аналогичное описание известного «опыта», созданное… пару тысяч лет назад? :-) Вы мне так и не ответили на него. — Подсказать, или сами догадаетесь?

Там также описывался обычный процесс, но описывался так, что этот обычный процесс становился… недостижимым! - ВСПОМНИЛИ?

Вердикт: русский текст описания КК на Википедии яснее и меньше воды, чем английский текст описания КК.


P.S.
Druu
Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя («я понимаю») либо при помощи переноса («Х ведет себя точно так же как я, если бы понимал => Х понимает»).
Хм, вот вы в автомате(он сломался временно) сидите и наливаете пиво.
Вот автомат починили и он сам стал пиво наливать.
Когда вы сидели в автомате и наливали пиво — вы ПОНИМАЛИ что наливаете пиво.
По вашему определению и пивной автомат понимает что наливает пиво. — Но это не так. Вам надо как-то отделить пивной автомат от «понимающей системы» — по крайней мере как это сделал Сократ при определении понятия… человека. :-)

P.P.S.
sshmakov
Китайская комната не «понимает». Она успешно проходит тест Тьюринга, а это не одно и тоже.
Хм, мой «Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.»
Следует читать "«Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть эксперимента с КК.»

Я уже сто раз писал — ПОНИМАЕТ ТОЛЬКО ЧЕЛОВЕК — это аксиома!

sshmakov
Может быть у вас есть определение слова «понимание»? У Тьюринга и Сёрла его не было, поэтому появились их эксперименты.
Тест Тьюринга приводит к спорам — ЧТО ТАКОЕ ПОНИМАНИЕ? — которые продолжаются до сих пор(каждый даёт некие определения этому понятию).

Эксперимент с КК специально так был сформулирован чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание». — Я об этом уже СТО РАЗ ПИСАЛ!

P.P.P.S.
DjSapsan
ответ показывает не мнение внутреннего исполнителя, а комнаты в целом
В комнате из кирпича сидит ОДИН челове — что означает вообще «комнаты в целом?» — ОДИН ЧЕЛОВЕК В ПУСТОЙ КОМНАТЕ — что такое «в комнате в целом?» — ОДИН ЧЕЛОВЕК, огороженный 6-ю перегородками! — ВЫ считаете что эти перегородки вкупе с человеком что-то понимают? — С какого это бодуна?

DjSapsan
Допустим, внутренний исполнитель (пусть даже китаец) не понимает квантовую механику, но экспериментатор снаружи будет другого мнения, он может видеть понимание!
Бывает, Druu даже выше сформулировал понимание пивным автоматом процесса разлива пива.

Но дело в том, что в случае с экспериментом КК китайцы вас не поймут — для них НЕТ комнаты, для них ЕСТЬ человек, который сидит в этой комнате и НЕ понимает ничего по китайски!

DjSapsan
не путайте аппарат и алгоритм.
Всё что есть в облаке есть одна сущность — алгоритм! (С)

Вы так и не ответили на мои ДВА вопроса (так тяжело?), добавлю третий к ним:

1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?

2) Зачем туда посажен человек (а не машина Бэббиджа)?

3) Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом) — ибо всё что в облако попало алгоритмом стало! (С)
Хм, мой «Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть КК.»
Следует читать "«Нет, ваш Миша-бот априори не имеет способности к пониманию — а именно в этом вся суть эксперимента с КК.»

Так может стоит вас читать «Да, ваш Миша-бот априори не имеет способности к пониманию — именно в этом вся суть эксперимента с КК»? Если уж мы сошлись на том, что ни китайская комната, ни Миша-бот не понимают, что творят.

Эксперимент с КК специально так был сформулирован чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание». — Я об этом уже СТО РАЗ ПИСАЛ!

Есть подтверждение вашим словам у Сёрла? Вот этим «чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание»»
sshmakov
Так может стоит вас читать «Да, ваш Миша-бот априори не имеет способности к пониманию — именно в этом вся суть эксперимента с КК»? Если уж мы сошлись на том, что ни китайская комната, ни Миша-бот не понимают, что творят.
Нет вся суть эксперимента КК можно выразить отдним предложением — Мы не можем описать как возникает понимание у ребёнка.

Всё остальное — это прелюдия к этому умозаключению.

sshmakov
Есть подтверждение вашим словам у Сёрла? Вот этим «чтобы ОБОЙТИ вообще необходимость давать формулировку что есть «понимание»»
Не видел дословно, но можно сказать и так — «в эксперименте КК нет необходимости в формулировке что такое „понимание“ вовсе». (Это как в ОТО нет необходимости в понятии «масса», «энергия», «импульс, „момент импульса“).

Вы конечно можете спорить о „понимании комнаты“ или о „понимании некой системы“ — неизвестно где расположенной (по крайней мере в комнате её нет) или о понимании некой „виртуальную машины со своим состоянием создаваемой человеком в КК (по michael_vostrikov ), но где создаваемой? — там только стены и человек и всё! — но к эксперименту КК это не имеет никакого отношения.

Он прост: есть человек в КК. Подходят китайцы и вступает с ним в беседу. — О, человек в КК понимает нас, — говорят китайцы. Как он научился то китайскому? — спрашивают они. Им отвечают. Узнав КАК человек “научился китайскому» (зазубрил правила или использовал карточки с подсказками), китайцы восклицают, — Нет, он не знает китайского. И уходят. Занавес.

Китайцы не рассуждают — понимает ли комната?, система?, виртуальное состояние? и прочее и прочее — у них может понимать только и только человек. То есть именно человек понимает или нет? — И узнав КАК этот человек отвечает им из КК — они выносят свой китайский вердикт — человек в КК НЕ понимает китайского. Занавес.

michael_vostrikov
И в этом он не прав, в комнате есть то, что имеет сознание и понимание, кроме самого его.
Хорошо, где оно?

michael_vostrikov
Это недоказанное утверждение, которое принимается за аксиому. Но в вопросах ИИ его доказательство имеет приципиальное значение.
КК к ИИ не относится. ИИ — это новое и именно поэтому ИИ «натягивают» на КК.

В КК нет ИИ — она в нём НЕ нуждается вовсе. Там человек и… всё!

michael_vostrikov
Я нигде не говорил, что инструкции должны быть записаны на бумаге. Неважно, где она записана, неважно, кто ее исполняет, понимание возникает внутри процесса, который ее исполняет.
Дело не в бумаге, это Сёрл отвечал уж простым людям, типа Druu. Ну, если появился некий процесс — то где он? Где этот мифический процесс в КК? Где?

michael_vostrikov
Человек, исполняющий запомненные инструкции, создает виртуальную машину со своим состоянием. Абсолютно неважно, где оно хранится, в шкафах комнаты или в реакциях нейронов. Важно то, что это состояние изменяется соответственно входящей информации.
Где создаёт? Место? В Голове? — Человек в КК, если и создаёт виртуальную ментальную свою машину в своей голове, то только для того, чтобы понять то, что, отвечая китайцам вне КК, он всё равно НЕ понимает китайского.

DjSapsan
Специальный план для изучения:…
Нет, пока вы не ответите мне на ТРИ вопроса (задаю уже в третий раз их вам), никаких планов вы не имеете права составлять вовсе, ибо пока неясно, что же вы знаете в эксперименте КК?

1) Почему комната называется китайской, а не испанской, итальянской, русской или индийской?

2) Зачем туда посажен человек (а не машина Бэббиджа)?

3) Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом) — ибо всё что в облако попало алгоритмом стало! (С)

UFO just landed and posted this here
Нет вся суть эксперимента КК можно выразить отдним предложением — Мы не можем описать как возникает понимание у ребёнка.


Я, пожалуй, не буду вам отдельно отвечать, потому что практически теми же словами вам ответил DjSapsan.
но где создаваемой? — там только стены и человек и всё!

А в компьютере только стенки системного блока и аппаратура с ПО Windows, и все! Где там виртуальная машина, которая понимает ext3? Вы проигнорировали неудобный для себя вопрос, потому что ответ на него означает ответ и на ваш вопрос, что в свою очередь означает, что вы не правы и сами это понимаете.


КК к ИИ не относится.

Ну здрасьте. Описание эксперимента начинается словами "suppose that artificial intelligence research has succeeded in constructing a computer that behaves as if it understands Chinese".


Хорошо, где оно?
Ну, если появился некий процесс — то где он? Где этот мифический процесс в КК? Где?
Где создаёт? Место? В Голове?

Прочитайте комментарий полностью. Там есть ответы на все эти вопросы.

michael_vostrikov
Ну здрасьте. Описание эксперимента начинается словами «suppose that artificial intelligence research has succeeded in constructing a computer that behaves as if it understands Chinese».
И вам не хворать. Это НЕ описание эксперимента — это прилюдия к описанию самого эксперимента!
Вот само описание эксперимента: «Searle then supposes that he is in a closed room and has a book with an English version of the computer program, along with sufficient papers, pencils, erasers, and filing cabinets. Searle could receive Chinese characters through a slot in the door, process them according to the program's instructions, and produce Chinese characters as output.»

Эксперимент с КК не имеет никакого отношения к ИИ — от слова — абсолютно никакого. Это чистая философия.

Кстати, это понимают многие — «lthough the Chinese Room argument was originally presented in reaction to the statements of AI researchers, philosophers have come to view it as an important part of the philosophy of mind. It is a challenge to functionalism and the computational theory of mind,[g] and is related to such questions as the mind–body problem, the problem of other minds, the symbol-grounding problem, and the hard problem of consciousness.»

Понимаете, человек в комнате, зазубривший правила и общающийся с китайцами вне комнаты — в этом описание НЕТ ни йоты ИИ. Это описание НЕ нуждается вовсе вообще в понятии ИИ. Всё что «навешивают» на этот эксперимент — ИИ, загрузку драйверов компьютера, прохождения теста Тьюринга и прочая и прочая — есть не более чем «бантик на комнате» — или, грубо говоря — "натягивание совы на КК".

Ну, и напоследок: «The Chinese room argument is primarily an argument in the philosophy of mind, and both major computer scientists and artificial intelligence researchers consider it irrelevant to their fields

«Аргумент о китайской комнате — это, прежде всего, аргумент в философии мышления, и как крупные ученые-компьютерщики, так и исследователи искусственного интеллекта считают его не относящимся к их областям.»

Иными словами — эксперимент с КК и ИИ перепендикулярны друг другу. (С)

michael_vostrikov
Где там виртуальная машина, которая понимает ext3? Вы проигнорировали неудобный для себя вопрос, потому что ответ на него означает ответ и на ваш вопрос, что в свою очередь означает, что вы не правы и сами это понимаете.
Я не стал разжёвывать вам, то есть низводить вашу загрузку драйверов к жаккардовому ткацкому станку и далее к взводу пружины панетофона — тут, либо вы сами проделаете эту несложную логическую работу, либо так и останетесь при своём нелогичном мнении.

P.S.
DjSapsan
Заменяем китайский на язык ассемблера и ничего не поменяется.
А в том то и дело что ПОМЕНЯЕТСЯ! — То есть, по вашему ответу, я понял что вы НЕ знаете почему комната называется китайской. — Тогда чего вы ввязались в этот тред?

Вы и на второй вопрос НЕ ответили — Зачем туда посажен человек (а не машина Бэббиджа)? ЗАЧЕМ? Но ведь Серл туда посадил человека, а не компьютер или нечто иное. ПОЧЕМУ? — ответ вы НЕ знаете — Тогда чего вы ввязались в этот тред?

И на просто третий вопрос — «Можно ли одну сущность (алгоритм) сравнивать с другой такой же сущностью (алгоритмом)? Вы НЕ ответили мне. — Так МОЖНО ЛИ СРАВНИВАТЬ ОДНИ СУЩНОСТИ (АЛГОРИТМЫ) или нет? — ДА ИЛИ НЕТ? (не надо растекаться мыслью по древу). — Кратко — ДА ИЛИ НЕТ?
UFO just landed and posted this here
Эксперимент с КК не имеет никакого отношения к ИИ — от слова — абсолютно никакого.

Дискуссия уже затянулась, но отвечу вам еще раз, так как ссылка на первоисточник здесь не помешает.


"The argument was first presented by philosopher John Searle in his paper, "Minds, Brains, and Programs", published in Behavioral and Brain Sciences in 1980."


Minds, Brains, and Programs — John R. Searle, 1980


Открываем, проверяем. "AI" встречается 39 раз, и "artificial intelligence" еще несколько. Сам Сёрл писал об AI. Так что имеет, и самое прямое.


Вот само описание эксперимента: "Searle then supposes that he is in a closed room and has a book with an English version of the computer program"

Правильно. А что представляет собой эта самая "computer program"? Она и есть ИИ.

michael_vostrikov
но отвечу вам еще раз, так как ссылка на первоисточник здесь не помешает.
То есть вы прелюдию не отличаете от самого эксперимента?

michael_vostrikov
А что представляет собой эта самая «computer program»? Она и есть ИИ.
Пойдём в глубь веков, читаем:
«Suppose that I'm locked in a room and given a large batch of Chinese writing.
Suppose furthermore (as is indeed the case) that I know no Chinese, either written or spoken, and that I'm not even confident that I could recognize Chinese writing as Chinese writing distinct from, say, Japanese writing or meaningless squiggles. To me, Chinese writing is just so many meaningless squiggles.
Now suppose further that after this first batch of Chinese writing I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules as well as any other native speaker of English. They enable me to correlate one set of formal symbols with another set of formal symbols, and all that 'formal' means here is that I can identify the symbols entirely by their shapes. Now suppose also that I am given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate
elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch. Unknown to me, the people who are giving me all of these
symbols call the first batch „a script,“ they call the second batch a „story. ' and they call the third batch “questions.» Furthermore, they call the symbols I give them back in response to the third batch «answers to the questions.» and the set of rules in English that they gave me, they call «the program

… и набор правил на английском языке, которые они дали мне, они называют" программой "

Надо заменить, что потом Сёрл вынужден защищаться от таких как вы (и типа Druu ) — Сёрл вынужден был убрать всё из Китайской Комнаты — и «программу» и «карточки» и… стены комнаты!:

Now to the replies:
I. The systems reply (Berkeley). «While it is true that the individual person who is locked in the room does not understand the story, the fact is that he is merely part of a whole system, and the system does understand the story. The person has a large ledger in front of him in which are written the rules, he has a lot of scratch paper and pencils for doing calculations, he has 'data banks' of sets of Chinese symbols.
Now, understanding is not being ascribed to the mere individual; rather it is being ascribed to this whole system of which he is a part.»
Тут нет у нас упоминая «программы» (вместо неё — a large ledger in front of him in which are written the rules) — "здоровенная книга с правилами", но появилось «убойная» версия — понимает некая система!

Ответ Сёрла прост — "
My response to the systems theory is quite simple: let the individual internalize all of these elements of the system. He memorizes the rules in the ledger and the data banks of Chinese symbols, and he does all the calculations in his head. The individual then incorporates the entire system. There isn't anything at all to the system that he does not encompass. We can even get rid of the room and suppose he works outdoors. All the same, he understands nothing of the Chinese, and a fortiori neither does the system, because there isn't anything in the system that isn't in him. If he doesn't understand, then there is no way the system could understand because the system is just a part of him."
— Человек зазубрил заранее все правила (долой «дух ИИ» вообще из комнаты в том или ином виде) и даже лишился комнаты выйдя на свежий воздух! — Результат — человек всё равно НЕ понимает китайского.

Помогло ли это Сёрлу? — Нет, критики всё равно нападают на него с лозунгом — «Система понимает!», подразумевая под системой что угодно и как угодно:

Actually I feel somewhat embarrassed to give even this answer to the systems theory because the theory seems to me so implausible to start with. The idea is that while a person doesn't understand Chinese, somehow the conjunction of that person and bits of paper might understand Chinese. It is not easy for me to imagine how someone who was not in the grip of an ideology would find the idea at all plausible.
Короче говоря, он не может представить что вообще есть (находятся) люди, способные думать о некой «Системе Понимающей», — ему тяжело это вообще представить себе! (мне тоже, но они есть же -> michael_vostrikov, Druu, DjSapsan, sshmakov и др. )

Кстати, michael_vostrikov, а вы понимаете почему Китайская Комната называется Китайской, а не, например, — Санскритской Комнатой?

Короче говоря, он не может представить что вообще есть (находятся) люди, способные думать о некой «Системе Понимающей», — ему тяжело это вообще представить себе!

Очевидно, это проблемы Серла, если он чего-то не может представить. Аргументом "не могу представить" не является.

UFO just landed and posted this here

Давайте немного к началу вернемся. Что вам непонятно в тезисе: "человек в комнате язык не понимает, а система из человека+правил работы (т.е. комната в целом) — понимает"?

Druu
Давайте немного к началу вернемся. Что вам непонятно в тезисе: «человек в комнате язык не понимает, а система из человека+правил работы (т.е. комната в целом) — понимает»?
Что такое «человек язык понимает или нет»? — мы не можем сформулировать, но мы можем вынести вердикт — понимает или нет.

Что такое «система из человека+правил работы (т.е. комната в целом) — понимает» мы не только не можем сформулировать, но и вынести вердикт не можем.

Ваша формулировка: "Понимание — это субъективное ощущение. С-но утверждать о понимании можно либо для себя («я понимаю») либо при помощи переноса ("Х ведет себя точно так же как я, если бы понимал => Х понимает")."

Я уже писал об пивном автомате. Он ведёт себя как человек наливающий пиво, но НЕ понимает.

Или пример проще простого, наверное — пружина патефона ведёт себя как музыкант — но музыки не понимает.

Автоматическая система открывания двери на фотодиоде ведёт себя как швейцар, но ничего НЕ понимает.

Человек в КК ведёт себя как китаец, но китайского ни он, ни какая-то мифическая система, НЕ понимает.

Мы топчемся на месте и ходим по кругу с вами лично.

Давайте и я вам задам контрольный вопрос в голову (на который никто не решился ответить) — в чём суть Китайской Комнаты? — Почему она именно китайская, а не, к примеру, санскритская?
Что такое «система из человека+правил работы (т.е. комната в целом) — понимает» мы не только не можем сформулировать, но и вынести вердикт не можем.

Почему же не можем? Точно так же можем вынести вердикт, как и в случае с человеком.


Я уже писал об пивном автомате. Он ведёт себя как человек наливающий пиво, но НЕ понимает.

Пивной автомат НЕ ведет себя как человек => не понимает.
Вот так будет верно.


Или пример проще простого, наверное — пружина патефона ведёт себя как музыкант — но музыки не понимает.

Опять же, пружина патефона НЕ ведет себя как музыкант => музыки не понимает.


Автоматическая система открывания двери на фотодиоде ведёт себя как швейцар, но ничего НЕ понимает.

Автоматическая система открывания дверей НЕ ведет себя как швейцар


Вы делаете ложные предположения и из них выводите ложные выводы.


Человек в КК ведёт себя как китаец, но китайского ни он, ни какая-то мифическая система, НЕ понимает.

Не человек в КК, а сама КК в целом (человек + правила) ведет себя как китаец => она понимает китайский.


в чём суть Китайской Комнаты? — Почему она именно китайская, а не, к примеру, санскритская?

Абсолютно не важно. Могла бы быть и санкритской, или японской или русской, или еще какой. Выбор языка совершенно произволен.

Druu
Почему же не можем? Точно так же можем вынести вердикт, как и в случае с человеком.
Нет, не можем.
В случае человека у нас есть аксиома «Человек может понимать или нет» — в случае системы нам надо определить «что такое понимание системы» — вы его определили как функцию — "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)." — но КК именно по функциональному этому вашему подходу и бьёт под дых! — Вам надо доказать что ваш подход есть истина. В случае КК — Человек понимает или нет — этого доказывать НЕ надо, ибо в случае КК у нас есть аксиома — Человек может понимать.

Druu
Автоматическая система открывания дверей НЕ ведет себя как швейцар
Не ведёт, но она(система) полностью соответствует вашему определению: "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)."

Druu
Не человек в КК, а сама КК в целом (человек + правила) ведет себя как китаец => она понимает китайский.
Это соотвествует вашему определению «понимания». Верно. Но ваше определение «понимания» вам надо доказать. А вот то что «человек может понимать» — принимается БЕЗ доказательств в эксперименте КК.

Druu
Абсолютно не важно. Могла бы быть и санкритской, или японской или русской, или еще какой. Выбор языка совершенно произволен.
Это не верно. Вы не понимаете суть эксперимента в Китайской Комнате. (но вы хоть ответили, остальные отмолчались).

Удачи!

Нет, не можем.
В случае человека у нас есть аксиома «Человек может понимать или нет» — в случае системы нам надо > определить «что такое понимание системы»

Все не так. У нас определение понимания системы, а поскольку человек — система, то для него это определение тоже подходит. Никаких аксиом для человека у нас нету.


Вам надо доказать что ваш подход есть истина.

Всмысле? Это просто определение. Определение не может быть истинным или ложным. Но окей, допустим, мое определение плохое, предложите свое, альтернативное.


В случае КК — Человек понимает или нет — этого доказывать НЕ надо, ибо в случае КК у нас есть аксиома — Человек может понимать.

Нет, у нас есть аксиома: "любая система может понимать"


Не ведёт, но она(система) полностью соответствует вашему определению: "(«Х ведет себя точно так же как я, если бы понимал => Х понимает»)."

Нет, не соответствует, с чего бы вдруг?


Но ваше определение «понимания» вам надо доказать.

Что значит "доказать определение"? Доказать можно утверждение, а определение утверждение не является. Определение является соглашением.


А вот то что «человек может понимать» — принимается БЕЗ доказательств в эксперименте КК.

Нет, принимается, что понимать может система. А то, что человек может понимать — это уже следствие.


Это не верно. Вы не понимаете суть эксперимента в Китайской Комнате.

Ну так чего вы сами не написали, почему комната китайская, а не санскритская? Я бы с удовольствием послушал.

UFO just landed and posted this here
Колин Макгинн утверждает

И что с того, что он это утверждает? Другие другое утверждают, в том числе и сам Сёрл.


Сирл утверждает, что с его точки зрения в комнате он не видит ничего, что могло бы вызвать сознание, кроме самого себя
Я уже в сотый раз писал и пишу

И в этом он не прав, в комнате есть то, что имеет сознание и понимание, кроме самого его. Это описано ниже в секции "Systems and virtual mind replies".
И да, абсолютно неважно, сколько раз вы что-то написали. Ваши утверждения от этого не становятся верными.


это то что понимать может только и только человек

Нет. Это недоказанное утверждение, которое принимается за аксиому. Но в вопросах ИИ его доказательство имеет приципиальное значение.
И нет, Китайская комната это не доказательство, а пример для проверки. Именно об этом и пишет Сёрл. И написано это именно в секции "Systems and virtual mind replies".


А вот и ответ Сёрла на ваше замечание:
что произойдет, если человек запоминает правила

Это не ответ на мое замечание. Я нигде не говорил, что инструкции должны быть записаны на бумаге. Неважно, где она записана, неважно, кто ее исполняет, понимание возникает внутри процесса, который ее исполняет. Но не внутри процессора.


какая такая СИСТЕМА БОЛЕЕ ВЫСОКОГО ПОРЯДКА и где она

Ровно такая же, которая возникает при создании виртуальной машины в компьютере.
Имеется компьютер (машина) с Windows. Система одна? Одна. Процессор один? Один.


На нем запущена виртуальная машина с Ubuntu в VirtualBox. Ubuntu понимает файловую систему ext3, Windows нет. Ubuntu понимает команду ls, Windows нет. Windows работает с оборудованием, процессор выполняет инструкции, но ни Windows ни процессор не умеют работать с ext3 и выводить список файлов на ней.


Какая такая система, которая понимает формат ext3, и где она? У нас же один компьютер и стенки системного блока? Как так получается? Потому что у нас не одна система, а две.


Человек, исполняющий запомненные инструкции, создает виртуальную машину со своим состоянием. Абсолютно неважно, где оно хранится, в шкафах комнаты или в реакциях нейронов. Важно то, что это состояние изменяется соответственно входящей информации.


А я что пишу?

А вы пишете "ИИ может существовать. Понимания не возникает.", при этом говорите, что это доказал Сёрл своим экспериментом. Он такого не доказывал. Возникает понимание или нет, это открытый вопрос.

UFO just landed and posted this here
По вашему определению и пивной автомат понимает что наливает пиво.

Конечно, нет, с чего бы? Автомат не ведет себя как понимающий, что наливал пиво, по-этому и вывод о наличии понимания сделать нельзя. А вот комната — ведет себя как понимающая.


китайцы вас не поймут — для них НЕТ комнаты, для них ЕСТЬ человек, который сидит в этой комнате и НЕ понимает ничего по китайски!

Для них есть человек, который китайского не понимает, и комната, которая китайский понимает. С чего вдруг комнаты для них нет, если она есть? В чем проблема, что вы не можете этого понять? Все просто ведь.


Тест Тьюринга приводит к спорам — ЧТО ТАКОЕ ПОНИМАНИЕ?

Нет не приводит. Такого спора в принципе нет и быть не может.

UFO just landed and posted this here
Он сам, — САМ, — выведет эти правила и САМ начнёт писать в китайский чат

Не выведет и не начнет.


Понимаете, Сёрл постоянно вынужден был модернизировать свою Китайскую комнату, отвечая на ту или иную критику.

Окей, у вас своя модернизированная китайская комната. Давайте все-таки вернемся к оригиналу и будем обсуждать комнату, в которой сидит человек с правилами, и общается так, будто знает язык. А не комнату, которая вам отдает случайные каракули в качестве ответа. Потом что в вашей постановке эксперимент бессодержателен.


он САМ — уже потом, находясь в Китайской комнате, САМ, путём рассуждения, анализа, написания программ, — то есть своим разумом(!) научился НЕ «рандомно», а ТАК, что китайцы в чате приняли его за понимающего китайский, в то время, что он так и НЕ научился понимать китайский!

Ну вот я утверждаю, что он в принципе не научится сколько-нибудь осмысленно отвечать, будет отвечать каракулями и все. Так что вы рассматриваете внутренне противоречивую ситуацию, с-но, из нее можно вывести что угодно.


Кроме того, нам не важно, понимает китайский язык сам человек или нет. Такого вопроса не стоит, непонятно почему вы на него все время скатываетесь. Мы обсуждаем понимает ли язык китайская комната вцелом. И она, совершенно точно, его будет понимает, при условии что нормально общается и китайцы, которые с ней разговаривают, считают, что все ок.


Вы можете и знать и использовать алфавит. Но понимать, что же вы пишите с помощью этого алфавита вы НЕ можете.

Что значит "понимать" алфавит? Буквы собственного смысла не несут, там нечего понимать.


Это хороший вопрос. Но почему нет?

А почему да?


Аналогично и тут, — человек в Китайской комнате, создаёт (программирует) сам ИИ или пользуется созданным другими ИИ (тут это неважно вовсе), и этот ИИ «натравливает» (обучает этот ИИ) на тексты (массивы текстов) китайского чата. — А затем этот ИИ и будет подсказывать человеку в Китайской комнате что и когда писать в китайский чат.

Тогда ИИ понимает китайский язык. С-но китайская комната понимает язык, т.к. включает в себя этот ИИ, который язык понимает.


Но феномена «понимания» и тут НЕ возникает. (С)

Как же не возникает, если в вашей комнате сидит разумный ИИ, который понимает китайский? Вы вообще вводите несущественные детали. Могли сразу вместо человека который в комнате собрал ИИ сразу посадить туда этого ИИ, без человека. Вопрос: понимает ли этот ИИ язык? Ответ: очевидно, да.

UFO just landed and posted this here
В модифицированном варианте Китайской комнаты исходных (составленных КЕМ-ТО) правил НЕТ:

Как же нет, если есть? Именно по этим правилам человек в комнате и работает. Или каким образом он по-вашему китайцам отвечает?


В этом варианте человек в Китайской комнате на основании своего разума и своих знаний САМ составляет правила его поведения (ответов) в китайском чате.

Вы сейчас что-то свое выдумываете. В эксперименте Серла смысл именно в том, что китайская комната ведет себя так, буд-то внутри нее сидит человек, который знает китайский язык. В вашем случае китайская комната будет просто выплевывать рандомные иероглифы. Что тут вообще обсуждать?


По мнению философа, система, которая теперь будет состоять только из человека, всё равно не сможет понять китайский язык

Все как и было — человек язык не понимает, а система из человека и правил — понимает. Совершенно несущественно находятся правила вне человека в виде некоего справочника, или он их заучил. В обоих случаях они являются отдельным объектом и их нельзя рассматривать как составную часть человека. Если я знаю умею писать буквы — то это не значит, что алфавит является моей составной частью. Отдельно я, а отдельно — алфавит.


Я «усилил» ответ Сёрла — я предложил вариант Китайской комнаты где человек НЕ запомнил правила (составленные другими), а САМ вывел эти правила для себя!

Для начала докажите, что возможно вывести такие правила, не приобретя понимания языка в процессе. Я вот сильно сомневаюсь в этом утверждении. Мне кажется, что это невозможно.

Вопрос от Сёрл — Даже в этом случае мы НЕ можем сказать — понимает ли китайский язык человек в китайской комнате!

Человек, который находится в китайской комнате — язык не понимает, китайская комната в целом, как единая система (человек + правила работы) — понимает. Что тут сложного?

Наверняка вы чувствуете запах вкусного супа, а собака отдельно: морковь, картошку и мясо. Широкий градиент восприятия и эмоциональных реакцией является отличительной чертой человека от животного (натренировать можно, привить понимание — нет. Для неё это не более чем реакция на определенный стимул).
А елси для пгоррммаы оепчтаок понаделать — она схлопнется. Если не согласны, то когда ждать «режим бога» в шахматах?
«А елси для пгоррммаы оепчтаок понаделать — она схлопнется.» — это неудачный пример, он говорит лишь о том, что мы не умеем писать надежные программы и умные компиляторы. А не умеем лишь потому, что не стараемся. Разработчики, которым приходится это делать, занимающиеся очисткой сырых данных могут много рассказать, обработку каких очепяток они уже встроили в свои алгоритмы.

UFO just landed and posted this here
Да, только это не проблема машин Тьюринга, а общая. Если мы дадим заинтересованному разработчику задание сделать максимально умный компилятор, то через некоторое время нам придется его принудительно остановить, чтобы получить хоть какой-нибудь результат. Иначе он будет бесконечно работать и вносить улучшения.
А что за «режим бога» в шахматах? В принципе машины уже сейчас в шахматы и многие логические игры играют как «бог» — в смысле намного лучше людей.
Или еще еще какие-то качества помимо качества и скорости игры?
Текущая версия такова, что нет. Она может строить определённые ассоциации, и соотносить объекты с чем-то внутри алгоритма. Однако, на одно слово «синий» у нас есть миллионы нейронных связей, ассоциаций и так далее. Мы не можем объяснить что такое «синий» но мы понимаем это.
А если у машины тоже будут миллионы динамических связей и ассоциаций по каждому обьекту?
Пока у человеков нет таких вычислительных мощностей. Кроме, собственно, их мозга.

Возможно, миллионы связей по одному объекту и не нужно. Я, правда, забегаю вперёд. Рассмотрим, к примеру ассоциацию "Стол — плоская поверхность с ножками". Здесь одно понятие связано с двумя другими плюс с двумя отношениями между ними. Каждое из них тоже в свою очередь "расшифровывается" через другие понятия. Ножки — ну это такие палки, обычно длинные, иногда короткие. Понятие стола с палками напрямую не связано, но вычислимо, можно перейти от палок к столу и наоборот. Я, конечно, утрирую, но количество прямых связей между понятиями получается не слишком большое.

Речь ведь идёт конкретно о понимании. Даже кошка на уровне условных рефлексов может знать, что на стол запрыгивать нельзя. Стол у неё ассоциируется одновременно с положительным (еда) и негативным (когда выгоняют). Но у неё нет понимания. Даже если она будет знать материал, из которого изготовлен этот стол, да и вообще достанет кошачий масс-спектрометр, лазерный дальномер, и всё такое. В общем, даже если она произведёт все возможные вычисления и анализы, она просто будет знать всё об этом столе. Но знание и понимание — не одно и то же (по крайней мере, так утверждают)
Тогда надо разобраться с пониманием слова «понимание». Знание, что это и из чего оно состоит — не понимание. Ок. А моделирование в голове поведения — если я запрыгну на стол, то под лапами будет белая шуршащая скатерть, по которой надо сделать пять шагов, чтобы дойти до тарелки с хозяйскими котлетами, которых я сейчас не вижу — это понимание?
UFO just landed and posted this here
Не всякий кот. По моим наблюдениям, некоторые коты отлично умеют обобщать, а у некоторых всё очень конкретно: если нельзя на этот стол, то нельзя на него, другой стол (а может и этот же, но в другом углу) тут не причём. Некоторые ещё и предположения строят. Например, если подозревает, что нельзя, но точно не знает, то привлекает внимание хозяина голосом, внимательно следит за реакцией и аккуратно пробует сделать что-то. А другие даже на неприятных ошибках не учатся. Конечно в условиях далёких от городской квартиры (деревня, лес), это прямо отражается на продолжительности жизни.
Видимо, есть несколько версий текущих версий. Предположим, вы хотите объяснить человеку, с которым у вас нет общих языков, какой-то особый оттенок синего. Наверное, вы будете играть в ассоциации — показывать на небо, на море, на красный цветок, зелёную траву, чтобы он понял, как соотносится искомое понятие с уже известными. Он в уме построит свою ассоциацию. Она наверняка будет совсем не похожа на вашу («много голубого с капелькой красного»), а будет связана с его жизненным опытом («это тот цвет, про который говорил странный чувак из странной страны»). Но, при достаточной настойчивости, он будет понимать, про какой цвет теперь вы говорите.

Теперь заменяем в нашем мысленном эксперименте дикаря на машину — и ничего не изменилось. Если машина способна строить ассоциации, если ее память основана на ассоциациях — она так же способна вас понять и усвоить урок.
Да, но если дикарь слеп от рождения, то задача существенно усложняется.
У него нет подходящих ассоциаций. Человеческое мышление — это не только сигналы, передаваемые между синапсами. Мозг человека постоянно подвержен сотням факторов. От возраста до количества света и атмосферного давления. В зависимости от них вырабатываются гормоны, ферменты, и т.д. и они тоже влияют на мышление. И при том на каждого человека иначе, чем на другого. Проблема именно в понимании. Как минимум, чтобы создать интеллект, мы должны в достаточной степени изучить человека. Но мозг — вещь всё ещё достаточно загадочная. Нет ни одной работы, теории, или чего-то подобного, что бы полностью, подробно и достоверно описывало человеческое мышление. Я не говорю, что я придерживаюсь вышеприведённой версии. Просто она сейчас наиболее популярна, и большинство крупных учёных склоняются к ней. Такие дела.
На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект. А если вдруг завтра-послезавтра появится компьютер, который пройдет этот самый тесть Тьюринга с процентом, близким к сотне, лично меня будет пытать мысль о том, действительно ли он мысли, или у него просто такой сложный алгоритм. Понимает ли он так, как человек. Ну и тому подобное.
чтобы быть «человеком» — вне зависимости от широты трактовки сего термина по сути, всё-же — не забывайте про воспитание, и взросление в социуме.
см «проблему маугли» — человечкский ребёнок, выросший среди зверей, вырастит зверем, а не человеком. обезьяной, если угодно, похоже, и по интеллекту в том числе.
то есть — неспособность освоить речь, и прочая.
> лично меня будет пытать мысль о том, действительно ли он мыслит, или у него просто такой сложный алгоритм.

И вы будете правы в своих сомнениях.

> На мой взгляд, человечество просто ещё не достаточно развито, чтобы создать полноценный интеллект.

На мой взгляд, уже вполне. Мы просто пока не знаем, как именно это делается, какие части надо в каком порядке соединить, чтобы получить сильный ИИ. Но… тут опять не обойтись без классика...:
Но на какого дьявола, спрашивается. Объясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно.
9 месяцев + 20 лет с негарантированным результатом. А должно быть вседоступно, до уровня «скачать на торрентах».
>Да, но если дикарь слеп от рождения, то задача существенно усложняется

Про это Тьюринга тоже сказал: "Например, машину нельзя снабдить ногами; поэтому ее нельзя попросить выйти и принести ведро угля. Машина, по-видимому, не будет обладать глазами.… Отметим, что не стоит особенно беспокоиться относительно ног, глаз и т. д. Пример мисс Елены Келлер показывает, что воспитание возможно, если только удается тем или иным способом установить двустороннюю связь между учителем и учеником."
UFO just landed and posted this here
А что такое понимать?
Если машина x проходит тест Тюьринга, кажется, это значит, что её можно научить чему угодно, чему можно научить человека. Так понятнее?
с чего бы?
и что вы понимаете под «человеком», к примеру?
алкаша с айкю в 85?
хокинга?
они ведь «немного» различаются, вам не кажется?
UFO just landed and posted this here

А это давно известный прием) "Расскажите об этом своими словами".

UFO just landed and posted this here
Несмотря на то, что никто не видел Шорьков, этот текст мозг «вытягивает», достраивая и заменяя понятия на уже знакомые. Форма стиха дает дополнительные «коды рида-соломона», от чего и получается иллюзия понимания текста.
Подумалось: мы составляем своё «понимание» слова «Шорьки» на основе неких привычных способов формировать слова в русском языке. Т.е. определенные комбинации корней, приставок, суффиксов и окончаний дают нам некоторое представление об объекте. Подтверждающий эффект я наблюдаю у себя когда пытаюсь по латинскому названию лекарства или животного создать некий образ (от чего лекарство или что за животное) и крайне часто оказываюсь неправ по причине незнакомого языка.
Таким образом, я думаю, наше понимание радикально отличается от понимания машины в том смысле, что машина хранит образы не в языковой форме. В любом случае для общения с машиной потребуется трансляция с её машления в наше и наоборот. Это даже не перевод с языка на язык. Перевод между человеческими языками имеет под собой общую основу в виде образов и понятий. С машиной у нас нет ничего общего.

прошу прощения за поток сознания :)
Вы правы, но, на мой взгляд, ассоциации необязательно должны быть связаны с языком. Не зная имени человека, мы способны его узнать среди тысячи других людей, причем не каждый может описать, чем этот человек отличается от других. Узнаёт и всё.

И ещё, наше понимание отличается от машинного на нынешнем этапе радикально, но я думаю, что этот разрыв будет со временем уменьшаться, хотя и никогда не пропадет совсем.
Вот вы правильно насчёт неосознанного распознования сказали. Это типа как битовая маска, выдаёт степень похожести. И вот как раз «биты» составляющие цельную картину у нас с машинами раличные. У машины всё просто — бинарное значение «да-нет». У человека гораздо сложнее. Человеческое сознание хранит не сами значения, а их соотношения между собой. Этого и пытаются добиться в машинном распозновании лиц (насколько я это понимаю).
Имя человека не является определяющим. Как раз наоборот, это один из параметров сущности, служащий для её наименования. А реальное идентифицирование происходит по некоей «хэш-функции» всех параметров (лицо, голос, манеры).
Я думаю теоретически возможно закодить всё это дело в булеву логику. Однако, количество параметров будет стремиться к бесконечности и требуется механизм абстракции.

Вот я всё это написал и почему то мне кажется, что развитие ИИ как раз в эту сторону и идёт…
У машин, точнее в машинном обучении, не булевые «да/нет», а «с некоторой вероятностью 'да', с другой вероятностью 'нет', а вообще я с такой-то вероятностью 'не знаю'». Поэтому по поводу неприспособленности машинной логики к сильному ИИ можно пока не беспокоиться.
Если разобрать гифосик по кадрам, то видно что вы обманываете нас тут. Можете проверить. Это не 2-д рисунок. И даже не псевдо-3д. Я допускаю, что для каждого кадра было отрисовано отдельное изображение. Но тогда это уже не анимированное изображение.
но через лет пять это будет вполне возможно

Не будет.


Машина не понимает что значат эти слова

А вы — понимаете? Уверены?

если машина отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек,


В некоторых компьютерных играх программа отвечает на вопросы как человек, запоминает сказанное собеседником как человек, эмоционально реагирует как человек, имеет и отстаивает свою точку зрения как человек, сопереживает как человек, обижается как человек.
См. например, серию игр Fallout…
Наоборот. В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант». А то, как этот «вариант ответа 28» оформлен сюжетописателями и изображен актёрами — вообще роли не играет — выбор диалога компьютером идёт по таблице, например.
В компьютерных играх игрок ведёт себя как робот, отвечая «1 вариант», «2 вариант», «3 вариант».


У меня был ответ на конкретное процитированное замечание.

Если же тему развить — то надо вспомнить про Сири и Кортану.
ага, Сири просто душка, я уже говорил…
по ключевым siri-isms ещё многго интересного можно почитать.
вечером попробую в контексте сирю помучить, немогу только придумать — пытатся на английском ( у меня с ним не оченб ярко само по себе, не говоря уж за произношение), или переключить сири на русский...?
Я знаю человека, который смог поругаться с Алисой на телефоне. В трезвом виде, что характерно. Алиса кстати, произносит «Думаю, нам стоит закончить этот разговор» таким холодным тоном, что мурашки бегут.
поглядел в вебе, ставить приложение на телефон — лень.
голос то у этой алисы приятный, естественный, или как у окейгугля?
Не знаю специально она так или сбой но повторить такое больше не удавалось
Заголовок спойлера
image
UFO just landed and posted this here
«Я тебя услышал». Но понял ли я тебя, что думаешь?
Задайтесь тогда и другим вопросом: человек по сути всего лишь чёрный ящик воздействие-реакция (в том числе зависящая от времени!). Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат? По сути это мозг как функция, только функция задана таблично, а не «аналитически» (как мозг). Формально, такое устройство полностью (абсолютно!) действует как человек. Поставленное вместо какого-либо человека оно «проживёт» его жизнь абсолютно так же, как и тот человек, с которого оно скопировано. Только мыслить оно не мыслит. Но является ли человеком то, что от него неотличимо?
Так как ответ на вопрос «как дела?» зависит от внешних событий, то в этой таблице придется вводить измерение «время» и спрогнозировать все события, которые произойдут в будущем.
Это не важно. Вопрос в том, что будет если ваш мозг заменить бесконечной таблицей. Будет ли это человеком?
Вы описываете «китайскую комнату», возведенную в абсолют. На самом деле ответ прост — это будет невозможно подтвердить или опровергнуть.

Так а разве мозг не имеет черты этой самой таблицы? В конце концов у нас все на ассоциациях работает.

Если я правильно понимаю, то мозг умеет в абстракции. Таблица же будет перечнем пережитого опыта.

Встречный вопросы — что такое мышление?
Почему вы считаете, что проходящий тест Тьюринга на отлично чат-бот думает не так как вы?

Я этого не говорил и не считал. :)

Тогда извините за недопонимание)

Что будет, если гипотетически собрать все возможные пары воздействие-реакция и вместо цикла работы мозга сразу выдавать результат?

Ответ на вопрос "Какая сейчас температура на улице?" вы так закодировать не сможете. А еще подозреваю, что размер такой базы будет очень большой, поэтому время на то, чтобы выдать результат будет порядка времени существования Вселенной.


Но даже если ограничиться текстовым чатом, то человеком оно не является, так как отличаются процессы обработки информации. У человека активируются информационные элементы, соответствующие описанным понятиям, или появляются новые понятия, а у устройства происходит сравнение по заранее заданной базе.

Ответ на вопрос о температуре подразумевает текущее состояние системы, которое является воздействием (и время, кстати, тоже воздействие). Иначе говоря, на каждое состояние мира задана реакция человека. Это совершенно умозрительный эксперимент и не привязан ни к вычислимости такой базы, ни к поиску по ней.

Так как отличаются процессы обработки информации.


Не более, чем решение уравнения с выдачей результата и мгновенный ответ для уже известного уравнения. Результат для вас внешне одинаков и корректен.

Совершенно умозрительные эксперименты приводят к совершенно умозрительным результатам, которые имеют мало отношения к реальности.


Результат для вас внешне одинаков и корректен.

Ну так внутренне-то отличается. Почему мы разрешаем хранить в базе состояние всего мира, но не разрешаем анализировать часть этого состояния снаружи?

Ответ на вопрос «Какая сейчас температура на улице?» вы так закодировать не сможете.

Смогу, напишу в таблице «не знаю», ведь ответы в таблице не обязательно должны быть верными и конкретными. Единственное требование, которое предъявляется к ответам — он должны быть похожими на ответы человека.
Я вот тоже не знал температуру еще полчаса назад, и не знал бы дальше, если бы не посмотрел на градусник.

Согласен, но это ничего не меняет. Так же берем отладчик и проверяем информационные процессы. Снаружи наверно не всегда можно определить, но могут быть косвенные признаки, как частота ответов "не знаю". Ну если не учитывать, что такое устройство физически невозможно.

Погодите, какой ещё отладчик? Ни о каком отладчике мы не договаривались, у нас слепой тест с черным ящиком.

Косвенные признаки есть, однако люди настолько все разные, что у вас не будет уверенности, что это машина, а не человек с особенностями.

Кстати, возникает интересный вопрос — если на тест отвечает инопланетянин, у которого мышление и жизненный опыт отличаются от человеческого, то к какой категории его отнесут судьи?

Вы рассматриваете соответствие тесту ради соответствия, забывая об изначальной цели. Цель — определить, мыслит ли машина, имеет ли она интеллект. Тест Тьюринга этого не показывает, хотя на момент появления он мог казаться достаточным из-за недостатка информации и технических возможностей. Ну то есть это работает в одну сторону, интеллект подразумевает прохождение теста, но прохождение теста не означает интеллект.


Я склоняюсь к мысли, что принципы обработки информации универсальны. Скажем, теорема Пифагора верна даже для инопланетян, неважно, видят ли они треугольник в обычном свете, инфракрасном, или щупальцами исследуют. То есть проверяющие определенно скажут, что перед ними мыслящее существо.

Тест Тьюринга этого не показывает

Почему не показывает? Если машина не мыслит, то и тест Тьюринга она пройти не сможет никак.

Его некоторые боты уже проходят. По тесту получается человек, а по возможностям нет.

Его некоторые боты уже проходят.

То, что проходят — это не оригинальный тест Тьюринга. Там очень существенные ограничения в плане того, о чем и как можно разговаривать с ботом. При свободном общении не проходят даже близко.

Женя Густман (ссылка в статье) не согласен с вами.

Женя Густман — не первый и не последний человек с неправильным мнением.

Он даже не человек. И я сильно сомневаюсь, что он имеет и способен иметь какое-либо мнение.
Он даже не человек. И я сильно сомневаюсь, что он имеет и способен иметь какое-либо мнение.

Если не согласен — значит мнение имеет.

Мнение без описания алгоритма своего мышления веса не имеет. Добро пожаловать в науку!
Мнение без описания алгоритма своего мышления веса не имеет.

Это мнение? Если да, то без описания алгоритма своего мышления веса не имеет.
Это теорема? Если да, то без доказателсьва веса не имеет.
Это аксиома? Тогда без теории, в которой она теорема, веса не имеет.
Ну и можно развить по желанию на сколько фантазии хватит.
Всё проще. Это демагогия.
Сказка детская, сто у.ё. Демагогия: у живой природы заложены инстинкты, которые позволяют адаптироваться к меняющимся условиям окружающей среды. У неживой природы инстинктов нет. Это постулат — ведь людям не приходит в голову повернуть реки вспять или обучить собаку говорить/считать.
Но некоторые разработчики упорно хотят научить камни.

Неверно решил, что мы поняли друг друга (нормально). Всё-таки подожду… «режим бога» в комбинаторике.
Почему вы думаете, что режим бога возможен, и что он как-то коррелирует с мышлением?

На мой взгляд, режим бога достижим без всякой мысли, особенно, если учесть, что с другой стороны сидит обычный человек. Гроссмейстер, но всё же человек.
Как будете развивать набор лингвистических утверждений, когда от слов перейдём к объектам?
Мнение без описания алгоритма своего мышления веса не имеет.

При чем тут вес, да еще и мнения?

Вес (абстрактно) — это векторная величина, определяющая ложность или истинность утверждения. Вес посылки "Земля плоская" вполне определён — ложное. Суждение «люди могут жить на Марсе» — является неопределённым, а значит веса не имеет.
Ну, вам же известно, наверное, что единогласное решение не означает наличие мнения.

Учитывая это:


интеллект подразумевает прохождение теста, но прохождение теста не означает интеллект.

вот это становится неверным:


То есть проверяющие определенно скажут, что перед ними мыслящее существо.

Проверяющие скажут, что тест прошло, а мыслящее оно или нет — не знаем!


Вот ещё пример из другого классика:
— Какой у нас год? Какой месяц? Число? День недели? — спрашивали эксперты.
Но Ихтиандр отвечал: — Не знаю.
Он затруднялся в ответах на самые обычные вопросы. Но ненормальным его назвать нельзя было. Он многого не знал благодаря своеобразным условиям своего существования и воспитания. Он оставался как бы большим ребенком. И эксперты пришли к заключению: "Ихтиандр недееспособен". Это освобождало его от судебной ответственности. Суд прекратил дело по обвинению Ихтиандра и назначил над ним опеку.

вот это становится неверным

Ну строго говоря нет. Разговор же был о том, что скажут проверяющие, а не о том, правы ли они.


Вот ещё пример из другого классика

Ну так о чем я и говорю. Главное это механизмы обработки информации, а не конкретные ответы.


Способность Ихтиандра обрабатывать информацию можно проверить и без отладчика, мы ведь не ограничены только текстовой беседой на заданную тему. Он не знает, какой день недели, но можно сказать ему, что вон там висит календарь, сегодня такое-то число, какой сегодня день недели? Если он подойдет куда нужно, посмотрит на календарь, и даст правильный ответ, значит он понял вопрос и способ получения ответа. Чем больше таких проверок, связанных с заранее неизвестной информацией, тем больше вероятность, что это мыслящее существо.

Проверяющие скажут, что тест прошло, а мыслящее оно или нет — не знаем!

Как не знаем? Знаем. Если бы оно не было мыслящим, то не прошло бы теста.

Только мыслить оно не мыслит.

Почему не мыслит? Мыслит. Описанный вами процесс вычисления по таблице — и есть мышление, разве нет?

UFO just landed and posted this here
Дайте пожалуйста ссылку на этого бота в тг
> «Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману.» — возможно ли лгать, если отсутствует способность мыслить? Особенно, если говорить о сознательной лжи или самообмане, что подразумевает под собой наличие самосознания.

Ну и Тест Тьюринга, это не игра, как вы её понимаете, судя по вашей заметке, а эксперимент, с определенными условиями эксперимента, а не «правилами игры», в котором нет игроков и нет победителей, а есть задача — может ли испытуемая машина, отвечая на вопросы, вести себя как человек используя для этого любые доступные методы.
«Тест — не игра», и «условия — не правила» — это спор о терминах, мне он не интересен.

«Может ли испытуемая машина, отвечая на вопросы, вести себя как человек используя для этого любые доступные методы» — вот тут есть нюанс. Я согласен, что идея Тьюринга была именно в этом, в проверке «может ли вести себя как человек». Просто у теста оказался побочный эффект — из-за того, что результат определяется по формальным признакам («можно ли человек определить, кто из двоих машина»), возникает (а) соблазн не реализовать мышление, а сымитировать поведение человека, и (б) необходимость сокрытия жизненного опыта машины, который очевидно отличается от человеческого.

То есть успешный результат эксперимента с такими условиями не дает окончательного ответа на вопрос, может ли данная машина мыслить.
простое подражание поведению человека не окажется для машины наилучшей стратегией… мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать ответы, которые в соответствующей обстановке дал бы человек.


Тут, скорее всего, неправильный перевод.
Так как попытка давать ответы, которые в соответствующей обстановке дал бы человек — это и есть подражание поведению человека.
В оригинале «It might be urged that when playing the „imitation game“ the best strategy for the machine may possibly be something other than imitation of the behaviour of a man. This may be, but I think it is unlikely that there is any great effect of this kind. In any case there is no intention to investigate here the theory of the game, and it will be assumed that the best strategy is to try to provide answers that would naturally be given by a man.»

Вроде перевод соответствует.
Вроде перевод соответствует.


Ну, я не настолько силен в английском, что бы оценить все тонкости оригинала.
А вот то, что перевод содержит логическую ошибку — это очевидно.
Очевидно, сразу отпадут роботы R2-D2 и ВАЛЛ-И, как не умеющие разговаривать на человеческом языке, и их я предлагаю далее не рассматривать


Да в общем, любой современный ПК, изначально не умеющий издавать звуки человеческой речи и играть музыку — можно достаточно легко снабдить звуковой картой и соотв. софтом.
Например, подключив к нему внешнюю звуковую карту через USB (универсальный разъем)

Поэтому для цивилизации, подобной той, что показана в обоих фильмах — снабдить каждого робота голосовым интерфейсом не составляет никаких проблем (что еще не было очевидно на момент выхода первых ЗВ)
Единственное разумное объяснение немоте дроидов с ИИ — чтоб не надоедали лишними вопросами и глупыми речами. Но само существование C-3PO несколько противоречит этой версии )
C-3PO был роботом переводчиком. Так что говорить умел из за по профессиональной необходимости. При этом болтал без умолку что и показывало почему других роботов не делали говорящими :)
По сюжету R2-D2 и ВАЛЛ-И были утилитарными роботами, общение с человеком при их основной деятельности не предполагалось, поэтому речью пожертвовали в целях удешевления производства и, что не менее важно, удешевления поддержки — скажет такой робот что-нибудь невпопад, и разбирайся потом в суде с недовольным клиентом.
Но вы их зря сразу же забраковали. Человеческой речи (в смысле синтезатора голоса) у них нет, так что при «личном» общении говорить они не могут (но кстати человеческую речь воспринимают и распознают нормально). Но в личном общении вообще все роботы спалились бы — хотя бы элементарно из-за того, что выглядят как роботы и с человеком их не спутаешь.

А вот при заочном электронном общении (как предполагается в изначальном тесте) с человеком они вполне прошли бы тест Тьюринга.
Мы можем воспользоваться представлениями о мыслящей машине из кинофантастики. Подходит ли Джарвис из «Железного человека» под это определение? R2-D2 или C-3PO из «Звездных войн»? Дэвид из «A.I.»? Долорес Абернати из «Мира Дикого Запада»? Афина из «Земли будущего»?

Я бы еще добавил ИИ из фильма She (Она). Мне кажется этот нехитрый фильм задал очень высокую планку для того, как должен выглядеть искусственный интеллект и голосовые помощники.
То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману. Печалька.


Умение убедительно лгать — один из ключевых признаков интеллекта, способствующий выживанию человека.
В шуточной форме это хорошо показано в фильме Liar Liar 1997 года.
Тогда рассмотрим контрпример — человек, не желающий лгать, и у которого не получается лгать убедительно, может обладать интеллектом? Очевидно, да. То есть «умение убедительно лгать» не является необходимым признаком интеллекта.
человек, не желающий лгать, и у которого не получается лгать убедительно, может обладать интеллектом?


Умение лгать — качество необходимое, но не единственное.
см. выше «один из ключевых признаков интеллекта»

Неспособный ко лжи человек может существовать в каких-то тепличных условиях [развитой цивилизации], но в суровых естественных условиях ему не выжить.

Как минимум — он не сумеет надежно спрятаться от опасности (именно поэтому дети так любят играть в прятки, бо кто не умел — был съеден еще в каменном веке )

У животных — умение прятаться это инстинкт, человек же, даже в возрасте 3 лет, способен на много большее.

Возможно, необходимое для выживания, но вряд ли необходимое для наличия интеллекта. Персонаж Джима Керри обладал интеллектом, когда не мог лгать?
Персонаж Джима Керри обладал интеллектом, когда не мог лгать?


Поправка — он мог лгать (т.е. обдумывать свою ложь), но просто не мог ее высказать.*

*т.е. его речевой интерфейс заглючил
(Его мучения хорошо видны на его лице )
Неспособный ко лжи человек может существовать в каких-то тепличных условиях [развитой цивилизации], но в суровых естественных условиях ему не выжить.
Жизнь патологического лгуна короче как раз потому, что: не боится быть пойманным, верит в свою ложь, не имеет долгосрочных целей и не учится на своих ошибках. Не могу представить за «суровые естественные условия», потому что не знаю вашего города проживания.
Не могу представить за «суровые естественные условия»


Да обычная служба в армии, с ее дедовщиной — в старые добрые советские времена.
Где нибудь в ЗабВО.
Дедовщина, скорее, относится к вопросу примативности, чем девиантному поведению.
Кошка без хвоста бывает, не бывает хвоста без кошки.
Обладая интеллектом можно не лгать, лгать без интеллекта невозможно.
Нет конечно. Пример — бот запрограммирован на вопрос о температуре на улице, всегда отвечать «холодно», и летом он обычно лжет. Не имея ни капли интеллекта.
UFO just landed and posted this here
Решил задавать вопросы без контекста и писать фразы которые даже не вопросы. Выбрал себя судьёй. Как и всегда — проблема контекста. Как только начинаются вопросы с заковыркой — становится понятно кто перед нами :) Но игрок, к сожалению, даже не пытался притворятся Мишей 5-ти лет…

Изобразить из себя компьютер проще: отвечать общими фразами, примерно с одинаковой задержкой. Отвечать как бы не в контексте, если ответ на первый вопрос связан со вторым вопросом. На вопросы, где нужно делать какой-то логический или арифметический вывод отвечать уклончиво и готово, тебя принимают за бота :)
вобщем, тест тьюринга несостоятелен, это и так понятно.
кстати, кото пробовал провести его с Сири?
уверен, что под 90% ремпондентов примут её за человека…
Она тоже практически не умеет в контекст. Спросите у неё что-то типа «как у тебя дела?», а потом продолжите «А почему так? А как было вчера?» — ответ будет не связан с первым вопросом, скорее всего будет что-то абстрактное, невразумительное, или «вот что я нашла в интернете по запросу „а почему так...“», так что скорее нет…
Вообще контекст имхо лучший способ проверки бот/человек в тесте Тьюринга. Контекст это то, что машины ещё очень не скоро научатся понимать.
https://tcn.tidbits.com/wp-content/uploads/2017/06/tip-ask-Siri-about-weather-1024x730.png

вообще то Дэвид Пог в своей книге заявляет, что сири не только нормальную человеческую речь понимает, но и контеексты…
но я вечером попробую проверить и отпишусь, да.
Да, как то не особо получилось с контекстом, хотя, возможны вариации.
кстати, нашёл, что по этому поводу писал хакер ККасперски, который с два года назад «допрыгался»:

сири в реальной жизни

От: мыщъх
nezumi-lab.org
Дата: 31.05.16 05:42

блин, эта сири…

ну вы ее знаете.
которая в айпаде.

первое впечатление — тууупая.
но для тренировки разговорного английского вполне подходящее средство.
но о чем можно говорить с женщиной как не о сексе?
там больно умный алгоритм используется и в результате наших бесед фразу
«holy shit» сири понимает как horny shit.
но это ладно.
прошу ее
найти мне prostitute.
сири упрямиться и говорит, что не может найти escort сервис.

минут пять я ее уговаривал погуглить это дело.
я бы и сам справился, да руки были заняты --вот и потребовался
голосовой ввод.
там на самом очень простой лайф-хак.
она говорит, что не может найти, а вы ей — «а ты искала?».

сири спрашивает: «что вам найти ?».
и мы снова возвращаемся к началу.

долго ходим кругами
пока наконец я не попросил показать результаты того, что ее просили найти.

оказывается, там чисто детская защита.
сири помнит что ее просили найти, но искать такое отказывается.
типа блокировка у нее такая.
но косвенный запрос проходит на ура.
PS.
только не говорите ей, что вы ее любите.
а то снова откажется искать.
даже по косвенному запросу.
так что сири ни фига не глупая.
UFO just landed and posted this here

Но почему не путать сознание и интеллект, где вы их разделяете?

UFO just landed and posted this here
То есть Тест Тьюринга проверяет способность машины не к мышлению, а ко лжи — к сознательной или к самообману. Печалька.
Это абсолютно не верный вывод.

Выше уже писали, но я поясню на всякий случай:
Лгать — это значит сознательно (умышлено, осмысленно...) говорить не правду, а лож. Для этого необходимо отличать лож от правды, что требует наличия мышления. Цель теста Тьюринга — определить, может ли машина мыслить.

Если коротко, то если кто-то умеет лгать — значит, этот кто-то умеет мыслить. Умение лгать — не возможно без умения мыслить.

Одна ложь, например на вопрос судьи «Вы — машина? = Нет.» выполненная машиной по БД не доказывает наличия у нее мышления, но если она сможет лгать (не выдавать себя) в ходе всего эксперимента с любыми вопросами, то — это уже доказывает наличие мышления (и не важно как машина мыслит, ищет по записям в БД или посылает сигналы через биологические нейроны).

Поэтому, утверждение приведенное выше автором статьи — полностью не верно (так как противопоставляет ложь и мышление).
Правильно так:
Тест Тьюринга проверяет способность машины к мышлению, заставляя машину сознательно лгать или по настоящему верить, что она человек.

P.S. Кстати, тест Тьюринга выполняет проверку на наличие именно «человеческого» мышления, а не какого-то любого абстрактного (инопланетного, машинного и т.п...), т.к. он исходил из аксиомы, что мы не знаем, что такое мышление, но при этом считаем, что человек мыслит, значит если кто-то будет неотличимо имитировать действия человека — обладает мышлением (с точки зрения человека).
Спасибо за подробный комментарий.
Я считаю, что
1. Машины, проходящие Тест Тьюринга, лгут либо считают себя людьми.
2. Машины, с которыми я бы хотел общаться, лгать не должны. И лучше чтобы они знали, что они — машины.
Должны, недолжны — это ваши проблемы в общем то.
Известно, что: среди людей есть такие сорта, как социопаты и психопаты — врут легко и естественно, дабы получить преимущество, при поймании на лжи ничуть не смущаются, а продожают свю игруъ

Также известно, что есть математический аппарат позволяющий лгать так, что поймать на лжи -невозможно.

Обратно, понятно, что в противостянии человека говорящего правду, и могущего лгать — лгун в привилегированном положении.

То есть ложь позволяет получить преимущество при прочих равных, и с рациональной точки зрения — глупо этим не пользоватся.

Кстати, на эту тему есть хорошый фильм — ex machine.
глупо этим не пользоватся

Не хочу, чтобы мной пользовалась рукотворная машина.
Ну, мало ли чего ты не хочешь.
У меня есть целый список того, чего я не хотел бы наблюдать в этом мире — но мир таков, каков есть, и ему нет никакого дела до моих хотелок и нехотелок…
Тест Тьюринга — пример бихевиоризма, он ничего не показывает и вообще бесполезен — ибо ничего не объясняет.
Когда бот получает ответ от робота, он передает ее не сразу, а с задержкой времени — это не сразу появилось, я ее добавил по замечанию galqiwi, спасибо.

Если будете продолжать эксперименты с чат ботами, то в следующий раз(в следующей версии) еще добавьте дисперсию задержки. Т.е. задержка (целевой средний уровень) ± случайное значение, ну скажем для примера 10± 5 секунд, итого 5-15 секунд со средним =10.
Мгновенные ответы это конечно сразу же 100% провал бота, независимо от качества ответов. Т.к. человек в принципе не способен ответить мгновенно — хотя бы время на набор текста ему нужно, даже если думать над ответом вообще не будет, а отвечать первое же пришедшее в голову. Поэтому мгновенный ответ = 100% определение бота на первой же паре вопрос-ответ.

Но и фиксированные постоянные задержки (скажем всегда ровно 5 секунд) если это более-менее длинная серия вопросов-ответов с одним и тем же человеком весьма заметны и тоже выдают бота независимо от качества ответов.

Можно еще чуть сложнее и реалистичнее но с минимальными усилиями на программирование: небольшая фиксированная задержка + задержка пропорциональная суммарной длине вопроса и ответа (имитация времени на чтение вопроса пришедшего от человека и на набор ответа скажем суммарное кол-во слов * 0.5с ) ± случайная компонента.
Если будете продолжать эксперименты с чат ботами, то в следующий раз(в следующей версии) еще добавьте дисперсию задержки. Т.е. задержка (целевой средний уровень) ± случайное значение, ну скажем для примера 10± 5 секунд, итого 5-15 секунд со средним =10

Это уже сделано. Среднее и дисперсию взял больше, т.к. за десять секунд человек вряд-ли ответит.
Да, это просто для примера числа.
Реальные целевые средние значения можно кстати из статистики ответов людей взять, если временные метки записывались. Только откинув аномально большие значения (человек ушел от компа или отвлекся на что-то другое, забыв про открытый чат).
Бота по похожему принципу я делал лет в 18 для компьютера Радио-86РК. На ассемблере. Правда, памяти у него было 16 килобайт. Не гигобайт, не мегобайт, а килобайт :)
Sign up to leave a comment.

Articles