Комментарии 124
По мнению Серла, компьютер (или китайская комната) не способен достичь понимания, т.к. оперирует лишь синтаксическими конструкциями. Человек же в свою очередь воспринимает и оперирует смыслами, а не только лишь самими символами, на что компьютер не способен.
Иногда лучше немного подумать прежде чем выкладывать. Старые представления и термины архаики…
В данной статье я постараюсь дать ответы на эти вопросы.
42?
Но мысль и правда забавная, если лингвистика когда-либо дойдёт до уровня, на котором возможно это реализовать, не откажусь сыграть в эту игру.
Но тут другая проблема будет — такая система никогда ничего не сделает по собственной инициативе. Она будет всегда ожидать ввода данных, потому что только тогда она сможет отреагировать.
Человек тоже что-то делает только под действием входных данных, но эти данные могут быть не только от окружения, но и от скажем внутренних органов тела. Ведь тело не является частью сознания, потому является внешним.
Например, в желудке пусто, желудок формирует сигнал в мозг, в мозгу появляется задача покушать и чувство голода.
Подозреваю бывают иные входные данные, более сложной природы, типа социальная среда и наше место в ней. Или потребность в любопытстве, которое есть замаскированный поиск новых ресурсов.
Собственная инициатива это тоже иллюзия, как и свобода воли.
Человек тоже что-то делает только под действием входных данных...
Я бы не исключал различия в алгоритмах обработки этих входных данных. Иначе чем объяснить, что примерно одинаковые люди, оказавшиеся в примерно одинаковых условиях (и внешних, и состояния тела) ведут себя порой кардинально противоположно.
Одинаковыми могут быть простые объекты, у которых мало основных характеристик. Если у двух таких объектов основные характеристики слабо отличаются, то можно предположить, что и производные характеристики будут отличаться не сильно.
Если же у двух объектов основных характеристик не 2-4, а 20, то малое отличие в половине может дать кумулятивный эффект и производные характеристики могут отличаться сильно.
Как мне кажется люди относятся к последнему типу объектов.
Я уж не говорю про инструментальное определение характеристик человека. Вот тут определяют какие-то характеристики личности, но насколько это объективно по сравнению с измерением массы или силы тока?
обычный детерминизм) мол есть только атомы и молекулы, а смыслы, которые эти атомы реализуют это все иллюзия)
и именно у него появляется самосознание
А что вы понимаете под термином "самосознание" в данном котексте? Потому что в том смысле, в котором понимаю это слово я, оно ну никак не может появиться у подобной "системы реагирования".
Не могу согласиться, т.к. в эксперименте комната не создаёт ответы, ответы заранее подготовлены каким-то человеком. Поэтому нет никаких оснований говорить о "комнате" как о какой-то отдельной сцщности. По-сути, те, кто передают в комнату карточки, общаются с человеком, подготовившим ответы. А комната с другим человеком внутри – лишь средство передачи информации.
Всё равно, что после разговора по телефону сказать, что телефон имеет самосознание, потому что отвечает на вопросы.
А так можно нафилософствовать на тему имеет ли самосознание человек или всего лишь оболочка для души которая и является сознанием.
то нет никакой разницы имеет самосознание телефон или человек на другом конце линии
Конечно же, есть разница. Во-первых, речь не о восприятии того, кто "на этом конце линии", а о фактическом положении вещей. Во-вторых, телефон без того человека "на другом конце" ничего сказать не сможет.
Вопрос "что такое [само]сознание" – отдельный разговор и, пока что, чисто филосовский, а не научный, к сожалению.
Ещё раз – с точки зрения воспринимающего разницы действительно нет. А по факту – есть, конечно же. Говорит не телефон, а человек. Ответы даёт не комната, а человек (более того, даже не тот человек, который внутри комнаты тупо передаёт карточки, а тот, который подготовил инструкции по передаче карточек). И т.д.
Иначе можно дофилосовствоваться до того, что не существует никого и ничего, кроме моего собственного сознания, а всё остальное – лишь игра воображения.
Говорит не телефон, а человек.
Такое разделение работает лишь в простых случаях. Можно ли сказать, что игрок в Dwarf Fortress просто общается с разработчиками игры?
P. S. Вспоминается рассказ Саймака «Театр теней».
Если ваш вопрос касается чего-то специфичного Dwarf Fortres – то просьба развернуть мысль, т.к. я в эту игру не играл (хотя наслышан).
Если же речь о любой игре (и даже шире – любом произведении, будь то игра, книга, фильм, музыка) – то, скорее, можно сказать, что это авторы произведения общаются с игроками/читателями/слушателями.
По-сути, это как письмо – авторы отправили сообщение игрокам, а те имеют возможность "прочитать" сообщение или какие-то отдельные его части. Но ответить-то игроки не могут (не считая других каналов связи и косвенных вещей типа уровня продаж игры и т.д.)
Но, в любом случае, не уловил связь с предыдущей частью дискуссии.
Ну и что? Сюжеты-то возникают не сами по-себе, а создаются действиями игроков. В этом смысл sandbox-игр.
Нет, конечно. Само собой, человек использует имеющийся опыт, но не напрямую же копирует ответы из этого опыта.
Честно говоря, не вижу, каким образом это связано с частью дискуссии про игры.
Полный набор всех правил, делающих систему комната + человек неотличимой от разумной, и будет тем самым ИИ :-)
Как бы вам объяснить…
Создав правило о накоплении знаний, вы уже делаете обучающуюся систему.
Следующий шаг — создать правило для вывода других правил.
Третий шаг — создать правило о разумном выводе на основе из накопленных знаний.
Тут вы делаете разумную систему. И весь вопрос в том насколько разумной будет эта система и сумеете ли вы описать такие правила :-)
Старый вопрос — "будет ли экспертная система с полным набором знаний человека ИИ"?
тут уже появляется вопрос: — почему именно разум человека — сидящего в комнате — является субъектом эксперимента, по сути разумом системы является уже не он, а некий «китаец», который кроется в сложной системе реагирования на иероглифы
Совершенно согласен. На мой взгляд, в этом эксперименте почему-то упускают из виду те самые инструкции, согласно которым реагирует человек в китайской комнате. Проводя аналогию с компьютером, человек здесь — всего лишь центральный процессор, который и не предполагается разумным. В конце концов, роль человека в этом эксперименте могла бы выполнить дрессированная обезьяна (ну, или множество обезьян, «натасканных» на выполнение определенных правил в зависимости от вида иероглифа).
Истинную «разумность» китайской комнате придают именно инструкции, определяющие зависимости между входными и выходными иероглифами. То есть, проблема здесь та же, что и у Тюринга — в создании программы, имитирующей разум. А кто эту программу будет выполнять — человек или автоматический вычислитель — уже дело десятое.
Всё таки Джон Серл мастер, лаконично всё изложил. Таких мысленных экспериментов нужно больше.
Философия незаменимая часть созидания и помогает двигаться вперед. Хотя тут многие с этим яростно не согласны, для них это лишь пустая болтовня. ДА КОМУ НУЖНА ФИЛОСОФИЯ?! | IQ
Что до Серла, то он все таки профессионал. К тому же, его статья занимает куда больше, чем моя, и у нее тоже нашлось миллион критиков, во многом из-за того, что статья не полна.
В общем, единственное, что фактически доказал Серл — что хардвер без софта недостаточен для мышления. Глубокий вывод, ничего не скажешь. А что в данном случае хардвер весьма экзотический — к делу не относится.
Заменим моделирование мышления на выполнение алгоритма умножения путем переворачивания монет (aka умножение в двоичной системе). Все рассуждения Серла останутся в силе — но на выходе будет «доказательство», что компьютеры неспособны умножать числа.Не понял, поясните.
Меняем в этом описании слова «процесс мышления» на «умножение». Получаем мой пример. Аргументация осталась та же, но вывод, к которому она приводит, оказывается очевидно неверным. Следовательно, в аргументации есть ошибка.
Серл утверждает, что поскольку оператор не понимает смысл этих операций и осуществляет их чисто механически, процесса мышления не происходит.В голове оператора. Процесса мышления. Не происходит. Понимаете? Оператор не осознает, что он делает. Он тупо выполняет инструкции. Как машина.
Меняем в этом описании слова «процесс мышления» на «умножение». Получаем мой пример. Аргументация осталась та же, но вывод, к которому она приводит, оказывается очевидно неверным.Почему это «очевидно неверным»? Умножение в голове оператора происходить не будет. Более того, оператор даже знать не будет, что он делает «на самом деле».
Он тупо выполняет инструкции. Как машина.
Почему «как»? Он тут и выступает в роли части хардвера. Но Серл-то из этого делает вывод, что процесса мышления в его примере не происходит вообще.
Более того, оператор даже знать не будет, что он делает «на самом деле».
Вот в этом-то и есть идея моего контрпримера. Оператор не знает, что он делает — но процесс умножения тем не менее происходит. Так же и с мышлением в исходном примере Серла.
Вы упускаете наличие того человека, который все эти инструкции подготовил. В эксперименте с комнатой процесс мышления как бы вынесен за скобки и выполнен заранее для какого-то предустановленного набора карточек. А в ходе самого эксперимента никакого мышления системы "комната+оператор" не происходит.
В случае умножения аналогом будет набор предопределённых вариантов ответов (2х2=4, 3х2=6 и т.д.), и в таком случае система не будет производить умножения.
Однако, если мы заложим в систему непосредственно алгоритм умножения любых чисел, вместо предопределённых вариантов, тогда система действительно будет "уметь" умножать.
Если же мы говорим о том, что комната отвечает на любые возможные иероглифы (неизвестные заранее создателю алгоритма ответов) и эти ответы экспериментаторы не могут отличить от человеческих, то это будет уже ИИ (по определению теста Тьюринга). Но даже в этом случае комната+оператор будут лишь "железом", а сам ИИ – это инструкции по выдаче ответных карточек.
Заменим моделирование мышления на выполнение алгоритма умножения путем переворачивания монет (aka умножение в двоичной системе). Все рассуждения Серла останутся в силе — но на выходе будет «доказательство», что компьютеры неспособны умножать числа.
но ведь Searl как раз утверждает, что компьютер может общаться по китайски — просто без понимания смысла этого общения. или смысла умножения в вашем примере.
На выходе будет доказательство, что компьютеры неспособны понять смысл умножения, применить его самостоятельно в практических задачах или вывести на основе него понятие деление.
Давайте поместим в эту комнтату то, что умеет думать, убрав необходимость создавать эту часть искусственно.
Вот что я вижу в этом эксперименте.
Нам нужно создать «мозг», мы его не создаём, а помещаем внутрь готовый.
Носителем интенциональности всего живого является ДНК.
Верно, но лишь отчасти. Формообразование мозга довольно рандомный процесс. Отделы мозга у всех (людей), конечно, примерно одинаковые, но их размеры отличаются сильно. И размеры, как раз, в ДНК практически ни как не кодируются.
П.С. Не специалист, не стоит сильно верить моим словам.
Во первых, присутствует некоторая неточность в использовании терминологии.
Можно наделять термостат способностью к мышлению, но надо уточнять, что имеется в виду под собственно «мышлением». То же относится к «пониманию», «восприятию», «смысл» и подобным терминам.
Поясню, что я имею ввиду на примере «понимания»:
Когда мы говорим, что «поняли» как что-то устроено, это значит, что мы можем делать уверенные предсказания относительно него без необходимости реального эксперимента. Например, если я хорошо понял процесс фотографирования в фотоаппарате — я могу заранее предсказать в какую сторону будет изменен результат при изменении какой-либо настройки, и пользоваться своим пониманием, чтобы подбирать нужные настройки для получения нужного мне результата. В общем случае — «понимание» суть наличие адекватной (соответствующей действительности) и точной модели объекта понимания. Чем точнее и адекватнее эта модель — тем более глубоким есть «понимание». Ключевое слово здесь — «модель»!
«Мышление» же, грубо говоря, суть процесс, в ходе которого рассмотренная выше «модель» (понимания) уточняется чисто аналитическим путем (т.е. используя уже известную информацию, без дополнительной информации извне).
Так что согласиться с тем, что термостату доступно «понимание» и уж тем более «мышление» я не могу.
Второй момент — для успешного «плодиться и размножаться» организмам нужно «понимание» (в смысле, описанном двумя абзацами выше) внешнего мира. Чем лучше организм предскажет, как отреагирует внешняя среда на его действия, тем более точно он сможет выбирать лучший вариант действия для достижения свей цели.
Возьмем, к примеру, одноклеточный организм. Он имеет рецепторы, и использует их, чтобы передвигаться в сторону комфортной и питательной среды, а удаляться от опасной и бедной на полезные вещества. Модель внешней среды у такого организма проста и примитивна — там где рецепторы сигналят «вкусно» есть еда, и надо всеми ложноножками двигать туда (точнее, надо двигать теми ложноножками, что расположены в нужной позиции относительно этих рецепторов, и в итоге ты окажешься там, где будет лучше, чем тут, где ты сейчас)
Чем более развитый организм, тем больше разных рецепторов он имеет, может воспринимать больше аспектов окружающей среды и больше нейронов (либо более эффективно) может использовать для моделирования окружающего мира (и себя в нем). Кстати, в буддизме эта концепция присутствует в виде «я — это зеркало».
Вот чем заняты все успешные организмы — они с помощью своего сознания адекватно моделируют окружающий мир и выживают, избегая опасностей, а получая ништяки. А у особо продвинутых, модель мира которых включает их самих — присутствует и самосознание :) Компьютерам, думаю, такое тоже будет под силу, рано или поздно.
Если говорить о построении модели, то термостат уже обладает моделью, и действует сообразно ей. Да, он не может создать новую модель или изменить существующую, но адекватно реагировать в рамках собственно модели он может.
Важно заметить, что далеко не любая модель автоматически означает «понимание». Китайская комната тоже обладает некой моделью (или, что по сути тоже самое, программой), но не обладает остальными свойствами мыслящей системы, которые я изложил в статье.
«Мышление» же, грубо говоря, суть процесс, в ходе которого рассмотренная выше «модель» (понимания) уточняется чисто аналитическим путем (т.е. используя уже известную информацию, без дополнительной информации извне).
Возьмем, к примеру, одноклеточный организм. Он имеет рецепторы, и использует их, чтобы передвигаться в сторону комфортной и питательной среды, а удаляться от опасной
Вы всерьез предлагаете, что одноклеточный организм способен к описанному вами аналитическому мышлению?
То есть, если условия «эксперимента» действительно допускают возможность создания подобного алгоритма, то он не приводит к парадоксу. С моей точки зрения, парадокс в самой формулировке эксперимента, где «человеку даны подробные инструкции» — невозможно создать подобный свод инструкций генераций ответа на любой вопрос, при этом не создав мыслящую по китайски систему.
Китайская комната — это абсурд или софизм. Фактически, набор правил по которым действует человек и есть машина, отвечающая на вопросы, человек только перекладывает карточки. Т.о. китаец снаружи комнаты разговаривает не с человеком внутри, а с машиной, оперирующей правилами. Человека внутри спокойно можно было бы поместить снаружи, между китайцем и комнатой, чтобы перекладывал карточки, суть не изменится и все сводится к чат-боту. Тема устарела лет на 100.
Дело в том, что метод постановки мысленного эксперимента лишил человека внутри комнаты одной принципиально важной возможности – человек не может задавать вопросы вовне. Условия эксперимента говорят, что он может принимать карточки, манипулировать ими согласно инструкциям и таким образом отвечать на поставленные перед ним вопросы, хотя сам человек и не понимает что это за вопросы, он даже не понимает, что это вообще вопросы. Помимо этого, человек, оперируя внутри китайской комнаты, не преследует своими манипуляциями никаких целейи т.д. по тексту.
Статья понравилась.
По сути, данная статья раскрывает понятие Квалиа.Чалмерс навел мистический туман вокруг него, а я попытался этот туман убрать. Красность приобретает свое квалиа будучи встроенным в цепочку причинно-следственных взаимодействий Внеш. Среда (воздействие) → Внутр. Состояние → Программа → Внутр. Состояние → Внеш. Среда (воздействие).
У компьютеров в этом смысле жизнь весьма грустная.
1. У них нет собственных целей. Поставьте компу цель — выживать любой ценой.
2. У них нет средств реализации целей. Если человека не кормить — он погибнет весьма не сразу. А если компу отключить питание — моментальный шатдаун в худшем случае со скоростью света, в лучшем — с скоростью разрядки конденсаторов, в прекрасном — со скоростью разрядки бесперебойника. Если ничем не грозить — то нет мотивации развиваться.
3. Нет манипуляторов для манипуляций в реальном мире. Ну правда — сделайте компу ноги и руки, чтобы он мог убежать к тому кто его не будет нагружать расчетами и у кого синус в розетке поблагородней. У человека масса всего подобного реализуется аппаратно и отточено тысячелетиями оптимизации и конкуренции. Компьютеры же создавались как считалки.
Вывод. Пока компьютеру не станет нужным разговаривать с человеком ради выполнения своих собственных задач — он не станет этого делать да и трудно ему развиться до такого уровня по объективным причинам.
Какие пути? Медленное и методичное создание некой системы с накоплением знаний о мире, возможностью воздействовать на мир и соответственно обратными связями. Вначале получится что-то совсем простенькое — а-ля червяк, потом усложнится до уровня собаки, потом получим вполне так человеческие мозги. А дальше — сами виноваты, я вот тут предупреждал.
«все что происходит» это просто яблоко, падающее с дерева?
Вы познали глубины моей статьи)
Но мышление, не совсем выдумка, скорее ошибочная интерпретация реальности. Люди часто ошибаются, размышляя о понимании и мышлении, т.к. ставят мерилом свое собственное «человеческое» мышление. Но мышление мышлению рознь, и у более примитивных организмов оно примитивнее. Я попытался выявить ключевые моменты мышления, и, как оказалось в конечном счете, человеческое мышление и поведение термостата одинаковы в своей сути, хоть и различаются по сложности и масштабам, но принципиальной разницы между ними нет. Поэтому иллюзия тут состоит в том, что люди считают свою способность мыслить чем то уникальным. Уникальным для человека, или для живых организмов как таковых.
В случае китайской комнаты предполагается, что все инструкции заложены с самого начала и не меняются. Человек внутри её не обучается, т.к. не понимает смысла символов.
В случае же с искусственными или естественными нейросетями это не так. Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию, человека в китайской комнате так «обучить» нельзя, по определению.
Так что любые выводы из эксперимента с китайской комнатой не применимы к нейросетям. И, соответственно, к искусственному интеллекту.
Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию, человека в китайской комнате так «обучить» нельзя, по определению.
Почему человека в китайской комнате нельзя запрограммировать реагировать сложным и разнообразным образом? Любая нейросеть в конечном счете — код, а код — это таблички с иероглифами.
Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию
человека в китайской комнате так «обучить» нельзя, по определению.
Вы закладываете алгоритм обучения НС, так и тут можно создать такую инструкцию при которой человек внутри будет «обучаться» также как «обучается» НС
Вы закладываете алгоритм обучения НС, так и тут можно создать такую инструкцию при которой человек внутри будет «обучаться» также как «обучается» НС
Человек внутри не может обучаться по определению. Но если принять упомянутые возможности, что по входным данным человек внутри будет управлять так, что будет эмулировать работу нейросети, то при достаточной сложности почему бы в этой системе не появиться разуму? Только не надо ожидать, что разум будет на уровне человека внутри, он будет «выше». Человек внутри китайской комнаты — это всего лишь механизм. Как движение ионов, к примеру, это низшая часть механизма работы нейронов в мозгу, и они сами по себе ничего не понимают, а лишь работают.
У меня есть мысль, что тест Тьюринга это недостаточный критерий интеллекта. Это могло показаться достаточным, когда компьютеры были большими и медленными, но не сейчас, когда быстродействие на высоте, а возможностей ЕИ у компьютеров стало не сильно больше.
Ну я и имел в виду, что скорость ни при чем. Просто раньше даже простой чат-бот мог показаться машиной с интеллектом. Но по факту миллион повторений для обучения нейросети остается миллионом повторений, независимо от затраченного на него времени. Так что дело в алгоритмах, которые позволят миллион превратить в тысячу. И неважно, что оба варианта проходят тест Тьюринга, алгоритмы работы у них разные.
А пока… а пока это всего лишь автоматы разной степени сложности мимикрирующие под искусственный интеллект.
Если вдруг Вы не знакомы со статьями Алексея Редозубова на эту тему, очень рекомендую: https://habrahabr.ru/users/AlexeyR/
С Редозубовым смотрел видео, и не раз натыкался на его публикации (правда не прочел). Интересный мужик.
Живой организм – способ существования вещества обусловленный лишь фундаментальными физическими законами, нет никакой нужды в дополнительной магии. Я пишу об этом, чтобы показать, что в плане интенциональности между живым и неживым нет фундаментального различия. ДНК — это молекула, у нее нет и не может быть целей, только направления – физические и химические законы, следуя которым, она существует и управляет клеткой.
Как раз эксперимент и показывает, что магия есть – нам интуитивно понятна разница между человеком, действительно знающим китайский и человеком или AI, подчиняющимся инструкции.
Если интенциональность (а вслед за ней и «смысл», “китайский”, “язык”) — это несуществующие / иллюзорные феномены, то эксперимент лишается, простите за тавтологию, смысла. В рамках этой парадигмы и человек, и компьютер, и кусок скалы заведомо равны – нет никакого критерия, по которому мы могли бы их отличить. ДНК подчиняется физическим законам, компьютер подчиняется физическим законам, камень подчиняется физическим законам. Физикалисткий шах и мат в один ход – все дальнейшия рассуждения становятся самопротиворечивыми.
Целевое внутреннее состояние задается программой, которая записана в ДНК. ДНК находится в положении схожем с мозгом и с КК, поскольку не контактирует напрямую с внешним миром, но только через посредство внутреклеточной среды. Таким образом, оптимальное внутреннее состояние, которое есть цель функционирования клетки, и является как условием, так и причиной присущей этой клетке интенциональности, задается программой (ДНК).
Автор, по сути, предлагает отказаться от магии интенциональности заменив ее магией программы ДНК или ее аналогом. Немного утрируя, “компьютеры обретут сознание как только станут живыми”.
Проблема в том, что само наличие программы подразумевает цель, причем “программа” может быть обнаружена только кем-то, усматривающем за ней смысл. Компьютер, говорящий по китайски, является таким же физическим объектом, что и камень и отличается от него только в нашем восприятии. Пока этот парадокс далек от разрешения и магия остается неприступной.
В рамках этой парадигмы и человек, и компьютер, и кусок скалы заведомо равны
И да и нет. Равны в том, что отправной точкой их поведения являются одни и те же физические законы, т.е. никакой дополнительной магии вроде души или ее абстрактного брата близнеца «сознания, которое результат непонятно чего, но чего то высшего, чего нет у всех остальных».
Но в то же время есть и отличие, и оно очевидно. Это отличие в самом поведении, которое мы и склонны ошибочно объяснять наличием магии. Я в этой статье пытаюсь показать, в чем как раз таки есть разница, и каким образом она сказывается на поведении камня, компьютера, или живого организма.
«Программа» — условное понятие, обозначающее достаточно сложную структуру, обуславливающую сложные типы реакций. Для того, чтобы компьютер или термостат следовал программе, не нужно наблюдателей. И без наблюдателя их программа-структура никуда не денется. Я предлагаю отказаться от магии интенциональности, разбивая ее на элементарные составные части, которые управляются естественными законами, и показывая тем самым, что такое интенциональность, и как она может возникнуть.
Ну во-первых, если предположить существование марсиан, то марсианин явно не один на Марсе. То есть некоторая культура у них есть.
А во-вторых, откуда вообще у людей появился культурный контекст? Он ведь не всегда был, и не всегда был именно такой. Значит есть какие-то процессы, способствующие его появлению, а значит их можно заложить в машину и получить аналогичный результат.
Теперь мой вопрос, для разминки — какой прибор может быть использован, чтобы отличить компьютер от не-компьютера?
Из того, что кто-то не может сформулировать понятие "интеллект", не следует, что отличить комьютер от не-компьютера в принципе нельзя.
Из того, что кто-то не может сформулировать понятие «интеллект», не следует, что отличить комьютер от не-компьютера в принципе нельзя.Алгоритма пока такого не придумали.
Машина думать не может!!! она не проявляет свойства живой ткани
Один из оппонентов Серла (к сожалению не помню кто), привел такой мысленный эксперимент. Он предложил заменить один нейрон в мозгу человека на его точную технически реализованную копию, точнее, такой аппарат, который бы точностью воспроизводил поведение нейрона: такие же реакции на выходе, на подаваемые сигналы на входе. Если мы заменим один нейрон на такую машину в мозге, изменится ли его поведение? Исчезнет способность человека понимать, осознавать? Очевидно, что нет. Если продолжить заменять остальные нейроны один за одним, то в конечном итоге мы можем получить полностью машинизированный мозг. Будет ли он понимать, осознавать, чувствовать? Если нет, то на каком этапе вдруг произойдет эта потеря сознания?
Что и требуется доказать экспериментом комнаты: мозг человека — не машина Тьюринга!!!
Вот, человеческий интеллект.
Вот, компьютерная программа, котора нифига не интеллект, но выдает реакции, которые под оный идеально мимикрируют.
Термостат «стремится» поддерживать температуру датчика
Только это "стремление" заложено в него извне другим живым существом — человеком. Поэтому нет, термостат не способен мыслить и понимать. Но с другой стороны, это не означает, что мыслящую машину нельзя построить. Просто она будет сложнее, чем термостат.
Но ведь нейроны работают примерно так же, как эта китайская комната.У них есть набор инструкций обработки входных данных, не более.И что же теперь, человек не может мыслить?В этом и парадокс Китайской комнаты. (С)
Мало того, внутри Китайской комнаты сидит человек разумный! То есть тот, кто уже разум имеет.
А теперь круче — если предположить что разум дан человеку изначально, только предположить, то и тогда Парадокс Китайской комнаты показывает что никакой младенец (даже имеющий разум изначальный или зачатки разума) не может стать… китайцем! — Ведь фактически мозг младенца и есть этакая Китайская комната с запертым там «неким человеком разумным», ибо мозг этого «возможно разумного младенца» по сути общается с внешним миром аналогично тому как тот же человек разумный, запертый в Китайской комнате.
Но практика показывает что китайцев довольно таки много на свете.
Вот в чём суть Парадокса Китайской комнаты!
Имхо, конечно, имхо. (С)
А вы прочитали мою статью? По-моему, в ней подробно описано, как получаются китайцы. Это одна из тем статьи.
Если подвести к Китайской комнате китайцев и попросить их пообщаться с человеком в Китайской комнате, например через терминал, то китайцы скажут что там сидит китаец или человек который понимает китайского.
Если рассказать китайцам как «китаец» в Китайской комнате «обучился» китайскому, то китайцы скажут что там сидит вовсе не китаец или человек который вовсе не понимает китайского.
Что изменилось у нас? — Китайцы узнали как именно человек сидящий в Китайской комнате «обучился» китайскому.
И больше ничего не изменилось.
При этом, в китайской комнате мог сидеть с самого начала уже знающий китайский язык человек (в том числе и китаец) — но это никак не повлияло бы на ответ китайцев — знает ли китайский язык человек в Китайской комнате.
Вывод — знает ли китайский язык человек сидящий в Китайской комнате или нет — зависит только и только от того, что настоящие китайцы узнают о том, как именно человек в Китайской комнате обучался китайскому языку.
Иначе говоря — признание настоящими китайцами знания китайского языка человеком в Китайской комнате зависит только и только от того, что они (настоящие китайцы) узнают о способе обучения китайскому языку человеком в Китайской комнате.
Если способ будет традиционным, настоящие китайцы признают что человек в Китайской комнате знает китайский.
Если способ будет НЕ традиционным, настоящие китайцы признают что человек в Китайской комнате НЕ знает китайский.
А китайский младенец становиться китайцем именно потому, что его воспитывают традиционно, поэтому его знание китайского признаётся настоящими китайцами.
Так что разрешения парадокса «никакой младенец (даже имеющий разум изначальный или зачатки разума) не может стать… китайцем! » находится только и только в признании настоящими китайцами того, что младенец воспитывался традиционным способом. — У них (настоящих китайцев) просто нет иного способ понять — знает ли он китайский язык или так и остался не владеющий китайским в Китайской комнате?
Но почему обучение традиционным способом признаётся за знание китайского?
Потому-что знание китайского это и есть знание, полученное традиционным способом?Верно. ;-)
При этом пример Китайской комнаты показывает — неважно что у вас внутри, компьютер или живой разумный(!) человек, его не зря туда поместили то, а для того чтобы показать, что даже разумный человек не будет считаться знающим китайский если он не получил эти знания… традиционным способом.
— Чувак, хорош уже прикалываться, не видишь, что ли, что я тут заперт в этой комнате, как я тебе подам мяч? Да и нет тут никаких мячей.
— Ладно, ладно, не кипятись, пошутить уже нельзя…
— КК с ручками и ножками, подай мне мяч!
— Этот? Держи!
Дело в том, что эксперимент с КК имеет некоторые ограничения. И я вам легко смогу продемонстрировать незнание китайского языка, если эти ограничения снять (у живого китайца таких ограничений нет). Вот вы приделываете ручки и ножки китайской комнате и говорите на китайском: «КК, подай мне мяч!» Что сделает КК? В лучшем случае, ответит на китайском, но никогда не подаст вам мяч!Вы не правы. Ведь «ответы на китайском» — это такие же «сигналы» рукам и ногам.
Мозг человека посылает команды на сокращения мышц.
Если КК приделать ноги — то вы фактически сообщите «некое знание» уже НЕ НА КИТАЙСКОМ человеку в КК (ибо и у него есть ноги и он об этом знает).
КК — это эксперимент где передаётся только и только «текст» (сигнал).
КК — это фактически "запертый разумный человеческий мозг", который изначально никакого понятия о ногах не имеет и как показывает парадокс КК иметь и не может вовсе.
И в парадоксе КК неважно будет ли это ответ в записке, в терминале или команда ногам.
Парадокс КК в том и есть, что запертый человек (то есть мозг разумный) общается с внешним миром посредством «текста» (сигналов) и чтобы понять, что у него есть ноги, человек в КК должен получить об этом какой-то сигнал на китайском (для младенца все сигналы фактически и есть на «китайском» — ибо никаких знаний о их значении младенец не имеет изначально)
Это тонкий момент которые многие, в том числе и вы, не понимают.
Имхо, конечно, имхо. (С)
Не холивара ради, а истины для хочу заметить:
1. Согласен с общим выводом, однако думаю, что путь к нему другой:
2. Для живого организма «внутреннее состояние», думаю, не применимо, так как само существование подразумевает постоянное изменение – адаптацию;
3. Соответственно, интенциональность для живого организма также будет иной, нежели указывает автор статьи – не возвращением к одному внутреннему состоянию, но сменой потенциально бесконечного набора состояний, которые имеют общую цель:
4. Выживание. И адекватностью реагирования на внешнюю в этом случае будет максимально возможно долгое поддержание возможностей адекватного реагирования реагирующей структуры – иными словами, выживания (индивидуума, роя, генов – здесь не имеет значения).
К тому же, возможно, загадка мышления проще, чем нам кажется. Реагирующая система становится настолько сложной, что мы не можем предсказать её поведение со сколь-нибудь удовлетворительной вероятностью. Естественно (и важно), что мы не можем сделать такое предсказание сегодняшними средствами. Но это никаким образом не доказывает, что сознание непредсказуемо в принципе.
Очень забавно с этой точки зрения взглянуть на деятельность маркетологов: можно запросто доказать, что большая часть человечества не является разумными существами. Более того, большая часть маркетологов, с помощью которых это можно доказать, тоже действуют лишь по программе, заданной (и понятой!) не ими.
Словом, ох уж эта бесконечная гирлянда :)
интенциональность для живого организма также будет иной, нежели указывает автор статьи – не возвращением к одному внутреннему состоянию, но сменой потенциально бесконечного набора состояний, которые имеют общую цель
Я такого не говорил (с) Автор статьи
На самом деле, я с вами в этом вопросе согласен. Я и не говорю о возвращении к одному и тому же фиксированному внутреннему состоянию. Адаптация, безусловно, должна иметь место быть. Но, все зависит от того, насколько широко рассматривать понятие «внутреннего состояния». Например, любая эмоция или мысль — это часть внутреннего состояния человека, в таком ракурсе, человеку бессмысленно возвращаться к одной и той же мысли и эмоции в разных контекстах среды. Но! Есть параметры, следствием которых и являются и эмоции и мысли, такие как, например, уровень кислорода и глюкозы в крови, температура тела и т.д. Репертуар таких параметров гораздо уже, нежели репертуар таких сложных явления более высокого порядка, как мысли и эмоции. Тем не менее, эти параметры крайне важны для нашей основной «цели»: выжить/размножиться. Поэтому, гомеостаз никто не отменял. Цель определяет? Безусловно! Но как достичь цели? только через внутреннее состояние, потому как наша программа (ДНК, мозг) имеет доступ только к ним. Они принципиально изолированы от внешнего мира, как человек в КК. Это как раз то, о чем говорит автор предыдущего комментария: «Откуда берутся китайцы?»
А вот создать разум который может решать свои проблемы вот это конечно было бы интересно. Такому разуму нет нужды использовать человеческий язык для обмена информацией. Да и вообще так ли нужно общение ИИ? Что если ИИ будет в единственном экземпляре и нужды общаться с себе подобными у него не будет. Ему лишь нужно будет выдавать результат своей деятельности, не объясняя как он это сделал.
К примеру. супер-ИИ сканирует новости, видео, личные переписки миллионов людей, данные погоды, биржевые данные, данные разведки о положении войск разных стран разной степени лояльности, действиях ключевых фигур и их местоположении и выдает координаты для благоприятного положения авианосца с учетом всех этих параметров. Зачем спрашивать ИИ, а как ты догадался? Просто в нужный момент это положение будет как-никогда кстати. Началась заварушка, о! так у нас же авианосец поблизости. Мы не будем спрашивать почему он там оказался, мы будем принимать это как должное.
Два гопника дома еще только допили всю водку, у мужичка слесаря поздняя смена и он предпочитает снимать зарплату наличкой, они еще не встретились, а ИИ уже рекомендует усилить этот район для патрулирования полицией. К чему разговоры по Тьюрингу если можно просто оказаться в нужном месте, в правильное время, с достаточными ресурсами, информацией и подготовкой и выполнить необходимые действия.
Текстовое общение возможно было бы полезно в технической психологии. Но есть ли в этом смысл? Зачем решать проблему таким окольным путем. Для ИИ достовернее были бы данные биологических анализов организма, данные наблюдения за его жизнью с видео, аудио, переписки (тотальная слежка). Я не спец в психологии, но думаю что не всякий человек может достоверно описать что с ним не так. Если уж у него возникают проблемы то в этом то и проблема что хрен его знает от чего, как описать то что не осознаешь. Поэтому и смысла общаться ИИ со страдающим мало. Скажем ИИ выяснил что у Джима произошло расставание с желанным человеком, вместо того что бы контактировать с ним, скажем ии выведет сообщение освободившемуся от дел Питу «Стоит попить пивка с Джимом, вы давно не виделись». И для Пита это покажется настолько подходящей идеей что он скорее всего примет решение воплотить эту встречу.
Что-то вроде продвинутого механизма контекстной рекламы. Сейчас она, пока что, скорее вызывает вздох и закатывание глаз. Но далее думаю все будет работать гораздо лучше и превратится в чуткого официанта, который угадывает желания еще до запросов.
Выход из «Китайской комнаты» или может ли машина думать