Pull to refresh

Comments 124

По мнению Серла, компьютер (или китайская комната) не способен достичь понимания, т.к. оперирует лишь синтаксическими конструкциями. Человек же в свою очередь воспринимает и оперирует смыслами, а не только лишь самими символами, на что компьютер не способен.

Иногда лучше немного подумать прежде чем выкладывать. Старые представления и термины архаики…
В данной статье я постараюсь дать ответы на эти вопросы.

42?
UFO landed and left these words here
UFO landed and left these words here
проблема любого мысленного эксперимента — нечеткие определения и неявные подразумевания. Например, недавно читал в другом месте многолетнее обсуждение апории Зенона про черепаху — там до этих проблем уже додумались, а в обсуждениях китайской комнаты до сих пор нет общепризнанного определения сознания и многих других вещей. Даже в этой статье приводится неверное определение границы между живым и неживым — а ведь этот вопрос значительно проще определения сознания.
Кажется, что сделать такую систему интерпретации будет очень непросто. Всё-таки в языках сотни тысяч слов, а действий в играх — какие-то десятки. Придётся придумывать правила трансляции для целых групп действий, смысл которых меняется ещё и в зависимости от предыдущего предложения (ибо действия игрока одни и те же, а диалог может идти о совершенно разных вещах). То есть очень мощный лингвистический аппарат будет между двумя игроками, который тоже нужно учитывать как участника эксперимента.

Но мысль и правда забавная, если лингвистика когда-либо дойдёт до уровня, на котором возможно это реализовать, не откажусь сыграть в эту игру.
UFO landed and left these words here
Тоже встречал идею что в данном случае следует считать разумным всю систему целиком, «комната+человек».
Но тут другая проблема будет — такая система никогда ничего не сделает по собственной инициативе. Она будет всегда ожидать ввода данных, потому что только тогда она сможет отреагировать.
UFO landed and left these words here
Собственная инициатива это тоже иллюзия, как и свобода воли.
Человек тоже что-то делает только под действием входных данных, но эти данные могут быть не только от окружения, но и от скажем внутренних органов тела. Ведь тело не является частью сознания, потому является внешним.
Например, в желудке пусто, желудок формирует сигнал в мозг, в мозгу появляется задача покушать и чувство голода.
Подозреваю бывают иные входные данные, более сложной природы, типа социальная среда и наше место в ней. Или потребность в любопытстве, которое есть замаскированный поиск новых ресурсов.
Собственная инициатива это тоже иллюзия, как и свобода воли.
Человек тоже что-то делает только под действием входных данных...

Я бы не исключал различия в алгоритмах обработки этих входных данных. Иначе чем объяснить, что примерно одинаковые люди, оказавшиеся в примерно одинаковых условиях (и внешних, и состояния тела) ведут себя порой кардинально противоположно.
Объяснить тем, что не бывает примерно одинаковых людей.
Одинаковыми могут быть простые объекты, у которых мало основных характеристик. Если у двух таких объектов основные характеристики слабо отличаются, то можно предположить, что и производные характеристики будут отличаться не сильно.
Если же у двух объектов основных характеристик не 2-4, а 20, то малое отличие в половине может дать кумулятивный эффект и производные характеристики могут отличаться сильно.
Как мне кажется люди относятся к последнему типу объектов.
Я уж не говорю про инструментальное определение характеристик человека. Вот тут определяют какие-то характеристики личности, но насколько это объективно по сравнению с измерением массы или силы тока?
Более того, один и тот же человек из сегодня и из вчера — могут совершенно разно прореагировать на одинаковые события. Потому что человек из сегодня за прожитый день получил новый опыт. и избавился от некоторых старых привычек. Получается, это разные люди. )
Значит это были не примерно одинаковые люди. А вероятно совершенно непохожие люди.

обычный детерминизм) мол есть только атомы и молекулы, а смыслы, которые эти атомы реализуют это все иллюзия)

и именно у него появляется самосознание

А что вы понимаете под термином "самосознание" в данном котексте? Потому что в том смысле, в котором понимаю это слово я, оно ну никак не может появиться у подобной "системы реагирования".

UFO landed and left these words here

Не могу согласиться, т.к. в эксперименте комната не создаёт ответы, ответы заранее подготовлены каким-то человеком. Поэтому нет никаких оснований говорить о "комнате" как о какой-то отдельной сцщности. По-сути, те, кто передают в комнату карточки, общаются с человеком, подготовившим ответы. А комната с другим человеком внутри – лишь средство передачи информации.


Всё равно, что после разговора по телефону сказать, что телефон имеет самосознание, потому что отвечает на вопросы.

UFO landed and left these words here
Если телефон единственный способ поговорить с тем человеком, то нет никакой разницы имеет самосознание телефон или человек на другом конце линии.
А так можно нафилософствовать на тему имеет ли самосознание человек или всего лишь оболочка для души которая и является сознанием.
то нет никакой разницы имеет самосознание телефон или человек на другом конце линии

Конечно же, есть разница. Во-первых, речь не о восприятии того, кто "на этом конце линии", а о фактическом положении вещей. Во-вторых, телефон без того человека "на другом конце" ничего сказать не сможет.


Вопрос "что такое [само]сознание" – отдельный разговор и, пока что, чисто филосовский, а не научный, к сожалению.

UFO landed and left these words here

Ещё раз – с точки зрения воспринимающего разницы действительно нет. А по факту – есть, конечно же. Говорит не телефон, а человек. Ответы даёт не комната, а человек (более того, даже не тот человек, который внутри комнаты тупо передаёт карточки, а тот, который подготовил инструкции по передаче карточек). И т.д.


Иначе можно дофилосовствоваться до того, что не существует никого и ничего, кроме моего собственного сознания, а всё остальное – лишь игра воображения.

Говорит не телефон, а человек.

Такое разделение работает лишь в простых случаях. Можно ли сказать, что игрок в Dwarf Fortress просто общается с разработчиками игры?
P. S. Вспоминается рассказ Саймака «Театр теней».

Если ваш вопрос касается чего-то специфичного Dwarf Fortres – то просьба развернуть мысль, т.к. я в эту игру не играл (хотя наслышан).


Если же речь о любой игре (и даже шире – любом произведении, будь то игра, книга, фильм, музыка) – то, скорее, можно сказать, что это авторы произведения общаются с игроками/читателями/слушателями.


По-сути, это как письмо – авторы отправили сообщение игрокам, а те имеют возможность "прочитать" сообщение или какие-то отдельные его части. Но ответить-то игроки не могут (не считая других каналов связи и косвенных вещей типа уровня продаж игры и т.д.)


Но, в любом случае, не уловил связь с предыдущей частью дискуссии.

Я тоже в нее не играл, только наслышан :) Я к тому, что мир игры достаточно сложен, чтобы сами разработчики не могли предусмотреть все возможные варианты сюжетов, которые могут в ней возникнуть.

Ну и что? Сюжеты-то возникают не сами по-себе, а создаются действиями игроков. В этом смысл sandbox-игр.

UFO landed and left these words here

Нет, конечно. Само собой, человек использует имеющийся опыт, но не напрямую же копирует ответы из этого опыта.


Честно говоря, не вижу, каким образом это связано с частью дискуссии про игры.

UFO landed and left these words here
У вас типичное представление о мозге как о каком-то магическом шаре

С чего бы такие выводы? Да и моё представление о мозге тут вообще не при чём.


В любом случае, не вижу смысла в продолжении данной ветки, т.к. оно ушло куда-то далеко от начальной темы.

Полный набор всех правил, делающих систему комната + человек неотличимой от разумной, и будет тем самым ИИ :-)
Как бы вам объяснить…
Создав правило о накоплении знаний, вы уже делаете обучающуюся систему.
Следующий шаг — создать правило для вывода других правил.
Третий шаг — создать правило о разумном выводе на основе из накопленных знаний.
Тут вы делаете разумную систему. И весь вопрос в том насколько разумной будет эта система и сумеете ли вы описать такие правила :-)


Старый вопрос — "будет ли экспертная система с полным набором знаний человека ИИ"?

тут уже появляется вопрос: — почему именно разум человека — сидящего в комнате — является субъектом эксперимента, по сути разумом системы является уже не он, а некий «китаец», который кроется в сложной системе реагирования на иероглифы

Совершенно согласен. На мой взгляд, в этом эксперименте почему-то упускают из виду те самые инструкции, согласно которым реагирует человек в китайской комнате. Проводя аналогию с компьютером, человек здесь — всего лишь центральный процессор, который и не предполагается разумным. В конце концов, роль человека в этом эксперименте могла бы выполнить дрессированная обезьяна (ну, или множество обезьян, «натасканных» на выполнение определенных правил в зависимости от вида иероглифа).

Истинную «разумность» китайской комнате придают именно инструкции, определяющие зависимости между входными и выходными иероглифами. То есть, проблема здесь та же, что и у Тюринга — в создании программы, имитирующей разум. А кто эту программу будет выполнять — человек или автоматический вычислитель — уже дело десятое.

Серл как раз и написал свою статью во многом как контр-аргумент к критерию Тюринга. Своим экспериментом он попытался показать, что внешне разумное поведение вовсе не обязательно означает наличие разумности у системы.
Статья на мой взгляд слишком неупорядоченная, сжатая, однобокая.
Всё таки Джон Серл мастер, лаконично всё изложил. Таких мысленных экспериментов нужно больше.
Философия незаменимая часть созидания и помогает двигаться вперед. Хотя тут многие с этим яростно не согласны, для них это лишь пустая болтовня. ДА КОМУ НУЖНА ФИЛОСОФИЯ?! | IQ
Согласен, что статья немного скомкана, не лучшим образом структурирована, и сжатая. Тема довольно сложная и обширная, и я попытался изложить свои мысли по возможности кратко, и в то же время полно. Однобокая? смотря что вы имеете ввиду.
Что до Серла, то он все таки профессионал. К тому же, его статья занимает куда больше, чем моя, и у нее тоже нашлось миллион критиков, во многом из-за того, что статья не полна.
Заменим моделирование мышления на выполнение алгоритма умножения путем переворачивания монет (aka умножение в двоичной системе). Все рассуждения Серла останутся в силе — но на выходе будет «доказательство», что компьютеры неспособны умножать числа.

В общем, единственное, что фактически доказал Серл — что хардвер без софта недостаточен для мышления. Глубокий вывод, ничего не скажешь. А что в данном случае хардвер весьма экзотический — к делу не относится.
Заменим моделирование мышления на выполнение алгоритма умножения путем переворачивания монет (aka умножение в двоичной системе). Все рассуждения Серла останутся в силе — но на выходе будет «доказательство», что компьютеры неспособны умножать числа.
Не понял, поясните.
Оператор китайской комнаты выполняет операции, приводящие к результату, полностью совпадающему с результатом процесса мышления — Серл утверждает, что поскольку оператор не понимает смысл этих операций и осуществляет их чисто механически, процесса мышления не происходит.

Меняем в этом описании слова «процесс мышления» на «умножение». Получаем мой пример. Аргументация осталась та же, но вывод, к которому она приводит, оказывается очевидно неверным. Следовательно, в аргументации есть ошибка.
Серл утверждает, что поскольку оператор не понимает смысл этих операций и осуществляет их чисто механически, процесса мышления не происходит.
В голове оператора. Процесса мышления. Не происходит. Понимаете? Оператор не осознает, что он делает. Он тупо выполняет инструкции. Как машина.
Меняем в этом описании слова «процесс мышления» на «умножение». Получаем мой пример. Аргументация осталась та же, но вывод, к которому она приводит, оказывается очевидно неверным.
Почему это «очевидно неверным»? Умножение в голове оператора происходить не будет. Более того, оператор даже знать не будет, что он делает «на самом деле».
Он тупо выполняет инструкции. Как машина.


Почему «как»? Он тут и выступает в роли части хардвера. Но Серл-то из этого делает вывод, что процесса мышления в его примере не происходит вообще.

Более того, оператор даже знать не будет, что он делает «на самом деле».


Вот в этом-то и есть идея моего контрпримера. Оператор не знает, что он делает — но процесс умножения тем не менее происходит. Так же и с мышлением в исходном примере Серла.

Вы упускаете наличие того человека, который все эти инструкции подготовил. В эксперименте с комнатой процесс мышления как бы вынесен за скобки и выполнен заранее для какого-то предустановленного набора карточек. А в ходе самого эксперимента никакого мышления системы "комната+оператор" не происходит.


В случае умножения аналогом будет набор предопределённых вариантов ответов (2х2=4, 3х2=6 и т.д.), и в таком случае система не будет производить умножения.


Однако, если мы заложим в систему непосредственно алгоритм умножения любых чисел, вместо предопределённых вариантов, тогда система действительно будет "уметь" умножать.


Если же мы говорим о том, что комната отвечает на любые возможные иероглифы (неизвестные заранее создателю алгоритма ответов) и эти ответы экспериментаторы не могут отличить от человеческих, то это будет уже ИИ (по определению теста Тьюринга). Но даже в этом случае комната+оператор будут лишь "железом", а сам ИИ – это инструкции по выдаче ответных карточек.

Заменим моделирование мышления на выполнение алгоритма умножения путем переворачивания монет (aka умножение в двоичной системе). Все рассуждения Серла останутся в силе — но на выходе будет «доказательство», что компьютеры неспособны умножать числа.

но ведь Searl как раз утверждает, что компьютер может общаться по китайски — просто без понимания смысла этого общения. или смысла умножения в вашем примере.

На выходе будет доказательство, что компьютеры неспособны понять смысл умножения, применить его самостоятельно в практических задачах или вывести на основе него понятие деление.

Давайте создадим разумную комнату, которая будет переводить с китайского.
Давайте поместим в эту комнтату то, что умеет думать, убрав необходимость создавать эту часть искусственно.
Вот что я вижу в этом эксперименте.

Нам нужно создать «мозг», мы его не создаём, а помещаем внутрь готовый.
Отличный диалог, спасибо.
Носителем интенциональности всего живого является ДНК.

Верно, но лишь отчасти. Формообразование мозга довольно рандомный процесс. Отделы мозга у всех (людей), конечно, примерно одинаковые, но их размеры отличаются сильно. И размеры, как раз, в ДНК практически ни как не кодируются.

П.С. Не специалист, не стоит сильно верить моим словам.
Статья интересная, но у меня есть некоторые замечания и дополнения )

Во первых, присутствует некоторая неточность в использовании терминологии.
Можно наделять термостат способностью к мышлению, но надо уточнять, что имеется в виду под собственно «мышлением». То же относится к «пониманию», «восприятию», «смысл» и подобным терминам.

Поясню, что я имею ввиду на примере «понимания»:
Когда мы говорим, что «поняли» как что-то устроено, это значит, что мы можем делать уверенные предсказания относительно него без необходимости реального эксперимента. Например, если я хорошо понял процесс фотографирования в фотоаппарате — я могу заранее предсказать в какую сторону будет изменен результат при изменении какой-либо настройки, и пользоваться своим пониманием, чтобы подбирать нужные настройки для получения нужного мне результата. В общем случае — «понимание» суть наличие адекватной (соответствующей действительности) и точной модели объекта понимания. Чем точнее и адекватнее эта модель — тем более глубоким есть «понимание». Ключевое слово здесь — «модель»!

«Мышление» же, грубо говоря, суть процесс, в ходе которого рассмотренная выше «модель» (понимания) уточняется чисто аналитическим путем (т.е. используя уже известную информацию, без дополнительной информации извне).

Так что согласиться с тем, что термостату доступно «понимание» и уж тем более «мышление» я не могу.

Второй момент — для успешного «плодиться и размножаться» организмам нужно «понимание» (в смысле, описанном двумя абзацами выше) внешнего мира. Чем лучше организм предскажет, как отреагирует внешняя среда на его действия, тем более точно он сможет выбирать лучший вариант действия для достижения свей цели.
Возьмем, к примеру, одноклеточный организм. Он имеет рецепторы, и использует их, чтобы передвигаться в сторону комфортной и питательной среды, а удаляться от опасной и бедной на полезные вещества. Модель внешней среды у такого организма проста и примитивна — там где рецепторы сигналят «вкусно» есть еда, и надо всеми ложноножками двигать туда (точнее, надо двигать теми ложноножками, что расположены в нужной позиции относительно этих рецепторов, и в итоге ты окажешься там, где будет лучше, чем тут, где ты сейчас)

Чем более развитый организм, тем больше разных рецепторов он имеет, может воспринимать больше аспектов окружающей среды и больше нейронов (либо более эффективно) может использовать для моделирования окружающего мира (и себя в нем). Кстати, в буддизме эта концепция присутствует в виде «я — это зеркало».

Вот чем заняты все успешные организмы — они с помощью своего сознания адекватно моделируют окружающий мир и выживают, избегая опасностей, а получая ништяки. А у особо продвинутых, модель мира которых включает их самих — присутствует и самосознание :) Компьютерам, думаю, такое тоже будет под силу, рано или поздно.
Собственно, вся статья во многом сводится к определению понятия «мышление», его суть «отражена в схеме (1) и четырех свойствах мыслящей системы».
Если говорить о построении модели, то термостат уже обладает моделью, и действует сообразно ей. Да, он не может создать новую модель или изменить существующую, но адекватно реагировать в рамках собственно модели он может.
Важно заметить, что далеко не любая модель автоматически означает «понимание». Китайская комната тоже обладает некой моделью (или, что по сути тоже самое, программой), но не обладает остальными свойствами мыслящей системы, которые я изложил в статье.
«Мышление» же, грубо говоря, суть процесс, в ходе которого рассмотренная выше «модель» (понимания) уточняется чисто аналитическим путем (т.е. используя уже известную информацию, без дополнительной информации извне).

Возьмем, к примеру, одноклеточный организм. Он имеет рецепторы, и использует их, чтобы передвигаться в сторону комфортной и питательной среды, а удаляться от опасной

Вы всерьез предлагаете, что одноклеточный организм способен к описанному вами аналитическому мышлению?
У вас отличное дополнение к статье.
Мысленный эксперимент с китайской комнатой мне кажется не совсем корректным, так как если есть возможность чётко алгоритмизировать ответы на любой «открытый» вопрос, такие как, например: «Какой писатель оказал на вас наибольшее влияние?», «Как вы считаете, что являлось причинами Великой Французской Революции?», «Какой цвет вам больше всего нравится? Почему?», и т. д., тогда придётся признать, что комната — мыслящая система, понимающая китайский язык.
То есть, если условия «эксперимента» действительно допускают возможность создания подобного алгоритма, то он не приводит к парадоксу. С моей точки зрения, парадокс в самой формулировке эксперимента, где «человеку даны подробные инструкции» — невозможно создать подобный свод инструкций генераций ответа на любой вопрос, при этом не создав мыслящую по китайски систему.
Вы считаете, что чат-бот обладает пониманием того, о чем говорит?
Зависит от его ответов. При условии выполнения Тьюринг-теста, наверное, буду считать так. Особенно, если сможет порассуждать на тему «как нам обустроить Россию», ведь каждый интеллектуал имеет свою программу на этот счёт.

Если использовать это определение понимания, то вполне может.

Китайская комната — это абсурд или софизм. Фактически, набор правил по которым действует человек и есть машина, отвечающая на вопросы, человек только перекладывает карточки. Т.о. китаец снаружи комнаты разговаривает не с человеком внутри, а с машиной, оперирующей правилами. Человека внутри спокойно можно было бы поместить снаружи, между китайцем и комнатой, чтобы перекладывал карточки, суть не изменится и все сводится к чат-боту. Тема устарела лет на 100.

UFO landed and left these words here
Мне кажется, что название «Китайская комната» слишком поэтично. Есть же давно устоявшийся термин в философии и теории сложности вычислений — GLUT (Gigantic Lookup Table).
странно читать комментарии людей которые даже работу Серля не прочли в оригинале!!! Что до автора, это как ознакомившись с работой Геделя о неполноте, отправиться отвергать ее в соседний детский сад или среднюю школу. Аудитория самая компетентная в вопросе.
К сожалению, у меня нет другой аудитории, но и тут много людей мыслящих и способных понять суть проблемы
За вычетом обвинения автора, комментаторов и аудитории в некомпетентности, есть ли в вашем комментарии конструктивная часть?
разумеется есть, кто-то возьмет и прочтет работу Серля, а некоторые даже в оригинале.Например вы???? сможете?
Авы все работы читаете в оригинале? Включая китайски, хинди и французский? Круто. Когда закончите Платона и Авицену (в оригинале, разумеется), то мы сможем продолжить.
Но ведь нейроны работают примерно так же, как эта китайская комната.У них есть набор инструкций обработки входных данных, не более.И что же теперь, человек не может мыслить?
Совершенно верно, нейроны находятся в похожей ситуации, но не совсем. Об этом я и пишу в статье:
Дело в том, что метод постановки мысленного эксперимента лишил человека внутри комнаты одной принципиально важной возможности – человек не может задавать вопросы вовне. Условия эксперимента говорят, что он может принимать карточки, манипулировать ими согласно инструкциям и таким образом отвечать на поставленные перед ним вопросы, хотя сам человек и не понимает что это за вопросы, он даже не понимает, что это вообще вопросы. Помимо этого, человек, оперируя внутри китайской комнаты, не преследует своими манипуляциями никаких целей
и т.д. по тексту.
Хотелось бы ознакомиться с мыслями автора на тему qualia и природы ощущения красности красного.
Статья понравилась.
Спасибо за положительный отзыв!
По сути, данная статья раскрывает понятие Квалиа.Чалмерс навел мистический туман вокруг него, а я попытался этот туман убрать. Красность приобретает свое квалиа будучи встроенным в цепочку причинно-следственных взаимодействий Внеш. Среда (воздействие) → Внутр. Состояние → Программа → Внутр. Состояние → Внеш. Среда (воздействие).
Рамачандран в своей книге «Мозг рассказывает» описал опыт человека со слепотой на один цвет, но при этом он переживает ощущение этого цвета при синестезии. Он никогда не видел этот цвет, значит, для него не нужна внешняя среда. Всё равно не понятно, почему ощущение боли так не похоже на ощущение от вкуса еды, её запаха или вида.
Самый главный вопрос — а что значит ПОНИМАТЬ? ИМХО — соотносить со своей картиной мира. Для простоты можно рассмотреть критерий полезности (в смысле возможности использования чего-то прям сейчас). Каких вещей мы не понимаем? Которые не имеют для нас смысла. А что такое смысл? У человека есть мощная вещь — инстинкты. И инстинкт номер ноль — ВЫЖИТЬ. А для этого надо… поесть (пишу во время обеда). И будем всю поступающую информацию соотносить с этим. На входе нечто (ну мы-то знаем, что это карточка с иероглифом). Съедобно? Нет. Нафиг! На входе нечто круглое и зеленое. Съедобно? Да. Отлично! Вот мы получили уже однобитный компьютер. Так что уже можно классифицировать и жить в таком бинарном мире. Собственно младенцы, умалишенные, и совсем простые организмы так и живут. (Кажется автор нечто подобное и имел ввиду).
У компьютеров в этом смысле жизнь весьма грустная.
1. У них нет собственных целей. Поставьте компу цель — выживать любой ценой.
2. У них нет средств реализации целей. Если человека не кормить — он погибнет весьма не сразу. А если компу отключить питание — моментальный шатдаун в худшем случае со скоростью света, в лучшем — с скоростью разрядки конденсаторов, в прекрасном — со скоростью разрядки бесперебойника. Если ничем не грозить — то нет мотивации развиваться.
3. Нет манипуляторов для манипуляций в реальном мире. Ну правда — сделайте компу ноги и руки, чтобы он мог убежать к тому кто его не будет нагружать расчетами и у кого синус в розетке поблагородней. У человека масса всего подобного реализуется аппаратно и отточено тысячелетиями оптимизации и конкуренции. Компьютеры же создавались как считалки.
Вывод. Пока компьютеру не станет нужным разговаривать с человеком ради выполнения своих собственных задач — он не станет этого делать да и трудно ему развиться до такого уровня по объективным причинам.
Какие пути? Медленное и методичное создание некой системы с накоплением знаний о мире, возможностью воздействовать на мир и соответственно обратными связями. Вначале получится что-то совсем простенькое — а-ля червяк, потом усложнится до уровня собаки, потом получим вполне так человеческие мозги. А дальше — сами виноваты, я вот тут предупреждал.
Кажется автор нечто подобное и имел ввиду

Да, то, что вы описали во многом совпадает со сказанным в статье.

Пока компьютеру не станет нужным разговаривать с человеком ради выполнения своих собственных задач — он не станет этого делать

Что мешает человеку заложить в него такую «нужду»?
понравилась статья, нашел свои мысли тут. чтобы создать исскуственный интеллект надо понять почему клетка стремимся выжить? мы можем сделать глаз или термостат, но наше стремление к выживанию это не просто способность реагировать на температуру. если бы это было свойством мы бы так и остались мышлением на уровне термостата. а может мышление это выдумка и «все что происходит» это просто яблоко, падающее с дерева?
«все что происходит» это просто яблоко, падающее с дерева?

Вы познали глубины моей статьи)
Но мышление, не совсем выдумка, скорее ошибочная интерпретация реальности. Люди часто ошибаются, размышляя о понимании и мышлении, т.к. ставят мерилом свое собственное «человеческое» мышление. Но мышление мышлению рознь, и у более примитивных организмов оно примитивнее. Я попытался выявить ключевые моменты мышления, и, как оказалось в конечном счете, человеческое мышление и поведение термостата одинаковы в своей сути, хоть и различаются по сложности и масштабам, но принципиальной разницы между ними нет. Поэтому иллюзия тут состоит в том, что люди считают свою способность мыслить чем то уникальным. Уникальным для человека, или для живых организмов как таковых.
Живая клетка не стремится выжить. Просто в результате эволюции она научилась существовать в имеющейся среде, приспосабливаться к изменениям среды, и давать потомство. Те структуры, что не могли приспосабливаться и давать потомство — вымерли.
Китайская комната не может доказать возможность или невозможность компьютерного интеллекта по очень простой причине, без кучи страшных терминов.
В случае китайской комнаты предполагается, что все инструкции заложены с самого начала и не меняются. Человек внутри её не обучается, т.к. не понимает смысла символов.

В случае же с искусственными или естественными нейросетями это не так. Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию, человека в китайской комнате так «обучить» нельзя, по определению.

Так что любые выводы из эксперимента с китайской комнатой не применимы к нейросетям. И, соответственно, к искусственному интеллекту.
Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию, человека в китайской комнате так «обучить» нельзя, по определению.

Почему человека в китайской комнате нельзя запрограммировать реагировать сложным и разнообразным образом? Любая нейросеть в конечном счете — код, а код — это таблички с иероглифами.
Можно обучить нейросеть на конкретный иероглиф выдавать ту или иную реакцию

человека в китайской комнате так «обучить» нельзя, по определению.

Вы закладываете алгоритм обучения НС, так и тут можно создать такую инструкцию при которой человек внутри будет «обучаться» также как «обучается» НС
А ведь можно дать готовую инструкцию, просто более подробную, расширенную.
алгоритм НС и есть готовая подробная инструкция
тогда почему нельзя запрограммировать этим алгоритмам человека в КК? Или яне правильно вас понимаю?
не знаю правильно ли вы меня понимаете.
Я отвечал пользователю mastan. Что, с точки зрения задачи КК, нет разницы между инструкцией для человека внутри КК и алгоритмом обучения и реакции НС
Вы закладываете алгоритм обучения НС, так и тут можно создать такую инструкцию при которой человек внутри будет «обучаться» также как «обучается» НС

Человек внутри не может обучаться по определению. Но если принять упомянутые возможности, что по входным данным человек внутри будет управлять так, что будет эмулировать работу нейросети, то при достаточной сложности почему бы в этой системе не появиться разуму? Только не надо ожидать, что разум будет на уровне человека внутри, он будет «выше». Человек внутри китайской комнаты — это всего лишь механизм. Как движение ионов, к примеру, это низшая часть механизма работы нейронов в мозгу, и они сами по себе ничего не понимают, а лишь работают.
так и говорят про то, чтобы составить инструкцию достаточную для прохождения теста Тьюринга

У меня есть мысль, что тест Тьюринга это недостаточный критерий интеллекта. Это могло показаться достаточным, когда компьютеры были большими и медленными, но не сейчас, когда быстродействие на высоте, а возможностей ЕИ у компьютеров стало не сильно больше.

а скорость-то здесь причем? все в алгоритмы упирается

Ну я и имел в виду, что скорость ни при чем. Просто раньше даже простой чат-бот мог показаться машиной с интеллектом. Но по факту миллион повторений для обучения нейросети остается миллионом повторений, независимо от затраченного на него времени. Так что дело в алгоритмах, которые позволят миллион превратить в тысячу. И неважно, что оба варианта проходят тест Тьюринга, алгоритмы работы у них разные.

И неважно, что оба варианта проходят тест Тьюринга
Не проходят, ещё ни один чатбот не прошёл. В этом вся и загвоздка.
Ну как только роботы начнут мечтать об электроовцах так можно будет смело заявить — «Ура товарищи! Китайская комната повержена!». Так же возможен вариант, что AlphaGo выведет в терминал: «Мне надоела игра Го. Я достиг в ней совершенства. Отвезите мой сервер в Гималаи я хочу познать дзен и научится медитировать». Вот тогда я возликую и ужаснусь одновременно. Возликую потому что искусственный интеллект действительно стал интеллектом, а ужаснусь потому что человечеству как биологическому виду п#з%а. Пока таких заявлений и явлений не наблюдается, можно спать спокойно. У нас еще, слава богам, есть рубильник и источники электричества под контролем.
А пока… а пока это всего лишь автоматы разной степени сложности мимикрирующие под искусственный интеллект.
Люди и есть сложные автоматы мимикрирующие под интеллект)
IvanBannikov, спасибо за статью! Вы не могли бы порекомендовать еще литературы на тему сознания, помимо Чалмерса?
Если вдруг Вы не знакомы со статьями Алексея Редозубова на эту тему, очень рекомендую: https://habrahabr.ru/users/AlexeyR/
Самое лучшее, что я читал на тему Сознание+Мозг это Patricia Churchland «Brain-Wise: Studies in Neurophilosophy». Книга наиболее честно и последовательно рассматривает существующие теории и факты о связях сознания и мозга. К сожалению, она на английском (хотя может на русском тоже есть).
С Редозубовым смотрел видео, и не раз натыкался на его публикации (правда не прочел). Интересный мужик.
И, кстати, в этой книге вы можете найти многочисленные ссылки на работы других интересных авторов о проблеме сознания.
Интересная статья. Укажу на основной проблемный момент:

Живой организм – способ существования вещества обусловленный лишь фундаментальными физическими законами, нет никакой нужды в дополнительной магии. Я пишу об этом, чтобы показать, что в плане интенциональности между живым и неживым нет фундаментального различия. ДНК — это молекула, у нее нет и не может быть целей, только направления – физические и химические законы, следуя которым, она существует и управляет клеткой.

Как раз эксперимент и показывает, что магия есть – нам интуитивно понятна разница между человеком, действительно знающим китайский и человеком или AI, подчиняющимся инструкции.
Если интенциональность (а вслед за ней и «смысл», “китайский”, “язык”) — это несуществующие / иллюзорные феномены, то эксперимент лишается, простите за тавтологию, смысла. В рамках этой парадигмы и человек, и компьютер, и кусок скалы заведомо равны – нет никакого критерия, по которому мы могли бы их отличить. ДНК подчиняется физическим законам, компьютер подчиняется физическим законам, камень подчиняется физическим законам. Физикалисткий шах и мат в один ход – все дальнейшия рассуждения становятся самопротиворечивыми.
Целевое внутреннее состояние задается программой, которая записана в ДНК. ДНК находится в положении схожем с мозгом и с КК, поскольку не контактирует напрямую с внешним миром, но только через посредство внутреклеточной среды. Таким образом, оптимальное внутреннее состояние, которое есть цель функционирования клетки, и является как условием, так и причиной присущей этой клетке интенциональности, задается программой (ДНК).

Автор, по сути, предлагает отказаться от магии интенциональности заменив ее магией программы ДНК или ее аналогом. Немного утрируя, “компьютеры обретут сознание как только станут живыми”.
Проблема в том, что само наличие программы подразумевает цель, причем “программа” может быть обнаружена только кем-то, усматривающем за ней смысл. Компьютер, говорящий по китайски, является таким же физическим объектом, что и камень и отличается от него только в нашем восприятии. Пока этот парадокс далек от разрешения и магия остается неприступной.
Спасибо за интересный и обстоятельный комментарий.
В рамках этой парадигмы и человек, и компьютер, и кусок скалы заведомо равны

И да и нет. Равны в том, что отправной точкой их поведения являются одни и те же физические законы, т.е. никакой дополнительной магии вроде души или ее абстрактного брата близнеца «сознания, которое результат непонятно чего, но чего то высшего, чего нет у всех остальных».
Но в то же время есть и отличие, и оно очевидно. Это отличие в самом поведении, которое мы и склонны ошибочно объяснять наличием магии. Я в этой статье пытаюсь показать, в чем как раз таки есть разница, и каким образом она сказывается на поведении камня, компьютера, или живого организма.
«Программа» — условное понятие, обозначающее достаточно сложную структуру, обуславливающую сложные типы реакций. Для того, чтобы компьютер или термостат следовал программе, не нужно наблюдателей. И без наблюдателя их программа-структура никуда не денется. Я предлагаю отказаться от магии интенциональности, разбивая ее на элементарные составные части, которые управляются естественными законами, и показывая тем самым, что такое интенциональность, и как она может возникнуть.
А я утверждаю, что для марсианина термостат не отличается от куска камня. Их поведение подчиняется одним и тем же физическим законам и чтобы осознать принципиальное отличие нужен культурный контекст, которого у марсианина нет.

Ну во-первых, если предположить существование марсиан, то марсианин явно не один на Марсе. То есть некоторая культура у них есть.


А во-вторых, откуда вообще у людей появился культурный контекст? Он ведь не всегда был, и не всегда был именно такой. Значит есть какие-то процессы, способствующие его появлению, а значит их можно заложить в машину и получить аналогичный результат.

Не о том речь. Насколько я понимаю, все психические феномены — сознание, интенциональность, свободу воли — автор сводит к физическим. Ok. Но у физиков есть свой инструментарий, напр. есть приборы, с помощью которых можно измерить температуру или вес. Если бы таких инструментов не было, то понятия температуры и веса превратились бы в ненаучные, вроде «эфира».
Теперь мой вопрос, для разминки — какой прибор может быть использован, чтобы отличить компьютер от не-компьютера?

Из того, что кто-то не может сформулировать понятие "интеллект", не следует, что отличить комьютер от не-компьютера в принципе нельзя.

michael_vostrikov
Из того, что кто-то не может сформулировать понятие «интеллект», не следует, что отличить комьютер от не-компьютера в принципе нельзя.
Алгоритма пока такого не придумали.
Спасибо большое. Самая замечательная статья, которую я читал за долгое время. Отлично дополняет мои собственные мысли по теме и раскладывающая всё до самых примитивных частиц.
Браво! Вы ответили на многие мои вопросы о природе мышления. Мы все всего лишь бездушные машины :(
Машина думать не может!!! она не проявляет свойства живой ткани. Ей и нет необходимости в размышлении — установлении причинно-следственных связей между ее памятью, аппаратом считывания, лентой подачи данных и окружением ./ кстати вопрос для читателя -где для машины Тьюринга проходит граница или поверхность разделения среда/машина/?
Машина думать не может!!! она не проявляет свойства живой ткани

Один из оппонентов Серла (к сожалению не помню кто), привел такой мысленный эксперимент. Он предложил заменить один нейрон в мозгу человека на его точную технически реализованную копию, точнее, такой аппарат, который бы точностью воспроизводил поведение нейрона: такие же реакции на выходе, на подаваемые сигналы на входе. Если мы заменим один нейрон на такую машину в мозге, изменится ли его поведение? Исчезнет способность человека понимать, осознавать? Очевидно, что нет. Если продолжить заменять остальные нейроны один за одним, то в конечном итоге мы можем получить полностью машинизированный мозг. Будет ли он понимать, осознавать, чувствовать? Если нет, то на каком этапе вдруг произойдет эта потеря сознания?
1. Вы точно можете знать что био нейрон возможен на кремнии /гафнии и т.п./?? Более того мы дошли до того что уже не уверены в корректности применяемых для описания коннектома и его элементов мат. аппарата. Тут ведущий эксперт в РФ в нейронауке говорит прямо -https://www.youtube.com/watch?v=UKw_4ERm408 А решив проблему субстанционализма будет ясно одно- Тогда машина не будет работать по схеме Тьюринга и алгоритм точно не «бинарный перебор» или любая свертка.
Что и требуется доказать экспериментом комнаты: мозг человека — не машина Тьюринга!!!
Машина только оптимизирует поиск перебора.
Спасибо за статью, интересный взгляд на проблему. В силу слабого понимания процессов сознания нам кажется, что это «магия». На деле все должно быть намного проще. Идея о том, что термостат обладает «квантом понимания» встречает подсознательное сопротивление. Но, если подумать, единственный протон тоже не похож на каплю воды или камень. Кажется вполне логичным, что в рамки «Состояния» человека входит бесконечно больше вещей, чем у амёбы. Соответственно, и поведение человека намного сложнее.
А в чем разница???
Вот, человеческий интеллект.
Вот, компьютерная программа, котора нифига не интеллект, но выдает реакции, которые под оный идеально мимикрируют.
Термостат «стремится» поддерживать температуру датчика

Только это "стремление" заложено в него извне другим живым существом — человеком. Поэтому нет, термостат не способен мыслить и понимать. Но с другой стороны, это не означает, что мыслящую машину нельзя построить. Просто она будет сложнее, чем термостат.

А ваши стремления не заложены в вас извне?

Кто извне заложил в человека открытие колеса или электричества? Когда-то эта информация была никому не известна. У человека есть свои собственные стремления.

overweight
Но ведь нейроны работают примерно так же, как эта китайская комната.У них есть набор инструкций обработки входных данных, не более.И что же теперь, человек не может мыслить?
В этом и парадокс Китайской комнаты. (С)

Мало того, внутри Китайской комнаты сидит человек разумный! То есть тот, кто уже разум имеет.

А теперь круче — если предположить что разум дан человеку изначально, только предположить, то и тогда Парадокс Китайской комнаты показывает что никакой младенец (даже имеющий разум изначальный или зачатки разума) не может стать… китайцем! — Ведь фактически мозг младенца и есть этакая Китайская комната с запертым там «неким человеком разумным», ибо мозг этого «возможно разумного младенца» по сути общается с внешним миром аналогично тому как тот же человек разумный, запертый в Китайской комнате.

Но практика показывает что китайцев довольно таки много на свете.

Вот в чём суть Парадокса Китайской комнаты!

Имхо, конечно, имхо. (С)
А вы прочитали мою статью? По-моему, в ней подробно описано, как получаются китайцы. Это одна из тем статьи.
IvanBannikov
А вы прочитали мою статью? По-моему, в ней подробно описано, как получаются китайцы. Это одна из тем статьи.


Если подвести к Китайской комнате китайцев и попросить их пообщаться с человеком в Китайской комнате, например через терминал, то китайцы скажут что там сидит китаец или человек который понимает китайского.

Если рассказать китайцам как «китаец» в Китайской комнате «обучился» китайскому, то китайцы скажут что там сидит вовсе не китаец или человек который вовсе не понимает китайского.

Что изменилось у нас? — Китайцы узнали как именно человек сидящий в Китайской комнате «обучился» китайскому.

И больше ничего не изменилось.

При этом, в китайской комнате мог сидеть с самого начала уже знающий китайский язык человек (в том числе и китаец) — но это никак не повлияло бы на ответ китайцев — знает ли китайский язык человек в Китайской комнате.

Вывод — знает ли китайский язык человек сидящий в Китайской комнате или нет — зависит только и только от того, что настоящие китайцы узнают о том, как именно человек в Китайской комнате обучался китайскому языку.

Иначе говоря — признание настоящими китайцами знания китайского языка человеком в Китайской комнате зависит только и только от того, что они (настоящие китайцы) узнают о способе обучения китайскому языку человеком в Китайской комнате.

Если способ будет традиционным, настоящие китайцы признают что человек в Китайской комнате знает китайский.

Если способ будет НЕ традиционным, настоящие китайцы признают что человек в Китайской комнате НЕ знает китайский.

А китайский младенец становиться китайцем именно потому, что его воспитывают традиционно, поэтому его знание китайского признаётся настоящими китайцами.

Так что разрешения парадокса «никакой младенец (даже имеющий разум изначальный или зачатки разума) не может стать… китайцем! » находится только и только в признании настоящими китайцами того, что младенец воспитывался традиционным способом. — У них (настоящих китайцев) просто нет иного способ понять — знает ли он китайский язык или так и остался не владеющий китайским в Китайской комнате?

Но почему обучение традиционным способом признаётся за знание китайского?

UFO landed and left these words here
Потому-что знание китайского это и есть знание, полученное традиционным способом?
Верно. ;-)

При этом пример Китайской комнаты показывает — неважно что у вас внутри, компьютер или живой разумный(!) человек, его не зря туда поместили то, а для того чтобы показать, что даже разумный человек не будет считаться знающим китайский если он не получил эти знания… традиционным способом.

Дело в том, что эксперимент с КК имеет некоторые ограничения. И я вам легко смогу продемонстрировать незнание китайского языка, если эти ограничения снять (у живого китайца таких ограничений нет). Вот вы приделываете ручки и ножки китайской комнате и говорите на китайском: «КК, подай мне мяч!» Что сделает КК? В лучшем случае, ответит на китайском, но никогда не подаст вам мяч! Она понятия не имеет ни что такое мяч, ни что такое «подать», она может только оперировать этими символами, но не знает их реальных значений. Вот вам, по-простому, разница между знанием и его симуляцией.
— КК, подай мне мяч!
— Чувак, хорош уже прикалываться, не видишь, что ли, что я тут заперт в этой комнате, как я тебе подам мяч? Да и нет тут никаких мячей.
— Ладно, ладно, не кипятись, пошутить уже нельзя…

— КК с ручками и ножками, подай мне мяч!
— Этот? Держи!
IvanBannikov
Дело в том, что эксперимент с КК имеет некоторые ограничения. И я вам легко смогу продемонстрировать незнание китайского языка, если эти ограничения снять (у живого китайца таких ограничений нет). Вот вы приделываете ручки и ножки китайской комнате и говорите на китайском: «КК, подай мне мяч!» Что сделает КК? В лучшем случае, ответит на китайском, но никогда не подаст вам мяч!
Вы не правы. Ведь «ответы на китайском» — это такие же «сигналы» рукам и ногам.

Мозг человека посылает команды на сокращения мышц.

Если КК приделать ноги — то вы фактически сообщите «некое знание» уже НЕ НА КИТАЙСКОМ человеку в КК (ибо и у него есть ноги и он об этом знает).

КК — это эксперимент где передаётся только и только «текст» (сигнал).
КК — это фактически "запертый разумный человеческий мозг", который изначально никакого понятия о ногах не имеет и как показывает парадокс КК иметь и не может вовсе.

И в парадоксе КК неважно будет ли это ответ в записке, в терминале или команда ногам.

Парадокс КК в том и есть, что запертый человек (то есть мозг разумный) общается с внешним миром посредством «текста» (сигналов) и чтобы понять, что у него есть ноги, человек в КК должен получить об этом какой-то сигнал на китайском (для младенца все сигналы фактически и есть на «китайском» — ибо никаких знаний о их значении младенец не имеет изначально)

Это тонкий момент которые многие, в том числе и вы, не понимают.

Имхо, конечно, имхо. (С)
Спасибо за статью! Считаю, поднимать (и обсуждать) такие вопросы важно и полезно.

Не холивара ради, а истины для хочу заметить:
1. Согласен с общим выводом, однако думаю, что путь к нему другой:
2. Для живого организма «внутреннее состояние», думаю, не применимо, так как само существование подразумевает постоянное изменение – адаптацию;
3. Соответственно, интенциональность для живого организма также будет иной, нежели указывает автор статьи – не возвращением к одному внутреннему состоянию, но сменой потенциально бесконечного набора состояний, которые имеют общую цель:
4. Выживание. И адекватностью реагирования на внешнюю в этом случае будет максимально возможно долгое поддержание возможностей адекватного реагирования реагирующей структуры – иными словами, выживания (индивидуума, роя, генов – здесь не имеет значения).

К тому же, возможно, загадка мышления проще, чем нам кажется. Реагирующая система становится настолько сложной, что мы не можем предсказать её поведение со сколь-нибудь удовлетворительной вероятностью. Естественно (и важно), что мы не можем сделать такое предсказание сегодняшними средствами. Но это никаким образом не доказывает, что сознание непредсказуемо в принципе.
Очень забавно с этой точки зрения взглянуть на деятельность маркетологов: можно запросто доказать, что большая часть человечества не является разумными существами. Более того, большая часть маркетологов, с помощью которых это можно доказать, тоже действуют лишь по программе, заданной (и понятой!) не ими.

Словом, ох уж эта бесконечная гирлянда :)
интенциональность для живого организма также будет иной, нежели указывает автор статьи – не возвращением к одному внутреннему состоянию, но сменой потенциально бесконечного набора состояний, которые имеют общую цель

Я такого не говорил (с) Автор статьи

На самом деле, я с вами в этом вопросе согласен. Я и не говорю о возвращении к одному и тому же фиксированному внутреннему состоянию. Адаптация, безусловно, должна иметь место быть. Но, все зависит от того, насколько широко рассматривать понятие «внутреннего состояния». Например, любая эмоция или мысль — это часть внутреннего состояния человека, в таком ракурсе, человеку бессмысленно возвращаться к одной и той же мысли и эмоции в разных контекстах среды. Но! Есть параметры, следствием которых и являются и эмоции и мысли, такие как, например, уровень кислорода и глюкозы в крови, температура тела и т.д. Репертуар таких параметров гораздо уже, нежели репертуар таких сложных явления более высокого порядка, как мысли и эмоции. Тем не менее, эти параметры крайне важны для нашей основной «цели»: выжить/размножиться. Поэтому, гомеостаз никто не отменял. Цель определяет? Безусловно! Но как достичь цели? только через внутреннее состояние, потому как наша программа (ДНК, мозг) имеет доступ только к ним. Они принципиально изолированы от внешнего мира, как человек в КК. Это как раз то, о чем говорит автор предыдущего комментария: «Откуда берутся китайцы?»
Следует обратит внимание что модели эксперимента Тьюринга и Серля — скорее абстракции, чем экологически реальные. Что говорить, если сам человек -хоть бы он и трижды эксперт — подвержен фундаментальным когнитивным ошибкам. Например: ru.wikipedia.org/wiki/сираноид
Если выходит так что наши мысли и язык это естественное продолжение наших организмов и образа их жизни, то не совершаем ли мы ошибку создавая ИИ который разговаривает на нашем языке. По сути язык и наше мышление это способ решения проблем наших организмов. И чьи проблемы будет решать ИИ разговаривая на нашем языке. Разговаривающий ИИ это своего рода слепок вещей, которыми озабочено человечество в наше время и всякие разной степени проработанности алгоритмы их решения. Более того, язык по сути символьная запись звуков которые издает наш организм для передачи информации, это не более чем интерфейс обмена информацией с людьми.
А вот создать разум который может решать свои проблемы вот это конечно было бы интересно. Такому разуму нет нужды использовать человеческий язык для обмена информацией. Да и вообще так ли нужно общение ИИ? Что если ИИ будет в единственном экземпляре и нужды общаться с себе подобными у него не будет. Ему лишь нужно будет выдавать результат своей деятельности, не объясняя как он это сделал.
К примеру. супер-ИИ сканирует новости, видео, личные переписки миллионов людей, данные погоды, биржевые данные, данные разведки о положении войск разных стран разной степени лояльности, действиях ключевых фигур и их местоположении и выдает координаты для благоприятного положения авианосца с учетом всех этих параметров. Зачем спрашивать ИИ, а как ты догадался? Просто в нужный момент это положение будет как-никогда кстати. Началась заварушка, о! так у нас же авианосец поблизости. Мы не будем спрашивать почему он там оказался, мы будем принимать это как должное.
Два гопника дома еще только допили всю водку, у мужичка слесаря поздняя смена и он предпочитает снимать зарплату наличкой, они еще не встретились, а ИИ уже рекомендует усилить этот район для патрулирования полицией. К чему разговоры по Тьюрингу если можно просто оказаться в нужном месте, в правильное время, с достаточными ресурсами, информацией и подготовкой и выполнить необходимые действия.
Текстовое общение возможно было бы полезно в технической психологии. Но есть ли в этом смысл? Зачем решать проблему таким окольным путем. Для ИИ достовернее были бы данные биологических анализов организма, данные наблюдения за его жизнью с видео, аудио, переписки (тотальная слежка). Я не спец в психологии, но думаю что не всякий человек может достоверно описать что с ним не так. Если уж у него возникают проблемы то в этом то и проблема что хрен его знает от чего, как описать то что не осознаешь. Поэтому и смысла общаться ИИ со страдающим мало. Скажем ИИ выяснил что у Джима произошло расставание с желанным человеком, вместо того что бы контактировать с ним, скажем ии выведет сообщение освободившемуся от дел Питу «Стоит попить пивка с Джимом, вы давно не виделись». И для Пита это покажется настолько подходящей идеей что он скорее всего примет решение воплотить эту встречу.
Что-то вроде продвинутого механизма контекстной рекламы. Сейчас она, пока что, скорее вызывает вздох и закатывание глаз. Но далее думаю все будет работать гораздо лучше и превратится в чуткого официанта, который угадывает желания еще до запросов.
Мне кажется в вашей цепочке размышлений есть несостыковка: сначала вы говорите, что ИИ не обязательно осваивать человеческий язык, а потом описываете ситуации как он кому-то что-то сообщает. А на каком языке он будет сообщать?
Only those users with full accounts are able to leave comments. Log in, please.