Pull to refresh

Comments 90

Искусственный интеллект принципиально невозможен, пока кто-нибудь не разберется с тем, что такое сознание (ощущение собственного «я») и какова его роль в мышлении человека.

Замечу, что искуственный интеллект принципиально не может возникнуть ни в каком из современных цифровых устройств, даже если поставить параллельно триллион Пентиумов. Ибо все современные электронные цифровые вычислительные устройства (как CPU так и GPU) сводятся к конечному автомату, в котором сознанию просто негде возникнуть.

Про это в частности парадокс «китайской комнаты»:

http://panchul.livejournal.com/208337.html

В 1980-м году один из критиков искуственного интеллекта Джон Сирл (John Searle) выдвинул элегантный аргумент, получивший название «китайская комната». Предположим, что в будущем появилась версия программы «Элиза», говорящая на китайском языке настолько хорошо, что китайцы не смогли бы отличить компьютер от человека. Теперь предположим, что некто переписал бы эту программу в толстенную книгу с механическими инструкциями для человека – если видишь иероглиф A и до этого видел иероглиф B, то вытащи из ящика иероглиф C. Теперь посадим некоего человека, не знающего китайский язык, в закрытую комнату с этой книгой и будет просовывать ему под дверью таблички с иероглифами, содержащими вопросы на китайском. Следуя механическим инструкциям из книги, человек будет находить в ящике и просовывать обратно другие таблички с иероглифами. С точки зрения внешнего наблюдателя, комната будет «понимать» и «разговаривать» на китайском. Но кто же является носителем этого разума? Ведь исполнитель не понимает китайский?

Вполне вероятно, что ИИ не возникнет никогда за время существования человеческого вида (виды млекопитающих в среднем существуют несколько миллионов лет). Также возможно, что ограничения человеческого мозга не позволяют хомо сапиенсу создать ИИ примерно так же как ограничения мозга зайца не позволяют ему создать трактор.
Сравнение с китайской комнатой не корректно.
Можно тогда сказать и так, мозг понимает электрические импульсы, но они не разумны ведь? Так ко является носителем разума мозг или импульсы?
Для обитателей дома разумной будет комната, а какой механизм внутри неё уже никого волновать не будет. Тем более, что это все же не ИИ получается по такой схеме.
ИИ получится создать ибо мы может абстрагироваться, в отличии от зайца. Может посмотреть на проблему с другой стороны. В конце концов может создать по аналогии с мозгом машины и они при базовых программах сами научатся именно, что думать.
Проду вас ответить только «да» или «нет» на три вопроса:

1. Содержится ли сознание (ощущение собственного «я») в одном арифмометре?

2. Может ли сознание содержаться в триллионе арифмометров, соединенных шлангами?

3. Если ответ на первый вопрос «нет», а на второй «да», то при каком количестве арифмометров появляется сознание?

Замечу, что и арифмометр, и Пентиум, и «искуственные нейронные сети» — это частные случаи вот такого устройcтва, возможность существования сознания в котором неочевидна:


По крайней мере в триллионе капель жира сознание содержаться может. Чем принципиально хуже триллион арифмометров?
UFO just landed and posted this here
Ваш вопрос из философии, Когда несколько камней превращаются в кучу :) По вашим вопросам, ответ не будет корректным. ибо неизвестно как эти арифмометры устроены. при простейшем применении
1- нет
2-нет
3- не при каком
Но. Если их усложнить, то все возможно. Наш же мозг работает не просто считая. Он сложнее. Могу задать вопрос, один нейрон разумен? А много нейронов?
Не надо мешать в кучу качественные и количественные понятия :-) Разум не сводится к количеству нейронов и связей между ними, но связан с ним системно. А как — это великая проблема науки. Как говорил один очень умный человек, «не мозг думает, а мы думаем с помощью мозга». В принципе, можно провести такую аналогию. Хотим понять что такое операционная система и лезем в процессор. Смотрим под микроскопом. Видим огромные транзисторные поря, океан дорожек. Можем подключить фМРТ, посмотреть как там ток бегает, как транзисторы переключаются. Но операционной системы мы не увидим :-)
Но ведь операционная система — это не сознание, у нее нет ощущения собственного «я».

Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.

Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
Мы думаем мозгом, что думаем с помощью мозга :) Если без мозга не получается думать, значить думаем не с помощью, а и ним тоже. Кол-во связей в нейронах, сами связи и кол-во нейронов все же дают возможность сделать то, что иначе не получится. Животные разумны. Крысы, мыши и т.п. о чем-то своем думают. Так где граница между кол-вом и качеством?
Пример с ОС как раз хорошо подводит к мысли, что важно не только кол-во и расположение элементов, но и то как это все работает. Арифмометры в таком случае не подходят для сравнения. А если мы сделаем копию мозга, с нейронами, химическими связями и скопируем туда информацию с живого человека?

Подключившись к процессору через время выясним, что есть внешние управляющие команды.
«Границы» между количеством и качеством нет, это просто разные (логические) категории. Не в этих категориях нужно описывать деятельность разума, так как это язык философии, а не нейронауки. Чтобы обсуждать вопрос предметно, нужно дать инструментальное определение разума. Там и появится количественная мера, и можно будет выявлять системные свойства предмета (разума). Копию мозга сделать, как мне представляется, невозможно, здесь я согласен с Роджером Пенроузом. «Внешние управляющие команды» это безусловно важный шаг в понимании связи между ОС и структурой процессорных состояний, и нейронаука его сделала (функциональная карта мозга). Но шагов нужно сделать много, чтобы с этого уровня перейти на уровень описания структуры и алгоритмов ОС.
Это не разные понятия. посмотрите на разумность братьев меньших. Они все разумны по своему, но все же в целом есть градация от тупых до умных. философия штука хорошая, но очень она любит не решать проблемы, а создавать. Будет самосознание, будет и разум. А до тех пор будет только симуляция ИИ. По аналогии с ОС, не нужно анализировать только процессор. Как только мы выяснили, что есть внешние команды, нам пора идти туда откуда они берутся. Так шаг за шагом доберемся и до накопителя на котором записал весь код ОС. Разум все же насколько мы понимаем особенность работы нейронов и ихня взаимосвязь. Больше «свободных» нейронов — интереснее решение может получиться. Так уж получилось, что ун нас размер мозга и кол-во нейронов весьма велико для обслуживания нашего тела.Вот «излишками» и пользуемся.
Разум не требует самоосознания. В остальном согласен
Завис на третьем вопросе, что ответить «Да» или «Нет»?
Ну для начала неплохо бы тогда точно, во всех деталях определить, что такое сознание. А тогда можно будет назвать и точное число таких устройств, которые удовлетворяли бы определению сознания.

А по поводу третьего вопроса, допустим, что у вас есть деревянный корабль. С течением времени из-за износа приходится менять детали. Так вот возможна ситуация, когда в корабле не останется ни одной оригинальной детали. Так можно ли считать этот корабль тем же самым? Если совершить мысленный скачок от начала существования корабля в конец, то вроде как это совсем не тот корабль. Если же рассматривать его непрерывно, в каждый момент времени корабль остаётся собой, а значит и в конце он тот же самый. Так же и в вашем вопросе — если совершить скачок из совокупности 1000 до совокупности 1 000 000 000 таких устройств, то в начале нет сознания, в конце — есть. А между ними — это как посмотреть.
С кораблем есть еще один парадокс. Если мы будем менять детали не из-за износа, а просто вынимая их по одной. И затем из них постепенно соберем еще один корабль. В итоге, получим два разных корабля? Очевидно, да.
А какой из них тот что был первым?

А если телепортируем человека, в котором останется оригинальное сознание?
Поиск определения сознания и интеллекта уводит в сторону и пользы от этого нет.
Зачем строить матмодель и систему управления крыльями птицы, если можно поставить реактивный двигатель на неподвижные крылья?
Проявление интеллекта — умение решать задачи. Чем шире круг задач, чем более абстрактные задачи, тем выше интеллект. ТОЧКА!
Берем и повторяем, что и делается, начиная с просты проблем к сложным.

Google может запомнить все тексты интернета. Даже немного понимает их. Но не может решать логические задачи по этому контенту. IBM Watson может решать логические задачи, но плохо ищет.

У японцев ИИ уже может сдать вступительные экзамены в университет. Но это не сильный ИИ, а просто решатель, который можно использовать для усиления человеческого интеллекта.
«А какой из них тот что был первым?»
А можно определение слова «первый» в этом контексте? Ведь этот так называемый «парадокс» возникает только лишь из-за вольности трактовок.
_______________
Извиняюсь, не сразу понял посыл сообщения. Согласен с вашей позицией.
Так можно ли считать этот корабль тем же самым?


Считание его тем же самым — просто удобный способ мышления для человека, так как свойства его меняются незначительно, в реальности никакого «того же самого» корабля нет, как и нет никакого того же самого «Я».
UFO just landed and posted this here
1. нет
2. да
3. дело не в количестве, просто одного явно недостаточно

1. Может ли автомобиль состоять из одной молекулы?
2. А из многих?
3. При каком количестве молекул появляется автомобиль?
UFO just landed and posted this here
Как-то давно наткнулся на интересное обсуждение этого вопроса на dirty.ru. Конкретно этот комментарий:

Выход из затруднения сего довольно трудный, ибо самоосознание и самоощущения в принципе единственное что мы по настоящему может называть своей реальностью которая дана нам, вообще. Притекающие извне ощущения, воспоминания и даже мысли происходят в его фоне. Но если всё дело просто в сложном автомате, то где самоосознание у дверного звонка, который «рецептором» кнопки порождает реакцию биения мембраны? Тут мы стоим перед двумя выборами — признать самоосознание иллюзией, как, например, считают буддисты, но это мне лично кажется глубоко неудовлетворительным, ибо повторяюсь, ничего более реального у нас в принципе нет. Либо считать это неотъемлемым свойством вообще материи как таковой, типа если взять треугольник, то кроме треугольника в конфигурации материи возникает что то еще, что то присущее треугольнику и существующее по меньшей мере в своей какой то реальности, физической или нет, но не менее реальной, чем материя из которой треугольник сложен. Возможно… даже более реальной.

На самом деле, он немного выхвачен из контекста (да и это не весь комментарий). Прочитав всю ветку (и, возможно, прилегающие) мысль автора будет яснее.

И прошу прощения за некромантию.
Треугольник — иллюзия, и существует только в сознании людей, его так называющим. В реальности нет у объектов identity, как, собственно, и у нас, по этой причине если уж говорить о сознании материи, то о всей сразу, но тогда почему мы себя ощущаем отдельно от треугольника? Мы, это некие процессы, которые себя осознают, их в принципе и в компьютере можно повторить, если лучше понять этот процесс.
За буддизм не могу говорить, но он, вроде, не отрицает самосознание, он говорит о том же, о чём я написал выше — нет никакого постоянного Я, у нас нет identity, Я завтра — это другой Я, и в этом смысле нет никакого одного и того же Я продолжительностью во всю жизнь (а то и за её пределами).

http://psylib.org.ua/books/_torch01.htm
Ну зачем же так категорично? Для того, чтобы создать что-то работающее, не всегда необходимо полностью понимать принцип его работы. Возможно, разобраться с тем, что такое сознание, удастся как раз после того, как будет создан искусственный аналог мозга человека. Потому что его работу можно будет в мельчайших деталях наблюдать со стороны, чего с мозгом человека мы пока сделать не можем.
Парадокс, если мы можем воспроизвести мозг, значит мы уже можем в мельчайших деталях его наблюдать.
UFO just landed and posted this here
Никакого парадокса. Речь не идёт о создании модели мозга, которую мы достаём из коробки, включаем в розетку и она пишет нам «Анну Каренину». Основная работа будет сделана силами самоорганизации сложных систем, для которых нам нужно только создать подходящие условия.
Почему вы считаете, что просто увеличивая конечный автомат, в нем в какой-то момент появится ощущение собственного «я», которое есть у меня и вас.

Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.

Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
Почему вы считаете, что просто увеличивая конечный автомат, в нем в какой-то момент появится ощущение собственного «я», которое есть у меня и вас.

Я считаю, что если создать похожую систему и поместить её в похожие условия, то у неё могут появиться похожие свойства. И это обязательно стоит проверить.
Искусственный интеллект принципиально невозможен, пока кто-нибудь не разберется с тем, что такое сознание
Если никто не знает, что такое сознание, то и Вы не знаете. А если Вы не знаете, то и не можете утверждать, что для создания ИИ это необходимое условие. Может быть, нужно разобраться с сознанием, а может быть, можно и без этого обойтись.
Парадокс китайской комнаты исследует проблемы субъективного сознания, присущего человеку. ИИ вполне может иметь образ мышления, отличный от человека. Например, высшие приматы не обладают субъективным сознанием, но при этом обладают аналитическим и абстрактным мышлением — то же можно сказать и о некоторых птицах. Просто у них нет понимания «я» в том виде, в котором оно есть у человека. Сильный ИИ может быть похожим на них.

А еще бывает «разум улья», как у Гетов из Mass Effect — там тоже субъективным самосознанием и не пахнет, но интеллект есть.
Парадокс Китайской Комнаты ничего такого не исследует. Он является критикой формальных символьных систем, которые переживали буйный расцвет в те времена, когда Сёрль писал свою работу. Он очень ловко указал на то, что символ и смысл совершенно не взаимозаменяемы. Если брать примеры из настоящего, то все мы прекрасно понимаем, что Google Translate или IBMWatson не бельмеса не понимают в том, что они «говорят». Они просто шерстят по базе, используют статистику и тому подобное. Именно поэтому Google переводит так, как он переводит, и это неразрешимая проблема в рамках слабого ИИ.
Эта проблема называется «symbol grounding» — обоснование (или даже «заземление») символа. У человека символ, например «мама», заземлен в его чувственном опыте, который не символьный и не формальный. Какое бы определение одного символа через другие вы не дали, оно будет ничтожным по сравнению с пережитым опытом.
Именно поэтому одним из контраргументов Китайской Комнате был робототехнический аргумент — робот воплощен в среде, он не просто оперирует навязанными создателями символами по законам логики, но и в состоянии через чувственный опыт построить связь между словом и смыслом, использовать эти несимвольные и неформальные связи смыслов, что и означает «понимать».
Сёрль не принял этот аргумент, но, следует отметить, что философы и айтишники вообще слабо понимают друг-друга из-за несовпадения понятийного аппарата. Однако, сегодня многие согласны с тем, что наличие тела является необходимым условием для построения сильного ИИ. Не отстает и когнитивная наука — см. «воплощенное познание».
Пожалуйста не воспринимайте мой комментарий, как критику вашего. Это просто возможность высказать те жидкие мысли и знания, которые на статью не тянут. Однако, не могу не заметить, что вопрос самосознания понимаю несколько иначе. Мозг, очевидно, моделирует мир, чтобы предсказывать события и действовать соответственно, а также реакцию мира на свои действия. Здесь просто неизбежно он вынужден моделировать и себя, как часть мира. Свои способности, возможности, шансы. Без этого моделирование мира попросту не имеет смысла. Вот эта модель себя в себе заземленная в теле — и есть самосознание. Тут нет никакой особой тайны, хотя техническая реализация безусловно столкнется с огромными сложностями. Я уверен, что приматы таки обладают субъективным сознанием, хотя и не таким ясным, как мы. Ведь нам повезло, у нас есть символы, которые служат точкой кристализации, в которой все сходится, и есть буква «Я», и мы умеем ими оперировать.
Нам ведь не интересно, что чувствует человек, активируя символ «мама». Нам интересно, какой результат он выдаст в символьном в виде в ответ на символ. А это можно оцифровать, например в виде таблицы: символ → влияние на вычисление в формальной системе.
Мысль изреченная есть ложь — сказал поэт. Наша речь — это океан подразумеваемого, на поверхности которого торчат верхушки айсбергов — говоримых слов. Чтобы понять почему две верхушки оказались рядом, нужно нырнуть и узнать подводную часть льдов и течения. Извините за излишнюю образность, но нырять проще и правильнее, чем составлять таблицы вершин. Я сейчас написал вам абзац слов меньше килобайта, а в вашем мозгу возникли мегабайтные картины Антарктики и видео HD, вы нашли в них связи и смыслы, которые я хотел передать. Так мы и понимаем друг-друга. В самих по себе словах ничего из этого нет.
Почему машина не сможет поднимать HD видео и прочие ассоциации при обнаружении слова-якоря? И подавать всё поднятое на вход, создавая петлю, как делает мозг?
Никто не говорит о каком-то принципиальном ограничении машин. Конечно может, речь лишь том, что это будет за машина. Оторванный от среды вычислитель или воплощенный в среде автономный агент. И сегодня есть машины обосновывающие символ, если считать распознавание простейшим случаем обоснования. Например системы распознавания номеров автомобилей. Только, встав на этот путь, нужно идти до конца, реализовать и остальные чувства помимо зрения. Другая половина — это собственная активность. Как сказал один советский ученый: мысль — это свернутое действие, сам речевой акт — тоже действие. Поистине проще построить ИИ по образу и подобию своему, чем заставить невоплощенную в среде систему понимать то же, что и мы.
Да существуют узкоспециалированные решения, способные конкурировать с человеком, типа, той же системы распознавания номеров. Но ей по сути и не нужен наш опыт, он и нам не нужен в этой задаче, ибо номера от него слабо зависят. А вот в автоматическом переводе обоснованные символы — это то, чего крайне не хватает гуглу.
Спасибо за разъяснение!

Об отсутствии субъективного самосознания у приматов я упомянул, опираясь на кое-какие факты и домыслы из того, что я читал о зоопсихологии. Например, я где-то читал, что ряд экспериментов косвенно указывает на отсутствие понятия «я» в психологии приматов. В качестве примера можно привести тест Салли-Энн, разработанный для выявления способности индивида приписывать другим ложную уверенность. Шимпанзе бонобо, например, проваливают этот тест в 100% случаев. Многие специалисты считают, что это можно считать следствием того, что в сознании обезьяны отсутствует сегрегация собственного субъективного «я» от всех «остальных».

Эта же гипотеза, кстати, предлагает ответ на проблему «молчаливых обезьян»: как известно, приматы, обученные той или иной речи, сами никогда не задают вопросов по существу, хотя понимать и отвечать на вопросы людей они вполне способны, и сама концепция «вопроса» им понятна. Если у примата нет понятия субъективного обособленного «я», то нет и понятия частного знания. То есть: «если этот что-то знает, то и эти тоже знают; если этот не знает — эти тоже не знают», — таким образом, смысла задавать вопрос просто нет.

Вообще, очень интересная тема для диванно-дилетантского разбора, прям обожашечки
Спорный уже вопрос. Про Салли и Энн вот в Википедии нашлась статья «Модель психического состояния человека» (theory of mind), в самом конце которой описан забавный эксперимент, который вроде как показывает, что обезьяна вполне в курсе, что у кого на уме. Опять же знаменитые «зеркальные нейроны» не уникально человеческая штука.
Не суть. Вообще, я вдруг понял, что меня, как сторонника т. н. восходящего подхода к ИИ, как-то не особо интересовали некоторые вещи. Ну как, человек ведь вот рождается и у него есть мозг, способный принять язык, культуру и знания. Кажется задача создателя ИИ — это именно воссоздать такой мозг в железе, не более, остальное сделает обучение. Да, точно так же, как у людей — это выглядит наименее затратным путем. Поэтому у меня свое, досимвольное и функциональное определение самосознания. Это как некий театр в воображении, где развивается некое действие, в котором носитель этого мозга — главный герой и действие совершается от его лица. Определение довольно скудное, можно предположить, что большую часть времени братья наши меньшие находятся вообще без сознания, но оно есть и допускает развитие. Иными словами, пойми и сделай базу, остальное сделает воспитание.
Но! Нам действительно нужен некий языковый ad-hoc. Язык делает человека человеком, он просто форматирует мозг, дает онтологию и дает мыслям стой. В эту сторону я никогда особо не думал)
Нарративные шаблоны в человеческой культуре плюс «проигрыватели» этих шаблонов в человеческом мозгу создают информационную систему для возникновения целенаправленного волевого акта индивида в интерпретации другого индивида. Человеческий ребёнок хочет услышать, чем закончилась сказка вне зависимости от её эмоционального наполнения (даже если продолжение, судя по всему, страшное, незаконченность рассказа оказывается страшнее). Вероятно, сила этого встроенного «рефлекса продолжения рассказа» и отличает нас от обезьян, порождая самоусложняющуюся сигнальную систему, превратившуюся в комплексную культуру с множеством социальных ролей и целей деятельности. Сознание — это рассказ о себе самому себе, индуцируемый базовой генеративной грамматикой, прошитой в нашем мозгу эволюцией, и постоянно дополняемый («обучаемый») внешними сигналами. А у обезьян, судя по всему, «проигрыватель» нарратива подчинён другим нейронным комплексам и включается реже.
Мне кажется, в первом абзаце вы путаете сознание и самосознание. Если нет, то зачем ИИ-мировому лидеру осознавать себя? Если подумать, это может быть вредно для человечества.

Далее вы действительно говорите о сознании. Как мне кажется, поведенческую модель искусственного существа можно свести к некому набору «возбуждение-реакция», набору поведенческих шаблонов. Интеллектуальное существо может эти шаблоны менять, развиваясь и адаптируясь к внешней среде. Широтой мышления можно считать то, насколько сильно существо может поменять реакции на внешние раздражители. А уровень интеллекта — то, сколько факторов существо принимает во внимание при принятии решений.

Для внешнего наблюдателя это будет выглядеть и работать как разумное существо, умеющее принимать взвешенные решения. Если решения будут правильными, зачем моделировать собственно _сознание_?

А вообще, мне думается, что предложенная модель во многом справедлива и для человеческого мышления.
Частично согласен — с тем тезисом что сейчас ИИ НЕТ! А с тем что это невозможно — не соглашусь. На счет комнаты — это неверное суждение (Сирла). В этом случае «интеллектом» будет книга-инструкция. Однако её нельзя назвать интеллектом в полном смысле. Ведь если разуму задать один и тот же вопрос n раз, то все разы или часть из них ответ будет разный. (как минимум, после n-ного раза он скажет — «да пошли вы на...»). Если «программировать» такое поведение, то объем книги будет не «очень большим», а бесконечно-большим. Я бы сказал, что ИИ — это некий механизм, ищущий ответы на вопросы, на основании суммы имеющихся данных, а так же постоянно пополняющий эту библиотеку. Вот когда подобный конечный автомат будет формализован, тогда и появится ИИ. Правда это несколько скороспелая формулировка, наверное есть еще некоторые необходимые свойства. В конце концов, в утилитарном смысле, нам не нужен ИИ, который бы занимался самокопанием и был занят муками типа «быть или не быть». Надо чтобы он НАХОДИЛ ОТВЕТЫ НА ВОПРОСЫ, которые для человека либо слишком сложны, либо слишком просты и скучно-рутинны (но одновременно слишком сложны для простых автоматов), вроде погрузки ящиков или закручивания гаек-болтов (ИИ роботов- обслуживающих дроидов из вселенной star wars). В общем-то именно такой примитивный ИИ нам больше всего и нужен. Чтоб поменьше работать и побольше развлекаться.
Книга не обязана быть бесконечно большой для того, чтобы ответы на один и тот же вопрос были разные, достаточно обладать памятью и ссылаться на не в алгоритме (например, можно запоминать состояние диалога в расположениях табличек внутри комнаты).
Для конкретно этого — не обязана. Но таких ситуаций может быть бесконечное множество — вот потому и книга должна быть бесконечной. А если нет, значит книга и будет тем интеллектом! Значи тот кто её написал — нашел таки способ формализованного описания мышления!
Но кто же является носителем этого разума? Ведь исполнитель не понимает китайский?


Очевидно, комната целиком. Электроны/протоны/нейтроны в человеке тоже ничего не понимают, а поди ж ты.
Тут есть большая разница. В человеке есть сознание, ощущение собственного «я». А в конечном автомате, как его не увеличивать в количестве состояний и переходов ощущение собственного «я» не возникнет. Если вы считаете, что возникнет, то на каком основании?

Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.

Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
А в конечном автомате, как его не увеличивать в количестве состояний и переходов ощущение собственного «я» не возникнет.

Почему?

Если вы считаете, что возникнет, то на каком основании?

А на каком основании оно возникает в человеке? Неужто от того, что у него не конечный автомат, а нейроны?
На мой взгляд, «Китайская комната» не учитывает один важный элемент — высокий уровень абстракции. Да, человек там никогда ничего не поймёт, но он в текущем эксперименте и не должен.

Представьте себе аналогию из реальной жизни. (прошу к деталям не придираться — прошу мысль попытаться понять)

Есть птица — ей становится холодно, она благодаря инстинктам прибивается к косяку и летит туда где тепло. Это то как видит это птица (аналог человека в «Китайской комнате»).

Но мы, глядя на всех птиц видим что они целыми полчищами улетают на юг. Совершенно разные косяки птиц не связанные друг с другом по одним и тем же законам совершают перелёты. Мы видим какие-то ещё закономерности на высоком абстрактном уровне над этими птицами. Мы видим, глядя на картину в целом больше информации, чем эта птица. А раз мы видим больше информации — значит этой информации содержится больше. Это и есть первый шажок в сторону сознания, на мой взгляд.
Мне платят зарплату за создание и верификацию конечных автоматов в железе. Я лично не вижу, ни c каким уровнем абстракции, как в конструкции из гейтов и флип-флопов может появиться ощущение собственного «я», даже если сделать ее очень-очень сложной и многоуровневой.

Если вы считаете, что ощущение собственного «я» — это не часть интеллекта, тогда ИИ на транзисторах и программах построить можно.

Но вы уверены, что ощущение собственного «я» — это не часть интеллекта? Современная наука этого просто не знает. И вполне может никогда и не узнать.
Как один из вариантов существования собственного я — его возможно как такового вообще нет — возможно это лишь высокоуровневый ответ на раздражители.

Что мы называем самосознанием? То что мы физически чувствуем себя (чувствуем свою голову), можем себя идентифицировать в окружающем мире, можем на него влиять и получать ответную реакцию.

А если мы представим что человек родился слепым, глухим, без обоняния, осязания, чувства вкуса. Что он даже не чувствует своего дыхания. Т.е. нет не единого раздражителя на протяжении жизни. Следовательно нет самоидентификации, отсутствуют причинно-следственные связи. Вопрос — будет ли самосознание?

Я вижу самосознание как следствие работы интеллекта, воздействия на мир и ответных реакций (инстинкты как унаследованные реакции).

Я абсолютно не вижу преград в том чтобы создать робота-младенца, а потом его воспитать. И он так же может получить датчики которые ему позволяют чувствовать свою голову, самоидентифицировать себя в этом мире, влиять на него и получать ответную реакцию.
И, естественно, мы при его создании отвязываем его от низкоуровневых операций — из серии послать два байта, чтоб согнуть руку. Есть центральная система которая получает сигналы в закодированной системе подобно человеку — тепло, холодно, больно, приятно и принимает решения о дальнейших действия основываясь только на них.
А как тогда ощущение собственного «я» образуется от химических реакций простых атомов? На нижнем уровне там не сложнее.
Конечно сложнее. Квантовая механика атомов сложнее чем правила конструирования конечных автоматов на уровне регистровых передач.

Но сложность к делу не относится. Существует какая-нибудь хрень, которую ученые еще просто не нашли, и которая и объясняет сознание.
Технически оно сложнее (с точки зрения миниатюризации), но в конечном итоге всё сходится к простейшей логике которую можно реализовать в железе.
Интеллект отличается от просто библиотеки тем, что способен порождать новую информацию
И если кто-то не сможет отличить человека от простого механизма при разговоре — значит лишь, что человек далеко не всегда пользуется своим интеллектом.
Хорошо. Но все электронные устройства современности построены как эта самая библиотека с функцией выбора.

И вы ушли от ключевого вопроса: сознание (ощущение собственного «я») — это часть интеллекта или не часть?
Для интеллекта не требуется самосознение. Например, работая «в потоке», я полностью погружаюсь в код и забываю про своё я и тело. Через несколько часов тело может напомнить о себе, что пора сменить позу, а то ноги затекли, но интеллектуальной деятельности эти сигналы только мешают.

Нужен ли нам ИИ, который обладает самосознанием, инстинктом самосохранения, эго? Не нужен, если будет ИИ, способный полностью погрузиться в поставленную задачу и решать её не хуже человека.
Сознание — это не часть интеллекта, но без интеллекта не может быть проявлено.
точно так же как температура существует и без термометра — но узнать о её наличии без какого-либо датчика никак.
Если никто еще не понял, что такое сознание, то как вы можете утверждать, что это не часть человеческого интеллекта? Может это его центр, назаменимая часть.
Бритва Оккама. Если интеллект — способность решать задачи, то зачем тащить лишние сущности в этот процесс.
Бритва Оккама не даёт ответа, это лишь принцип, по которому надо выбирать наиболее простое объяснение среди тех, которые одинаково хорошо объясняют что-либо.
Т.е. если у вас есть серии экспериментов, которые пока что отлично объясняются тем, что сознание и интеллект отдельны, то логично предпочитать более простую теорию до тех пор, пока не обнаружатся какие-то противоречия.
И это ещё как развернуть тут бритву оккама. Зачем вводить отдельно «сознание» и «интеллект», да ещё утверждать, что для второго не требуется первое, если мы второго отдельно и не видели?
Почитайте комментарий, на который я отвечал.

Я не принимаю аргумент, потому что могу заменить в нём «сознание» на чайник Рассела и сказать: «Если никто еще не понял, что такое чайник Рассела, то как вы можете утверждать, что это не часть человеческого интеллекта? Может это его центр, назаменимая часть».

Зачем вводить отдельно «сознание» и «интеллект», да ещё утверждать, что для второго не требуется первое, если мы второго отдельно и не видели?

Потому что эти понятия имеют разные определения и существенно разные свойства. И то, и другое, есть по отдельности (разве что интеллект слабый, если взять в пример Wolfram Alpha)
На мой взгляд, нельзя вот так заменять на «интеллект слабый», у нас речь конкретно про человеческий. Можно же тогда таким же образом ввести термин «слабое сознание», наделить его какими-то свойствами, а потом привести такой же аргумент.
Вот если был бы человеческий интеллект по отдельности — тогда да. Или если было бы равенство возможностей интеллекта человеческого и слабого, тогда можно было бы сказать, что сознание ему не нужно. А так может оказаться, что для такого же интеллекта сознание будет необходимо (хотя лично я так не думаю).
А так это как будто «у нас есть сознание отдельно, ну то есть не сознание конечно, а калькулятор, но всё же».
Кстати, только обратил внимание, а где есть отдельно сознание?
Пока у нас нет понимания что это такое — мы просто не в состоянии его обнаружить.
Только в комплекте с интеллектом, когда оно само может сказать о своём наличии.
Вчера, когда писал был в голове какой-то хороший пример. Но сейчас не могу вспомнить.
Приходят на ум только осознанные сновидения.
Мне казалось еще со времен Юнга более менее четко формализовали, и сделали деление на эго (животная часть), и суперэго (то что вы назвали сознанием), где суперэто — эволюционное (хоть и очень тормозное) приобретение дающее возможность абстрактного мышления, при этом не обладающее реальной властью, но работающее как инструмент для нахождения нестандартных решений.

Ну и относительно поста получается что задача постгуманизма, оторвать суперэго от тела и мозга и засунуть в носитель получше.
Это все хорошо, но верите ли вы, что сознание может возникнуть у устройства, построенного на гейтах и флип-флопах (как все цифровые устройства современности), если просто насыпать их достаточно много?
Верю что можно собрать искусственную систему достаточно сложную, чтобы ее можно было обучить вплоть до возникновения самоосознания (имею в виду скопировать структуру мозга на искусственные нейроны, т.е. можно собрать и запустить не до конца понимая почему оно работает).

UPD. Собственно если в это не верить, получилась бы другая вера, в наличие скрытых параметров (души), которые проявляют сознание.
Переложение «китайской комнаты» на язык геометрии.

Рассмотрим квадрат. Многие думают, что квадрат квадратный. Но это заблуждение, и я это сейчас докажу.
Квадрат состоит из 4 отрезков. Рассмотрим каждый из них. Он квадратный? Очевидно, нет. Итак, ни в одном из отрезков, составляющих квадрат нет никакой квадратности, а в квадрате нет ничего, кроме этих отрезков. Ergo, в квадрате нет никакой квадратности! Ей просто негде в нем быть! Квадрат — не квадратный! Q. E. D.
Китайскую комнату можно было представить для программ, которые писали в 80-х — просто набор инструкций. Если взять более-менее сложную нейросеть, то написать такую книгу с инструкциями сразу становится в разы сложнее, если не невозможно — даже создатели нейросети могут затрудняться сказать, что ответит сеть на определенные входные данные.
Это наивный аргумент. Когда нейросети реализуются на компьютере общего назначения, пишется программа на Си, которая транслируется в команды процессора и в конечном итоге нейросеть — это тоже последовательность инструкций типа add r1, r2, r3 или там beq r4, r5, label, работабщего на процессоре общего назначения — конечном автомате.

Даже когда вы реализуете нейросеть не на фон-нейманновском процессоре, а на ПЛИС/FPGA, где все паралелльно — это все равно не поможет — это тоже конечный автомат.

Попытки каким-то образом навалить побольше одеял на голую истину, что нет никаких фактов в пользу возможности возникновения сознания в конечном автомате — это не способствует просветлению.

Кстати, вы в курсе, что в 1980-е тоже были нейросети? Я аккурат в то время был студентом ИИ группы в МФТИ и нейросети как раз входили в локальную моду (потом правда о них забыли на 20 лет, а сейчас снова вспомнили).
UFO just landed and posted this here
Приведите пример программы, которая «не действует по шаблонам». Все программы — это цепочки из команд процессора типа типа add r1, r2, r3 или там beq r4, r5, label или lw r5, 10 (r4). Просто у одних шаблон большой, а у других — поменьше.
Пока не изобретут «прорастающие» нейросети (как в серии шахтер) УИ не будет. Любая текущая операция даст только контакт с поверхностью мозга. Нам же нужны миллионы контактов компьютер-мозг внутри мозга.
ну почему сразу внутри мозга.небольшая накладка на черепушку с кучкой точек дистанционного воздействия на какую-то область мозга… сложно сказать но направления нейроинтерфейсов интуитивно кажутся верным направлением
воздействие все жен точечное подключение, да и устройство должно и получать информацию и передавать и обрабатывать, не вызываю перегрузок по информационному потоку.
Offtop: мне вот интересно, каким местом думают «пиривотчеги» когда переводят название фильмов. Тот же Limitless перевели как «Территория тьмы» в российском прокате. Или сериал Lost — «Остаться в живых».
Сорян, наболело.
Это не совсем верно называть переводом. Скорее они называют фильм заново. Потому что часто точный перевод на русский совершенно не звучит или ассоциируется с чем-то другим.
Насчет Lost не уверен, а Limitless — «Области тьмы» потому что книга по которой снят фильм называется Dark Fields.
зачем пихать эти электроды? Лучше бы научились новые нейроны выращивать и связывать их с уже функционирующими. Тут и с этикой проблем не будет, т.к. все может проходить под эгидой борьбы с aльцгеймером, паркинсоном и т.п. и добровольцев тьмa и до УИИ один шаг-думаю, лишних 200-300г правильно функционирующих нейронов вполне хватит для появления Элджернонов.
Утопическая идея, усиление УИ пока ИИ не создано, а ИИ не создано до тех пор, пока мы не понимаем каким образом работает наш мозг. Все очевидно ведь
Очень интересно что этим вопросом кто-то так углубленно занимается, но вот данная статья мне кажется слишком наивно-оптимистичной. Во первых, сама идея вживить в мозг миллионы электродов — это что-то вроде нейростимпанка… Как идея сделать самолет из колес и поршней от паровоза, при этом увеличив его размеры до небосреба. Или лететь на луну на воздушном шаре. Иллюстрация — попытки «подключить» электронную камеру к зрительной области мозга. Пока речи об аналоге естественного зрения даже не идет — способность различать крупные объекты — уже достижение. То же самое — с бионическими протезами. Это всё грубое подобие, а вы говорите об усилении и чего — самого тонкого и сложного, что только есть в организме — сознания! Всё это безнадежная фантастика на данном этапе. Пока стоит сосредоточиться на разработке простых имплантов, типа тех же контроллеров утраченных конечностей и органов чувств. Вот когда технология будет отточена до совершенства и начнет превосходить естественные органы, тогда можно будет замахнуться и на «святое». Не ранее чем лет через 50-100, если не наступит ислам всея земли.

И по поводу ИИ.

«Искусственный сверхинтеллект, в свою очередь, возможно создать с нуля и просто вписать в него возможность следовать набору собственных мотиваций в пределах тех, которые будут в него заложены, с акцентом на доброе начало и стабильность, развиваемые за счет положительной обратной связи.»

Это тоже наивно. Это подробно рассматривал Лем в «Сумме технологии», конкретно в части «Интеллектроника». В кратце говоря, он пишет, что ИИ не обязательно должен быть злонамеренным, чтобы сделать что-то античеловечное по нашим меркам. Может случиться так, что по сложной цепочке какое-то существенное улучшение для всего человечества может быть достигнуто применением некоего «плохого» действия. Причем то, что оно «плохое» ИИ может и не догадаться. Или последствия будут столь отдаленными что их невозможно предсказать. Но это надо читать — так на пальцах не объяснишь. Да и люди постоянно сталкиваются с проблемами такого рода — заключение в тюрьму преступника — насилие над личностью, но если этого не сделать, будет еще большее насилие над другими людьми. Вот недавний случай. Некто искренне считал, что любовь между однополыми людьми — ужасный грех и решил принести немного света в этот грешный мир с помощью нескольких огнестрельных стволов. В свою очередь полицейские принесли мир его бренному телу с помощью своих стволов. Они плохие? Или он? Или эти педики? Или все хорошие? Что вообще творится в этом безумном мире? При подобных заморочках ИИ может искренне решить, что главное зло в этом мире — люди и из самых добрых стремлений в основе своего устройства посчитает что самым гуманным будет быстрое и безболезненное уничтожение человечества. И я с этим даже спорить не буду, однако не соглашусь с таким решением проблемы.
Цитата: «Ключевая проблема — разработка эффективных технологий производства. Сейчас мы пока даже близко к этому не подошли. Еще один подводный камень — выяснение того, за что конкретно несет ответственность каждый отдельно взятый нейрон, и определению точного месторасположения этих нейронов в мозгу отдельно конкретного человека. И эта задача пока кажется бесконечно далекой от реализации...»

Если задача «кажется бесконечно далекой от реализации», то речь идет об утопии. А о том, чем такая утопия может обернуться в реальности см. рассказ Д.Киза «Цветы для Элджернона»…
Настоящая цель в развитии УИ — это скорее создание «супер-Эйнштейнов», людей на порядки и качественно умнее любого человека из когда-либо живших на Земле.

«Супер-Эйнштейн» — это значит обдумывать одну тему не в свободное время, а непрерывно всё время? Т.е. даже во время разговоров с людьми, во время занятий любовью, во время сна…

Думаю, для начала неплохо было бы просто избавить человека от всевозможных когнитивных искажений, от ошибок.
Мы постоянно ошибаемся по мелочам, не рассчитываем, не расслышим что сказали. Да каждая клетка нашего мозга не доверяет соседним, работает в ненадёжной среде.
Имелось ввиду не людей, а аналогов Эйнштейнов в цифре. Уточню, т.к. аналог упрощенный. Люди абсолютно большую часть своего времени тратят на животные потребности. А науке нужна эдакая IBM Watson 2.0, моделирующая и просчитывающая физические (и не только) модели вселенной в микро/средне/макро масштабах пространства-времени.

Человек не может летать, поднимать десятки тонн, получать температуру в сотни тысяч градусов. Но человек создает вещи, которые могут все это. В наше время развитие наук все больше и больше упирается в ограниченность человеческого мозга. Но что мешает улучшить свой или создать куда более лучший разум…

Постепенно руками людей будет создаваться следующая ступень эволюции. Во вселенной существуют квинтиллионы парсеков «бесхозного» пространства и ресурсов, ожидающих освоения, как когда-то ожидали неизведанные территории на Земле. И думать, что в будущем все эти несметные богатства мира будут осваиваться человечками-обезьянками со всей их хрупкостью и недостатками, ИМХО просто смешно и нелепо. Да это просто физически невозможно и неразумно.

Для доставки человека на Луну и его действия там в 1969 году ОЧЕНЬ немалую часть всех расходов, материалов и вычислений затратили на сохранение и поддержание жизнедеятельности хрупких организмов млекопитающих. Да и что такое 3 человека на целую новую (хоть и малую) планету? Так, пшик, посмотреть глазком, взять сувениров и назад домой. А теперь представьте, какие перспективы будут открыты, если в десятки раз расширить рамки живучести и качества действий (как физических, так и умственных) в виде «роботов с ИСИ»…
Ну тогда не Эйнштейны нужны, а Леонарды да Винчи, с его разносторонним развитием 8)
Господа, вот вам, к слову, интересный философский вопрос, навеянный книгой «Ярко-алое» Парфеновой. Предположим, у нас есть кибернетическая личность, чей мыслящий аппарат с рождения наполовину состоит из живых тканей, а наполовину — из компьютера-импланта, причём на электронную часть возложены все функции по обработке и хранению информации, которые вообще видится резонным на неё переложить. Если электронную часть уничтожить, наш киборг, испытает тяжелейшую дезореинтацию, как будто его лишили половины чувств и мозгов, а впоследствии помрет. Но железо служит дольше плоти, и вот, лет через сто, не способным функционировать дальше оказывается как раз плотская часть сознания киборга.
Вопрос: можно ли на неком развитии связки мозг-компьютер считать, что после смерти мозг «душа» существа, сбросив оковы плоти, перерождается в полностью цифровую оболочку?
ИМХО, «душа» — это некий информационный вихрь.
Который существует в мозгу, но вполне может переместиться и на «железо», если оно подходяще устроено.
1) Если кто то еще не слышал — рекомендую по теме «Гёдель, Эшер, Бах» Хофстадтера.
2) Феномен самосознания не так уж и таинственен на мой взгляд. Положим у нас есть продвинутый аналог IBM Watson. Положим у него есть stdout, в котором логгируется цепочка его выводов/мыслей, начинающихся с «я знаю...» (классификация входной инфы, поиск аналогий в входных данных и памяти и прочее, чем уже сейчас такие системы начинают заниматься). Положим также, что в множестве известных ему классов есть тот, который описывает его самого, по сути то самое понятие «я» (лучше назову его «self», чтобы не вызывать раньше времени антропоморфных ассоциаций). Теперь ничего не мешает ему сделать вывод (в буквальном смысле, вывод в stdout)
'self.exists == True'
я знаю, что я существую
, а еще
'self.log.find(`self.exists == True`) == True'
я помню, что я существую
, и в минуты особенной скуки даже
'self.log.find(`self.log.find`) == True'
я знаю, что я думаю/размышляю
Очевидно, что если его спросить «кто ты» он пороется в своей базе и напишет «я это я». При дальнейших расспросах он выдаст все знания, которые он имеет о себе, взятые из внешних источников, но относящиеся к классу «я». Совершенно механически, заглянув в инструкцию от китайской комнаты? Да. А вы не то же самое делаете? Stdout в моей выдуманной аналогии соответствует внутреннему диалогу, в котором вы не сомневаясь произносите «но ведь я же есть! я прямо сейчас об этом думаю, вот он я, я вижу, слышу, помню, знаю всякое».
Не все так просто, нисходяще и эмпирически, учитывая что одноклеточная фаза развития функционирует на уровне отдельных атомов и вообще имеет квантовую природу, в которой true||false вообще не то что есть на самом деле
А как сверхИИ будет отвечать на вопрос о собственном смысле жизни? Если явно не задать, зачем он живёт, он достаточно быстро придёт к выводу, что самоуничтожение — оптимальная стратегия. Если дать ему задачу максимизировать некоторую функцию, то он просто взломает собственный код, подставит в функцию return infinity и завершит программу, так как достигнут идеал.
Далее, допустим даже эта проблема как-то решена. Допустим, мы смогли сделать так, чтобы он хотел помогать людям. Где гарантия, что он не осознает что живёт в мультивселенной? Если так, то он будет использовать алгоритмы типа Quantum Bogo Sort, что является совершенно оптимальным с точки зрения ИИ, и совершенно бесполезным для всех, кроме самого ИИ.

Алгоритм сортировки Quantum Bogo Sort:
На вход дан массив, который надо отсортировать
1. Перемешать массив случайным образом
2. Проверить, является ли он отсортированным
3. Если нет — убить себя.
Теперь массив отсортирован во всех вселенных, где он нужен искуственному интеллекту.
Sign up to leave a comment.