Как стать автором
Обновить

Комментарии 272

может ли быть сознание у искусственного интеллекта

Может, для одного сознания и не может для другого, а еще есть много сознаний в которых этот вопрос вообще не возникает. Вопрос в том, нужно ли нам убеждать толпу в том что может или лучше убеждать что не может?

Боюсь, это не дисскусионный вопрос. Похоже, что сознание можно посчитать. Можно поставить под сомнение тождественность человеческого сознания и сознания обезьяны, или человеческого сознания и сознания робота, но само его наличие прекрасно просчитывается математически, что собственно я и постарался изложить в этом тексте.

Можете просчитать, чьё то абстрактное сознание (модель которого хранится в вашем), это даст вам субъектность на какое то время, но свое вы не можете просчитать, так как оно включает в себя, как просчитывающего так и просчитываемого.

Вот так работает моя профессиональная деформация. Когда читаешь краткое резюме как поток сознания заказчика, для построения технического задания и делаешь пометки.


  1. Сознание — это информационный процесс
    Ну допустим… есть там какой-то update(dt), видимо


  2. Сознание имеет память, а также модель самого себя и постоянно копирует в память своё текущее состояние.
    Тут понятно — state он и есть state


  3. Сознание признаёт свою преемственность от предыдущих состояний.
    Это у нас наследование, получается


  4. Сознание может копироваться, но не признаёт своих активных копий тождественными себе.
    Ага, копии значит не ссылки а разные инстансы


  5. С объективной точки зрения сознание может не быть непрерывным.
    Персистентность что ли? Типа можно выгрузить из оперативки куда-то, а потом из этого "куда-то" достать, как ни в чем не бывало.


  6. С субъективной точки зрения сознание непрерывно (по крайней мере на отрезках).
    Ясно, значит дельта у нас глобальная, а не от абсолютного времени последнего обновления объекта


  7. Сознание может не признать своим потомком последующее состояния, даже если потомок признает исходное сознание за предка.
    Ну это понятно, полиморфизм и LSP — как они есть


  8. Последующее состояние считается тем более приемлемым, чем менее значительны изменения между состояниями. В идеале новое состояние должно быть получено методом непрерывных изменений.
    Ага, значит операции над сознанием у нас атомарные


  9. Сознание может разделяться при снижении связности вычислительного процесса.
    Не понял, типа модульная архитектура что ли?


  10. Сознания могут объединяться при повышении связности вычислительного процесса.
    Ааа… Понял! Вы про горизонтальное масштабирование!


  11. Сознание обычно может наблюдать параллельное сознание только по косвенным признакам и не может пронаблюдать его непосредственно.
    Ну да — инкапсуляция в чистом виде же


  12. Возможно общение нескольких сознаний внутри единого вычислительного процесса.
    Хорошо, добавим шину сообщений


  13. Сознание может строить внутри себя другие сознания.
    Угу, фабрики значит


Очень красивое описание, спасибо! Поставил бы плюс, да не могу :(
Так понятнее стало)
Странно. Зачем для, по сути, переложения на современный язык избранных мест из «Монадологии» Лейбница брать в название писательницу-фантаста немножко другого калибра и фактуры? Я-то уж решил, будет что-то пятничное, вроде:
1. Парадокс Ферми обращает наше внимание на то, что, на самом-то деле, мир вокруг — симуляция.
2. Эта симуляция достаточно сильно отличается от реального мира. И трудная проблема сознания — одно из проявлений этого упрощения. Парадокс, который невозможно решить в рамках нашего симулированного мира, если принимать его законы за чистую монету (представьте Нео, подключенного в матрицу, где запущен «Майнкрафт», и вдруг Нео задается вопросом — позвольте, а как мой глаз, состоящий из единого и неделимого кубика, в состоянии воспринимать окружающий мир, во всей его полноте и сложности?)
3. Чтобы вы не заигрались в симуляцию, здесь предусмотрены NPC-напоминалки. Ну, скажем, какой-нибудь бросающийся в глаза крутой чувак, делающий самые крутые технические вещи, и при этом не упускающий возможности заявить, что все вокруг нас симуляция.
4. Для тех, кто отыгрывает персонажа, не интересующегося техникой, есть фильмы с аналогичной функцией напоминания про существование истинной реальности.
5. Если трижды прокричать «Нейролинк, Нейролинк, отпусти меня на Марс!»/«Этот мир прекрасен и удивителен!», ваше сознание выйдет из симуляции в истинный мир. (А здесь, в симуляции, останется философский зомби.)

И кстати, немного смущает, когда в статье одновременно и «насколько мне известно», и «мы показали», при этом речь идет сначала о недилимости сознания, в конце про сознание-рой, а в середине про рассечение мозолистого тела.

А если серьезно, то статья хорошая, но, мне кажется, в ней тот же фатальный недостаток, что и в других подобных попытках — беда с терминологией. В лекциях Фейнмана есть по этому поводу пример с табуреткой. Что такое табуретка? Вроде, очевидно же, что каждый человек прекрасно понимает, что такое табуретка. Но если начать помещать это понятие в непривычные для него контексты, что и проделывает Фейнман… Быстро оказывается, что понятие «табуретка» — может существовать в весьма ограниченном бытовом контексте. Попытки же опредилить этот термин слишком строго — рождают кучу разночтений.
Мне кажется, именно это происходит и со словом «сознание». Только, в отличие от «табуретки», «сознание» изначально куда более сложное и многогранное понятие, даже в бытовых контекстах. Поэтому когда это слово пытаются использовать так, будто это термин, определенный с математической точностью, причем однозначно для всех говорящих, — получается фигня. До какого-то места читаешь статью, и даже если где-то не согласен, но в целом понимаешь автора, — так тебе кажется. Пока не начинаешь ловить себя на том, что «а вот сейчас автор точно имеет в виду именно ту грань понятия, про которую думаю я? и различает ли вообще автор эту грань понятия — отделяя ее от смежных? или для него все эти несколько граней понятия сливаются в одно?»
И даже более узкий, казалось бы, специально отчеканенный для философского употребления термин «квалиа» — с ним та же беда. Пока речь идет о контекстах вида «квалиа — ну это, например, то, как вы ощущаете цвет», кажется, что все прекрасно. Но вот стоит поставить вопрос вроде «а ощущаете ли вы какие-то особые квалиа, когда думаете о единице, о паре, о трех?» — и он провоцирует столько некомфортных сомнений и вытекающих думок, что поля этого комментария слишком узки.
мне кажется, в ней тот же фатальный недостаток, что и в других подобных попытках — беда с терминологией

Трудно себе представить статью о достаточно сложных понятиях, фундаментально понятной всем без исключения. Это будет что-то на юридическом языке, где половина статьи — это определение сносок, чтоб не возникало никаких сомнений.
Всё наше общение — это додумывание "а понимаю ли я под этим словом то, что понимает под ним автор". Без сносок/допущений это должен быть язык который содержит, условно, отдельное слово для всех оттенков цветов.
Вот вы написали "квалиа" и мне как-то вообще ничего не понятно.


P.S. кстати комментарий greabock выше — хорошая иллюстрация.

Поэтому когда это слово пытаются использовать так, будто это термин, определенный с математической точностью, причем однозначно для всех говорящих, — получается фигня.

И, да. Идея статьи была как раз в том, чтобы загнать сознание в какие-то конкретные рамки и исследовать его методом если-если-то. Это привело к некоторым интересным выводам, например, к сюрреалистическому утверждению о том, что приемлемость телепортации зависит от мировоззрения, или к выводу о том, что смежное сознание ощущает товарища как часть объекта управления.


К сожалению такого ограничение метода, но мне кажется, что результат получился довольно любопытным.


Указание на связь с монадологией интересна. Это надо обмыслить...

Про сознание уже так давно думали, что уже многое что придумали. К примеру Анатта один из важнейших догматов буддизма, постулирующий отсутствие атмана — «Я», самости индивида или его души. Что забавно, на личном опыте этот постулат можно испытать, просто тренируясь «не думать». Рано или поздно, когда поток внутренней речи угасает совсем, происходит качественное изменение восприятия и ощущение собственного «я» исчезает на определенное время, что дает незабываемый опыт. А делов всего-то потренироваться недельку-другую. Дешево, без томографа, кандидатских корочек, и сердито.

Говоря об убеждённости в существовании атмана или «я», Будда сравнивал такую убеждённость с человеком, рассказывающим о любви к самой красивой женщине в мире, но не знающим её лица, имени и родственников
1. Парадокс Ферми обращает наше внимание на то, что, на самом-то деле, мир вокруг — симуляция.


Мир это симуляция в каком-то другом мире, и так до бесконечности. Вот паровоз, он вот почему едет? Потому что его маленькие паровозики толкают! А вы то думали. Ну а маленькие паровозики едут, потому что их еще более маленькие паровозики толкают. Идеальная картина мира, все объясняющая.
Во-первых, все уже украдено, до нас. Rick and Morty s02e06, если буквально про паровозики.

А во-вторых… Почему так уж и нет? Что тут такого уж неприличного и позорного? Вас же не смущает математическая конструкция множества целых чисел, где нельзя найти «самое первое» число, а всегда найдется то, которое еще меньше?
Так что приятие или неприятие варианта бесконечно вложенных виртуальных миров (ну или богов, которые создают вселенные с другими богами, которые...) — дело привычки. Концепция как концепция.

У целых чисел нет взаимосвязи причинности, требующей наличия начала. Они вообще математическая абстракция. А у создателя есть. У большого взрыва, впрочем, тоже...

> Rick and Morty s02e06
Разве не четвертый сезон?
Такой автомат может играть в имитацию, хотя язык не поворачивается назвать его разумным.

Почему? Чем этот автомат отличается от кучки нейронов?


То есть, людьми, не обладающими феноменом самопереживания. Но при этом поведение этих людей полностью тождественно нашему.

Но самопереживание — это часть поведения. Если поведение зомби полностью тождественно поведению обычного человека, то зомби самопереживает в точности так же, как обычный человек.

Почему? Чем этот автомат отличается от кучки нейронов?

Наличием обратных связей.


Но самопереживание — это часть поведения.

И да. Именно в этом и была мысль. И по видимому этого достаточно.

Масса уверенных заявлений, типа:
Архитектура человеческого мозга буквально создана для того, чтобы быть населённой кучей разных сознаний. Это доказывают множество пациентов с психологическими расстройствами, это доказывают исследования пациентов с рассеченными мозолистыми телами.
Нет, не доказывает.
Не думаю, что кто-то компетентен делать уверенные заявления о сознании пока не будет инструментов для регистрации и измерения этого самого сознания.
Сознание есть субъективный феномен, потому что оно относится к субъекту, а «субъект» по определению есть тот, кто обладает сознанием. Рекурсия налицо, но замести проблему сознания под ковер и объявить ее несуществующей, то есть воображаемой (кем, кстати?), она не помогает.

Вообще, отрицать существование некоторых феноменов с неясным генезисом (редких или претендующих на нарушение хорошо установленных законов природы) — это в принципе достойная тактика, но волшебно, когда она в письменной форме применяется для отрицания того единственного в своем роде феномена, в существовании которого каждый читатель (а читатель, пребывающий в бессознательном состоянии — это явная экзотика) может быть уверен на 100%. Сильно продвинулась современная философия, на многие вопросы нашла она достойные ответы. Но за что не возьмешься — ничего у нее нет.

Ну так можно и с человеком провести эксперимент


БУ: Что такое свет?
Ч: Светом называют оптическое излучение, то есть такое электромагнитное излучение, длины волн которого лежат в диапазоне с приблизительными границами от единиц нанометров до десятых долей миллиметра.
БУ: Как ты сформулировал это определение?
Ч: Отправил запрос в энциклопедию.
БУ: Как ты отправил запрос?
Ч: Воспользовался пальцами и набрал на клавиатуре.
БУ: Как ты воспользовался пальцами?
Ч: Заставил мышцы сокращаться.
БУ: Как заставил?
Ч: Эмм...


Какой-нибудь медик, конечно, сможет продолжить этот диалог чуть дольше, но все равно упрется в "Эмм.."


Так же как и ИИ может ответить как он воспользовался протоколами, если будет обучен этой "дисциплине".

Да, именно это я и пытался продемонстрировать.

В статье смешаны в кучу понятия интеллект, сознание и ощущение. Простое усложняется, сложное упрощается. Отдельные предложения вроде правильные, но вместе получается какая-то чушь.


Тут много утверждений, на которые можно было бы возразить, но их много и мне лень.
Прокомментирую только пару наиболее значимых моментов.


Мы без труда копируем файлы и клонируем процессы (man fork(2)) и считаем копии практически идентичными. Но как только мы копируем вычислительный объект обладающий сознанием, происходит нечто странное.
Это не я! — Ты кто такой?

Во-первых, никто не считает копии процесса "практически идентичными". Предполагается, что они должны работать идентично, в смысле одинаково обрабатывать данные, но сами данные в них разные. Именно поэтому их обычно и создают, для ускорения обработки.
Во-вторых, при форке происходит примерно то же самое, что и на картинке. В процессах одинаковый код и одинаковый вызов функции "fork()", и вычислительный процесс сам по себе не может узнать, исходный он процесс или новый. Поэтому fork() возвращает разный результат для исходного и нового процесса, для нового 0, для исходного ненулевой идентификатор нового процесса. Именно для ответа на вопрос "кто я такой".


И с сознанием то же самое. Любая "копия сознания" после копирования это самостоятельное существо, не связанное с предыдущим за исключением 99% общих воспоминаний. Как братья-близнецы, которые росли в одном доме и ходили в одну школу. Не надо тут искать магию или сложные загадки.


Биологическое состояние было, но с него сняли копию, оригинал уничтожили
Я утверждаю, что никто, не объективный наблюдатель, ни сам переселенец в оконечной точке времени не сможет различить этих вариантов. Между получившимися ситуациями нет разницы ни субъективно, ни объективно.

Для оригинала, который уничтожили, есть разница.

Изначально, пока я писал текст, там было длинное пространное рассуждение про fork и про то, как два процесса различают себя и чем эта ситуация отличается (практически ничем). В дальнейшем этот кусок текста был убран, поскольку ничего не добавлял к основной линии изложения.


Оригинал, о да… Бедняга.

К чему тогда эта картинка с надписями и утверждение про странность? Копия воспринимается как другое существо, потому что она и есть другое существо, ничего странного в этом нет.

Это затравка к последующему обсуждению того, что именно происходит при копировании с субъективной точке зрения. У процесса нет субъективной точки зрения, вот он и не возмущается.

Это затравка для последующего длинного обсуждения того, что есть копирование с субъективной точки зрения и выяснению того, кто из них настоящий.

Так нет никакого одного настоящего. Они оба настоящие. 2 существа каждый со своим сознанием.

Это нам с вами очевидно. Но это очевидно не для всех. Поэтому требует доказательства.

Так у вас в статье нет доказательства. У вас прямо противоположное утверждение "Я утверждаю, что никто не сможет различить этих вариантов. Между получившимися ситуациями нет разницы ни субъективно, ни объективно". Оно неверное, разница есть, и субъективная, и объективная. Потому что тут 2 субъекта, а не 1.

Вывод велся к другому, но, в целом, связанному утверждению:
"Чтобы исключить конфликт личностей достаточно убрать одну из копий".


Это происходит с операцией копирования, это происходит при перемещении в следующий непосредственно за текущим момент времени. Оценивать может только тот, кто есть в текущий момент. Из этого выводится то, что телепортация ничего не нарушает, если исходная копия разбирается. Даже если на какой-то промежуток времени возникает конфликт, он разрешается, когда одна из двух копий убирается.


До тех пор, пока наследников двое — ситуация различна. А сразу после того, как одного убрали — уже нет.

"Чтобы исключить конфликт личностей достаточно убрать одну из копий".

Вы упорно не желаете понять, что я хочу сказать. Нет никакого конфликта личностей, это 2 разные личности, нельзя убирать одну из копий. Это ничем не отличается от убирания одного близнеца из обычной пары близнецов.


это происходит при перемещении в следующий непосредственно за текущим момент времени

Это если считать, что состояние в следующий момент времени это копия состояния из предыдущего, и они обе существуют в некотором "безвременье". Что не доказано и вообще довольно спорно.


До тех пор, пока наследников двое — ситуация различна. А сразу после того, как одного убрали — уже нет.

Это ничем не отличается от "убирания" отдельной личности до копирования. Особенно если у нее есть одновременно родившиеся родственники, ученики или дети, с которыми у нее есть общие знания.

Я ваше возражение понимаю. У меня против изложенной теории ровно такое же возражение. Мне тоже не нравится полученный результат.


Однако, он получен в процессе анализа. Утверждение о том, что следующее состояние — это копия из предыдущего пришлось ввести для исключения из системы противоречий. Если мы это утверждение убираем, то система аксиом становится противоречивой. Если это утверждение не добавлять, можно вывести, что душа — объект привнесенный извне, потому что оконечный результат будет зависеть от траектории пространства состояний системы.


Собственно, именно об этом было длинное размышление про дискретную симуляцию.

Если мы это утверждение убираем, то система аксиом становится противоречивой

В чем вы видите противоречие в факте существования 2 близнецов?

Такого противоречия нет.

Тогда в чем вы видите отличие между 2 существами "человек + копия" и 2 существами "человек + его брат-близнец"?

Я не вижу существенной разницы.

Тогда я не понимаю, при чем тут противоречие? При перемещении в следущий момент времени это одно и то же существо, при копировании или наличии близнеца 2 разных.

Прошу прощения. Я все еще не понял, о каком противоречии вообще идёт речь.

Про противоречие в системе аксиом, о котором вы говорили.

Противоречие возникает, если убрать операцию копирования при переходе в следующий момент времени.


Но при создании близнеца никаких противоречий нет.

При переходе из одного момента времени в другой это одна и та же личность. Где тут противоречие, из-за которого надо вводить копирование?

Ну, вот, если вы внимательно разберётесь в выводе, вы его обнаружите.

Так я говорю о том, что у вас вывод неправильный, и никакое копирование не требуется.

У вас двойник появляется в этом утверждении "единственная причина, по которой ваш прошлый двойник не обвиняет вас в том, что вы заняли его место состоит в том, что его здесь нет". Почему нужно рассматривать вариант с двойником, никак не обосновано.


В момент времени t была материя M, организованная определенным образом (личность). В момент времени t+dt она изменилась на dM. Непонятно, почему dM надо рассматривать как второе M. Это нарушает законы сохранения.

Это обосновывается через эксперимент с дискретной симуляцией. Нет способа, ни субъективного, ни объективного, отличить дискретное сознание от непрерывного. У дискретного сознания материальное тело существует строго один момент времени, а потом разрушается и создаётся на основе новой материи, но с точки зрения сознания, оно непрерывно. Сознание строит своё утверждение о непрерывности на основе имеющейся у неё памяти о прошлом состоянии. Непосредственная преемственность материального тела для этого не требуется.


Поскольку нет никакого способа отличить дискретную симуляцию от непрерывного "реального" мира, то их нужно уравнять правилами. Поэтому рассматривается копирование между моментами времени.

Личность с дискретным сознанием в вашем примере симулируется на компьютерах и состоит из симулированной материи. Вы подменяете понятия, симулированную материю и реальную материю из которой состоят компьютеры. Симулированная материя всегда одна и та же, это симулируется она на разной реальной материи. Поэтому утверждение "Непосредственная преемственность материального тела для этого не требуется" неверно, вернее не доказано, что оно верно.


Далее. В этой симуляции мы фактически симулируем непрерывное ("реальное") течение времени для каждой конкретной личности. В симулированный момент времени t2 это та же личность, что была в предыдущий момент времени t1, а предыдущего состояния нет, и между собой они не взаимодействуют. Поэтому симуляция и реальный мир уже "уравнены", и дополнительных правил не требуется.

Даже в самом простейшем случае, то есть для одной обособленной эфирной (то есть образно-ассоциативной) нейронной сети, сознание — это всё равно в общем случае именно гиперпоток паттернов, то есть совокупность субпотоков паттернов. Для мозга же, как иерархической совокупности эфирных нейронных сетей — то есть как эфирной нейронной гиперсети, действительно, в соответствии с принципами гиперобъектности имеет смысл использовать понятия «гиперсознание» и «субсознание» («субсознание» не следует путать c «психологическим» понятием «подсознание»). Полушария мозга — это две эфирные нейронные подсети верхнего уровня, и если связь между ними нарушена (например, при рассечении мозолистого тела), то условный эффект «раздвоения личности» иногда и в самом деле может наблюдаться вследствие «образно-ассоциативной специализации» полушарий…

Вопрос в определении понятия сознание, которого в статье нет. Насколько я понимаю, многие под понятием сознания понимают способность мозга анализировать свои действия и как-то реагировать на свои мысли и действия, т.е. есть часть или нейросеть в мозге, которая занимается самоанализом исходя из этого определения. И да такое есть, что тут спорить. Но мое понимае сознания другое. Сознание — это способность кого-то (например души? не бейте палками дослушайте) ощущать то, что приходит через органы чувств конкретного мозга или тела, но не в виде электромагнитных сигналов или деформаций тела и кожи, а в виде цвета, запаха, прикосновения, вкуса и т.д. Разберем например цвет. Многие думают, что цвет это свет определенной волны, но погодите, одно это ощущение в сознании, второе это регистрация датчиком физического воздействия на него, взаимодействие с светом и проявляется в мозге как электрохимический сигнал, а ведь реакция может быть в любом виде будь то чисто электоический сигнал как в компьютерах, механические движения внутри механического компьютера, где здесь цвет или запах, это просто механический ответ на сигнал. Нет эксперимента и я не представляю себе опыта, чтобы доказать, что то, что один человек называет синим цветом является синим и для другого, возможно другой человек просто называет словом синий электромагнитную волну определенной длинны, т.е. просто выдает действие на сигнал, ответ на сигнал словом синий. Точно также, если компьютеру подать через датчики такую волну и заставить называть его синим цветом это не означает, что есть нечто, что связано с этим комптютером и способно видеть или ощущать синий цвет именно как ощущение, просто комп вам ответит вижу синий, но это вы записали в него такой алгоритм. И вот тут возникает главная проблема отождествления людьми понятия взаимодействия с сигналами мозгом или устройством, программой и его ощущение. В реальности нет синих или каких бы то нибыло цветов, они есть в конкретном сознании. Отсюда следует, что не факт, что другое сознание видит тот же цвет, что и я или вообще ощущает это как цвет, а не как-то иначе. Представьте себе, что это как сторонний наблюдатель связанный с вашим мозгом, это односторонняя связь, такой наблюдатель ничего не делает, никак не влияет на то, что делает мозг, он только воспринимает сигналы ощущениями, т.е. мозг отвечает на такие сигналы своими сигналами, но сознание (см. мое определение) просто ощущает эти сигналы в виде цвета, запаха, вкуса и т.д. По сути филосовский зомби ничем не отличается от такого зомби с сознанием с точки зрения их действий и внутреннего устройства, но если в одном таком теле есть сознание, т.е. связь с неким наблюдателем действий такого зомби, то в этом и будет разница, т.е. имеем передачу информации от зомби к наблюдателю, а тот уже воспринимает это как ощущения, а не действует ответными физическими сигналами. Никто не будет же спорить, что информация это не материальный объект, сознание наверно также нематериально, но тут уже сложно это понять. Тут главное понять, что есть существа, которые как-то и почему-то имеют связанного с ними наблюдателя, а есть философские зомби, ну жаже если это не люди, то например для искусственно созданного интеллекта такой связи не созжавалось, а значит это просто машина, которая работает по принципу домино, толкни одну фишку, а другие отвечают сложным образом, но в целом это просто набор фишек, часть остальной бессознательной вселенной.

Представьте себе, что это как сторонний наблюдатель связанный с вашим мозгом, это односторонняя связь, такой наблюдатель ничего не делает, никак не влияет на то, что делает мозг, он только воспринимает сигналы ощущениями, т.е. мозг отвечает на такие сигналы своими сигналами, но сознание (см. мое определение) просто ощущает эти сигналы в виде цвета, запаха, вкуса и т.д.

Это гипотеза внутреннего наблюдателя. Согласно гипотезе есть нечто, что наблюдает, но не влияет на поведение. Она опровергается как раз мысленным экспериментом с филосовским зомби. Вот вы сейчас написали пост про внутреннего наблюдателя, значит ваш зомби-аналог также должен был иметь возможность сформулировать тезис о внутреннем наблюдателе, иначе бы получилось, что внутренний наблюдатель влияет на поведение. Следовательно мы пришли к противоречию.


Внутренний наблюдатель влияет на поведение.

Согласен, я об этом написал в комменте. Но что делать с чувством цвета? Кто чувствует цвет и как доказать то, что у разных людей одинаковое восприятие цвета. Как можно заявлять, что техническое устройство построенное совершенно иначе, чем человеческое тело видит тот же цвет, что и человек? Он вообще вилит цвет? Или просто запрограммирован при регистрации волны определенной длины отвечать синий? Понятия для взаиможействия в разговоре одни, но это не значит, что внутри такого устройства кто-то видит синий цвет, тем более также как и я. Тут принципиальный момент, в голове гуляют ответные сигналы, они могут быть разного рода, но все это физические процессы, там в голове, программе, устройстве нет цвета нигде. Я думаю какая-то связь сознания с мозгом конечно должна быть, вы верно указали. Но по сути тут не нужно путать интеллект как способность решать задачи и вычислять и сознание. Интеллект есть и у компьютера, программы, они также могут решать задачи разной степени сложности, а люди по моему часто путают именно с понятием интеллекта. Тут в целом главный вопрос как я могу передать кому-то то, что я вижу и как мне убедиться в том, что он видит именно это? Что если кто-то видит вместо синего красный, но научен отвечать, что это синий? Такая инверсия никак не помешает ему жить и я никак не смогу понять, что он видит другой цвет, называя его синим.

Никак не доказать. Я в тексте статьи и в коментах уже несколько раз писал об этом :). Построение показывает, что какое-то восприятие отличное от объективного должно быть. (Это следует из несводимости виртуальной машины к своей реализации). Раз оно какое-то должно быть, то оно какое-то есть. Какое? Какое-то. Неизвестно какое, но почему бы не то, какое у вас. Возможно оно для всех одинаково, возможно различно, возможно рассуждать об этом надо как-то иначе, но противоречий тут нет.

Сама идея философского зомби в высшей степени сомнительна, если не сказать резче, и по сути сводится к убеждению, что есть идеальная (точнейшая) имитация чего-либо, не идентичная этому чему-либо. Какое-то фэнтези.

Впрочем, идея (само)сознания как безвольного наблюдателя тоже сомнительна. Непонятно, с чего было эволюции создавать такого наблюдателя. Чтобы он мог пассивно рассматривать картиночки и слушать звуки, пожирая кучу энергии организма? Прям аттракцион невиданной щедрости природы, волшебным образом проскользнувший сквозь естественный отбор.
Я в который раз читаю про квалиа и в который раз не понимаю, что это за лингвистика на пустом месте.
Вот вы пишете — «Например, вы не сможете описать мне, как для вас выглядит красный цвет.». А какой ответ вас бы устроил? «Красный цвет для меня выглядит как...»? Как что? Какого вида ответ вы хотите получить? Знаете ли вы вообще, о чём спрашиваете?
В остальном заметка интересная, спасибо.

Превосходный вопрос. Я дам определение от себя:


Квалиа — это совокупность явлений чувственного восприятия, которые не могут быть изложены в книге философского зомби.


Вопрос о наличии и отсутствии квалиа — дискуссионный, зато он позволяет мне сразу же отсечь кучу вопросов об особенностях чувственного восприятия, сказав — это не влияет на поведение — это квалиа. Надо пояснить. Наличие ощущения квалиа может влиять на поведение, но описать его все равно нельзя — это не влияет на поведение.

А, то есть квалиа это чайник Рассела. По определению невыразимая снаружи штука. Но она точно существует, мамой клянус. Но говорить о ней невозможно.

Типо того. Теория предсказывает, что любая система определённого вида должна как-то воспринимать, но пасует перед вопросом, как именно. Я не знаю, как к нему подкопаться и можно ли это сделать в принципе.


Вообще, я точно знаю ответ — квалиа не существует. Ведь сознания не существует. И это не фигура речи. Способ, которым не существует квалиа отличен от способа, которым не существует сознание. Этот вопрос довольно интересен, а потому очень хочется его исследовать. Только не понятно как.


Вообще аналогия с чайником Рассела отличная. Мнимость чайника Рассела не вызывает сомнений. Это дано в определении. Он совершенно точно не существует, но мы продолжаем о нем говорить...

> пасует перед вопросом, как именно

Нет. Ваша теория по-прежнему не может определиться с вопросом. Что такое «воспринимать» и чем не устраивает ответ «фотоны, хрусталик, сетчатка, нейроны, зрительная кора»?
«фотоны, хрусталик, сетчатка, нейроны, зрительная кора»

Да. Объективно на этом всё. А далее мы начинаем изучать законы, по которым развивается субъективная иллюзия.

А далее мы переходим к предмету недавней статьи «что такое цветовосприятие».
Забавно, что пример квалиа показан именно на «красном цвете». Ведь нет никакого «красного цвета». Есть ряд длин волн и… визуальных характеристик окружающей среды, которые в итоге возбуждают нейроны зрительной коры подобным образом. А дальше мы человека примерно на втором-третьем году жизни учим этот «подобный образ» называть «красным цветом».
Всё. Нет никакой квалиа. Никаким образом нет. Нет таким образом, что и говорить не о чем.

Я с вашим комментарием полностью согласен… Ну, кроме последнего предложения, впрочем это и так понятно, иначе бы я не написал такого длинного текста о том, чего нет.

Всё. Нет никакой квалиа. Никаким образом нет. Нет таким образом, что и говорить не о чем.

Тут смотрите что. Есть наслаждение и страдание. Сказать что этого нет — не получается никоим образом по очевидным причинам. Отсюда исходит и понятие о добре и зле, преступлении и наказании и т.д.

Добро и зло применимо лишь к субъекту, т.к. лишь он может испытать страдание и наслаждение.

Далее задача — создать девайс, который сможет ощутить наслаждение и страдание (после этого он станет субъектом — у него появятся права, т.к. заставлять страдать другое существо есть зло). Это практическая задача! Бремя доказательства возложить на создателя девайса — он должен доказать, что повторил те же процессы, которые происходят в ЦНС в момент ощущения наслаждения/страдания.
Ооо, сколько вы всего сразу постулировали. Добро, зло, субъект, наслаждение, страдание… Как насчёт корректно определить? Вот амёба движется от крупинки соли в воде к крупинке сахара. У неё есть наслаждение и страдание?
Вот амёба движется от крупинки соли в воде к крупинке сахара. У неё есть наслаждение и страдание?

Так мы проблему не решим. Не знаю — потому что мне не ясны процессы в моей ЦНС, которые эквивалентны наслаждению и страданию. Если ключевые процессы у амебы такие же как у меня — то да, иначе — нет.

Решение, как я уже говорил, — выглядит в виде законченного девайса, который ощущает наслаждение и страдания так же как я (или любой другой желающий в этом убедиться). Т.е. девайс должен повторить те процессы в ЦНС, которые происходят у меня, не упуская ничего важного. Как доказать что ничего важного не упущено — не тривиально, но, думаю, возможно. Бремя доказательства возлагаем на создателя девайса — если он говорит что повторил все ключевые процессы — пусть думает как доказать, ему виднее.
Как и сознание — квалиа суть процесс, но уже воссприятия. Пример с теми же цветами — у разных людей может отличаться чувствительность цветовых рецепторов (и даже кол-во их видов), что приводит к разному восприятию цветов. Т.е. у разных людей в принципе могут отличатся сами процессы обработки фотонов на уровне красная колбочка пошлет такой-то интенсивности сигнал, а зеленая — такой-то — и в итоге они по разному видят цвет одних и те же фотонов.
Квалиа — это совокупность явлений чувственного восприятия, которые не могут быть изложены в книге философского зомби.

А они могут быть изложены в книге биологического человека, если мы допустим, что люди не являются философскими зомби. Я не могу изложить, что такое "красный цвет", иначе, как в форме


  • какая-то сложная последовательность активации нейронов мозга в ответ на восприятие света определенной длины волны и/или на извлечение воспоминаний о нем из памяти
  • "красный… ну… красный же"

Вы философский зомби? Если нет, вы можете изложить?

Не, вопрос не в том, чтобы «мочь описать». Вопрос в том, что есть некий кусок информации (квалиа), который в принципе описать невозможно. Вроде как образ в голове, который возникает. И даже невозможно доказать, что ваш полный и 100% во всех смыслах клон (ну или вы из параллельной идентичной реальности), имеете один и тот же квалиа (если я правильно употребил это слово).
Понять о чём речь — вроде можно. Описать как-то это самое квалиа — нереально, а следовательно и сравнить невозможно,
что, вроде как, эквивалентно утверждению «не существует, но очень по особенному», потому как его существование или не существование никак на мир не влияет
Клон должен быть абсолютно полный. Т.е. не только физически, но и информационно. Т.е. с точно тем же жизненным опытом. Тогда квалиа будет идентично. Ведь это просто физическая реакция на мир, отслеживаемая всем мозгом в своей собственной подсистеме делающей внутри модель мира, которое и есть сознание.
А какой ответ вас бы устроил?

Обычно подразумевается такой ответ, что увидев некоторый цвет впервые вы по описанию из ответа поймете, что "ага, это красный цвет". Такой ответ дать нельзя, поэтому вопрос о природе квалиа и считается особенным.

По-моему, любой естественный язык не может быть полностью замкнутой системой — в том смысле, что какие-то слова (понятия) всё равно придётся определять буквально методом тыка в соответствующий объект или свойство объекта. А причина в том, что мы используем язык как код для описания окружающей реальности. И феномены этой реальности не могут быть точно описаны (определены) языком. Это, по-моему, принципиальный барьер, и с проблемой сознания он напрямую не связан.
Чтобы не уйти в демагогию и бессмысленные рассуждения — нужно поставить достижимую цель. Вот что придумалось: создать устройство, которое сможет наслаждаться и страдать. Понятно что на создателя возлагается и бремя доказательства, что процессы страдания и наслаждения внутри этого устройства ничем не отличаются от процессов страдания и наслаждения в ЦНС человека (любого желающего в этом обудиться — т.к. вы можете думать, что у других квалиа нет — только у вас).

Так вот — когда такая конкретная цель есть, когда можно заявить что девайс создан или не создан, описать схему взаимодействий в процессе страдания и схему взаимодействий в процессе наслаждения — то сразу понимаем насколько велика степень невеженства в этом вопросе.

Т.е. ситуация патовая. Отрицать страдание и наслаждение не получится — объективно эти процессы есть. Как только кто-то заявит, что он не способен на страдание — так сразу получает по голове и осознает всю степень своей ошибки с помощью квалиа боли — больше не говорит таких глупостей :) А раз процессы нельзя отрицать — значит их нужно изучать и воспроизводить. И именно об этом можно сказать сделано оно или нет.

Ну, это довольно тривиально. Хорошометр Жданова неплохо справляется и со страданием и наслаждением, и при некотором усложнении с прочими гранями чувственного восприятия.

Хорошометр Жданова

Это что?

справляется и со страданием и наслаждением

Вы пытаетесь возложить бремя доказательства или опровержения на меня. А это бремя на том, кто заявил что создал девайс. Создатель должен доказать, что повторил все процессы ЦНС и не упустил ничего важного (вплоть до квантового уровня или доказать, что он не влияет).

Вот как то мягко обойдён вопрос о том, почему сознание это точно не квалиа:)


А ведь это очень важный вопрос, без ответа на него вся статья повисает в воздухе. Придётся говорить не о сознании, а о нашем (и ИИ) представлении о сознании...

Это происходит потому, что в статье принято за аксиому утверждение, что сознание (и квалиа) — вещи не объективные, а субъективные, что выражается в тезисе "сознание не существует".


В действительности, это очень удобная позиция, которая позволяет продолжить исследование математически строго. Вместо того, чтобы рассуждать на тему того "что есть сознание", мы исследуем "иллюзию сознания", иначе бы исследования бы не было, а мы бы остались где и были.

Ну да… казалось бы :)
А фактически мы, сказав, что сознания не существует, дальше рассуждаем о нем так как будто оно есть, измеримо и обладает свойствами. Также можно рассуждать об удаче, хтонических богах, мир-это-матрица и вреде прививок. Но и место такой статье тогда будет не на Хабре :)

Ой не спешите… Есть куча других вещей, которые не существуют. Информация, например не существует. Покажите мне её. Мы тут все, целая индустрия занимаемся тем, чего нет.

А зачем тормозить? :)
Информация, которой нет, тем не менее объективно проверяема (и другими гуманоидами рядом, и даже приборами). Этого достаточно, чтобы создать индустрию.
А про сознание известно только две вещи: людям нравится идея о том, что оно есть, и они считают, что оно есть.
Все это скорее выглядит, как Таск Менеджер в Винде, который пытается найти для ядра больше аргументов, чтобы отожрать ресурсов побольше. :)
А про сознание известно только две вещи: людям нравится идея о том, что оно есть, и они считают, что оно есть.

Ну вот собственно это мы и исследуем.

Да? Ну, с точки зрения этого тезиса из главы Резюме верны только тезисы 6, 11 и 12, а остальные — даже и непонятно, что имеется в виду :)

Сознание наблюдает себя, как некий разворачивающийся во времени процесс. То есть, к "людям нравится идея о том, что оно есть, и они считают, что оно есть" надо добавить "считают, что перемещаются вперед во времени".


Подавляющее большинство прочих свойств растёт отсюда. Ну а часть соотносит это с тем, что при этом объективно происходит.

Давайте возьмем самое простое: «5. С объективной точки зрения сознание может не быть непрерывным.» — утверждение об объективном факте.

Как это связано с «людям нравится идея о том, что оно есть, и они считают, что оно есть, и они считают, что перемещаются вперед во времени» — чисто субъективными моментами?
С объективной точки зрения сознание может не быть непрерывным.

Да, я согласен. В этом утверждении явно есть логическая ошибка. С объективной точки зрения сознания вообще нет. Это надо переформулировать как-то так.


С объективной точки зрения объект, испытывающий субъективное переживание сознания может не быть непрерывным во времени.

Верно, спасибо.


Ух, Матрицу уже обсуждали, теперь ВМВарь! :)

Вместо того, чтобы рассуждать на тему того "что есть сознание", мы исследуем "иллюзию сознания"

А какая разница, как называть некоторое явление? Название не влияет на возможность его изучать. Можно назвать его "явление X", и принципиально ничего не поменяется.

Потому что из названия следует инструментарий для исследования. Не стоит звать психолога для изучения притяжения небесных тел. Не стоит звать философов и физиков для изучения выверта человеческой психики.
Вы хотели сказать, из названия следует предмет исследования, в первую очередь. Критерии, говорящие о том, что к нему относится, а что нет. Ну и следствием этого — инструментарий, специализация участников и т.д. И тогда это правильно.
Ну ок, можно и так, если хотите: неверное название феномена адресует его к неверной группе явлений, поэтому первый и основной инструментарий, используемый в статье, — это не тот, с которого стоит начинать подобные исследования.
Блин, стало ли легче это читать?! :)
Потому что из названия следует инструментарий для исследования.

Нет. На русском явление называют одним словом, на английском другим, но они описывают одно и то же явление. Инструментарий для исследования следует из предполагаемых свойств. Предположили, что электроны в ядре похожи на сливовый пудинг, отсюда возможный инструментарий для проверки — пострелять альфа-частицами через золотую фольгу, по результатам оказалось, что это не так.

Хех, вообще, то, что Вы написали верно, но как Конкретно это относится к обсуждаемой теме, поясните, пожалуйста?

Так же, как ваше утверждение, которое я процитировал. Если оно к обсуждаемой теме не относится, то это к вам вопрос, зачем вы его тогда сказали.

Да? А по-моему связь очевидна: говоря о сознании как об объективном явлении (а не субъективной иллюзии), автор вынужден использовать метода физики, что ИМХО есть ошибка.


Но я-то ладно, я уверен, что мои слова относятся к теме! А вот Вы считаете, что ни мои, ни Ваши слова не относятся. Поэтому Вы высказались… зачем?

А по-моему связь очевидна: говоря о сознании как об объективном явлении (а не субъективной иллюзии), автор вынужден использовать метода физики, что ИМХО есть ошибка.

Сознание это результат определенной организации молекул, молекулы это объективно существующая материя. Поэтому методами физики их изучать можно. Другое дело, что возможно проще их изучать на более высоком уровне, но как миниму связь между этими уровнями тоже надо изучить. Для программирования не обязательно изучать электронику, но тем не менее наука такая есть, и она обеспечивает связь между аппаратным уровнем и информацией.


А вот Вы считаете, что ни мои, ни Ваши слова не относятся.

Нет, я такого не говорил. Я посчитал, что ваши слова относятся к теме, и указал на некорректное утверждение. Это вы почему-то сказали, что это к теме не относится.

Ладно, мое утверждение было некорректно. Удачи с молекулярным подходом к сознанию! :)
Дык а что с картинками-то у нас внутри, в сознании?? Как они устроены?

Для меня основная проблема в понимании что такое сознание — это понять, как куча разных сенсорных потоков, пройдя через кучу анализаторов и дополненная их выводами (как в части понимания и классификации воспринятого, так в части и эмоциональной окраски), и так же пройдя через фильтры внимания и сосредоточенности на чём-то и упускания из виду чего-то другого, оказывается ВОСПРИНЯТОЙ КАК НЕКАЯ ЦЕЛОСТНАЯ КАРТИНА окружающей среды (впрочем, в это понятие я включаю и интроспекцию, как тактильную, так и всю остальную), которая сама по себе ещё и дальше (после восприятие или вследствие его? не знаю) попадает в память, влияет на дальнейшие выводы и действия. При том, что в память попадёт и многое из не попавшего в фокус внимания, то есть для памяти этот фокус важен не стопроцентно…

Вот КАК И ЗАЧЕМ В ГОЛОВЕ ОБРАЗУЕТСЯ И ВОСПРИНИМАЕТСЯ ЭТА ЦЕЛОСТНАЯ КАРТИНА — вот вопрос вопросов!

Где тот экран картезианского театра и кто в него смотрит?

Это было в части про антропный принцип и невыразимость квалиа. Показано, что какое-то восприятие должно быть. Какое? Какое-то. Какое какое-то? Какое-то...


Раз оно должно быть какое-то, то какое-то должно быть. Возможно наиболее вероятное. Я не знаю. Знаю, что какое-то должно быть. Так предсказывает теория.


Это построение требует финта мозгами. Оно контринтуитивно, зато позволяет исключить наблюдателя и картезианский театр. Тут я позволю себе сослаться на Дениэла Деннета (он, кстати, ввёл термин картезианского театра), который гораздо подробнее меня изучил сам феномен не существования сознания. Я же задавался вопросом о его следствиях.

Если есть феномен, значит есть его конструкция. Отказаться её изучать потому что сложно — это как искать потерянное под фонарём, где светло, вместо тёмной подворотни, где потеряно.

Ну вообще-то это наша иллюзия, что картина целостная. Там может быть потеряно 90% информации, в том числе жизненно важной. А также додумано лишнее (именно потому что картина должна быть целостной).

Понятно, что потеряно и додумано, это ж не важно. Как образуется, как устроена, эта иллюзия?

эм… а чем эта иллюзия принципиально отличается от того, что происходит в памяти автомобилей-роботов? трехмерная движущаяся модель мира и объектов в нем, плюс навык распознавания картинки на обратной стороне глазного яблока и соотнесение этой картинки с моделью…
Потому что я знаю, как устроена модель мира в памяти компьютера. Это выделенная область памяти (или несколько явно взаимосвязанных), которую процессоры под управлением программ периодически читают то там то тут. И там если и есть какие-либо иллюзии целостности модели — всегда можно понять, из чего они складываются и на каком уровне абстракции, за счёт какого объединения каких данных в какие структуры. И скорее всего эта иллюзия будет в голове у архитектора данной программы, нежели у самого автомобиля-робота.
Ну и в чем отличие-то? Кроме идеи об архитекторе — разница только в том, что модель в компе Вы понимаете, а модель в голове человека — нет, я верно понял?
Собственно об этом я с самого начала этой ветки и говорю, об этом и спрашиваю.
оказывается ВОСПРИНЯТОЙ КАК НЕКАЯ ЦЕЛОСТНАЯ КАРТИНА

Просто воспринятой в смысле квалиа. Даже если ударился головой и картина перестала быть целостной а стала противоречивой — восприятие как феномен не становится менее интересным.

Картина, может быть, и будет противоречивой, но она всё равно будет одна, и в этом смысле всё равно целостная. И это удивительно и непонятно. Как она такой получается?..

но она всё равно будет одна

А если бы было две — то как бы это проявлялось?
А вот интересно, угу. Но я прецедентов не встречал, сознание вроде всегда одноканальным ощущается. Максимум, картинка в картинке…
Если у человека два противоречивых желания одновременно, внутренняя борьба — это и есть разрозненная картинка?
Не, это динамичная картина борьбы
Тогда не ясно что вас удивляет — какой бы могла быть разрозненная (в противоположность вашей «целостной») картина восприятия, чтобы она перестала быть удивительной?
Ну, она б могла вообще отсутствовать… Я не понимаю, что мешает всем процессам идти бессознательно, ровно как бессознательно у нас и так очень многие идут. Не понимаю как устроена вот эта вот единая сознательность некоторых из процессов
Ну, она б могла вообще отсутствовать

Вот, вы приходите к сути. Дело не композиции квалиа — даже феномен одного квалиа — уже ключ.

единая сознательность некоторых из процессов

Если процессы убирать и останется только 1 процесс (останется 1 квалиа вместо огромной композиции квалиа), который вы будете сознавать — разве станет более понятно?
квалиа выглядит так <img src=«https://ru.wikipedia.org/wiki/Иллюзионизм_(философия)#/media/Файл: Иллюстрация_понятия_кажущейся_психической_причинности_по_Вигнеру.jpg
Помогу с предпросмотром:
Картинка «Иллюстрация понятия кажущейся психической причинности по Д. Вигнеру» из статьи Иллюзионизм (философия):

image
спасибо.
Чтобы не утонуть в беспочвенных рассуждениях — у меня есть точное задание. А именно — создать девайс, который сможет ощутить наслаждение и страдание. На создателя, конечно, возлагается и бремя доказательства — т.е. принести коробку и сказать что сами разбирайтесь — не годится. Девайс должен повторить все ключевые процессы наслаждения и страдания, которые происходят в ЦНС.

Понятно ли задание и реально ли его выполнить? Сколько денег нужно?
для начала надо запустить имитационное моделирование ощущения.Заметьте это уже не просто процесс раздражения ткани /возбуждение/, а отношение между свойством раздражителя вызывать возбуждение и знаком потребности, например смещения гоместатического равновесия. И это только исходный шаг.
имитационное моделирование ощущения

Выразите это в виде готового девайса. А то словами играть можно бесконечно.

Для начала нужно всему человечеству понять, что этот вопрос имеет первостепенное значение и является ключевым. Т.е. все сводится к данному девайсу — это ключ. Будет девайс — мы или глубоко познаем высший мир (если живем в симуляции) или отменим все религии и связанные на них расходы — появится совсем другая философия бытия. Как будет — никто не знает.
я не понимаю о каком девайсе вы пишите. Воссоздайте гетеростатический организм с ЦНС+ПНС+органы движения = вот и девайс
я не понимаю о каком девайсе вы пишите

Девайс, который воспроизводит те же процессы, которые происходят в моей ЦНС в момент испытания наслаждения и страдания.

гетеростатический организм с ЦНС+ПНС+органы движения = вот и девайс

Органы движения нафиг не нужны. Интересует не внешнее проявление страдания а его ощущение в ЦНС. Любая ли ЦНС может ощутить страдание и наслаждение — не извесно. 100% могу быть уверен что моя ЦНС на это способна (возможно в комбинации с некими фундаментальными явлениями — много не ясного) — по этому для меня будет доказательством, что процессы эквивалентны моим. Думаю что ваши процессы мало чем отличаются от моих, поэ тому и для вас это доказательство будет достоверным.
я думаю вы сами не уяснили что вам надо. Поэтому у вас
ощущение в ЦНС
. это как логический вентиль в процессоре. А инструкция это как переживание, содержательно т.е функционально ориентировано как например страдание. А теперь представьте что вы обесточили участок CPU инструкция не исполняется страдания нет.дали ток появилось. что еще вам надо?
я думаю вы сами не уяснили что вам надо

Уяснили. Повторить те процессы, которые происходят в моей ЦНС в момент ощущения мной страдания и наслаждения. Все!

А теперь представьте что вы обесточили участок CPU инструкция не исполняется страдания нет.дали ток появилось. что еще вам надо?

Полная схема всех процессов, достаточная для воспроизведения в девайсе.
youtu.be/Rev1b59sEA4?t=280 прослушайте несколько раз. Это именно для вас говорится
ваше восприятие предметно, также как и память / или представление/ т.е отнесено к объектам мира. Поэтому Нет никакого гомункулуса внутри. Зачем это нужно? — затем что условный рефлекс как автоматич реакция в новых ситуациях не годится. Поэтому из ориентировочного рефлекса и возникла ориентировочная деятельность, как форма поиска пути во внешнем или внутреннем плане до предмета потребности. /это в филогенезе/. А люди еще опсредствовали этот поиск языкоывыми орудиями, трудовыми орудиями и т.д. Еще раз отсылаю к эксперименту В.Келлера с приматами. И Гальперина с орудиями. Но так, как рассуждаете вы, так же рассуждали сотни лет и до вас, что собственно и приводило к гносеологическим парадоксам и проблем.

Нет. Вы, как и многие, упускаете суть вопроса.


Всё восприятие, анализ любой сложности, и поведение, следующее из результатов этого анализа, всё это могло бы идти полностью бессознательно, автоматически. Но у нас в голове почему-то есть ощущение наличия целостной картины происходящего, и как часть его есть внутренний голос, есть туманные образы смыслов, которые хочется уловить и сказать, есть ощущение во всём этом собственного тела, его положения и самочувствия… Как и для чего какой-то промежуточный срез этого перерабатываемого сенсорного потока оказывается почувствован как-то специально, «осознан»?

Нет. Вы, как и многие, упускаете суть вопроса.

Вы серьезно? А чем то что вы перечислили отличается от клинической картины шизофрении, которую? 1.www.youtube.com/watch?v=fvp7mfKjYDM 2.www.youtube.com/watch?v=JRI_AS7dXiA
3.www.youtube.com/watch?v=_DN2mrHnJxo
А если серьезно, то рекомендую что бы быстро понять общий принцип современного подхода в психофизиологии на примере базовой единицы поведения живого организма — движения
mhp-journal.ru/upload/2009_v4_n2/2009_v4_n2_02.pdf

Посмотрю, может быть и впрямь получу ответ.


P.S. Вы три раза привели одну и ту же ссылку. Нет ли в этом ошибки?

есть. поправил
Последняя ссылка нерабочая
И по моему в Вы допускаете методологическую ошибку. По аналогии.Физика. Планковский горизонт размерностей. Вы -" а что за законы там за горизонтом? это наша физика или нет, ил… А может она такая… или… " // Я -" Нет метода преодолеть горизонт. и узнать как там и почему. Поэтому исходим из того что может наблюдать и как этим управлять ( в нейронауках — изменять, развивать и формировать когнитивные единицы )

Анекдот про то, что проще искать на улице под фонарём то, что потеряно в тёмной подворотне, я, кажется, уже упоминал. Кто ещё в эту тему упоминал политику страуса, говоря об отрицании проблемы, которую пока непонятно как решать.


Я согласен, что как решать этот вопрос пока непонятно, и что пока не будем знать больше, нет смысла не заниматься сбором тех знаний, которые собирать возможно. Но это ж не повод отрицать этот вопрос!


Изучение доступных для изучения знаний о мозге, наверняка, приведет и к ответу на мой вопрос.

Я с Вами согласен в этом полностью. Но!!! теология то же с вами согласиться на все 100%!!! Разница в том что метод должен быть адекватен исследуемому предмету. И строится он должен на уже достигнутых результатах. А то что предлагает автор статьи бесполезно, т.к. такой подход всегда приводил в тупик. И получается на сегодня что:

1.Интроспекция бесполезна
2. Вычислить логически или абстрактно математически свойства и признаки сознания не возможно!!!
3. Изучение сознания идет от внешних форм (реагирования организма на биотические и абиотические раздраж.) к внутренним с уменьшением пространств. времен. размерности, НО по линии генетического анализа этих форм т.е. изменения формы филогенезе и и онтогенезе
4. И только эти формы могут быть формализованы

Как вывод Бесполезны тексты как представл. в статье, или подобные индуктивно или дедуктивные размышления. Полезно только брать для анализа ЭКСПЕРИМЕНТ и разбирать его. Ну или разрабатывать и /или проводить самому.Делая вывод из анализа эксперимента дополнять или прореживать актуальную модель например сознания.
Интроспекция полезна, она даёт темы и вопросы для изучения прочими методами. Все эффекты, замечаемые при интроспекции, ждут своего объяснения физиологией.
Ну если вас результаты 100 лет развития наук о мозге и поведении Вас не убеждают (метод интроспекции довел до совершенства Титченер более 110 лет назад!!! результат = 0. Потому что Фрейд показал фундаментальные мотивообразующие процессы которые ПРИНЦИПИАЛЬНО НЕ МОГУТ БЫТЬ осознаны, Уотсон И Павлов показали что автоматизация реакции минует интроспекцию, Берлинская школа G показала что содержание сознание в принципе не может быть выведено из аналитического суммирования элементов доступных в интроспекции. И так далее… (наверное глупые люди занимались этим предметом до нас, правда?). Ваш подход дилентанство, и еще раз — берите результаты реальн. экспериментов по изучению сознания и уже из них пробуйте вытянуть свои конструкции. Тут хоть есть как проверить сходимость

Нифига он не довёл, там ещё вести и вести. И повторяю: интроспекция — это источник вопросов, а не ответов. И вопросы она даёт интересные.

Извините но я вам опять вынужден указать, теперь уже как приговор
1.https://youtu.be/Rev1b59sEA4?t=291
2.youtu.be/Rev1b59sEA4?t=330
Ну он там бред несёт, откровенный бред, безосновательный и бездоказательный, принципиально недоказуемый. Более того, вредный бред.

Перестаньте ссылаться на этот дурацкий ролик, никого вы им не убедите. Самоучки будут с него смеяться, зашоренные спецы будут кивать, и толку всё равно не будет.
Всё восприятие, анализ любой сложности, и поведение, следующее из результатов этого анализа, всё это могло бы идти полностью бессознательно, автоматически

Откуда такое убеждение? Есть ли доказательства этого тезиса? Я вот думаю ровно наоборот — начиная с некоторого уровня сложности, поведение и обучение невозможно без сознания.
Это как с компьютерами — можно реализовывать аппаратно всё больше и больше функций, но чтобы сделать компьютер поистине универсальным, нужно ввести слой абстракции, вынеся функции из аппаратного уровня в программный.
В пользу этой аналогии говорит и то, что функции в мозге хоть и локализованы, но не привязаны жёстко к тем или иным зонам, и при необходимости могут мигрировать. В компьютере один и тот же программный код можно при необходимости заставить выполняться на чипах разного типа.
Оно могло бы, потому что чрезвычайно многое и так уже идёт. Не встретил пока ни одного аргумента за то, что б этому всему было необходимо обсуждаемое ощущение существования картезианского театра.

Что касается программного уровня — метафора интересная, но я не вижу, как она связана обсуждаемой темой.
чрезвычайно многое и так уже идёт

Чрезвычайно многое это что именно? Всё более-менее сложное обучение идёт исключительно через сознание. Поведение в новых и незнакомых ситуациях идёт через сознание. Работа с незнакомыми данными — опять же через сознание.

я не вижу, как она связана обсуждаемой темой

Ну, бывает.
вот как раз для таких как автор текста это видео напутствие
www.youtube.com/watch?v=Rev1b59sEA4
сколько же еще «гениальных» переоткрытий сознания потенциировано в IT?

Вы несправедливы. Я ничего не переоткрыл, а просто немного осветил некоторые "технические" следствия утверждения "сознание не существует", которое и без того весьма популярно и постулируется целым направлением философской мысли (начиная чуть ли не с Дарвина), а заодно попытался его вывести так, чтобы было понятно техническому специалисту. Мне кажется, для исследователей ИИ, которые не часто читают философские трактаты, это небезынтересно.

тогда например
1.http://mhp-journal.ru/upload/2009_v4_n1/2009_v4_n1_08.pdf
2. books.google.by/books?id=tLMkIumdot0C&lpg=PA150&ots=GhshdOLFqC&dq=Revonsuo%20A%20Consciousness&hl=ru&pg=PP1#v=onepage&q=Revonsuo%20A%20Consciousness&f=false
3. Антти Ревонсуо. Психология сознания / Перевод: А. Стативка, З. С. Замчук. — Санкт-Петербург: Питер, 2013. — 336 с. — (Мастера психологии)
А в целом основной вопрос не лежит в том есть ли сознание или нет, а в том обладает ли данный объект СВОЙСТВАМИ, или нет. Если да -тогда это познаваемый объект и он предметен. Если нет -то это бессмысленный для науки тезис.
интересная pdf-ка, спасибо. Упомянута интересная и богатая феноменология, но к сожалению, кончается статья, как обычно, ничем.

Ну вот мы и посмотрели, что происходит, если считать сознание объектом и промоделировать его поведение с учётом присущих ему свойств. Я тут занимаюсь не философией. Чистая математика. Исходная посылка, результат.

Ваши аксиомы умозрительны, поэтому альтернативен такой подход
gtmarket.ru/laboratory/basis/6662/6664
и www.gumer.info/bibliotek_Buks/Psihol/velich/index.php
Сознание, полагают настолько же информационный процесс насколько и энергетический

Тогда вы можете читать статью, заменяя слово "сознание" на словосочетание "информационный суррогат сознания". У информационного подхода относительно энергетического есть одно существенное отличие. Он продолжает действовать в симуляции.

и поэтому теряет свою предметно обусловленную природу.т.к. становится не отличим от последовательности вычислений функции «стимул вход — реакция выход» как пример автоматическое реагирования безусловного рефлекса. При нем же сознание точно не присутствует? Так что вы тогда имитируете??

То есть, вы отвергаете возможность того, что мы живём в симуляции.

известные мне экспериментальные данные о психофизиологическом отражении объектов никаким образом не создают такой необходимости. Но конечно, если вся физика, например квантовая суть симуляция — тогда наверное уже никакое материальное отражение живой системой материального же мира — ни физиологическое ни психофизиологическое не нужно.

Учёт возможности того, что мы живём в симуляции позволяет построить правила, по которым сознание себя ведёт универсально. Мы можем рассмотреть ситуацию с несколькими вложенными симуляции, можем рассмотреть переход сознание вверх-вниз по стеку симуляций. Законы будут универсальны для любых вычислительных систем, любых систем прочего вида, в нашей или любых других вселенных.


Это более простая гипотеза, она требует допущений меньше, чем гипотеза, что мы не живём в симуляции, потому что такое построение как-то выделяло бы нашу вселенную перед всем многообразием вариантов.


Это, конечно же не значит, что мы живём в симуляции, но поскольку построение универсально, нам не нужно искать каких-то истоков сознания в специфических законах нашей вселенной и задаваться вопросом, будет ли феномен сознания в других.

ну предположим что так и есть, ну и что? разве при этом вы избавлены от требования доказать что логика или синтаксис сознательного процесса изоморфна, гомологична или т.п. бинарной алгебре или другой счислительной системе? Суть то в том что нет коннотации мнений относительно критерия дифференцирования сознательного процесса от других например классификации, соответственно нет и размерности в которой его наблюдать и измерять

Да, тут есть проблема. Боюсь, доказать это как теорему не получится. Пока перед нами не будет сидеть сильный ИИ, или пока работа мозга не будет полностью объяснена, чтобы можно было показать, как это работает на практике, сомнения всё равно останутся. Сомнения останутся даже после того, как это станет возможно. Единственное, что возможно, показать, что объект А мало чем отличается от объекта Б.


Тезис о том, что это должно быть так, поскольку позволяет исключить "особенность" человека из построения — слабоват. Однако он математически красив. Мы знаем, что наша реальность любит быть математически красивой. Думаю, по мере накопления информации о работе мозга, сторонников чисто информационного подхода будет становиться всё больше. Не думаю, что мы куда-то торопимся.

ну тут вы не первый. так же рассуждал и Тьюринг и Розенблатт, Но время шло а толку нет. Почему? Это не может быть решено в рамках математики
1.https://ru.wikipedia.org/wiki/Тезис_Чёрча_—_Тьюринга
2.https://ru.wikipedia.org/wiki/Проблема_разрешения
возможно там же где и проблема Я например считаю что нет необходимости копировать мозг. Надо делать «новый мозг». Ну и тот же Маск так и решил с его Линком. как мета- неокротексом.

Мне кажется я нигде не писал, что надо копировать мозг. Я написал, что работа сознания станет более понятной по мере получения информации о работе мозга.


Со времён Тьюринга прошло одно мгновение. Вопросы математической неразрешимости сводятся к выбору правильного набора аксиом. Аппарат аксиом, позволяющий выбирать аксиомы в достаточной мере сужает пространство неразрешимых задач. Если взять за аксиому, что человек получен в результате естественного отбора и нет прочих факторов, то задача неразрешимой совсем даже не выглядит. Работа эволюционного алгоритма вполне понятна. Как сознание строится в этой системе тоже вполне понятно (см. или материал этой статьи или attention schema theory вообще). Математика — язык вселенной. Мы знаем что есть проблема разрешимости. Что это значит? Это значит, что за конечное время вселенная не могла развернуть ничего математически неразрешимого. А значит мы должны быть решаемы.


Человечество вообще недавно. Мы копим информацию. Впереди ещё очень много интересного. Не торопитесь.

Не топится ??? ну тогда не забывайте и www.youtube.com/watch?v=chN8Y86AuTg
Еще раз -сознание не выполняет работы в механическом смысле, но это и не дескриптивная характеристика формы жизнедеятельности живой системы ( т.е это не тень вещи). И по моему в той же психологии или другой нейронауке нужно вопрос ставить так, А как получить /сформировать. сконструировать и т.п. /процесс свойства/позволяющие предсказывать те или иные явления субъективности как части жизнедеятельности живой системы. И да, в некоторой части мы это уже умеем.

Вот там правильно написали: «… а потом пришел Илон Маск и все ОПОШЛИЛ!
=)))»

Точно
Сознание и тезис Макса Фрая
как тебе такое, Илон Маск?

При прочтение статьи и коментариев держало сильное чуство дежавю… Пока не понял что очень похожие точки зрения видел в каком то из трудов об общей теории относительности.


Возможно стоит таки обдумать вопрос аналогии: сознание точно так же будет неопределено(и не может определено) без внешнего наблюдателя как жизнь кота в общеизвесном експеременте. И вообще есть ли сознание без неопределенности (квантовой)

Ура, наконец-то кто-то пришел к тем же выводам, что и я. Можно не писать аналогичный текст самому, спасибо! :)
Автор, не думаешь запрограмировать демонстрационного бота с самосознанием?

Я пытался мысленно построить простейшую систему, которая обладала бы самосознанием в том значении, что указано, но простейшая система получается не такая уж и простейшая :). Боюсь, я пока не знаю, как решить эту задачу.

Да ладно, если Almatyn комментом ниже все правильно подсумировал, то это реализуется чуть ли не тривиально. Но, времени нет, особенно из-за последствий эпидемии.
Может вместе как-то сорганизоваться?

Ну, если у вас есть мысли на эту тему, то можно это обсудить.

Есть некоторые соображения о шагах, необходимых для построении описанной Вами системы с указанными признаками самосознания. Каждый шаг нетривиален и, Вы правы, система не получается простой. У Вас крутой подход к выявлению признаков сложного понятия. Давно ищу собеседника в этой тематике и буду рад обсудить найденные шаги решения. Они лежат несколько в иной плоскости чем текущая статья, и потому лучше отделить этот разговор, например, в личной переписке, если это Вам интересно. С уважением.

Конечно интересно!
Давайте, давайте, думаю, личка хабра нам вполне подойдёт

НЛО прилетело и опубликовало эту надпись здесь
Вы думаете Чалмерс будучи по базовому образованию математиком не пытался решить вопрос сознания в таком же русле?? Этот подход он точно пробовал но получил отрицательный результат
А можно объяснить тупому мне, что в этом логически непротиворечивом (на мой взгляд) наборе утверждений противоречиво?
Спасибо за интереснейшую статью. Внимательно ее прочитал. Порадовали отсылки к Лему. Статья многим созвучна с моими собственными размышлениями. Хотел бы сделать некоторые дополнения.

Первое связано с тем, как Вы описываете непрерывность сознания вне зависимости от его материальных механизмов реализации. Чтобы довести эту мысль до логического завершения и апофеоза можно упомянуть мозг Больцмана — некую субстанцию, самопроизвольно случайно возникающую из материи и обладающую сознанием, а потом так же внезапно разрушающуюся. Возможно наше сознание — поток таких образований, самопроизвольно возникающих в разных точках пространства-времени, а возможно и в разных Вселенных. Этот факт очень остро ставит вопрос о самоидентификации сознания, а также то, что после смерти возможно продолжение эволюции сознания в таком вот экзотическом виде.

Второе мое рассуждение касается вот какого случая. Каждый может примерить его на себя. Представим, что к концу жизни (но не к самому концу) Вам предлагают перенести Ваше сознание в робота. И перед Вами стоит выбор — переселится в робота и обрести вечную жизнь или все-таки дожить остаток вашей жизни в естественной форме. Первое что Вы захотите знать о Вашей жизни в роботе — будет ли у Вас субъективный опыт. Ведь даже если для всех вы будете тем же и говорить также, без субъективного опыта эта затея лично для Вас не имеет никакого смысла. Как понять обладает ли робот субъективным опытом?

На мой взгляд самое близкое решение предложил Тегмарк в своей «Математической вселенной». В одной из глав он описывает устройство, которое будучи применено к некоей простраственно-временной структуре определяет и показывает переживаемый данной структурой субъективный опыт. Я бы это устройство назвал проще — «Миелофон».

Так вот прежде всего я бы этот «Миелофон» протестировал на себе. Если он верно воспроизведет мои мысли и ощущения, то есть надежда, что он работает правильно. И тогда его можно применить к роботу и посмотреть — действительно он что-то субъективно ощущает или является просто зомби.

Вот такие у меня размышления вызвала Ваша статья. Еще раз спасибо, что Вы ее написали.
как вы думаете человек в терминальной стадии деменции имеет сознание? или ребенок в 2 месяца рождения?. Что бы ответить надо терминологически определить сознание. И Пока мы знаем что то про что сознательные ЯВЛЕНИЯ, но не сознательные ПРОЦЕССЫ /МЕХАНИЗМЫ/. в обоих вышеуказанных примерах явление сознания не может быть идентифиц. без использования языковой коммуникации /и в других случаях такого же рода то же/ а это значит сознание связано с языком и речью /второе факультативно/.
Честно говоря, я абсолютно уверен в наличии только собственного сознания. Даже относительно других людей (вполне здоровых) имеются некоторые сомнения:).

Если вдруг человека разобъет паралич и он не будет иметь возможности коммуникации я уверен, что сознание у него останется (по крайней мере какое-то время). То, что сознание без коммуникации нельзя идентифицировать — это больше проблема идентификации и коммуникации, а не сознания.

«Миелофон» как раз и снимает эту проблему. Он субъективный опыт делает объективным и доступным для наблюдения.

Как Вы считаете — возможно ли сделать устройство для чтения мыслей?
Как Вы считаете — возможно ли сделать устройство для чтения мыслей?

Да, на основе МРТ высокого разрешения. Можно даже состояние всех нейронов просканировать — дело техники. Лет через 200.
это профанация.
1. ru.wikipedia.org/wiki/Фиксирование_установки + и еще ряд доказывает что данные интроспекции или то что вам доступно как феноменальное перцептивное поле является иллюзорным, т.е кажущимися точнее нет способа разобратся что реально а что ллюзия кроме как проверить реальным действием /например движением органа чувств типа глаза и т.д./ т.е валидизировать объект содержания сознания.и в результате он или исчезнет из сознавания или останется
2. структурно сознание опосредстовано / схемами / языковых операций над знаками например какого либо алфавита, и это по сути это и есть код сознания. Он динамичен
3. так как действия эти используются машиной /индивидом/ каждый такт в уникальной обстановке и соответственно знаки операции образуют не идентичные между индивидами формы значений а по отношению к потребностям и смысл.
4. Их можно зафиксировать например через электрические или химические сигнатуры, но как расшифровать если они носят в основном уникальный характер.
Ответ машина теоретически возможна практически не знаю
Первое что Вы захотите знать о Вашей жизни в роботе — будет ли у Вас субъективный опыт.

Важна еще природа этого субъективного опыта. Допустим, просто допустим, что есть некая фундаментальная частица — психо-нуклон — носитель субъективного опыта. И в мозгу есть центральный нейрон, который как-бы захватил эту частицу в условную «молекулу Познера», после чего этот один единственый нейрон со множеством отростков — и является системой ощущения.

Так, Миелофон будет получать сигналы от этого нейрона, которые в точности будут соответствовать вашим ощущения.

Но когда в робота перенесут состояние вашей ЦНС. Все, кроме этого главного нейрона, т.к. элементарная частица из него «вылетит».

Вот и получается — в роботе будет ваша ЦНС, ваша память, ваши навыки. Но главный нейрон захватил уже другой психо-нуклон, который случайным образом оказался в той точке пространства. А ваш психо-нуклон куда-то улетел и найти его не представляется возможным (или, что хуже, потерял запутанное состояние — как то типа того).

Тогда бы согласились? Для близких — вы будете почти таким-же, быть может где-то что в глубине в вас стало другим.
Да, спасибо! Ваши рассуждения представляются мне верными. Если не будет этого «психонуклона», то думаю затея не имеет смысла, даже с учетом родных и близких (ведь они таким же образом тоже когда-нибудь станут зомби — и что получится — стать зомби ради других зомби)
Хотел бы еще пояснить про регистрацию субъективного опыта — важно чтобы этот регистратор реагировал на субъективный опыт напрямую (непосредственно на «психонуклон»), а не по косвенным измерениям (сигналы со зрительного нерва, данные с логопетли и т.д.). Тогда думаю мы узнаем очень много об окружающем мире.

Приведу пример — допустим мы хотим измерить атмосферное давление. Можно делать это прямым измерением (с помощью ртутного барометра). И эта схема будет успешно работать хоть на Земле, хоть на Марсе, хоть на Венере. Но если мы будем пытаться измерить давление по косвенным признакам — например, по высоте и цвету облаков (как это любят делать во всяких браслетах, измеряющих кровяное давление), то очевидно, что это будет работать только в узких специальных случаях, да и то с большими погрешностями.
Если не будет этого «психонуклона»

Того же, что был в оригинальном центральном нейроне. Если будет уже другой психонуклон — то квалиа как бы будут, но они будут не вашей идентичности. С учетом того что скопировали ваши знания и опыт — родные вряд ли так уж быстро заметят «подмену».

Где-то читал гипотезу про т.н. «атомы сознания», как при делении клетки происходит запутывание частицы, как это запутанное состояние передается от родителей и т.д. Но после появления одноименного муз. альбома — статья выпала из поиска.

Существование психонуклона — это, по сути, существование души.

… если мы будем пытаться измерить давление по косвенным признакам...

Хорошее замечание.
Допустим, просто допустим, что есть некая фундаментальная частица — психо-нуклон — носитель субъективного опыта

И снова предлагаю грязный чит: субъективный опыт (ощущение, переживание) заключено не в какую-то определённую частицу, а во взаимодействие между любыми частицами, т.е. ощущение = взаимодействие.
Вам предлагают перенести Ваше сознание в робота. И перед Вами стоит выбор — переселится в робота и обрести вечную жизнь или все-таки дожить остаток вашей жизни в естественной форме.

Ну вот еще у одного человека то же заблуждение. Если вы "перенесете ваше сознание в робота", вы не обретете вечную жизнь. Для вас лично ничего не изменится. Это ничем не отличается от брата-близнеца или передачи своих знаний ребенку или ученику. Это другая личность, у которой есть какой-то процент знаний, общих с вашими.


Более правильный вариант это заменить нейроны на искусственные аналоги, как описано в статье. Но тут субъективный опыт должен быть по определению, если они действительно работают полностью аналогично.

С точки зрения этого робота, он это Вы и есть, и он, то есть Вы в нём, вечную жизнь таки обрели. Но какое Вам до него дело, вопрос конечно интересный. И этот вопрос скорее про выбранное в обществе отношение к происходящему. Про то, как удастся подать. Если Вас убивать, и всё Ваше отдавать Вашей копии, считающей себя Вами, то такие копии довольно легко убедят всех вокруг, что никаких проблем нет, и после «процедуры» Вы чувствуете себя превосходно.


Собственно, это уже даже экранизировалось («Престиж», например), и наверняка не раз.

Мне кажется, лучше всего это было отражено в фильме "Transcendence" (в нашем прокате "Превосходство"). Там собственно гг умер, а сюжет как раз крутится вокруг того, кто же всё-таки в машине, гг или не гг...

С точки зрения этого робота, он это Вы и есть, и он, то есть Вы в нём, вечную жизнь таки обрели.

А с точки зрения какого-нибудь ученика-кунфуиста он это и есть его сенсей. Сенсей обрел вечную жизнь?


И этот вопрос скорее про выбранное в обществе отношение к происходящему.

Нет, именно это я и пытаюсь объяснить. Это вопрос про существование отдельной личности. Любая копия это отдельная личность. Уничтожение любой личности это убийство. Совершенно неважно, скопировали ли вы знания одной личности в другую за 10 секунд или обучали 20 лет.


такие копии довольно легко убедят всех вокруг, что никаких проблем нет

Значит и одному брату-близнецу можно убивать другого, если он убедит всех вокруг, что проблем нет?


Собственно, это уже даже экранизировалось («Престиж», например), и наверняка не раз.

Это фильм не смотрел, но как раз разные фильмы и статьи и поддерживают это заблужение. Людям хочется верить в сказку. Но сказки тут нет.

Хотел ещё в пример привести 7 серию Черного Зеркала, «Белое рождество», там про рабство цифровых копий людей, снятых с помощью временного импланта.

Именно в структуре языка мы находи метаструктуру сознания а в оречевленных языковых схемах его семантическое содержание
Высказанную в статье идею об иллюзорности сознания можно также переложить на клинические случаи поражения мозга.

Где-то читал про случай повреждения мозга у пациента, когда осталось рабочим только одно из полушарий мозга, и с этим полушарием человек вполне сносно мог жить и дальше без каких-либо потерь своих качеств личности, то есть функции второй половины мозга успешно взяла на себя оставшаяся в строю половинка. Я тогда ещё подумал, а что будет — если здоровый мозг разделить на две части и вставить вторую половинку в другое тело — будет ли это являться копированием одной личности в два экземпляра.

Также, в фильме Memento отражена история, основанная на общеизвестных случаях поражения мозга, когда человек перестаёт запоминать, накапливать новый опыт, хорошо помня только свой опыт до момента поражения мозга, при этом короткая память (ОЗУ, в техническом смысле) сохраняет только опыт последних нескольких минут. И человек там в фильме был, по сути, каждый пятиминутный эпизод новой личностью с доступом к исходному опыту и он пытался общаться с другими личностями посредством передачи им сообщений на внешний носитель (так как на внутренний он не был способен записать из-за болезни).

А можно ещё в том же ключе поразмышлять про те случаи поражения мозга, когда человек становится “овощем”, и уже не понятно, осталось ли у него сознание или нет, потому что это внешне никак не проявляется. Вот, например, случай с Шумахером был. Помню, какую-то статью читал, что когда его (по сути, “овоща”) посадили в инвалидное кресло и показали прекрасную панораму с видом на горы и озеро, то он, вроде, заплакал, отчего заключили, что Шумахер может проявлять эмоции. Тут, ведь, может быть так, что условная ОЗУ в мозге поражена и не способна обработать даже часть поступающей информации из ПЗУ (постоянной памяти), тем не менее способно регистрировать сиюсекундный опыт или какой-то отдельный поток сознания, анализирующий внешнюю информацию способен вызвать проявление чувства или эмоции в теле, но не способен эту чувство осознать (то самое роевое сознание, о котором упоминалось в статье — какой-то рой сознания обработал информацию и выдал эмоцию).

Вообще, если рассуждать в таком ключе, то всплывают депрессивные мысли о том, что ты (человек) принципиально ничем не отличаешься от “бездушного” компа — просто вычислительный ресурс и/или алгоритм работы поэффективнее. Да, что — компа — даже от дерева или камня нет принципиального отличия (и не пахнет тем, что бог вдохнул в человека “жизнь”, сделав его мыслящим существом, принципиально отделив от всего неживого).

Просто у биологических существ есть механизм воспроизводства своих копий и есть механизм изменчивости. А дальше — оставь эту систему на миллиарды лет эволюции и получим, что имеем. Существа способные передвигаться, накапливать опыт, обращаться к опыту, иметь краткосрочные и долгосрочные цели имеют преимущества по сравнению с существами этим не обладающими и лежащими как камни, но всё это не добавляет никакого божественного смысла этим высокоразвитым существам, потому что самосознание, как процесс естественного отбора — “бездушно” в нашем культурном общепринятом смысле души или сознания — так же естественно и бездушно, как движения тростника на ветру или листа дерева. Да, оно сложнее, организованнее, но происходит, как реакция, на внешние условия — всё одно — будь то ветер и тростник, колышущийся на ветру, или поток информации и обрабатывающий эту информацию человеческий мозг, в результате чего происходит какая-то реакция мозга на поступившую информацию.
принципиально ничем не отличаешься от “бездушного” компа

Трудную проблему сознания уже смотрели? Пенроуза прочли?

Просто у биологических существ есть механизм воспроизводства своих копий и есть механизм изменчивости

Когда пытаешься это реализовать на компе — понимаешь, что никакого «просто» нет. Среда определяет какие сущности выживут, т.е. сама среда уже запрограммирована на то, какие сущности в ней будут преобладать.
> Трудную проблему сознания уже смотрели? Пенроуза прочли?

Специально не изучал «Трудную проблему». Пенроуза начинал читать, но не пошло (всё-таки на уровне нейронов уже не должны сказываться квантовые процессы). Читал How The Mind Works by Pinker и Darwin's Dangerous Idea by Dennet — почти всё из этого мне представлялось правдоподобным, когда читал (давно, правда, это было). Спасибо за идею, надо будет освежить и почитать что-нибудь новое на эту тему из научно-популярного.

> Среда определяет какие сущности выживут, т.е. сама среда уже запрограммирована на то, какие сущности в ней будут преобладать.

Вы это описываете, как наличие (существование) какого-то плана, программы. Что-то в духе креационизма. Я считаю, что никакого плана не было. Было развитие системы во всех возможных направлениях (эволюционный куст, если говорим про биологические виды), а план виден нам пост-фактум, когда система уже дошла до этого особенного состояния, в какой-то определённый его момент (потому что через какое-то время всё может пойти в тартарары). В бесчётном количестве других состояний, которые были «бездушно» перебраны природой/средой и отброшены, ни о каком плане не может быть речи.

Сама же среда меняется. Если же говорить в общем, глобальном, смысле об общих законах вселенной, которые сделали возможными звезды, жизнь и т.д., то, по аналогии, антропным принципом можно объяснить, почему так сложилось. В других вселенных, которые существовали до нашей, или существуют параллельно нашей, перебираются все возможные состояния.
В других вселенных, которые существовали до нашей

Вера в существование «других вселенных» ничем не научнее веры в Бога. Доказать что эти вселенные существуют не возможно в принципе.

Вообще что отличает Природу как «бездушный механизм» от Бога? Т.е. в чем принципиальное отличие атеиста от верующего? Атеист считает, что у Природы нет сознания и она «сотворила» все не осознанно. А верующий считает, что Природа сознательна и сотворила все осознанно. Так? Но! Если атеист идет дальше и говорит, что сознания нет и у человека — то тем самым он нивелирует разницу между Богом и Природой. Тогда исчезает сама суть разногласия — остается только вопрос есть ли сознание вообще как феномен.
Вера в существование «других вселенных» ничем не научнее веры в Бога. Доказать что эти вселенные существуют не возможно в принципе.

Параллельные вселенные являются следствием большинства инфляционных моделей Вселенной.
Доказать их существование, правда, только для самого себя, можно с помощью машины для квантового самоубийства.
Доказать их существование, правда, только для самого себя, можно с помощью машины для квантового самоубийства

Гы… Доказать существование Бога для самого себя можно с помощью обычного самоубийства, лол! А доказывать существование сознания и не нужно, т.к. именно сознание требует каких-либо доказательств, а если его нет — то не для кого и доказывать.
Есть вариант, что после того, как Вы роскомнадзорнитесь, то ничего не произойдёт. И это не будет доказательством отсутствия бога :)

Так что риск в эксперименте и качественный выход несоразмерны, не рекомендую повторять!
Аналогично с доказательством параллельных вселенных.
Не совсем так. Множественные вселенные, следующие из инфляционных теорий, и параллельные вселенные в многомировой интерпретации — это разные вещи. Эксперимент с квантовым самоубийством возможет только для второго типа множественных вселенных.
Если я ничего не путаю, то Тегмарк писал, что эти типы вселенных могут совпадать.

Но даже если это разные типы, то квантовое самоубийство сработает (точнее не сработает) и для первого типа тоже, так как среди бесконечного количества вселенных первого типа обязательно будет бесконечное количество идентичных копий наблюдателя, половина из которых выживет в результате эксперимента. А половина от бесконечности — это бесконечность.
Вот зря Вы фразу про другие вселенные добавили. Они в данном диалоге вообще низачем, не зависимо от того, верите Вы в них или нет. Лишь разговор увело в сторону…
Пенроуз фрик и выводы про мозги делает бредовые. У подобных фриков максимум чего полезного в книжках бывает — это собранная феноменология. И то, нужно понимать что она предвзята и однобока.
Как вывод Бесполезны тексты как представл. в статье, или подобные индуктивно или дедуктивные размышления. Полезно только брать для анализа ЭКСПЕРИМЕНТ и разбирать его. Ну или разрабатывать и /или проводить самому.
Делая вывод из анализа эксперимента возможно дополнять или прореживать актуальную модель например сознания.

Камень преткновения в том, что у нас немного разные задачи.


У вас задача теоретическая, у нас сугубо практическая. Можно очень долго ждать, пока мы окончательно решим, есть ли у сознания объектность. Речь совсем не об этом. Нужно с чем-то работать. Нужна отправная точка, нужна модель. Возможно неверная, возможно неидеальная, но модель всё равно нужна.


Я написал эту статью не потому, что хочу решить сознание, а потому что данная теория формализуется. А значит с ней можно работать. На её основе можно делать предсказания и получать результаты.


Собственно, отчасти эта статья — ответ на недавнюю статью в которой сознание описывалось через мгновенные связи. Вот по той теории нельзя работать практически. По энергетической теории тоже нельзя работать, поскольку она неприменима к ИИ.


Поставленный вопрос теперь лежит не только в теоретической плоскости. Дайте нам что-то, что можно формализовать. Тогда это будет конструктивная беседа.

Не понял?? как я разрабатывая планируя проводя конкретный психофизиологический эксперимент могу решать задачу теоретически???? Мой результат это фармакология, обучение человека, алгоритм для ИИ. И все потому что это реально. а вы пытаетесь построить абстракцию без какой либо связи биологич объектом. Это даже забавно. А вы попробуйте со своей идеей выступить на конференции по нейронауке. Можете даже на кафедре соответсвующей Вуза. И Увидите и обратную связь

Так вам надо просто написать ТЗ на «разработку аппаратно программного средства имитирующее высокоуровневые параметры решения интеллектуальных задач»??

Пока что в качестве Вашего результата я вижу только кучу бессвязных комментариев...

Ну нет у меня такого же таланта графомании. Мне тут вас не догнать. С нетерпением жду вашу теорию в числе Шнобелевских, не забудьте оповестить )))
выводы о механизме сознания полученные методом интроспекции аналогично выводам доказывающим Теорию ПЛОСКОЙ земли
В частности, – (1) мы видим, что Земля плоская; (2) с Земли ничего не сваливается; (3) железные дороги состоят из прямых рельсов, а если бы Земля не была круглой, то рельсы должны были бы иметь кривизну и пр.
Кстати, аргументы в пользу плоскости Земли логичны, но абсолютно неправильны.
В IT адепты плоской земли??
Пример А. Переселенцу клетку за клеткой заменяют тело на не биологические аналоги.

Пример Б. Переселенцу внедрили воспоминания, что он был биологическим, но на самом деле просто создали таким, чтобы он считал биологическое состояние предшествующим себе.

Пример В. Биологическое состояние было, но с него сняли копию, оригинал уничтожили, а механический экземпляр сконструировали, что бы он думал, что был биологическим, внедрив воспоминания исходного существа.

Я утверждаю, что никто, ни объективный наблюдатель, ни сам переселенец в оконечной точке времени не сможет различить этих вариантов. Между получившимися ситуациями нет разницы ни субъективно, ни объективно.

Пример Г. Переселенец просто живет, и клетка за клеткой заменяются естественным процессом.
Хорошая статья, но остался невыясненным вопрос, что первично — сепульки или сепуление?
Много необоснованных выводов, ошибочных предположений…
Вот парочка для примера:

1. Корчмарюковская сеттлеретика (которой он ещё лет 20 назад в фидошке всех задолбал)
Почему не: а)меняем, а сознание постепенно угасает
б) отключается по пороговому количеству замен

2) Ставим на паузу. Да, железку можно, у нас все ходы записаны
С мозгом не выйдет. Если полностью остановим все процессы (электрические, химические), назад уже не запустим. Или придётся записать где-то все данные о электрических потенциалах, их производных по времени, направления движения и скорости всех молекул, атомов, ионов и всё это восстановить при рестарте.Есть ли принципиальная возможность? Допустим. А если предположить участие квантовых эффектов в рассматриваемом феномене, то нет. Мгновенно заморозьте мозг (что уже принципиально невозможно) жидкими гелием. Потом так же разморозьте. Всё, приехали. Никакого сознания, тепловой шум.

А ещё много орфографических ошибок.

Если полностью остановим все процессы (электрические, химические), назад уже не запустим.
Мгновенно заморозьте мозг (что уже принципиально невозможно) жидкими гелием. Потом так же разморозьте. Всё, приехали. Никакого сознания, тепловой шум.

Хорошо, что лягушки, которые каждый год переживают полную остановку электрических и химических процессов, про это не знают. И это не считая недавнего эксперимента на мозгах свиней, которые перезапустили спустя много часов после смерти. Полное восстановление метаболизма. Хотя до этого у всех было мнение, что клетки мозга необратимо повреждаются от нехватки кислорода. А дело оказалось в том, что до этого просто не было правильного инструмента для реанимации мозга. Так что через 20-30 лет для некоторых людей в некоторых случаях смерть будет обратимой.
Пусть клетки не повреждаются. Метаболизм восстанавливается. Даже условные рефлексы. Неважно. Спросите у лягушки или свиньи «вы меня узнаёте?» или «Какой сегодня год?».
Как только разрешат возникший вопрос с моралью: обучат, убьют, воскресят, спросят. Вначале на мышах, потом свиньях, макаках. А когда техника восстановления будет отработана, то и на какой-нибудь жертве дтп, когда официально признав человека мёртвым, вместо забора органов попросят у родных разрешение на «воскрешение». И, кстати, лягушки после размораживания кукухой не едут, так что она вас узнает, если запомнила.

Хорошая статья, особенно первая половина, есть очень точные и емкие формулировки по поводу сознания как саморефлексии. Во второй попытка логически вывести какие-то следствия приводит вас по моему к ложным выводам. Или хотя бы не достаточно обоснованным, но не потому что вы не владеете логикой, а потому что предмет не настолько определен, чтобы можно было сделать однозначный логический вывод.
Начнем с того, что сознание не может не быть. Им мы что-то называем, значит оно уже есть. Хотя бы как феномен. Иллюзорность его вообще не выдерживает критики. Иллюзорность — это несоответствие феномена предоставляемой им реальности. О какой иллюзорности можно говорить, если речь вообще о чисто феноменальном явлении? (См. Гуссерль). Сознание не является отражением чего-либо из вне. Нейронный коррелят тут совсем не причем, он не есть сознание, нейроны сами осознаются, они состоят из простых квалиа цвета и линий, а не наоборот — сознание из нейронов. Но это типичная ошибка, не ваша, конечно. Мне приходилось беседовать с многими философами, они тоже не понимают этой ловушки сознания.
Но речь о другом — как возможно знание о кввлиа или сознании, который тут больше всего всех заинтересовал. Очень просто — через речь. И больше никак. Основная путаница возникает потому что все считают само собой разумеющимся объективное, а субъективное вот надо ещё доказать через объективное. Но объективное — это результат речевого соглашения, интерсубьективное. Не более того. И если подойти к вопросу именно так, то все встанет на свои места. Но оставлю эти размышления вам ) Меня больше интересует вопрос теста на сознание, так как Тьюринга уже как минимум бессилен против имитации. Ваша идея тоже не поймет имитацию, так как и человек не на все вопросы почему ответит. Ну и машину можно научить на них отвечать, был бы датасет. Что тогда?

Любой внешний тест на сознание будет подвержен возможности имитации. Нужно смотреть не на то, что происходит снаружи, а что при этом происходит внутри, как система принимает решение о том или ином ответе или решении. Но для того, чтобы составить конкретный критерий у нас пока знаний маловато.

"Происходит внутри" — это тоже от третьего лица, а сознание существует только от первого. Так что, наблюдая за работой отладчика или ещё чего, вы тоже ничего не увидите, только активность чего то (нейронов, программы), что никак не говорит о том что это сознание. Может да, а может и нет. Потому что любое наблюдение возможно только из ДРУГОГО сознания, что не позволяет быть в сознании наблюдаемого. То есть я не могу наблюдать чужое сознание, находясь в своем сознании. В этом ошибка большинства рассуждений тут. И поэтому вы можете судить о наличии сознания только по тому что человек говорит "Я сознаю, что". И в принципе только на этом можно подловить имитацию. А подловить можно только на том, что имитация не выполняет, а имитирует выполнение предоставлением готовых вариантов ( ответы по даже гибкому, но шаблону у ботов). И когда то облажается — не окажется такого шаблона. Сири заваливается очень быстро. Только это не вопросы почему как у вас. Так облажается и человек ))

Это точка преткновения. Сознание существует только от первого лица, но, тем не менее должен существовать набор правил, при соблюдении которых это самое сознание у первого лица проявляется. Если мы поймём набор правил, то никакие тесты уже не понадобятся.

Совершенно верно. Но самое интересное в том, что такой набор правил уже существует. В речи. Если я говорю, "я осознаю свой поступок" вы же хорошо понимаете, что я имею ввиду и какие последствия (для меня, например, в поступке) это имеет. Это определенные правила, что и в каких ситуациях мы называем сознанием. Правда, мы четко не можем выразить эти правила, для нас чувство осознанности во многом интуитивно. И проблема только в этом. Стоит отметить, что сознание в возрасте 2-3 года формируется именно при помощи речи (направленной на себя — рефлексивной). То есть оно и выражается только в речи, и формируется при помощи речи. См. статьи про двухактную структуру сознания. Поэтому как раз становится актуальным вопрос речевого теста.

Я имел ввиду именно внутренние правила. Некоторый критерий того, как система должна обрабатывать информацию внутри себя. То есть то, что можно пронаблюдать объективно. При этом никого ни о чем спрашивать не нужно.


То, что сознание формируется в 2-3 года кажется мне сомнительным. Думаю, тут идёт речь о сознании в немного другом смысле. Хотя всё может быть.

Внутренние правила не помогут, о чем я и намекал выше. Любой наблюдаемый процесс обработки не скажет вам, есть там сознание или нет. Потому что сознание принципиально затрагивает те же процессы, что и бессознательные. Оно из них состоит. Посмотрите опыты с праймингом или слепотой по невниманию. Одно вы осознаете, а другое нет в тоже время. И как вы отличите со стороны, что вы в картинке не осознали?

Никакого другого сознания нет, помимо формирующегося постепенно, начиная с речевого взрыва и использования шифтера «я» в речи, что и порождает описываемую вами самореференцию. Все остальные «распространения» понятия на все что угодно вплоть до фундаментального свойства материи (натуралистичекий дуализм Чалмерса) — не более чем спекуляции, ничем не обоснованные, но появляющиеся как раз в силу отсутствия четкого определения сознания. Интериоризация рефлексивной речи хотя бы предоставляет такое обоснование (см. указанные статьи).

Речь происходит из необходимости членов группы общаться между собой. Этот инструмент решает те же задачи, какие решает абстрактная телепатия, а именно позволяет членам группы действовать как единое целое. Это инструмент передачи информации. Речь может быть актуальной без всякой связи с сознанием. Например, роевые роботы могут передавать друг другу информацию, хотя каждый из них будет обычным автоматам.


Возможно, сознание человека формируется (укрепляется) при овладении речью, но это никак не может быть общим правилом. Иначе нам придётся признать, что системы не обладающие речью принципиально не могут иметь сознания. Это довольно сильное предположение и кажется оно сомнительным.


Мне рисуется фантастическая планета, где разумный вид очень умелых охотников живёт без каких-либо групп, как медведи на земле. Эти существа очень умны и хитры, умеют ставить ловушки, используют инструменты, анализировать повадки добычи, но поскольку образ жизни у них не групповой, то и потребности в сотрудничестве у них нет. А значит нет и речи. (Тут, кстати, возникает вопрос о соотнесении понятий интеллекта и сознания).


Мы должны исходить из того, что сознание не уникально для человеческого вида. То, что нам неизвестно других примеров, не означает, что таковых нет. Возможно, у человека сознание связано с речью, но это причина, а не сам феномен.

А вы видели сознание у кого то кроме человека? Предположение его у тех, кто не может о нем сказать, не более чем спекуляция, так как ни доказать, ни опровергнуть ее не представляется возможным (нефальсифицируемо).

Немного теории. Чтобы передавать информацию, необходимо иметь одинаковые декодеры. Или когнитивные схемы в случае человека. То есть, чтобы мне передать вам текст, мы должны ОБА выучить букварь. Иначе ничего я вам не передам. Так же со словами и понятиями (контекстом слов). Поэтому речь суть договоренность. Но у речи еще более серьезная когнитивная функция — при помощи нее мы можем СТРОИТЬ модели, в том числе того, что пытаемся нащупать внутри себя (сознание). Что не могут (сами, произвольно) животные и вообще виды без речи. И медведь поэтому остается медведем, а дельфин дельфином, не смотря на незаурядный интеллект. И мы их дрессируем, а не они нас. Только и всего.

Должен поправиться, конечно, инструментально мы можем отследить архитектуру, требуемую для сознания потенциально, хотя не можем достоверно сказать, что оно в этой архитектуре сейчас вот осуществляется. Но чтобы найти такую архитектуру, надо сначала понять, в тем оно состоит. Ведь мы итак смотрим на мозг, самыми разными методами, коннектома, например, но видим, как говорится «фигу». Потому что не понимаем, что должны увидеть.

Наличие сознание у того, кто о нем может сказать тоже нефальсифицируемо (см. тезис Сёрла).


То, что без речи нельзя строить модели — неверно. Как минимум можно обойтись "внутренним языком", причем необязательно последовательным. Внутренний язык может различаться у различных индивидов. Речь надстраивается сверху.


Вот внутренний язык скорее всего должен быть в каком либо виде. Хотя бы потому, что аналитическая система должна снижать размерность массива сенсорных данных, для чего применяются распознавание образов, классификация, группирование и т.д. Любой образ или шаблон — это еще не совсем, но уже практически объект внутреннего языка.

Внутренний язык может появиться только путем интериоризации внешнего. Другого никто не видел в психологии. Ну или опять же не фальсифицируемо (что тогда есть речь, если она не участвует в коммуникации?).

// Наличие сознание у того, кто о нем может сказать тоже нефальсифицируемо (см. тезис Сёрла).
Не совсем так. Серл в Китайской комнате говорит вообще не про сознание, а про понимание человеком внутри (комната в целом считается что «понимает»). И опять же, связь сознания с речью хотя бы доказуема через речевую рефлексию. А безмолвным она только может быть приписана. Без каких-либо обоснований. Просто из эмпатии.

Терминологическая проблема.


Внутренний язык не сводится к внутреннему голосу. Внутренний язык — это не то, что "произносится про себя". То что произносится про себя — это работа центров речи. Речь про себя удобна, поскольку помогает имитировать тот процесс который происходит при общении. Львиная доля информации поступает извне через речевые центры и мозг неплохо умеет работать с информацией, которая туда попадает. Поэтому довольно удобно использовать эту систему во внутренней обработке тоже. Проговаривание про себя — это та же самая речь, только без внешних проявлений.


Мне надо уточнить терминологию. Возможно, использование термина "внутренний язык" некорректно.


комната в целом считается что «понимает»

А вот Сёрл так не считает.

при помощи нее мы можем СТРОИТЬ модели. Что не могут (сами, произвольно) животные и вообще виды без речи.

Это ничем не подтвержденное утверждение.

Ну как же, если у них нет речи, они при помощи нее очевидно не могут строить модели. Как-то иначе могут, при изменении среды меняют поведение. Но не произвольно как мы.
Но не произвольно как мы.

Снова, это ничем не подтвержденное утверждение.


Я вот утверждаю, что они могут произвольно строить модели без речи, потому что речь для этого не требуется. Кто из нас прав и почему?

Почему вы решили, что оно не подтвержденное, прежде чем спросить подтверждения?
Зоопсихологи еще спорят с когнитивистами на счет эпизодической памяти, но вот на счет произвольности даже не спорят при всей их любви к животным ))) Не мечтают об абстрактных понятиях белки. Не рисуют красные квадраты. Скажем так — это подтверждение от обратного.
Почему вы решили, что оно не подтвержденное, прежде чем спросить подтверждения?

Потому что в вашем комментарии потдтверждений нет, и нет ссылок на подтверждение кем-то другим.


Не мечтают об абстрактных понятиях белки. Не рисуют красные квадраты.

Эти вещи никак не связаны с произвольностью. И да, утверждение про абстрактные понятия тоже неподтвержденное. Более того, животным снятся сны, а сон это одна из абстрактных вещей.


Скажем так — это подтверждение от обратного.

Нет, это отсутствие доказательств. Что делает ваши логические выводы неверными.

Если вам нужно подтверждение в виде статьи и ссылок на каждое мое слово, то лучше на этом закончить. Удачи.
на каждое мое слово

Я вроде бы нигде не говорил про каждое слово. Не на каждое, а на недоказанные утверждения. Это основной принцип ведения дискуссии. Я не знаю, зачем вы их говорите в таком количестве.


Причем доказательство надо привести сначала только на первое. Потому что если у вас его нет, то и нет смысла говорить утверждения, на нем основанные, и приводить их доказательства, так как они считаются заведомо ложными. Возможно они даже случайно совпадут с реальным положением дел, но полагаться на них нельзя.

Мне рисуется фантастическая планета, где разумный вид очень умелых охотников живёт без каких-либо групп, как медведи на земле. Эти существа очень умны и хитры, умеют ставить ловушки, используют инструменты, анализировать повадки добычи, но поскольку образ жизни у них не групповой, то и потребности в сотрудничестве у них нет. А значит нет и речи.

Нарисовать в уме можно что угодно, вопрос в том, насколько это реалистично. Замечу, что на нашей бренной планете наиболее сознательное поведение демонстрируют как раз наиболее социальные и болтливые виды — шимпанзе и дельфины (последние так вообще друг к другу по именам обращаются). Совпадение? Не думаю.
наблюдая за работой отладчика или ещё чего, вы тоже ничего не увидите, только активность чего то (нейронов, программы), что никак не говорит о том что это сознание.
Любой наблюдаемый процесс обработки не скажет вам, есть там сознание или нет.

Скажет. Потому что это делается в 2 этапа. Сначала мы изучаем процессы, которые заведомо точно приводят к сознанию. То есть мы точно знаем, что человек не врет, когда говорит, что находится в сознании, и изучаем процесы, которые при этом происходят. Затем, когда процессы изучены в достаточной степени, проверям их наличие в изучаемой системе, для которой надо определить наличие сознания. На каждом этапе есть источник достоверной информации.

То есть мы точно знаем, что человек не врет, когда говорит, что находится в сознании, и изучаем процесы, которые при этом происходят.

Вот как раз этим занята целая куча нейрофизиологов, психологов и прочие ученые по всему миру. И пока не могут обнаружить. В чем проблема по вашему?

Я могу предложить абсолютно ни на чем не обоснованную, никакими экспериментами не подтверждённую гипотезу :)


Возможно сознание реализуется как информационный процесс второго уровня, примерно как работает виртуальная джава-машина. Если это так, то отыскать сознательные процессы примерно так же сложно, как разобраться с тем, что происходит в байткоде джава-машины по работе транзисторов в арифметически-логическом устройстве. То есть, нужно пройти несколько уровней абстракции, чтобы добраться до процесса, таки непосредственно связанного с сознательной деятельностью....


:)… Это так, в качестве вброса на вентилятор.

Проблема в том, что сопоставление «ага! я осознаю» с конфигурацией активности нейронов/транзисторов никак не помогает. Полмозга отключают (как Вы описали), а оно остается. Тут какая-то другая проблема.
И Вы правы в том, что тут не избежать абстрактных переходов от одной модели рассмотрения к другой. Но этот переход создает тот самый «объяснительный разрыв». Проблема на самом деле в том, что мы нейроны описываем совсем в другой модели чем сознание. И они пока не пересекаются ни в одной точке. Вот тут у меня есть подробнее об этом. www.academia.edu/40846196/Cognitive_aspect_of_the_mind-body_problem
Можно нарисовать целую стопку уровней информационных процессов:

1 уровень — физический (частицы и простейшие молекулы)
2 уровень — химический (сложные молекулы и «пассивные» соединения веществ)
3 уровень — биологический («активные» соединения веществ)
4 уровень — психический (нервная система)
5 уровень — психологический (сложная нервная система с развитым языком)
Вот как раз этим занята целая куча нейрофизиологов, психологов и прочие ученые по всему миру.

Чем именно? Слушают, как кто-то говорит, что он в в сознании?) Я говорил про метод, которым можно подтвердить, а не про то, что уже кто-то подтвердил. В даннный момент да, много ученых изучают процесы, которые при этом происходят. Это ничем не противоречит моим словам.


В чем проблема по вашему?

Проблемы зафиксировать "человек сказал, что он в сознании" нет никакой. Проблемы проверить, что он сказал правду тоже, это договоренность по условиям эксперимента. Экспериментатор может вообще сам себя изучать, и будет точно знать, обманывает он сам себя или нет.

Проблема ведь не только в том, чтобы программа могла вывести текстом описание того, что она сделала до этого. Иначе бы многие программы могли обладать сознанием уже сейчас. Но что-то нам мешает их таковыми считать. Значит проблема не столько в выводе текста «о программе», сколько в его чтении. Кем, как? Вот на эти вопросы ответа нет.

Вообще, тест Тьюринга хорош. Его проблема в том, что его начали реально проводить. Он предлагался как мысленный эксперимент, а не для реального проведения. В результате вместо соревнования на построение систем с сознанием получились соревнования на прохождения теста Тьюринга, а он оказался значительно менее устойчив к имитации, чем хотелось бы.


Вероятно, можно разработать систему тестов, которая бы оценивала разные стороны системы, свойственные работе сознания. С определённого уровня сложности тестов, сложность принимающих их осознающих систем должна стать меньше сложности принимающих их имитирующих систем. Если бы это было не так, то осознающих систем эволюция бы не создала.


То есть, возможно, если делать ставку на универсальность, то можно создать хорошо работающие внешние тесты.

Интересное замечание на счет применения теста Тьюринга. Сходство имитации и оригинала на определенном уровне сложности мне тоже близка. То есть, чтобы не облажаться, имитации придется не подыскивать шаблоны, а выполнять саму имитируемую функцию, пройдя через этап генерации новых шаблонов. Вы очень точно заметили, что, чтобы знать о процессе, надо иметь его модель, в которой его описывать (то есть фиксировать его состояния, изменения), а это не далеко от шаблонов.

как возможно знание о квалиа или сознании, который тут больше всего всех заинтересовал. Очень просто — через речь. И больше никак.

По-вашему, у животных нет сознания? Животное не может быть "без сознания"?
Нет, это не игра слов. Термин "без сознания" имеет определенную причину, по которой он появился.

Термин «без сознания» имеет определенную причину, по которой он появился

Какую причину? Конечно, животное тоже можно на время «вырубить» ударом дубинки, чтобы оно потеряло сознание, но тут наверно о другом отличии сознания и без сознания.

По-вашему, у животных нет сознания?

Не вижу основания им его приписывать, только из любви к ним и некоторой схожести с нами. Если не имеем никаких признаков его, почему мы должны считать, что оно там есть?
но тут наверно о другом отличии сознания и без сознания.

Я же написал, что это не игра слов. Это не другое, а то же самое. Животное можно на время вырубить ударом дубинки, и разница между 2 этими состояниями называется наличие сознания. Следовательно, сознание у животных есть.
Возможно вы под словом "сознание" подразумеваете что-то другое, но тогда вы просто некорректно используете термин. Можете привести определение, которое вы используете?


Если не имеем никаких признаков его, почему мы должны считать, что оно там есть?

Я же только что описал конкретный объективный признак — животное может находиться в состоянии "без сознания", и оно отличается от состояния "в сознании". Другой признак — наличие эмоций у животных.

Животное можно на время вырубить ударом дубинки, и разница между 2 этими состояниями называется наличие сознания.

Нет, в науке о сознании под ним имеется не такое примитивное понимание как отказ мозга от работы вообще в результате удара по голове. Мозг может воспринимать, запоминать, решать при этом бессознательно (см. имплицитное научение, прайминг и т.п.). Вам стоит посмотреть, что в науке о сознании подразумевается под сознанием. В книге Ревонсуо А., например. Эмоции — это тоже не сознание. Эмоции — это эмоции. Они тоже осознаются, но это отдельный феномен.
Мозг может воспринимать, запоминать, решать при этом бессознательно

Что снова доказывает наличие сознания у животных. Мозг животных может воспринимать бессознательно в той же мере, в какой это происходит у человека.


Эмоции — это тоже не сознание. Эмоции — это эмоции.

Так вопрос в том, как они появляются. Вот так и появляются, это следствие работы сознания.


Вам стоит посмотреть, что в науке о сознании подразумевается под сознанием. В книге Ревонсуо А., например.

Почему вы решили, что я не смотрел? Те определения, которые мне известны, к животным тоже относятся.


В книге Ревонсуо А написано: "Как бы тщательно мы ни изучали физику, химию и биологию животных, эмпирические свидетельства, которые мы при этом получаем, ни в малейшей степени не дают объективного ответа на вопрос, ощущают ли животные каким-то образом свое собственное существование, т. е. имеют ли они субъективную психологическую реальность, а если имеют, что она собой представляет и каким животные видят мир.". А также "Как мы можем объективно определить, какие животные обладают сознанием, а какие – нет?". Там говорится, что это открытый вопрос.

Может быть так: Сознание в роли Наблюдателя коллапсирует волновую функцию. Если машина сумеет это сделать, значит она обладает сознанием. Хитроумный эксперимент-тест на этой основе мог бы дать новые данные для размышления.

Волновую функцию чего?

Электрона, проходящего через щели под наблюдением и без оного.

Но, наблюдаем электрон мы то не глазами, а через машину, значит, когда мы спросим машину, наблюдала ли она коллапс, мы задействуем своё сознание тоже. И станет непонятно, какой элемент системы привёл к коллапсу.

Я ж и говорю, — тест должен быть «хитроумный»… )) Как-то нужно извернуться.
К коллапсу привёл фотонный детектор.

В исходном комментарии неявно предполагалось, что к коллапсу приводит сознание. Соответственно, ответ исходит из той же посылки.

… есть вещи, которые вы описать не можете. Например, вы не сможете описать мне, как для вас выглядит красный цвет.

Красный цвет для меня выглядит таким, каким мне его в детстве показывала мама, называя красным. Таким он выглядит и для Вас. Вообще все эти описания моих ощущений красного, соленого, приятного… — вопрос общественных договоренностей. Некую длину волны общество договаривается называть красным цветом.

Выглядит он (цвет) для каждого из нас сугубо индивидуально. Чисто аппаратные, «на уровне железа», трудности. Точно так же градусники покажут каждый свою температуру окружающей среды (если градуировку сделать до миллионных долей градуса). Это означает всего лишь невозможность производства абсолютно одинаковых датчиков измерения.
Красный цвет для меня выглядит таким, каким мне его в детстве показывала мама, называя красным.

Типичное скатывание с описания ощущения к описанию объекта, который вызывает это ощущение. Вы не можете с кем-то сравнить свои ощущения, чтобы заявить, что они одинаковые. Это не проблема точности, разброса показаний детекторов.

Аналогия из программирования: есть ссылки на объекты внешнего мира, и их сравнение не имеет смысла. Можно только узнать, что ссылки указывают на один и тот же объект.
Художественная литература дает бесчисленное множество примеров сравнения ощущений. Не менее богатый материал выдают всякого рода литературные критики. То есть речевых описаний ощущений хватает с избытком.
Оппоненты, их читатели и общество в целом, в результате наблюдения подобных дискуссий сравнивают и корректируют собственные описания ощущений.
В результате формируется общая (общественная, социумная) договоренность того, как «правильно» описывать свое ощущение от конкретного феномена.
Одинаковость ощущений у двух индивидов на уровне «показаний детекторов», детектировать не представляется возможным, хотя можно с уверенностью предполагать их несовпадение. При этом в описании и сравнении своих ощущений соленого и синего люди довольно часто сходятся. Иногда даже вынужденно, как, например, в случае с описанием цвета светофора.
Очень понравилось! Браво.

Причем даже может не новизной идей (мне, возможно, потому и понравилось, что хорошо коррелирует с моим представлением о предмете), а именно последовательностью изложения и аргументацией.

Меня один вопрос занимает — о копируемости сознания… По одному из данных определений, сознание есть Вычислительный процесс, который сам по себе — форма информации, а следовательно, как и любая информация, сознание может быть скопировано…

Но все-таки, процесс есть форма информации только в случае дискретности. Причем это должен быть единый процесс, либо совокупность синхронных процессов, которые (гипотетически) можно как-то в моменте остановить… Мы привыкли к нашим «вычислителям», у которых если не жёсткий диск, то дамп памяти… Однако в биологических системах тот же мозг — это система динамическая, асинхронная с асинхронными же обратными связями… Возможно ли для нее вообще какое-то дискретное состояние, что бы снять «дамп»? Или оно как фотон не имеет массы покоя, так и разум не имеет этого самого одномоментного единого «снапшота», с которого можно было бы снять «дамп»…

Может наше ощущение непрерывности во времени эти обосновано… Т.е. сознание это действительно процесс и его в одномоментное состояние не перевести без потерь. А ближайшая аналогия — рекуррентные нейронные сети, когда текущий выход определяется не только текущим входом, но в той или иной степени всеми прошлыми входами. Но рекуррентные сети вычисляются дискретно, а будь они непрерывными и асинхронными — снять копию стало бы большой проблемой! Для этого нужно было бы процесс остановить…

Для того, чтобы понять как копировать сознание, нужно разобраться с тем, что такое информация и информационный процесс.


Отец кибернетики Н. Винер сообщил миру следующее: "Информация — это всё то, что не материя и не энергия". Нематериальность информации вызвала немало исторических курьёзов, в частности навлекла на на кибернетику гнев марксистов- материалистов ("- Причём здесь это, всё материально".), но факт остаётся фактом: Относительно информации не выполняются законы сохранения, что приводит к тому, что она множится и дробится как хочет. Квантовая информация, относительно которой законы сохранения выполняются — вещь самобытная, это немного из другого мира.


Известно, что информация содержится в структуре материи и полях взаимодействий. Это подсказывает нам, что для копирования информации достаточно копировать структуру её носителя. Но это еще не всё. Допустим, я копирую информацию с hhd с файловой системой в виде ntfs на оптический диск с файловой системой iso. Материальный носитель очевидно разный, но информация может быть скопирована. Фокус в том, что в данном случае информация, содержащаяся в виде файла копируется переносом структуры между информационными "виртуальными" носителями, реализующими методы работы с файлами. Поэтому информация может копироваться не только между материальными, но и виртуальными "носителями". Метод копирования структуры универсален для любой формы информации, дискретной или аналоговой. Изобретение метода копирования структуры по сути было тем открытием, которое позволило жизни зародиться на планете. Когда клетка делится на две, она занимается именно воссозданием двух копий структуры из одной.


На самом деле, надо понимать, что дискретность не является принципиальным свойством информации. Нам удобно работать с битами, байтами, файлами и процессами, но это довольно значимое упрощение. Конечно, проще копировать то, что дискретно, но принцип переноса структуры универсален. Дискретная система или аналоговая, импульсная или непрерывная, электрическая или электрохимическая, с одним вычислительным процессом или вычислительным конгломератом перенос структуры сработает всегда.


Информационный процесс есть процесс изменения информации. Если нет изменения, нет и процесса. Сознание остановленное во времени — не сознание. Дамп процесса — не процесс. Нельзя рассмотреть информационный процесс вне изменяющихся состояний информационной структуры, поскольку именно это непрерывное изменение состояний и есть вычислительный процесс. Надо понимать, что важным условием существованием информационного процесса является наличие интерпретатора информационного состояния. ДНК бесполезна без полимеразы. Программа бесполезна без АЛУ. Интерпретатор всегда создаёт некоторое виртуальное пространство в рамках которого данные получают смысл. Нет интерпретатора, нет процесса, и по сути, нет самой информации.


Поэтому, чтобы скопировать сознание, нужно скопировать интерпретатор и его состояние. Высказываются гипотезы, что мозг для построения сознания реализует специальную виртуальную машину и даже гоняет байткод. Если гипотеза верна, то скопировать сознание может оказаться несколько проще, чем ожидалось, поскольку не потребуется воссоздавать работу всего мозга, а только проэмулировать реализуемую мозгом виртуальную машину и научиться переносить её состояние.

Спасибо за развернутый ответ, прочитал опять-таки с удовольствием, но… я немного в другой плоскости… давайте по аналогии с нашими вычислителями: компьютерами. Информационный процесс происходит главным образом в процессоре. Однако скопировав физический носитель (процессор же в данном случае носитель?) — вы с одной стороны скопируете все множество потенциальных процессов, но с другой: вряд-ли сможете скопировать именно тот, конкретный, который запущен на исполнение...


Сама по себе возможность сделать дамп памяти (оперативной) — специальная функция, которую разработчики потрудились реализовать. Внешними средствами скопировав физический носитель (память) — вы получите память, а не ее содержимое.


Хорошо, допустим вы под физическим носителем имеете ввиду его мгновенное состояние с учетом не только материи, но и энергии… но энергия — такая штука, что к ней плохо применима концепция «мгновенного состояния»...


Допустим, я придумал сравнительно несложный алгоритм, который будучи запущенным в среде исполнения с памятью и процессором становится саморазвивающийся, познающей, динамической системой. При этом процесс непрерывен, постоянен, не разделим на данные и программу, никакого промежуточного кэширования на диск не происходит… как такое скопировать?


Вы можете предложить остановить генератор тактовой частоты, но… Даже если сработает (а не произойдет массовой потери данных на прерванных на середине Операциях) — с реальным мозгом такого провернуть нельзя...

Ну, таки да, есть техническая проблема с тем, как копировать данные, которые содержатся не в долговременной памяти. В мозге есть некоторое количество кольцевых структур, которые, по видимому, играют роль оперативной памяти и гоняют по кругу быструю информацию. Понятно, что такая информация не особо долговечная и очень быстро протухает. Если у нас весь процесс живёт в оперативке, то его действительно не так просто скопировать.


Однако, не факт, что в мозге такие оперативные структуры так уж значительны. Эксперименты по оживлению свиных мозгов, когда в мозге останавливали все процессы, а потом спустя некоторое время запускали заново проводились. Мозговая активность возобновлялась. Так что, возможно, в данном случае быстрой информацией можно просто пренебречь. Например, известно, что человек не помнит последние 7-8 минут перед засыпанием. Быстрая информация предшествующая сну не переносится в долговременную и теряется. И ничего вроде бы...

Видите ли в чем дело… Человеческое существо обладает непрерывностью не только в собственном сознании. Его «аптайм» в обычном случае равен продолжительности жизни. Т.е. для него не характерна внезапная остановка и выключение. Представьте себе компьютер, который автономно функционирует сотню лет без особых сбоев и потери функциональности: вы уверены что при таких технологиях разделение на «оперативную» и «постоянную» память будет соответствовать текущему соотношению? Разделение же на кратковременную и долговременную память — это не совсем то же самое… Вполне можно предположить, что на автономном модуле со сроком функционирования примерно соответствующем человеческой жизни — вся личность/память/сознание будут находится в «оперативной памяти», т.е. быть элементом энергетической, а не материальной составляющей.

>>>Эксперименты по оживлению свиных мозгов, когда в мозге останавливали все процессы, а потом спустя некоторое время запускали заново проводились. Мозговая активность возобновлялась.

Ну, системный блок тоже оживает после хард-ресета, но ваш прогресс в любимой игрушке будет потерян! :) Если вы не сохранялись… А есть же ведь режим хардкора — никаких сохранений!

У свиных мозгов вряд-ли кто пытался выяснить — сохранилась там та же личность, или нет!

Взять хотя бы GPT-2 (а лучше — 3!) — предобученную модель. Она загружается в оперативную память все время одна и та же. Но в процессе диалога с ней, вы можете сформировать в ней некую личность, с определённым контекстом и историей — но жить она будет пока вы не завершите сессию (вот такая короткая жизнь). Но она хотя бы не меняется, пока вы не нажмете ENTER. Поэтому задача создать ее копию — чисто технически сложная. А человеческая личность меняется постоянно и не дискретно. И насколько большая часть личности может быть потеряна, если этого всего не учитывать — сильно зависит от архитектуры…

Скорее всего вы правы, и большая часть личности все-таки в физическом носителе… Наверное. В конфигурации органических нейронов. Только не в мозге — а во всем теле, ибо биохимия же — гормоны, нейромедиаторы — вот это вот все. Мы же не столько электронные, сколько электро-химические машины. Важно не только сами нейроны скопировать, но и количество нейромедиатора в синаптической щели каждого, а также типичный режим работы желез внутренней секреции… Иначе общая память и «картина мира» по идее сохранится, но вот реакции на жизненные ситуации, характер, отношение к различным аспектам, оценка различных фактов — все это может стать другим… Насколько это важно? Ну… Реши я телепортироваться на Марс, я б задумался! :)

Баланс нейромедиаторов поддерживается по принципу обратной связи. Так что он очень быстро восстановится. Тут, как говорится, не на это надо смотреть.


В этой статье шла красной нитью та мысль, что единственное, что обеспечивает преемственность сознания — память о предыдущих состояниях. Даже если в процессе телепортации на Марс потеряется половина информации, существо на той стороне все равно будет утверждать, что его прошлая точка отключения была на Земле, поскольку так подсказывает память. Пусть даже она и частично повреждена. (Забавно, если эта память покажется объекту фальшивой.)


Конечно, можно предположить, что нарушение "аптайма" приведет к тому, что информация не может быть раскодирована и объект на той стороне просто не соберёт историю из имеющихся данных. Но мне кажется, что это маловероятно. Такая система надёжной не выглядит. Эволюция такое не любит.


Фактически мы тут обсуждаем вопрос: "насколько тщательной должна быть копия", чтобы определить тождественность личностей?". Ответ, который можно вывести из приведённой в статье цепочки рассуждений — качество копирования может быть достаточно посредственным, как мы говорили, состояние предок весьма толерантно к состояниям предшественникам.

Это да…

Получившийся на той стороне гомункул будет в любом случае считать себя мной…

Но мне-то здесь и сейчас, что бы решиться на телепортацию, хотелось бы быть уверенным в том, что моя личность (которая определённо представляет для меня ценность) не будет подвергнута фатальным изменениям! ;)

И. при этом достаточно широких взглядов, что бы понимать, что не смотря на мое физическое уничтожение здесь — я продолжу существовать там. Есть некий порог нарушения «идентичности» на который я готов пойти (т.е. я не буду сильно упираться в квантовые эффекты).

Мало того — вы правильно написали: формально не среда определяет личность. Я бы мог согласится на перенос сознания в киборга, если бы был в достаточной степени уверен, что это буду я…

НО если сознание — это все-таки процесс, то запустить его на новом железе чтоб он был тем же самым — нужна некая кроссплатформенность, однако!

Ну, тут, собственно, я повторю текст статьи.


Нет никаких возможностей определить вы или не вы на той стороне, кроме ваших суждений и суждений того объекта, что на той стороне. Причём суждения эти могут одно другому противоречить. Потому как личность ненаблюдаема. И всё зависит от степени уверенности и собственно от взглядов на реальность как таковую.

Мне почему-то кажется, что при наличии адекватной «архитектуры сознания» — я бы мог провести ряд «бенчмарков», что бы убедится, что на той стороне буду я. Будь это Марс, либо киборг…

Некий тест целостности, контрольная сумма либо что-то подобное…

Собственно, я может к этому и вел (но это не точно): скопировать процесс сознания как таковой может оказаться проблематично, однако если мы умеем этот процесс воссоздавать (абстрактно и в общем виде) — возможно надо донастроить не так уж много…

Да — об этом вы тоже писали… Только я бы говорил не про байт-код, а скорее про файнтюнинг. Сети учатся на общих задачах, достигают некого общего порога совершенства, а затем «доучиваются» на конкретных данных… Языковая модель сначала учится на гигантском корпусе языка вообще, а затем доводится на трудах Шекспира и начинает генерировать текст весьма близко к автору…

Как вы правило заметили — среда исполнения не так важна, но важна архитектура!
НО! Это не будет копирование… Хотя в случае с сетями — оно возможно, но только потому, что сами сети — продукт нашей компьютерной технологии. А в общем случае это несколько иной процесс…

Смотрите… У нас могут быть две сети… Обучавшиеся независимо и имеющие разную архитектуру. И тем не менее — мы можем корпусом текстов Шекспира привести их в некое состояние, когда они будут в той или иной степени подобны Шекспиру. Они будут совершенно разные — не совпадут ни в едином байте, они будут генерировать разные тексты, но при этом (если мы считаем, что это крутые сети будущего) — обе будут Шекспиром…
И да — баланс нейромедиаторов восстанавливается в каждом конкретном организме до некоего уровня динамического равновесия. У меня он один — у вас другой. И в общем случае он довольно прилично зависит от биохимии организма. Если мои мозги воткнуть в ваше тело (или, если угодно, наоборот) — может поменяться буквально все — при той же памяти и условно тех-же нейронных связях. Оценка текущей ситуации зависит от уровня серотонина, обучение и мотивация регулируются дофаминовым контуром и тп. Уровень агрессии, тревожности, любые эмоции — все это практически никак не зависит от памяти/интеллекта и прочего, однако определяет личность во многом больше, чем все остальное.

Мысль понятна… Впрочем, чтобы нарушить баланс гормонов, совершенно не обязательно перезжать в другое тело. Вот сломалась у меня эндокринная жедлеза или печень. Реакция на раздражители изменилась до неузнаваемости. А что личность? Та же или другая?

Именно! )

Личность изменилась, а вот та же она или другая — вопрос.

Об этом вы писали: для той, которая изменилась — та же (не обязательно такая же, личность может сознавать изменения, но та же). А вот для исходной — не факт.

Я просто хотел сделать акцент на трудно уловимом состоянии (для потенциального копирования), ибо очень много факторов в постоянной динамике…
Мне просто не сосем нравится утверждение, что информационный процесс является формой информации, при всем уважении к Виннеру! Т.е. возможно так и есть, но если возможность копирования — неотъемлемая черта информации, то на мой взгляд она не всегда и не совсем применима к понятию «информационный процесс». Информационный процесс — это преобразование информации, информация в динамике. А копировать можно информацию статичную… В какой-то степени копирование само по себе — есть информационный процесс, так ведь? Это что ж получается: можно скопировать копирование? Но это же оксюморон!

При всем при этом — я абсолютно согласен, что сознание можно охарактеризовать как информационный процесс! Но в таком случае оно родственно не информации, а обработке информации — преобразованию, частным случаем которого является копирование. Поэтому мне кажется, что копирование сознание это… Не вполне проработанная категория даже чисто в философском смысле!

Ну собственно — вы об этом же говорите… Только немного упрощаете. Потому, что состояние, которое можно скопировать — оно есть у конечного автомата, а сознание — динамический процесс — непрерывный и изменчивый — и я не уверен, что даже гипотетически можно поймать некое его моментальное «состояние». Ну нет у него состояния покоя, как нет массы покоя у фотона!

Как-то так…

Ну, вообще, Винер, помоему такого не утверждал, так что это утверждение, если я его сделал, на моей совести. Вопрос о том, можно ли скопировать процесс — на мой взгляд не так уж очевиден. Фактически если я имею детерминированный интерпретатор и детерменированные входные данные, то и все последующие состояние в общем тоже вполне себе определены, то есть копируя начальное состояние я копирую и "голограмму" всех последующих состояний. Является ли процесс построенный с помощью копий состояний над которыми идёт работа копией изначального процесса — вопрос в достаточной степени терминологический. Можно поменять это слова на "построение аналогичного процесса по образцу", если слово копия режет слух.


Копирование сознания — категория, конечно не проработанная. Была бы она проработанная, о ней бы книги не писали. Статьи бы не было. И темы для обсуждения бы не было...


Но, собственно, всё это не суть, а суть в том, что нам и не надо эту массу покоя ловить, тем более что она крайне плохо уловима. На самом деле, даже в повседневных делах, сознание постоянно разваливается, отвлекается, теряет информацию, забывает, вспоминает, восстанавливает, домысливает. Не такое уж оно и непрерывное, как кажется. Если устроить человеку потерю кратковременной памяти будет "ой. где я. кто я. ах да, я же на Марсе, точно.". Такое бывает, когда вы просыпаетесь и первые секунды пытаетесь понять, кто вы вообще такой и где находитесь, а потом оперативка очень быстро заводится.

с этим согласен… Думал как раз о том, что я десятилетней давности вполне возможно не хотел бы стать мной сейчас… Просто в случае с Марсом эти возможные изменения происходят а) скачкообразно а не непрерывно, и б) у индивида есть выбор…

Но возможно вы правы и слишком много уделяю внимания этой динамике… А мозг на самом деле настолько адаптивен, что… Люди вон более-менее сохраняют личность при серьезных травмах собственно мозга! А с другой стороны — умудряются измениться до неузнаваемости буквально за пару лет месяцев! Без всякой телепортации…
Относительно информации не выполняются законы сохранения

Выполняются. Даже подсчитали сколько минимально энергии необходимо, чтобы перебросить один бит.

Это, вообще говоря, не закон сохранения информации, а закон сохранения количества информации. Информация в термодинамике увязана к энтропии и вот этому вот всему, отсюда и связь с физическими законами.


Кибернетика изучает информацию в несколько более общем виде и в общем-то даже не имеет четкого определения этой самой информации. Есть информация по Колмогорову, по Шенону, та же термодинамическая информация и эти определения довольно плохо вяжутся друг с другом.


Нас же тут интересует не количество информации, а количество информационных объектов. Вот относительно них никаких законов сохранения не существует, иначе копирование информации было бы невозможно.

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации