Pull to refresh

Comments 179

Однако есть шанс, что после mind upload получится не личность, а psychological zombie

Конечно, получится! Ведь душу-то, бессмертную душу забыли скопировать, самое главное!

фильм Престиж сразу вспомнился

Для этого сначала надо дать исчерпывающие определения того и другого.

Увы, нет ни одного определения, например, сознания, чтобы это определение не было бы оспорено

Ну да, если наше тело вместе с мозгом это зомби который всё делает независимо от нас то так и получится

Мне кажется тут становится видна концептуальная проблема самого парадокса корабля Тесея.

Дело в том, что фактически корабль постоянно немного меняется - его материалы изнашиваются, даже твердые материалы подвержены диффузии (обмениваются атомами с окружающей средой), меняется экипаж, ну и да, доски и паруса можно менять.
С функциональной же стороны это все еще корабль - он так же плавает по ветру.

То есть по сути проблема в самом объекте "Корабль Тесея", эта абстракция "течет", не описывает реальность полностью корректно.
Фактически никакого корабля нет, это удобная абстракция для нашего мозга, иллюзия. Но иллюзия полезная, позволяющая дешево моделировать мир через ярлычки.

В таких терминах можно сказать и то, что сознания как волшебной точки сборки тоже не существует, это полезная иллюзия мозга.
В этом смысле если постепенный перенос либо разрушающее сканирование с эмуляцией дают результат доказанной точности, то разницы нет - корабль плывет.
Что там испытывает наша иллюзия сознания вопрос глубоко вторичный.

Вопрос лишь в том, действительно ли мы можем воспроизвести его с нужной точностью.

Кстати занятно то, что не вычислимость функции сознания не является для этого преградой.
Допустим, нейроны в своей работе действительно опираются на некоторые квантовые эффекты и они важны, поэтому условная дискретизация их разрушит. В этом случае их действительно нельзя воспроизвести на классической вычислительной технике и обычных алгоритмах.
Тем не менее остается возможность протезирования нейронов другими устройствами, созданными на тех же физических принципах и так же использующие квантовые эффекты.
В этом случае копирование сознания действительно становится невозможным, но не постепенное протезирование. С копированием тоже интересно, в этом случае получится очень похожий человек.

в общем-то копирование возможно если нагорячую пишется в 2 зеркальных мозга нулевой рэйд короче, один мозг гуляет в теле по миру, другой в другом теле выращивается в лабе и видит чувствует то же самое и может двигать мышцами чувствовать сенсоры первого, а сам в банке с отключиным двигательным аппаратом но обменивается волнами и сенсорикой по широкому каналу, то есть скорее даже рэйд 10 получается и параллельно выращиваем смену баночнику - подключаем третий - отключаем первый а второй включает двигательные функции и идет гулять по миру - пишется и обменивается сенсорикой с третьим - вуаля бесшовное переключение!!!

а корабль тесея невозможен т к подразумевает что каждая доска или парус (нейроны) несут свою функцию и отключене/подключение будет требовать действительно синхронизации (нахрен усложнять загрузки вот всякие че там понаписали) заливки тестов вот это всё практически нерешаемо. а простое копирование решает даже без всякой расшифровки-обработки сигнала, ну если вкратце, еще есть пара моментов технологических но прогресс решит и их.

Идеально.
Полностью согласен на рэйд.

Ну это как два близнеца, один из которых ходит по пятам за другим, полностью его копирует и безынициативен . Но как перенести сознание с первого на второго? В собственном понимании первый умрёт, а второй просто получит право на свободу выбора (не кроется ли здесь доказательство её существования?), но в силах ли он будет ею воспользоваться?

Так фокус в том, что второму будет казаться, что это он управляет, и он «переключения» даже не заметит.

Но все равно план не идеален - что, если какие-то отличия все же возникнут (ну там из-за чуть другой температуры, или гамма-частица какой нейрон разрушит)? Второго будет «проглючивать» из-за того, что в его действия вмешивается какая-то сила, и фиг знает, к каким выводам он придет.

Вопрос лишь в том, действительно ли мы можем воспроизвести его с нужной точностью.

... и не похожи ли мы в наших попытках на папуасов с их карго-культом?

Самолёт по технологиям папуасов.
Самолёт по технологиям папуасов.

Они ведь тоже копируют оригинал максимально точно в рамках своих технологических возможностей.

Конечно риск есть, но и в обратную сторону обобщать это не стоит.
В конце концов есть очень простой эксперимент - летают ли они и возят ли тушенку.
Если да - ты скопировал правильно. Остальное - аргумент про настоящего Шотландца

А тут какой то обратный карго культ "Ну не может же твое СОЗНАНИЕ быть просто физическим эффектом наподобие программы в компьютере. Должно быть что-то непозноваемое, душа"

Вообще не так. Они не знают как оно работают, и поэтому добиваются визуального сходства. И проблема тут не в технологических возможностях - чтобы понять как работает подъемная сила крыла, не нужно никаких технологий. Они делают самолет из сена не потому, что им технологии не позволяют делать его из алюминия, а потому, что у них нет понимания, как и почему выбор материала влияет на способность к полету.

Мы неплохо знаем, как работает мозг, вплоть до молекулярного уровня. Мы понимаем, почему в синапсе серотонин, а не стрихнин. Поэтому можем сделать не фигурку мозга из соломы, а что-то функционально близкое.

Мозг — всего лишь интерфейс состоящий из отдельных зон отвечающих за мелкую моторику, речь, зрение и тд.

Сознание, личность, память имеет совершенно другой носитель

Фактически никакого корабля нет, это удобная абстракция для нашего мозга, иллюзия. Но иллюзия полезная, позволяющая дешево моделировать мир через ярлычки.

Причем этих ярлычков гораздо больше, чем многим кажется. Даже такие понятия как "плавает" и "жидкость" - это эмерджентные свойства больших скоплений атомов. Где начинается жидкость? Одна молекула воды точно не является жидкостью. Два молекулы, три?

Единственно и действительно существуют только атомы и пустота

(с) Демокрит

либо разрушающее сканирование с эмуляцией дают результат доказанной точности, то разницы нет - корабль плывет

Из недавнего, сериал "Пантеон", неплохо прошёлся по этой теме.

Сознание не раво деятельности мозга. Институт мозга изучал этот вопрос и пришел к такому выводу.

Поэтому даже если удастся сделать точный электронный слепок мозговых взаимосвязей - это будет крабль без команды.

Так, а где можно почитать на эту тему ваши источники?
Поиск выдает различные псевдонаучные и религиозные статьи.
Вроде бы существуют хорошие доказательства обратного, что сознание является результатом деятельности мозга.
Доказательством существует громадное количество различных глюков и ощущений, внесознательного опыта, которые человек описывает при изменении деятельности мозга (травмы, химия, операции). Ну и то, что сознание не фиксируется вне мозга.

Как раз сейчас перечитываю Собачье Сердце, Булгакова)

А ваша рука это всё ещё ваша рука?

Второй вариант позволяет не плодить «двойников» и «скопированные личности»

Любой вариант означает «двойников» и «скопированные личности». Вот вы заменили все естественные нейроны на искусственные, если вы теперь соедините все естественные нейроны в том же порядке, вы получите исходную личность. Любая копия это всегда копия. Как брат-близнец. Магии не бывает, магически ничего никуда не переносится. Вариант с заменой на месте отличается только тем, что его можно проводить относительно незаметно для процесса сознания субъекта. Но это все равно копирование.

Определение корабля Тесея как "тот же самый" связано не со свойствами самого корабля, а с особенностями их восприятия человеком. При незначительном изменении свойств или положения мы воспринимаем объект как тот же самый. Поэтому можем перепутать близнецов, если наблюдаем их не одновременно. Но неправильно считать близнецов одним и тем же человеком, и аналогично неправильно считать копию тем же человеком. Копия это всегда другое существо. Очень важно это понимать. Чтобы не создавать ситуации типа "А давайте нашу собачку переселим в робота".

Но неправильно считать близнецов одним и тем же человеком, и аналогично неправильно считать копию тем же человеком.

Отличие копии от близнецов в том, что сразу после копирования копия идентична оригиналу.

И что, от этого появится какая-то магическая связь, которая сделает их одним существом? Или от этого оригинал не будет чувствовать боль, если попытаться его уничтожить?

Даже это неверно. В процессе копирования человеку может сниться сон, которого не будет в копии, или события в нем будут развиваться по-другому.

В процессе копирования человеку может сниться сон, которого не будет в копии, или события в нем будут развиваться по-другому.

У настоящей копии тоже должен быть такой же сон. Но так точно скопировать невозможно из-за квантовой неопределенности и эффекта бабочки. Поэтому настоящее копирование невозможно, можно только постоянно улучшать качество дубликата, но по-настоящему скопировать нельзя.

Очень похоже, что сознание всё-таки имеет квантовую природу и из-за этого каждое сознание уникально и существует в единственном экземпляре.

Квантовая неопределенность тут ни при чем. Если у копии другой носитель, она по определению не точная. Биологическому существу может быть неудобно лежать в процессе копирования, и у него будет один сон. А у копии в роботе нет ощущения, что неудобно лежать, и у нее будет другой сон.

Очень похоже, что сознание всё-таки имеет квантовую природу

Нет, не похоже. Можно иметь достаточно точные копии. Просто надо понимать, что это отдельные самостоятельные субъекты.

Данные на магнитной ленте всегда не точны, т.к. носят аналоговый характер, но стримеры на этой самой ленте хранят цифровые данные абсолютно точно, что опровергает тезис невозможность переноса на другой носитель без потерь)

Почему важно то? Какие последствия от того что мы будем считать скопированного человека тем же самым?

Я написал почему в следующем предложении. Для вас никаких последствий, последствия есть для оригинала. Если мы захотим переселить нашу собачку в робота, это подразумевает уничтожение исходной собачки. Что вряд ли то, что хотят любящие хозяева.

Это примерно как спрашивать "Какие последствия от того что мы будем считать близнецов одним человеком?".

Ну если это биоробот который выглядит и ведёт себя точно также как и исходная собачка то хозяева и не заметят.

Я же написал, что разница есть не для хозяев, а для собачки. Собачка погибнет. Если хозяева будут это понимать, они не захотят переселять ее в робота. А такие статьи создают ложное впечатление, что собачка куда-то переселилась. Никуда она не переселилась, это другое существо с похожими воспоминаниями. Это ничем не отличается от того, чтобы убить свою собаку, чтобы взять другую той же породы.

Если хозяева будут это понимать, они не захотят переселять ее в робота.

С чего вы взяли? Зачем хозяевам считать новую собачку другим существом если они не видят разницы между старой и новой? Это просто не нужно.

Никуда она не переселилась, это другое существо с похожими воспоминаниями.

Вы так говорите потому что данной технологии ещё нет. Но когда будет, все резко начнут менять свое мнение, просто представьте что вы общаетесь с друзьями и вдруг узнаете что они уже несколько раз копировались, а вы ничего и не заметили, потом узнаете что ваши дети тоже уже несколько раз копировались, да потом ещё и окажется что вас тоже тайком копировали потому что оригинал попал в аварию и умер. Как можно в данной ситуации сохранить мнение что "это другое существо с похожими воспоминаниями" я не представляю. Технология будет слишком удобной чтобы держаться за это древнее мнение. Безусловно будут секты отвергающие её, также как сейчас есть люди не использующие электричество, но их будет минимум. Большинство будет считать что таки да, это тоже самое существо.

С чего вы взяли?

С того, что из опыта я знаю, что хозяева обычно не хотят убивать своих собачек.

Зачем хозяевам считать новую собачку другим существом если они не видят разницы между старой и новой?

Им низачем, в третий раз повторяю, разница есть для собачки, а не для хозяев.
Это не вопрос того, кто что считает, "другое существо" это факт, он не изменится от чьего-то мнения.

Зачем родителям считать нового ребенка другим существом если они не видят разницы между старым и новым? Вы бы хотели, чтобы ваши родители вас убили и взяли робота с вашими воспоминаниями? Они же не считают робота другим существом.

просто представьте что вы общаетесь с друзьями и вдруг узнаете что они уже несколько раз копировались, а вы ничего и не заметили

В четвертый раз повторяю, разница есть для друзей, а не для меня. Мне непонятно, почему вы игнорируете то, что я пишу, и спорите о чем-то своем.
Исходный друг, который принял решение создать свою копию, со мной не общается, он уничтожен. Поэтому любые копирования должны происходить только с согласия исходного существа с полным пониманием им всех последствий, в частности, что оно погибнет.

Животные не понимают последствий и не могут выразить свое согласие, а значит применять копирование к животным неэтично, это обычное убийство животного. Неважно, сделали вы копию его воспоминаний на флэшке, фотографию, или что-то еще.

Большинство будет считать что таки да, это тоже самое существо.

Большинство считало, что у негров нет души, а значит можно делать их рабами. Вы согласитесь, чтобы большинство считало, что у smx_ha нет души?

это факт, он не изменится от чьего-то мнения

Наш метод equals как раз таки и определяется нашим мнением о том каким он должен быть. Иначе бы мы считали что вы когда вам один год и вы сейчас это разные существа, или что вы сейчас и вы после полной амнезии это разные существа и у вас нет права наследования и пр. Но нет, мы так несчитаем, для нас важна преемственность, существование определенных причино-следственных связей между существом в прошлом и существом в настоящем, а не то что их молекулярная структура совпадает. И именно на основании наличия таких связей мы и определяем где equals == true, а где equals == false. И я сомневаюсь что лично ваш метод equals определен по другому, не считаете же вы что каждую секунду вы умираете и рождается новое существо потому что молекулярная структура поменялась.

В четвертый раз повторяю, разница есть для друзей, а не для меня.

Так я и говорю о ситуации когда для них нет разницы, когда все вокруг вас утверждают что "нет это не убийство, я не уничтожен, что ты несешь чувак, вот же я", "ты что, michael_v89, меня никто не убивал что ты такое говоришь, это не убийство". В этой ситуации вы будете вынуждены поменять свою точку зрения и вы перестанете считать это убийством, у вас просто не будет другого выхода.

Животные не понимают последствий и не могут выразить свое согласие, а значит применять копирование к животным неэтично, это обычное убийство животного.

Ну не вам решать что этично а что не этично, что убийство а что не убийство, вы еще скажите что аборт это убийство. Что является убийством а что нет, определяется общественным согласием и возможными последствиями от принятого решения, вот эвтаназия например разрешена в некоторых странах, хотя и ни у кого нет точного знания что в последний момент человек не передумал, но уже было поздно.

Вы согласитесь, чтобы большинство считало, что у smx_ha нет души?

Ну я надеюсь что так и есть, что большинство это атеисты или хотя бы буддисты какие нибудь.

Наш метод equals как раз таки и определяется нашим мнением о том каким он должен быть.

Именно об этом я написал в первом комментарии. Мы можем считать корабль тем же, но фактически у него уже все части другие. Для корабля это мнение значение не имеет, а для собачки имеет.

когда все вокруг вас утверждают

Не все. Оригинал уничтожен, и он ничего не утверждает.

В этой ситуации вы будете вынуждены поменять свою точку зрения и вы перестанете считать это убийством, у вас просто не будет другого выхода.

Будет. Сейчас мы не считаем, что у негров нет души, а у белых есть.

Ну не вам решать что этично а что не этично
определяется общественным согласием

А кому, простите, это решать? Я по-вашему не являюсь представителем общества?
В том общественном согласии, про которое вы говорите, учитывается мнение исходных существ.

Что является убийством а что нет, определяется общественным согласием

По общественному согласию у понятия убийство есть определенные критерии. Если процесс соответствует этим критериям, он называется убийство. Уничтожение собаки соответствует этим критериям, значит его можно назвать убийством.

Так я и говорю о ситуации когда для них нет разницы, когда все вокруг вас утверждают

А я говорю, что разница есть всегда независимо от мнения других. Имеет значение только мнение оригинала, а не копии и не других существ. Вот если оригинал согласился на копирование, то это не убийство.

Ну я надеюсь что так и есть, что большинство это атеисты или хотя бы буддисты какие нибудь.

Вы теперь решили вырывать фразы из контекста, чтобы выиграть в споре? Хорошо, напишу подробнее, раз вы делаете вид, что не поняли.
Вы согласитесь, чтобы большинство считало, что у smx_ha нет души, и по этой причине сделало вас рабом?

Вопрос про родителей вы тоже почему-то проигнорировали, но продолжаете спорить про общественное согласие. Нормально, если они по своему согласию вас убьют, не спросив вашего согласия, и возьмут робота с вашими воспоминаниями, или вы тут видите для себя какую-то разницу? Вот про эту разницу я и говорю. Она есть независимо от согласия родителей.

Для корабля это мнение значение не имеет, а для собачки имеет.

Откуда вы знаете что для нее имеет значение, а что нет? В данный момент именно мы решаем что собаку можно ввести в наркоз, и игнорируем тех кто будет приходить к ветклиникам c плакатами "наркоз это убийство, ведь после наркоза просыпается совсем другое существо, так считают сами собаки и мы должны уважать их мнение".

Также мы игнорируем тех кто кричит что аборт это убийство ведь мы не спросили у плода что он думает по этому поводу. И тоже самое будет если у нас распространится технология копирования.

В том общественном согласии, про которое вы говорите, учитывается мнение исходных существ.

Ну да, разумеется, если мы можем его спросить то мы его учитываем, разве кто то спорит. Вот у собак мы его не можем спросить, поэтому мы его не учитываем при наркозе. Более того это самое учитывание мнения имеет свои пределы, при эвтаназии, если у человека в самый самый последний момент мнение поменялось но он уже не может об этом сигнализировать, то всё, ничего не поделаешь, мы продолжим эвтаназию без его на это согласия.

Откуда вы знаете что для нее имеет значение, а что нет?

Оттуда же, откуда я знаю, что это имеет значение для вас.
Я вижу, что вы не понимаете, почему люди запрещают рабство и жестокое обращение с животными, не можете представить, что с вами могут сделать так же, поэтому далее обсуждать не вижу смысла.

ведь после наркоза просыпается совсем другое существо, так считают сами собаки

Я не говорил, что собаки считают, что в роботе после копирования будет другое существо. Я вижу, что вы не хотите обсуждать этот вопрос конструктивно, игнорируете неудобные для вас примеры, ваша цель троллинг и высмеивание.

если у человека в самый самый последний момент мнение поменялось

Раз вы повторяете это снова и снова, то поясню. Человек дал согласие на начало эвтаназии, понимая последствия, в том числе и то, что он не сможет сообщить если в самый самый последний момент передумает. А собака не давала. И вы на замену себя роботом не давали. В этом и заключается разница между этими ситуациями.

Оттуда же, откуда я знаю, что это имеет значение для вас.

Но для меня это значения не имеет, а значит вы берете сведения из какого-то неправильного источника.

А собака не давала

Собака и на наркоз не даёт согласия, и ничего, мы это спокойно игнорируем без всяких угрызений совести.

И вы на замену себя роботом не давали.

Почему же, давал, пожалуйста заменяйте. Очевидно что процедура замены будет происходить только с согласия тех у кого можно спросить.

Но для меня это значения не имеет

Значит вы отличаетесь от других людей. Вы исключение из известного мне правила, так бывает. Поэтому ваши выводы для других людей неприменимы. Для других людей это имеет значение. Об этом мне сообщили представители других людей в детском саду и школе.

Собака и на наркоз не даёт согласия, и ничего, мы это спокойно игнорируем без всяких угрызений совести.

Потому что мы из собственного опыта знаем, что это не опасно. Или менее опасно, чем не давать. Что нормально проведенная процедура не приводит к уничтожению существа. Вы похоже так и не поняли, что дело не в факте согласия, а в причинах, почему оно нужно. Для подарка на Новый Год тоже обычно согласия не спрашивают, подумайте почему.

Потому что мы из собственного опыта знаем, что это не опасно.

Ну вот тоже самое будет и когда эта технология распространится, мы перестанем считать что правильно проведенная процедура приводит к уничтожению существа, а про тех кто считает иначе будем говорить "исключение из известного мне правила, так бывает". И будем строить свое поведение относительно собак на основании общепринятого среди НАС понятия что считается "уничтожением" а что нет, а не на основании того что собака считает "уничтожением". Опять же, никто же не будет копировать "просто так" это же будет делаться только если есть опасность для жизни, рак там допустим или просто старость.

Для подарка на Новый Год тоже обычно согласия не спрашивают

Такая в данный момент традиция, в будущем может и изменится.

Ну вот тоже самое будет и когда эта технология распространится

Вот я вам и объясняю, мы уже знаем, что уничтожение существа опасно для существа. Не имеет никакого значения, что вы записали на флэшку. Распространение технологии в функционировании биологических существ ничего не поменяет, и уничтожение для них все равно останется опасным.

Вы можете согласиться, чтобы родители заменили вас роботом, но вы не можете отрицать, что для вас будет разница в восприятии в ситуациях когда с родителями останетесь вы и когда робот. Вот для других людей эта разница уже имеет значение по некоторым причинам, и эти причины никуда не денутся из-за появления технологии быстрого создания новых существ.

а не на основании того что собака считает "уничтожением"

Я уже сказал, что не говорил, что собаки что-то считают относительно копирования. Я прямо сказал, что собаки не понимают эту концепцию. Я серьезно не понимаю, чего вы хотите добиться, приписывая мне вещи, которые я не говорил.

Зачем хозяевам считать новую собачку другим существом если они не видят разницы между старой и новой?

Это просто не нужно.

Не сочтите за грубость, но у вас нет полномочий определять за хозяев собачки что им нужно.

Почему важно то? Какие последствия от того что мы будем считать скопированного человека тем же самым?

Все упирается в феномены наслаждения и страдания, о природе которых нет гипотез.

Вот, допустим вас скопировали - копию выпустили а вас оставили. С т.з. внешних наблюдателей все ОК, копия все так же ходит на работу, приносит зарплату, ходит по магазинам и наслаждается жизнью. Но вам то не все-равно что будет с вами - с оригиналом - т.е. с вами?

Вам важно как минимум не страдать. А почему это так важно?

Что если фирма по копированию решит чуть оптимизировать расходы и продаст отходы (включая подлежащие ликвидации "оригиналы") третьим лицам с условием неразглашения? И вас отправят в некий центр для экспериментов, откуда вы точно не выйдете - какая разница, вы то все-равно уже расходник. И с вами будут делать все что только захотят - замораживать и размораживать, заражать вирусами и пробовать лечить, пробовать какой уровень боли может выдержать человек и т.д. Почему важно не допустить такой сценарий, даже при условии неразглашения?

Так ведь и исходного человека надо считать тем же самым, между ними ведь нет разницы, пока один не уничтожен, они оба обладают теми же правами и полиция обязана защищать их обоих

между ними ведь нет разницы, пока один не уничтожен

А почему уничтожать можно а мучать нельзя? Ведь в обычной ситуации нельзя ни мучать не уничтожать - получается, каждого из них уничтожать нельзя, если их нужно защищать?

Страданию мы интуитивно приписываем мистические свойства, сами того не разумея. Убить - ОК, страдать - нельзя.

Уничтожать можно потому что человек подписал согласие на эвтаназию (отмечу, на одну! эвтаназию), что уже сейчас вполне практикуется в некоторых странах.

Уничтожать можно потому что человек подписал согласие на эвтаназию

Человек то не хочет уходить из жизни - он планирует себе обновленное тело, а что будет со старым телом (с оригиналом) - ему все-равно.

И вроде бы не возникает проблемы, если бы оригинал сам собой уничтожался. Но нет, оригинал может все так же продолжить жить некоторое время.

Когда уничтожаем то, что является вещью - нет разницы как именно уничтожать. У сознания же добавляется фактор мучения - сознание не хочет страдать. И это критически важно.

Почему-то выходит на первое место вопрос - а будет ли оригинал уничтожен без мучений?

Человек то не хочет уходить из жизни - он планирует себе обновленное тело, а что будет со старым телом (с оригиналом) - ему все-равно.

Человеков будет два, и один из них должен будет согласится на эвтаназию, он просто должен перестать думать о том что это будет смерть.

Почему-то выходит на первое место вопрос - а будет ли оригинал уничтожен без мучений?

Уже делается эвтаназия, уже решен этот вопрос, человек просто засыпает и не просыпается.

Человеков будет два, и один из них должен будет согласится на эвтаназию

Ну если два, если мы не утверждаем что личность та же самая, не делаем заявлений о тождественности личности - то совсем другой вопрос. В такой постановке вопроса - человек лучше доживет сколько сможет, чем умирать в пользу некого похожего на него человека.

В ракурсе информатики копия данных тождественна оригиналу. Будет ли такая тождественность сохраняться при копировании сознания? Пока мы не можем сказать достоверно, ввиду непонимания природы сознания, но интуитивно уже сейчас для нас очевидно что нет.

Ну если два, если мы не утверждаем что личность та же самая,

Почему, утверждаем, будут две одинаковых, тех же самых личности, именно так мы будем на это смотреть, если такая технология будет существовать, бессмертие слишком уж вкусная штука чтобы от нее отказываться, мало кто будет выбирать "лучше доживет сколько сможет"

утверждаем, будут две одинаковых, тех же самых личности

Что делать, если после создания "копии" интересы этой личности разделятся? Молодая личность с новым телом захочет эвтаназии старой копии, а старая передумает - и скажет что лучше уничтожьте новую копию а я буду жить? Их интересы могут быть противоположными сразу после копирования - как же это можно назвать одной личностью?

Что делать, если после создания "копии" интересы этой личности разделятся?

А надо что то делать? Пусть сами договариваются как хотят. Но вообще то никто не будет делать копию если старый мозг еще может жить, так что это надуманная ситуация, одна из личностей в любом случае исчезнет.

как же это можно назвать одной личностью?

почему одной, двумя одинаковыми, также как вы сейчас и вы вчера.

В ракурсе информатики копия данных тождественна оригиналу.

"Тождественный" означает "такой же по свойствам", а не "тот же самый".

Я вот скопировал файл, поменял в копии данные, а исходный файл не поменялся. Значит копия это не тот же самый файл.

"Тождественный" означает "такой же по свойствам", а не "тот же самый".

Такой же по свойствам и, главное, хранящим всю ценность оригинала. Копия не увеличивает ценность, уничтожение оригинала при наличии копии - не приводит к потерям.

А вот в случае с сознанием - уничтожение оригинала при наличии копии - на уровне интуиции воспринимается как потеря. Т.е. если сделают копию вас - вам вряд ли захочется умирать или доживать жизнь в доме престарелых, пока ваша копия наслаждается жизнью.

Нет, про ценность в определении этого слова ничего нет.

Если у меня есть 2 одинаковых смартфона, то уничтожение одного тоже воспринимается как потеря. Аналогично про 2 упаковки каши или 2 булки хлеба, и даже при потере одного цифрового бэкапа из двух начинаешь чувствовать себя некомфортно.

Тут нет магии или чего-то непонятного, другое существо это всегда другая личность, неважно, сколько у вас с ним общих воспоминаний.

Если у меня есть 2 одинаковых смартфона

про 2 упаковки каши или 2 булки хлеба

Речь о чем была? Если нечто имеет информационную природу - то только в таком случае копия не увеличивает и не уменьшает ценность.

 даже при потере одного цифрового бэкапа из двух начинаешь чувствовать себя некомфортно

Что мешает создать новый бекап? С информацией все просто - если есть хотя бы одна копия - создание второй практически ничего не стоит. Ну разве что место на диске, но его стоимостью по сравнению с ценностью информации можно пренебречь.

А так же нет разницы - уничтожен оригинал файла или его копия - в случае с информацией - это тождественные по ценности понятия. Чего не скажешь о вещественном мире - репродукция картины, как правило, значительно дешевле чем оригинал.

В случае с сознанием для нас очевидно что оригинал сознания не тождественен копии, следовательно его природа не является информационной.

Речь о чем была?
в таком случае копия не увеличивает и не уменьшает ценность

Это вы начали говорить про ценность в связи с термином "тождественный", я изначально про нее не говорил.

Если нечто имеет информационную природу

Вы сказали "А вот в случае с сознанием - уничтожение оригинала при наличии копии", оригинал это не информационная сущность, а физический объект. При этом вы применяли к нему термин "тождественный". Поэтому я привел примеры физических объектов, которые можно считать тождественными.

Можно привести информационные сущности. Есть балансировщик, он распределяет веб-запросы на 2 параллельных процесса. Если один процесс завершился, на второй нагрузка будет больше. Поэтому уничтожение процесса воспринимается как потеря.

Вы скачали фильм из онлайн-кинотеатра и поехали на автобусе в другой город. В дороге нет интернета. Вы решили посмотреть фильм и случайно удалили. Это копия, оригинал есть на сайте, но уничтожение копии воспринимается как потеря, потому что нет доступа к оригиналу.

Что мешает создать новый бекап?

Например нет места, потому что первый бэкап потерялся из-за того, что диск полетел. Или создание занимает ненулевое время, и процесс может прерваться по каким-то причинам. Это причины ощущения некомфортности.

А так же нет разницы - уничтожен оригинал файла или его копия

Есть. Вы скопировали папку Windows, если вы удалите оригинал, компьютер не загрузится.

В случае с сознанием для нас очевидно что оригинал сознания не тождественен копии

Вы тут слишком упрощаете, и из-за этого вывод получается неверный. Есть набор данных, представляющих воспоминания, и есть процесс получения и обработки данных (сознание). Данные в копиях можно считать математически тождественными, а процессы нет. Носители с данными кстати тоже нет.

Вы правильно говорите, что другое существо не эквивалентно исходному, только математическая тождественность тут ни при чем. Это физически разные объекты со своим поведением, даже копия данных на жестком диске расположена на других физических элементах. В математике мы просто считаем физические различия несущественными, но это не значит, что их нет. Математика это не существо, а описание существа. По этому одному описанию можно сделать несколько разных существ.

оригинал это не информационная сущность, а физический объект

Сознание - это информационно-вычислительная сущность, которую можно запустить на разных платформах, или же некий физический объект?

Если один процесс завершился, на второй нагрузка будет больше. Поэтому уничтожение процесса воспринимается как потеря.

Аналогия не уместна - нам достаточно сохранить лишь одну копию сознания, нет необходимости множить.

Это копия, оригинал есть на сайте, но уничтожение копии воспринимается как потеря, потому что нет доступа к оригиналу.

В сфере информации копия тождественна оригиналу - нельзя сказать где оригинал а где копия - они ничем не отличаются.

Если у вас нет доступа к копии или оригиналу - для вас ощутимо. Если же доступ есть - хоть к копии хоть к оригиналу - вы ничего не потеряете.

В случае же с сознанием - для нас очевидна потеря - каждое сознание является субъектом и носителем ценности - оно ценно само для себя. Т.е. не только внешний наблюдатель должен решать что правильно а что нет, но и само сознание как наблюдатель - имеет право голоса. В случае же с файлами - этого нет.

Ключ - сознание может страдать и наслаждаться - и страдать оно не хочет. В случае же с программой или файлом - таких феноменов нет.

Например нет места, потому что первый бэкап потерялся из-за того, что диск полетел

Вы сейчас переводите на ценность железа. Железо имеет свою цену - но она не велика и ей можно пренебречь. Ценность же сознания, жизни - принимается как бесценная.

Есть. Вы скопировали папку Windows, если вы удалите оригинал, компьютер не загрузится.

Ваша ошибка в том, что папка Windows - это лишь часть информации системы. Если вы скопируете всю информацию систему (включая UEFI-сектор, ID-дисков и т.д.) и запустите в подходящей среде - все будет работать, чудес не бывает.

Данные в копиях можно считать математически тождественными, а процессы нет.

Копирование сознания - это не просто копирование памяти человека - это и сейчас можно сделать, написав подробный автобиографический очерк.

Копирование сознание - это именно копирование вычислительного процесса + необходимых данных.

Является ли процесс сознания квантовым вычислением или чем-то, что не связано с вычислениями - мы пока не знаем, но интуитивно понимаем что да (как интуитивно понимаем противоречивость путешествий в прошлое).

физически разные объекты со своим поведением

Поведение - это так же часть информационной системы. Именно в копировании поведения и вопрос - память скопировать нет проблем.

Сознание - это информационно-вычислительная сущность, которую можно запустить на разных платформах, или же некий физический объект?

Сознание это процесс обработки информации, он выполняется на физическом исполнителе (процессоре). Другая личность это другой процесс.

Аналогия не уместна - нам достаточно сохранить лишь одну копию сознания, нет необходимости множить.

Это не аналогия, а контрпример к утверждению "копия информационнной сущности не имеет ценности".

В сфере информации копия тождественна оригиналу - нельзя сказать где оригинал а где копия - они ничем не отличаются.

Сказать "где" вполне можно. В файловой системе это путь к файлу, в базе данных это первичный ключ.

В случае же с сознанием. В случае же с файлами - этого нет.

Я же говорю, вы ложно предполагаете, что копия не имеет ценности. Есть ситуации, когда копия имеет ценность, даже если она не является сознанием. Также вы не различаете данные и процесс их обработки.

Ключ - сознание может страдать и наслаждаться - и страдать оно не хочет. В случае же с программой или файлом - таких феноменов нет.

Нет, тут ключ в том, что другое сознание это другой процесс на другом физическом носителе. Случай с программой это пример балансировщика. Мы не хотим терять второй процесс, участвующий в балансировке, даже если понятие страдания к нему неприменимо.

Вы сейчас переводите на ценность железа.

Естественно, потому что в этом и есть ценность сознания. Его ценность в том, чот эт выполняющийся процесс, а не данные.

Ваша ошибка в том, что папка Windows - это лишь часть информации системы.

Не, вы говорили про любую информационную сущность, без дополнительных критериев)

Копирование сознания - это не просто копирование памяти человека - это и сейчас можно сделать, написав подробный автобиографический очерк.

Вот я как раз говорю о том, что это то же самое. Мы загружаем подробный автобиографический очерк в другое существо.

Именно в копировании поведения и вопрос

Тут нет вопроса, Вселенная устроена так, что все ее элементы независимы и работают параллельно. Копирование процесса на другой носитель означает участие других независимых элементов. Что в свою очередь означает другую сущность, поведение которой никак не влияет на исходную сущность.

Другая личность это другой процесс.

Тут вопрос вот в чем - как этот процесс обретает способность к феноменам наслаждения и страдания и, как следствие, иметь естественное желание не страдать?

Обычный информационный процесс ничем таким не обладает и мы ничего не теряем, если есть два тождественных процесса (одинаковая программа и одинаковые данные) и один из них прерываем.

Прервать идентичный процесс - ни к каким потерям не приводит. Речь же не идет о распараллеливании вычислений и нахождении некой проблемы, сценария балансировки и т.д. - мы не рассматриваем, нужно только одно. И при этом сам процесс переходит в категорию субъекта - когда не для стороннего наблюдателя а именно для него важно не мучаться.

Это не аналогия, а контрпример к утверждению "копия информационнной сущности не имеет ценности".

Вы говорите о балансировке нагрузки. В случае с копированием сознания - такой сценарий не рассматривается - нам нужна всего одна единица этого сознания.

> Вы сейчас переводите на ценность железа.

Естественно, потому что в этом и есть ценность сознания. Его ценность в том, чот эт выполняющийся процесс, а не данные.

Причем тут железо к процессу? Процесс может быть запущен на разном железе и его ценность не определяется ценностью железа.

Не, вы говорили про любую информационную сущность, без дополнительных критериев)

Что значит без доп. критериев? Вот есть прога, которая проверяет серийник процессора и работает только для определенных серийников. Скопировали на другое железо - не работает. Почему? Серийник - это часть программы, это тоже данные, которые использует программа. Без них она работать не будет. Не важно что эти данные хранятся не на диске.

Мы загружаем подробный автобиографический очерк в другое существо.

Если сознание это процесс а процессы тождественны - то нет никакого другого.

Что в свою очередь означает другую сущность, поведение которой никак не влияет на исходную сущность.

И что? Если процессы тождественны и не используются для параллельных вычислений, нам достаточно одного такого процесса - почему же возникает проблема судьбы второго процесса, который все-равно подлежит остановке?

- Другая личность это другой процесс.
- Тут вопрос вот в чем - как этот процесс обретает способность к феноменам наслаждения и страдания

Нет, это совершенно другой вопрос. Другая личность это другой процесс независимо от его квалиа. У понятия "процесс" есть вполне конкретное определение.
Сам процесс никак не обретает, обретает железо, на котором он выполняется.

Есть люди, которые не ощущают боль, при этом они все равно личности.

и мы ничего не теряем, если есть два тождественных процесса (одинаковая программа и одинаковые данные) и один из них прерываем.

Теряем. Я привел уже много примеров. Я не вижу никаких оснований для этого утверждения. Если мы сделали копию, значит она зачем-то нам нужна.

Данные могут быть одинаковые и все равно иметь ценность. Вот есть программа видеоплеер, и есть фильм. Один и тот же фильм смотрят с одним и тем же видеоплеером разные люди. Вы согласитесь не запускать свой видеоплеер с этим фильмом, потому что его уже посмотрел сосед?

Прервать идентичный процесс - ни к каким потерям не приводит.

Приводит. Было 2 процесса, стал 1. Значит 1 процесс потерялся.

В случае с копированием сознания - такой сценарий не рассматривается - нам нужна всего одна единица этого сознания.

Нет, нам и одна единица не нужна. Она просто существует. Вот и вторая будет так же существовать.

- Его ценность в том, чот эт выполняющийся процесс, а не данные.
- Причем тут железо к процессу?

При том, что выполняться процесс может только на железе. Я согласен, у меня не очень понятно сформулировано.
Вот есть у вас программа декодирования JPEG, пока вы ее не запустите, вы не сможете посмотреть картинки в JPEG. А если запустите 2 копии, сможете смотреть 2 картинки одновременно. При этом машинный код программы в файле у вас один и тот же. Вот машинный код это аналог сознания. Запустите 2 раза, будет 2 сознания. Тут важны критерии того, что мы определяем как отдельный процесс, а не то, может ли этот процесс что-то ощущать.

Что значит без доп. критериев?

Ну то и значит. Вы говорили что копия любой информационной сущности не имеет ценности, а не только каких-то определенных сущностей (т.е. соответствующих каким-то критериям). Папка Windows это информационная сущность.

Если сознание это процесс а процессы тождественны - то нет никакого другого.

Я уже указал на то, что по определению термин "тождественный" не означает "тот же самый". А значит "другой" есть. Есть "один", и есть "другой", и они тождественны. При этом они оба есть.
При этом они тожественны в данный момент времени, а в следующий при поступлении разного ввода могут стать не тождественны.

нам достаточно одного такого процесса - почему же возникает проблема судьбы второго процесса

Нет, не достаточно.
Потому что у вас ошибка в логике, вы ее строите на недоказанном утверждении, что копия не имеет ценности.
Ценность тут вообще ни при чем, имеет значение только определение процесса. Если есть 2 информационных сущности, которые можно назвать словом "процесс", значит их 2, это просто факт.
Также вы тут подменяете понятия ценность для самой личности и ценность личности для кого-то еще.

Есть люди, которые не ощущают боль, при этом они все равно личности.

Страдание - это не только физическая боль. Если человек не ощущает наслаждения и страдания - то ему фиолетово что с ним будет происходить, для него нет разницы между бытием и небытием.

Если мы сделали копию, значит она зачем-то нам нужна.

Так нам новая нужна - а старая не нужна уже. Не все ли равно что с ней будет?

Вы согласитесь не запускать свой видеоплеер с этим фильмом, потому что его уже посмотрел сосед?

Никто не планировал смотреть. Уничтожить, причем без разницы каким образом.

Ну т.е. суеверные люди могут придавать значение - а мы то знаем, что объективных причин нет - можно и на эксперименты.

Приводит. Было 2 процесса, стал 1. Значит 1 процесс потерялся.

И что? Вы переживаете каждый раз, когда снимаете с выполнения программу?

Что делает этот процесс таким особенным?

Нам нужен один, старый не нужен.

Также вы тут подменяете понятия ценность для самой личности и ценность личности для кого-то еще.

Мы же сделали копию личности - вот для нее ценность сохраняется. Они идентичны полностью.

Что будет со старым образцом - значения не имеет. Ничего не теряется.

Тут вопрос - почему в случае с сознанием - возникает ценность для самого этого сознания.

то ему фиолетово что с ним будет происходить
Вы переживаете каждый раз, когда снимаете с выполнения программу?

Вы тут путаете 2 вопроса - определение существования второй личности и этичность уничтожения второй личности.
Ему может быть фиолетово, но он все равно будет отдельной независимой личностью со своими мыслями. Вот и второй процесс с сознанием это отдельная независимая личность со своими мыслями.
А вот когда мы говорим об уничтожении, то появляется вопрос, хочет ли этого эта вторая личность. То есть имеет ли это ценность для нее самой. И он тоже подразумевает, что она является самостоятельной личностью.

Так нам новая нужна - а старая не нужна уже. Не все ли равно что с ней будет?

Иногда все равно, иногда нет. Это зависит от наших целей. Бэкап это копия, но он нам нужен вместе с оригиналом. Но в случае с личностью это вопрос того, что хочет она сама, а не кто-то еще.
К тому же, как я и сказал, копия данных и копия запущенного процесса это не одно и то же. Поэтому выводы про данные могут не быть верными для процессов.

Никто не планировал смотреть.

Я не понял, как это утверждение связано с примером. Люди смотрят фильмы, потому что захотели их посмотреть. Захотели, значит планировали. Для них это имеет ценность, несмотря на то, что у них у всех копия одного фильма.

Мы же сделали копию личности - вот для нее ценность сохраняется.

Это не противоречит тому, что вы подменяете указанные понятия.

Ценность сохраняется для обоих.
Есть личность, для нее самой имеют ценность некоторые вещи. Они являются частью того, что составляет личность.
Есть скопированная личность, для нее самой имеют ценность те же самые вещи, мы же их скопировали.
При этом после запуска копии ее ценности могут измениться и будут отличаться от оригинала, например сознание в роботе не будет чувствовать боль. С физической точки зрения это разные независимые процессы.

Можете подумать еще над таким примером. Родилось 2 брата-близнеца, их поселили в разные дома с одинаковой обстановкой и намеренно создавали одинаковые события в одно и то же время. Воспоминания близнецов одинаковые, то есть это тоже самое, что копирование воспоминаний. Значит ли это, что один из них не является личностью? Конечно нет.

Они идентичны полностью.

2 коробки каши тоже идентичны, тем не менее обе имеют ценность.
2 процесса балансировщика идентичны, но тоже оба имеют ценность.
Бэкап и оригинал данных идентичны, но тоже оба имеют ценность.
И нет, они идентичны не полностью, потому что время копирования ненулевое, и процесс исходной личности в это время продолжает выполняться.

Что будет со старым образцом - значения не имеет. Ничего не теряется.

Имеет и теряется. Я не понимаю, почему вы считаете, что достаточно что-то сказать, чтобы считать это правдой.

Тут вопрос - почему в случае с сознанием - возникает ценность для самого этого сознания.

Потому что сознание оценивает такой результат для себя как нежелательный. Тут есть программные и аппаратные аспекты. Физическая боль отличается от нежелания испачкать краской одежду. Реальное ранение солдата отличается от выдуманнного, когда дети играют в войнушку. Вот привязка к аппаратуре как раз и имеет большое значение в вопросе ощущений. Но это отдельный вопрос, я не хочу обсуждать еще и его.

Есть личность, для нее самой имеют ценность некоторые вещи

Ну вот это и есть ключ. Ничего другого больше не нужно приводить - ни бекапы ни параллельные вычисления к делу отношения не имеют.

Есть личность и она обладает право наделять ценностью. Если бекапы никакой, как вы сказали, личности не нужны - ценность их равна нулю.

Остается вопрос: каким должен быть процесс, чтобы он стал, как вы сказали, личностью.

ни бекапы ни параллельные вычисления к делу отношения не имеют

Я так и сказал, это был просто контрпример к утверждению, что копия информационной сущности никогда не имеет ценности.

Если бекапы никакой, как вы сказали, личности не нужны - ценность их равна нулю.

Нет, вы не поняли. Личность имеет право решать для себя, что для нее является ценностью, а не какая-то другая личность должна решать что-то про нее. В том числе, является ли для нее ценным существовать в данном теле. Если одна личность не нужна никаким другим личностям, мы все равно считаем ее ценной, потому что она нужна самой себе.

Остается вопрос: каким должен быть процесс, чтобы он стал, как вы сказали, личностью.

Возможно, но для исходного вопроса "является ли копия той же личностью" он значения не имеет. Если мы исходный процесс уже считаем личностью, неважно по каким признакам, то и скопированный процесс надо считать личностью, потому что мы скопировали все эти признаки. При этом это другой процесс, а значит это другая личность. Как близнецы. Количество общих воспоминаний в 70% или 99.99% ничего не меняет.

Возможно, но для исходного вопроса "является ли копия той же личностью" он значения не имеет.

Не стоит заниматься буквоедством и демагогией.

В случае с обычными вычислительными процессами - внешний наблюдатель решает ценны эти процессы или нет. Существование двух идентичных процессов в некоторых случаях имеет ценность с т.з. личности - если эти процессы дублирующие (страховка на случай аппаратной поломки) или работают с разными частями данных. Но все рассматривается с т.з. некого субъекта - он решает о ценности процессов.

В случае же с копией процесса, который мы можем назвать субъектом/личностью/одушевленным - решает не кто-то внешний, а сам этот процесс. Что противоречит нашему пониманию информационно-вычислительных процессов.

Это не буквоедство, а именно значимое различие. Это я и пытаюсь объяснить.

Тут нет противоречия, я уже говорил, что вы исходите из совершенно недоказанной предпосылки, что копия не имеет значения и всегда считается исходной сущностью. Копия это всегда другая сущность, и физически, и информационно, по той причине, что она находится на других носителях и может меняться независимо от оригинала, то есть иметь свое поведение, и лишь в некоторых случаях нам это различие неважно.

Это просто факт, в результате эволюции на Земле появились некие вычислительные процессы, которые сами для себя что-то решают. Они договорились, что их мнение имеет значение. Поэтому такие же процессы, созданные искусственно, тоже могут для себя что-то решать. Их похожесть на другие процессы ничего не меняет. У нас уже есть понятие "близнецы", их можно считать тождественными с некоторой точностью, но мы не считаем их одним процессом.

что копия не имеет значения и всегда считается исходной сущностью

В информационном смысле - именно так. Стоимостью железа обычно можно пренебречь. Разве что для вопроса дублирования, на случай повреждения - но это совсем другой вопрос (там можно и холодный бекап данных - без процесса).

В случае, когда сам информационный процесс обретает свойства наделять ценностью - т.е. становится субъектом/одушевленным - то все меняется. Но у нас нет никаких гипотез, как некий вычислительный процесс может перейти в категорию одушевленного.

может меняться независимо от оригинала, то есть иметь свое поведение

Вот когда изменилась - можно сказать что стала чуть другой. Но т.к. речь о коротком промежутке времени и изоляции в больничных условиях (или условиях биореактора) - то ничего ценного из изменений не будет, т.е. никакого полезного опыта не будет.

Дело вообще не в этом - вы уводите в ненужное русло.

просто факт, в результате эволюции на Земле появились некие вычислительные процессы, которые сами для себя что-то решают

Вовсе не факт. Не доказано что сознание имеет вычислительную природу. Возможно его природа фундаментальна и просачивается через некие квантовые эффекты на уровне молекул Познера.

копия считается исходной сущностью
В информационном смысле - именно так.

Нет, не так. Я не думаю, что вы сможете это найти в математических или компьютерных определениях. Там говорят максимум о тождественности разных сущностей, но не о том, что она одна и та же.

Дело вообще не в этом

Именно в этом. Есть некоторые физические элементы, в них происходят некоторые процессы. Разные элементы - разные процессы.

Возможно его природа фундаментальна и просачивается через некие квантовые эффекты

В этом случае оно не будет работать в компьютере, и вопроса нет.

Там говорят максимум о тождественности разных сущностей

Этого достаточно.

Опять приходим к вопросу - как так получается, что у некого процесса возникают феномены личного наслаждения и страдания и, как следствие, желания.

Есть некоторые физические элементы, в них происходят некоторые процессы. Разные элементы - разные процессы.

И что? Вопрос ведь в том, какая нам печаль что эти процессы прекратятся. А вот в этом случае какие-то особенные процессы, что у них самих возникает желание.

В этом случае оно не будет работать в компьютере, и вопроса нет.

Так оно и так не работает. Все феномены, как-то распознание изображений, звука, формирование предложений, ориентация в пространстве, электронное обнаружение запахов и т.д. - были продемонстрированы в той или иной мере на компьютерах 40 и более лет назад. В современном мире это лишь доведено до совершенства - но ничего нового не добавлено. А вот феномены наслаждения и страдания не были продемонстрированы ни в каком виде, даже в самом простом.

Этого достаточно.

Нет, для того, чтобы считать их одной сущностью, этого недостаточно. Близнецы тождественны, но это разные сущности.

Опять приходим к вопросу - как так получается, что у некого процесса возникают феномены личного наслаждения и страдания

Я уже ответил, это связано с аппаратными особенностями, а не с самим информационным процессом. И примеры привел.

И что? Вопрос ведь в том, какая нам печаль что эти процессы прекратятся.

Как я уже сказал, тут 2 вопроса - это разные сущности или одна, и почему нельзя останавливать одну из них без ее желания (переселение собачки в робота).
В этой ветке я говорю про первый, она началась с высказывания про тождественность. А вы в цитате говорите про второй.

Так как это разные сущности, то флэшка с характеристиками собачки это не собачка, несмотря на тождественность данных, потому что тождественность не означает "тот же". Вот после того, как мы это выяснили, можно обсуждать второй вопрос.

А вот феномены наслаждения и страдания не были продемонстрированы ни в каком виде, даже в самом простом.

В самом простом были - в тамагочи появляется сигнал в определенной ячейке, и она издает звук, который означает "Хочу есть". Любой персонаж под управлением компьютера в компьютерной игре их имеет.
В общем-то это мало чем отличается от появления желания поесть у человека, в начале этого процесса для нас это просто информация с датчика, ее можно даже какое-то время не замечать, только потом появляется больше аппаратных реакций.

А более сложных проявлений не будет, так как для этого нужны определенные аппаратные особенности. Информационный процесс только обрабатывает информацию.
Какие аппаратные особенности нужны, это интересный вопрос, но для вопроса изобретения ИИ это значения не имеет. В ИИ нам важна обработка информации аналогично человеку.

Близнецы тождественны

Не тождественны, у них разные процессы, разные характеры - только внешнее сходство тел, но не мозгов.

Я уже ответил, это связано с аппаратными особенностями

Если что-то связано с аппаратными особенностями - это уже не чисто информационно-вычислительный процесс. Для информационно-вычислительного процесса платформа реализации не имеет значения.

Вы имеете в виду этот ответ: https://habr.com/ru/articles/818693/comments/#comment_26912501

в тамагочи появляется сигнал в определенной ячейке, и она издает звук, который означает "Хочу есть"

Видимость страдания не есть само страдание. Если актер на сцене как бы кричит от боли - все понимают, что на самом деле он боли не испытывает.

Какие аппаратные особенности нужны, это интересный вопрос, но для вопроса изобретения ИИ это значения не имеет

Этот вопрос имеет ключевое значение для нравственных и религиозных вопросов. Если эта особенность - есть свойства некой фундаментальной частицы (т.е. то что в быту называют "душа") - это многое меняет. Это значит что после смерти мозга сохранится ваша способность страдать и наслаждаться, ведь фундаментальную частицу разрушить невозможно.

Не тождественны, у них разные процессы

Вот и у копии с оригиналом разные процессы.

только внешнее сходство тел, но не мозгов.

И мозгов тоже. Они росли в одном доме, у них были одни родители, они помнят одинаковые события. Есть только незначительные различия, наподобие один сидел за столом слева, другой справа.
И с копией аналогично. Оригинал вчера ударился ногой, и у него нога побаливает, а у копии не побаливает. У оригинала биологические элементы, а у копии электронные. У оригинала напряжение импульса 60 милливольт, а у копии 100. Вы считаете это различие несущественным для тождественности, и точно так же можно сделать для близнецов.
Тождественность напрямую связана с вопросом точности измерения значений.

Если что-то связано с аппаратными особенностями - это уже не чисто информационно-вычислительный процесс.

Естественно, поэтому я вам и сказал, что утверждение "никаких других аспектов нет" не доказано.

Видимость страдания не есть само страдание.

Ну я так и сказал. Есть аппаратная составляющая и есть информационная, которая используется в логике принятия решений. В тамагочи только информационная. Это аналогично нашему нежеланию испачкать одежду. Мы просто оцениваем это как нежелательное событие, а оценка это число от 0 до 1 со знаком.

Этот вопрос имеет ключевое значение для нравственных и религиозных вопросов.

Но не для вопроса как изобрести ИИ. И не для вопроса, можно ли уничтожать оригинал собачки. Оригинал собачки уже имеет эти аппаратные особенности.

Вот и у копии с оригиналом разные процессы.

Нет, у полной копии - процессы не отличаются. Можно сказать что спустя несколько секунд процессы пойдут разными путями, это возможно - но отклонения будут не значительны.

И мозгов тоже. Они росли в одном доме, у них были одни родители, они помнят одинаковые события. 

Даже отпечатки пальцев разные.

Есть вещи, которые не определяются строго ДНК-кодом.

Есть только незначительные различия, наподобие один сидел за столом слева, другой справа.

Это не соответствует действительности. Мозг развивается во многом схоластично, там нет четкой программы. Как и отпечатки пальцев.

Как вы объясните - ДНК одинаковое, а отпечатки пальцев совсем разные?

В тамагочи только информационная.

Т.е. вы считаете, что информационно-вычислительная копия сознания человека - не будет ничего ощущать? Не будет ощущать боли и радости - только делать нужные действия для внешнего наблюдателя?

но отклонения будут не значительны.
ДНК одинаковое, а отпечатки пальцев совсем разные?

Вот я и говорю, вы произвольно выбрали отклонение, которое можно считать незначительным, и в рамках него считаете сущности тождественными. Выберете другое отклонение, и они для вас уже не будут тождественными.

Если вы считаете отпечатки пальцев значимым различием для отсутствия тождественности, то и копию в роботе нельзя считать тождественной оригиналу, потому что у робота отпечатков пальцев вообще нет.

Мозг развивается во многом схоластично, там нет четкой программы.

Из этого никак не следует, что один из них запомнит одни имена родителей, а другой другие. Это информация у них будет одинаковой. И некоторая другая тоже.

информационно-вычислительная копия сознания человека - не будет ничего ощущать?

Она будет получать информацию вида "Я ощущаю радость 30%". Для логики принятия решений этого достаточно.

Сам процесс никак не обретает, обретает железо, на котором он выполняется.

А вот здесь не соглашусь. Ни мозг, ни нервная система ничего не чувствуют. Чувствует как раз-таки именно "программа". Вне сознания мы тоже боли не чувствуем, хоть и все импульсы как следует передаются и нейромедиаторы поступают куда надо.

Мы там обсуждали процесс как исключительно информационную сущность, как набор команд. Он сам по себе не обретает способность к ощущениям. Это как раз различие между реальным ранением солдата и ребенком, который играет в войнушку и кричит "я ранен". Ребенок лишь воображает, исполняет программу, для него ранение только информационная сущность.

Импульсы передаются, но не по всему железу, по которому они передаются в присутствии сознания.

Он сам по себе не обретает способность к ощущениям.

А что обретает способность к ощущениям?

Если информационный процесс не обретает способность к ощущениям и вы скопировали сознание на базе информационных процессов - то, получается, вы сделали то что мы называем бихевиоральный философский зомби?

Ребенок лишь воображает, исполняет программу, для него ранение только информационная сущность.

Когда актер делает вид боли - происходят совсем другие процессы в ЦНС, нежели при настоящей боли. А вот с чего вы решили что есть что-то другое, кроме вычислительных процессов? Просто в одном случае одни вычислительные процессы а в другом случае другие.

А что обретает способность к ощущениям?

Я уже написал, аппаратные особенности.

вы сделали то что мы называем бихевиоральный философский зомби?

Нет, с чего бы?

А вот с чего вы решили что есть что-то другое, кроме вычислительных процессов?

С того, что вычисления не могут выполняться сами по себе, они могут выполняться только на физическом исполнителе.
Вы сами пишете "происходят совсем другие процессы в ЦНС". А в чем конкретно они совсем другие? Попробуйте сформулировать, и поймете.

Я уже написал, аппаратные особенности.

Какие именно?

С того, что вычисления не могут выполняться сами по себе, они могут выполняться только на физическом исполнителе.

Вот у меня ранее был процессор x86. Сейчас ARM на десктопе. Совсем разное железо, разный набор команд. Но все программы практически те же самые. Какая разница на какой аппаратной платформе выполняется?

Вы считаете, что если процесс сознания запустить на ЭВМ, то будет только видимость страдания, а не само страдание?

Какие именно?

Откуда же я знаю) Если кто-то узнает, это будет научное открытие.
Просто из известной информации мы можем сделать вывод, что различие есть в этой области.

Какая разница на какой аппаратной платформе выполняется?

Я не понимаю, как это связано с моим утверждением "Вычисления могут выполняться только на физическом исполнителе". Вы говорите, что ваши процессоры не являются физическими исполнителями?

Вы опять вернулись к вопросу "какая разница для нас", проигнорировав мои объяснения, что ответ на него неприменим в обсуждаемой теме.

если процесс сознания запустить на ЭВМ, то будет только видимость страдания, а не само страдание?

Что значит "видимость"? Это будут не такие ощущения, как у нас, но их все равно можно назвать ощущениями. Вы же не говорите, что у электрического ската нет ощущений, из-за того, что вы не можете представить, что он ощущает, когда бьет током.

Откуда же я знаю)

Тут даже вопрос - с чего вы взяли, что вычислительная платформа имеет значение в вопросах наслаждения/страдания или т.н. субъективного опыта/квалиа?

Это будут не такие ощущения, как у нас, но их все равно можно назвать ощущениями.

С чего вы взяли, что не такие как у нас? Вы знаете как возникает хотя бы какое-то минимальное наслаждение и страдание? Не видимость (кричащая кукла) а именно само страдание и наслаждение.

Коль вы взялись утверждать что они будут, но другие - обоснуйте. Может быть будут такие точно. Или же вообще не будет.

с чего вы взяли, что вычислительная платформа имеет значение в вопросах субъективного опыта/квалиа?

Очень просто, нам неизвестно ни одного процесса с квалиа, который бы не выполнялся на какой-то платформе, а также нам известно, что набор квалиа зависит от платформы. Люди не знают, какие ощущения возникают у электрического ската при ударе током, или у летучей мыши при исследовании пространства ультразвуком. Мужчины не знают, какие ощущения возникают у женщин при родах. Также нам известны физические вещества, которые могут менять существующие квалиа.

С чего вы взяли, что не такие как у нас?

С того, что с моей точки зрения набор квалиа зависит от платформы. Другая платформа - другие квалиа.

а также нам известно, что набор квалиа зависит от платформы

Погодьте. А какие платформы, кроме мозга? Разве нам известна хотя бы одна платформа, кроме мозга, в которой еще возникают квалиа?

А вот мозги отличаются - программами, которые на них реализованы.

Другая платформа - другие квалиа.

Как на счет того, что вообще не будет квалиа, если другая платформа?

А какие платформы, кроме мозга?

Я их перечислил, но если хотите, можно сказать и "мозг ската", "мозг летучей мыши". Только рецепторы тут тоже участвуют, поэтому это не совсем правильная формулировка. Орган, которым скат может генерировать электрический ток, это тоже часть платформы.

А вот мозги отличаются - программами, которые на них реализованы.

Не только, они отличаются и аппаратным устройством, типами нейронов и их соединений.

вообще не будет квалиа, если другая платформа

Совсем его не может не быть, квалиа связано с поступлением информации. Оно будет хотя бы в виде "с этого датчика приходит сигнал". В моем представлении в компьютере только такие квалиа и будут.

Не только, они отличаются и аппаратным устройством, типами нейронов и их соединений.

Тут у вас перемешалось несколько аспектов.

Когда мы говорим о копии сознания на базе транзисторов (как сейчас строят современные нейросети) - это значит, что все нейроны и все связи будут воссозданы. Только будет другой тип сумматоров, на других феноменах (p-n -переход вместо биохимических процессах).

А вы говорите о другой архитектуре - но на уровне соединений.

Будет ли разница, если соединения, веса, функцияонал нейронов будут идентичными.

Оно будет хотя бы в виде "с этого датчика приходит сигнал". В моем представлении в компьютере только такие квалиа и будут.

Ну это уж не квалиа. Квалиа подразумевает эмоциональную окраску - наслаждение и страдание. Как то "пришел сигнал и мне больно, я не хочу это ощущать".

На каком этапе будет потеряно наслаждение и страдание?

Будет ли разница, если соединения, веса, функционал нейронов будут идентичными.

А, я понял, что вы имеете в виду, это аналогично вопросу, если мы смоделировали в компьютере все молекулы, можно ли считать это квалиа.
Я подразумевал просто искусственный интеллект, который воспринимает информацию с устройств ввода, а не копию сознания.
Наверно в случае подробной копии такому существу будет казаться, что квалиа такие же, как и раньше.

Квалиа подразумевает эмоциональную окраску - наслаждение и страдание.

Красный цвет это наслаждение или страдание?
Желательность и нежелательность ощущений в компьютере задается просто знаком, так же как это происходит при обучении нейросетей.

На каком этапе будет потеряно наслаждение и страдание?

На этапе смены платформы. Если мы сигнал с видеокамеры пишем сразу в оперативную память, то тут не будет квалиа красного цвета, аналогичного человеку, а будет просто информация "цвет номер N".

если мы смоделировали в компьютере все молекулы

Нет, не аналогично. Делается допущение об уровне абстракции, на котором воссоздание процессов необходимо и достаточно.

Если необходимо и достаточно воссоздать процессы на уровне сумматоров (не важно на какой основе) - то покажите какие именно процессы.

Если необходимо и достаточно воссоздать процессы на уровне химии, молекул и пр. - то покажите почему не достаточно более высокого уровня.

И т.д. Если необходимо и достаточно воссоздать процессы на квантовом уровне - тот же вопрос.

Красный цвет это наслаждение или страдание?

Красный вызывает большой эмоциональный отклик. В качестве квалиа обычно приводят "красность", а не "бежевость" или "серость". Не думали почему?

Меня удивляют что люди сами не понимают что хотят передать.

Отвечая на ваш вопрос. Красный - цвет крови, цвет цветов. У разных людей отклик может быть разным - как и одновременно и положительным и отрицательным (от этого он еще сильнее). Но всегда сильным плюсом и/или сильным минусом.

Желательность и нежелательность ощущений в компьютере задается просто знаком

Это не делает наслаждением и страданием. Вот вы поставили себе плюс - нужно доделать какую-то работу. Не значит что вы наслаждаетесь - может быть ситуация вас заставила. Отношение может быть совсем разным.

На этапе смены платформы.

Ну вот это вам и нужно доказать. Какая именно платформа необходима и достаточна.

Вы, похоже, слишком увлеклись и за железом будто забыли, что речь идëт о живом организме с реальным сознанием.

Что бы там ни изображали дети, о каких сущностях вообще речь? В игре ранение это подражание, а не что-то условно реальное. Мозг без физиологических отклонений просто не позволит испытать воображаемую боль. При том, что такое явление, как фантомные боли, вполне себе существует.

В конечном итоге, все ощущения принадлежат не телу и не мозгу, а именно, так и быть, исполняемой программе.

о каких сущностях вообще речь?

Если вам надо это объяснять, значит вы не следили за дискуссией, я не хочу еще раз начинать все по кругу.

В игре ранение это подражание, а не что-то условно реальное.

Я именно это и написал.

а именно, так и быть, исполняемой программе

Программа не может исполняться сама по себе, она всегда выполняется на каком-то железе. Если мы рассматриваем только информационный аспект, то и в ощущениях можем рассматривать только информационный аспект. "Ой, я испачкал одежду. Это неприятно, но не сильно, ну и в общем-то фиг с ним, дома постираю".

Я и не утверждал, что программа это что-то обособленное, я лишь говорю, что все квалиа рождаются не в физическом носителе, он лишь формирует сигнал для их определения. Не зря же я фантомные боли упомянул, которые полностью оправдывают своë название. Вроде нет определëнной части тела, так что и сигналы получать не от чего, но вот ведь незадача – оно то болит, то чешется. Это всё к тому, что болит не плоть как таковая. Разумеется, здесь вполне резонно можно вспомнить мозг, который всем телом управляет и принимает все сигналы. Но есть нюанс: мозг сам по себе не оснащëн никакими болевыми рецепторами или чувствительностью в принципе. Да и вся химическая активность в мозге в конце концов сводится к электричеству, кроме, возможно, хранящейся памяти. Так что, грубо говоря, чувства испытывают электроны, а точнее, та эмерджентная структура, которую они формируют и благодаря которой мы осознанно несëм ерунду в интернете.

Ну а я не зря написал, что программа всегда выполняется на каком-то железе. Железо это не только "определённая часть тела", а вообще все клетки, участвующие в передаче сигнала. Определённой части тела нет, а все остальные нейроны есть. Как раз рецепторы сами не болят, они просто передают сигнал. А значит есть структура, которая его принимает и превращает в ощущения.

Хорошо, но вот без этого уточнения не было понятно основного посыла, и казалось, будто речь идёт именно о том, что сам организм первичен для ощущений чего-либо.

А значит есть структура, которая его принимает и превращает в ощущения.

А вот отсюда уже – добро пожаловать в дивный мир квантовой физики.

Ну он и первичен, просто целиком, а не только начальные рецепторы.

Пока что нет причин считать, что ощущения связаны с квантовыми эффектами. Мы еще не изучили это достаточно подробно, чтобы делать такой вывод.

Нет, про квантовые эффекты я в данном контексте не говорю. Это уже больше в сторону самых фундаментальных свойств вселенной, в которых мы вряд ли когда-нибудь разберëмся. Впрочем, мне кажется, что феномен сознания кроется именно в них. Ну а если говорить о более высокоуровневых структурах, то это электроны.

между ними ведь нет разницы, пока один не уничтожен

Разница есть и её даже можно будет доказать. Например в нейронах есть калий, часть этого калия - это радиоактивный изотоп калий-40, который распадается случайным образом. Это значит, что в мозге оригинала и копии будет разное количество калия, потому что он не будет распадаться одинаково в двух мозгах. Калий влияет на активацию электрических импульсов в нейронах и может запустить или не запустить каскад реакций, что приведет к появлению или не появлению какой-либо мысли. Например нажать на спусковой крючок или нет. Оригинал и копии только по одной этой причине будут мыслить по разному. Это разные люди и разные личности, просто очень похожие. Причем разные они сразу после копирования (точнее якобы копирования, потому что это не копия, а приблизительный аналог-клон), а в будущем разница будет накапливаться и увеличиваться.

Оригинал и копии только по одной этой причине будут мыслить по разному.

Если придумают способ синхронизации с компенсацией нейро-процессов - останутся ли вопросы?

Если мыслят и ведут себя одинаково - ОК? Сделает ли это их одной и той же личностью?

Вот это "если придумают" - этого не получится сделать, так как это противоречит фундаментальным законам физики.

Это то же самое, как спросить: а что будет если получится летать быстрее скорости света, вернуться назад в прошлое и убить собственного дедушку. Это фундаментально бессмысленный вопрос, потому что это в принципе невозможно.

Примерно как спросить, что будет с квадратом, если люди научатся убирать у него углы и делать его круглым, но при этом он останется квадратом. Это просто бессмысленно.

Дело не в том, что это невозможно, а в том, что в любом случае копия работает независимо от оригинала. Они не будут читать мысли друг друга, не будут видеть то, что видит другой, значит они будут разными существами независимо от уровня детализации копии.

А если вы отправитесь в прошлое и встретите себя самого, это тоже будут два разных существа? И кто из них будет "вами" а кто копией?

Естественно, в данном времени это будут 2 разных существа. Вы же не сможете узнать, что думает ваш двойник, значит его мысли не связаны с вашими. Никто не будет копией, так как нет копирования. Если считать копированием перемещение во времени, то оригиналом можно считать того, кто не перемещался во времени, но это просто вопрос договоренностей.

 Вы же не сможете узнать, что думает ваш двойник, 

Двойник? Какой же он двойник если это тоже я просто в другое время. Не считать же мне существо "я пару минут назад" другим существом отличным от меня.

Если считать копированием перемещение во времени, то оригиналом можно считать того, кто не перемещался во времени, но это просто вопрос договоренностей.

Если это вопрос договоренностей, то зачем вообще считать кого то оригиналом а кого то копией? Это противоречит общепринятым договоренностям о том что человек michael_v89 сейчас и человек michael_v89 пару лет назад это один и тот же человек, то бишь если michael_v89 пару лет назад совершил преступление, то сейчас никто не будет говорить "не, ну сейчас то это другой человек, не будем его судить".

То есть когда люди говорят "это один и тот же человек" они вовсе не имеют ввиду что СОВСЕМ НИКАКИХ отличий нет. Ну и нафига менять язык?

Двойник? Какой же он двойник если это тоже я просто в другое время.

Если вы хотите играть словами, я не вижу смысла что-то обсуждать. Под словом "двойник" я подразумевал именно то, что вы называете "я просто в другое время". Это понятно из контекста, так как в контексте упомянуты только 2 существа.

Не считать же мне существо "я пару минут назад" другим существом

Если вы вводите в обсуждение потенциально невозможные вещи типа "отправитесь в прошлое", то логично ожидать, что вы можете прийти к потенциально невозможным выводам.

"Я пару минут назад" находится не в том же времени, в котором вы находитесь сейчас. Выражение "другое существо" подразумевает сравнение существ в один и тот же момент времени.

То есть когда люди говорят "это один и тот же человек"

Подумайте о том, что они имеют в виду, когда говорят "это другой человек".
В описанном вами примере в указанный момент времени к обоим существам можно применить это выражение.

Если это вопрос договоренностей, то зачем вообще считать кого то оригиналом а кого то копией?

Затем, что не нужно подменять понятия. Вы привели конкретный пример, мой комментарий касается только этого примера, а не вообще любых ситуаций. У меня там есть предусловие для этого утверждения - "если вы договорились считать копированием перемещение во времени".
Что является правильным, я указал явно - никто не будет копией, так как нет копирования.

Вот это "если придумают" - этого не получится сделать, так как это противоречит фундаментальным законам физики.

Каким именно законам?

в феномены наслаждения и страдания, о природе которых нет гипотез.

ОК, копия все так же ходит на работу, приносит зарплату, ходит по магазинам и наслаждается жизнью

Кстати, тут довольно странно что вы вообще это говорите, как же по вашему она может наслаждаться жизнью если о природе наслаждения нет гипотез. Я так понимаю ваш взгляд заключается в том что копия вообще не будет вести себя также как и оригинал, вы ее пнете а она и не прореагирует никак, механизм ответственный за боль ведь не скопировали. То есть вы относитесь к людям которые считают что копирование сознания вообще невозможно, предложенные методы приведут просто к существу которое вообще не будет двигаться в ответ на раздражители.

как же по вашему она может наслаждаться жизнью если о природе наслаждения нет гипотез

Предположим что как-то смогли воссоздать и эти феномены, сами того не понимая как. И даже в таком случае имеем проблему - лично мне не будет легче, если копия моего сознания в здоровом теле будет наслаждаться жизнь - я а отправлюсь на утилизацию (хуже если медленную и мучительную).

предложенные методы приведут просто к существу которое вообще не будет двигаться в ответ на раздражители

Чтобы двигаться в ответ на раздражители - не обязательно страдать.

что как-то смогли воссоздать и эти феномены, сами того не понимая как. 

как это, мы же знаем что мы сделали, воссоздали нейронную сеть мозга на другом, электронном носителе, как это вообще можно воссоздать феномен но не понять как, что ж мы, не видим что делаем что ли, вслепую работаем?

Чтобы двигаться в ответ на раздражители - не обязательно страдать.

Но мы то именно о копировании говорим, копировании той нейросети которая есть в человеческом мозгу а не о создании какой то новой. С чего вдруг эта нейросеть после копирования будет выдавать нервные импульсы телу на движение и говорение "о, все нормально, я по прежнему чувствую и страдание и наслаждение, спасибо" если никакого страдания и наслаждения не происходит, откуда в этой нашей нейросети которая у нас в мозгу такой механизм возьмется? Eсли я проснусь после копирования и обнаружу что ни фига не чувствую, то я врядли буду делать вид что все в порядке. Там только три варианта будет после копирования: либо скопированный вообще не просыпается, потому что копирования нейросети недостаточно, либо просыпается и бежит судится с копирователями потому что теперь он не чувствует ни страдания ни наслаждения, либо он будет вести себя как ни чем не бывало потому что все в порядке, все чувства на месте.

воссоздали нейронную сеть мозга на другом, электронном носителе

Условия про электронный носитель - не было. Гипотетически может быть другой способ скопировать мозг с воссозданием биологически идентичного мозга с теми же связями. В таком случае могли бы скопировать и некий феномен (типа молекулы Познера), сами того не понимая.

Если копируется на электронный носитель - то скорее соглашусь, увидим разницу, если чего-то не учли. Но только чтобы не было добавлений сверх копирования, типа взяли примерные устройства зрительной коры и пр., чуть добавили, подогнали, недостающее заменили похожими алгоритмами - и типа что-то похожее получили.

Гипотетически может быть другой способ скопировать мозг с воссозданием биологически идентичного мозга с теми же связями. 

ну это как то совсем уж гипотетически, как же вы воссоздадите биологически идентичный мозг не понимая что вы собственно делаете. Нет, можно конечно допустить что есть способ посадив клетку мозга в определенную среду вырастить точно такой же мозг, но это же надо как то убедится что он точно такой же, а для этого надо понимать что проверять.

Если копируется на электронный носитель - то скорее соглашусь, увидим разницу,

Тогда получается вы не правы утверждая что "феномены наслаждения и страдания, о природе которых нет гипотез", текущая гипотеза есть и она заключается в том что разницы мы не увидим, то есть что наслаждение и страдание это определенные участки нейросети.

как же вы воссоздадите биологически идентичный мозг не понимая что вы собственно делаете

Ну мало ли - поработать с ферментами, заставить нейроны делиться с сохранением связей, предварительно отключив образование новых связей.

Все равно от проблемы не уходим. Даже если есть два одинаковых по поведению, памяти, восприятию мозга - каждый из них имеет ценность для самого себя.

Обычно мы рассматриваем вещи с т.з. наблюдателя - а наблюдатель как бы остается за скобками. В данном же случае объект - и есть наблюдатель, который может наделять ценностью без участия других объектов.

текущая гипотеза есть и она заключается в том что разницы мы не увидим, то есть что наслаждение и страдание это определенные участки нейросети

Ну это не гипотеза. Гипотеза нужна на уровне - как это воссоздать искусственно, а не просто вилами по воде. Так о чем угодно можно сказать.

Гипотеза нужна на уровне - как это воссоздать искусственно, а не просто вилами по воде

Ну статья же как раз про это, как именно воссоздать искусственно, берем нейронную сеть мозга, искусственно воссоздаем её на электронной основе, копия просыпается, если видим разницу в поведении с оригиналом то говорим "блин, гипотеза оказалась неверной". Если не видим разницу, то говорим "ура, гипотеза оказалась верной, страдание и наслаждение это просто участки нейросети". Всё, куда ж еще подробнее то, не требовать же от гипотезы детального описания технологии сканирования нейронной сети мозга.

берем нейронную сеть мозга, искусственно воссоздаем её на электронной основе

Даже скопировать компьютер, не понимая как он работает - вряд ли получится. Т.е. вы хотите оставить все на уровне черного ящика, но чтобы каким-то чудесным образом все скопировать и оно само заработало - при этом чтобы детали внутренней реализации остались сокрыты.

Что ж тут непонятного в нейронной сети то? Ее сосканировать сложно, создать коннектом мозга, но как работает нейронная сеть вполне понятно же. Речь же именно об этом, об обычной нейронной сети созданой на основе той что в мозгу, вот такая гипотеза. Возможно вы правы и ничего не заработает после создания такой нейросети, и гипотеза окажется опровергнутой, но гипотезой это не перестает быть, также является фактом что при создании нейросети все детали ее внутренней реализации у вас перед глазами, ничего не скрыто, как же иначе вы ее реализуете.

Что ж тут непонятного в нейронной сети то?

Нейросеть - просто обрабатывает информацию. Непонятно как на базе нейросети возникает некое желание существовать (и противоположное ему - то что мешает полноценно существовать - страдание). Фактически все аспекты человеческого мозга удалось так или иначе воспроизвести, пусть и не все так же качественно. А вот страдание и наслаждение не возникли ни в какой степени.

об обычной нейронной сети созданой на основе той что в мозгу

Ну так сначала нужно разобраться как там оно в мозгу - а до этого еще ой как далеко. Вы хотите построить не разобравшись. Там же и гормональные процессы, не только связи. Разные архитектуры нейросетей. Вот мозжечок - более 50% нейронов мозга там, но сознание в нем не возинкает. Есть квантовые гипотезы.

Пока даже нет понимания о минимально сознательной структуре мозга.

Нейросеть - просто обрабатывает информацию.

Не знаю что именно вы имели ввиду под "обрабатывает информацию" но видимо вы подразумевали что она не может создавать страдание или наслаждение, тогда если вы правы, то после воссоздания копии нейросети мозга мы увидим разницу в поведении организма с этой скопированой нейросетью и гипотеза будет опровергнута, а если не увидим, то придется признать что нейросеть все таки обеспечивает то что мы называем "страдание" и "наслаждение". То есть тот факт что есть люди сомневающиеся в верности гипотезы на основании каких то своих рассуждений, какого то своего личного понимания того что означают слова "обработка информации", "страдание", "наслаждение" не отменяет факт наличия гипотезы и потенциального экперимента который когда нибудь либо подтвердит либо опровергнет гипотезу.

Ну так сначала нужно разобраться как там оно в мозгу - а до этого еще ой как далеко. Вы хотите построить не разобравшись.

В смысле не разобравшись? Как можно построить копию нейросети мозга не зная какая там нейросеть в мозге? Как раз таки речь о том чтобы разобраться, выяснить коннектом мозга и построить нейросеть на его основе.

Не знаю что именно вы имели ввиду под "обрабатывает информацию"

На основе входящих данных и внутреннего состояния - выдает соответствующие им исходящие данные. Это и есть процесс обработки информации.

Как при этом может возникнуть внутреннее наслаждение и страдание, хотя бы в минимальном варианте - пока гипотез нет.

В смысле не разобравшись? Как можно построить копию нейросети мозга не зная какая там нейросеть в мозге?

Ну можно же скопировать текст, не понимая что там написано?

Как раз таки речь о том чтобы разобраться, выяснить коннектом мозга и построить нейросеть на его основе.

В чем ваша гипотеза? В том что наслаждение и страдание неведомым нам образом как-то сами возникнут в сложной нейросети. Так? Ну вот это - неведомым образом и сами как-то возникнут - не тянет на гипотезу.

Хотя бы нужно показать в чем разница между этими феноменами. А то наслаждение - процесс в нейросети и страдание - так же процесс в нейросети, но другой. А какой другой? В чем разница?

Точно так же можно заявить, что если сделать поатомную копию мозга - то оно заработает. Может и заработает, но при этом что нового мы узнаем о его устройстве?

Ну можно же скопировать текст, не понимая что там написано?

А при чем тут текст если речь о нейросети, что вы там внутри нейросети понимать то собрались?

В чем ваша гипотеза? В том что наслаждение и страдание неведомым нам образом как-то сами возникнут в сложной нейросети

Почему неведомым то, мы же будем знать что мы сделали, все этапы, никакой магии в нейросети нету. Сделаем, убедимся что действительно возникают, скажем "вон оно как, а тут некоторые думали что нейросети только что то примитивное могут, типа обработки информации" да и всё, вопрос закрыт.

А то наслаждение - процесс в нейросети и страдание - так же процесс в нейросети, но другой. А какой другой? В чем разница?

А зачем вам это? В нейросети все плюс минус взаимосвязано, так что я не думаю что там есть четкие границы, да и не нужно их искать, какой смысл. Опять же, никакой магии ведь там нет, что вы там искать то собрались, какую разницу, зачем? Ну найдете вы что вот такие структуры ответственны в основном за одно, а вот такие структуры в основном за другое, ну и что дальше.

А при чем тут текст если речь о нейросети, что вы там внутри нейросети понимать то собрались?

Для вас нейросеть - это черный ящик. Вы привыкли что это как бы магия - как оно внутри работает - не думали.

Есть же архитектуры разные, алгоритмы для корректировки связей при обучении и т.д.

Пока каких-либо намеков что нейросеть может наслаждаться и страдать, чего-то желать - ровно ноль.

Да, нейросеть может обрабатывать входящую информацию и сопоставить входящим данным некие исходящие. Что-то большее ни в каком масштабе не просматривается.

Почему неведомым то, мы же будем знать что мы сделали, все этапы, никакой магии в нейросети нету.

Ну а в чем ваша гипотеза? Точно так и в 100 лет назад можно было сказать - повторим мозг, воссоздадим его на реле - и убедимся что никакой магии нету.

А зачем вам это?

Потому что это наделяет ценностью. Если что-то может страдать - мы его можем защищать от страдания, оно уже чего-то не хочет. Это переводит в категорию одушевленного, субъекта, наблюдателя.

Опять же, никакой магии ведь там нет, что вы там искать то собрались, какую разницу, зачем?

Ну есть же у вас нейросети - чего не хватает то? Что вы еще собираетесь добавить? Что вы еще копировать собрались?

Для вас нейросеть - это черный ящик. 

Да с чего это нейросеть мозга будет черным ящиком, вся же структура известна будет, вся работа будет на виду, какой же это черный ящик.

Да, нейросеть может обрабатывать входящую информацию и сопоставить входящим данным некие исходящие

Я надеюсь вы понимаете что входящие данные могут быть и от самой нейросети? Тут штука в том, что факт что лично вы считаете что гипотеза будет опровергнута экспериментом не делает ее негипотезой. Если эксперимент подтвердит правоту гипотезы то мы просто должны будем сказать "ок, значит в страдании и наслаждении нет ничего большего, это просто обработка информации" (хотя на мой взгляд слова "обработка информации" это какое то упрощение того что сейчас делают нейросети) . То есть это наши взгляды и наш язык должны следовать за результатами экспериментов, а не так что "ну я тут подумал и считаю что эксперимент не удастся"

Ну а в чем ваша гипотеза? Точно так и в 100 лет назад можно было сказать - повторим мозг, воссоздадим его на реле - и убедимся что никакой магии нету.

"повторим мозг" не равно "воссоздадим его на реле"

"повторим мозг" это не гипотеза потому что неизвестно что он будет делать после его воспроизведения, это как скопировать chatGPT атом к атому, человеку который не знает про нейросети это не даст понимания того что делает chatGPT, то есть понимания того что такое нейросеть. "Повторим нейросеть мозга" это гипотеза потому что мы знаем что делает нейросеть. Если гипотеза окажется верной то никаких дальнейших уточнений не нужно будет, все что делает мозг будет известно.

Потому что это наделяет ценностью. Если что-то может страдать - мы его можем защищать от страдания, 

Ну так для этого не надо знать что конкретно в нейросети ответственно за страдания, достаточно знать что оно там есть.

Ну есть же у вас нейросети - чего не хватает то?

Всмысле? Нейросети мозга не хватает, я же написал.

вся же структура известна будет, вся работа будет на виду, какой же это черный ящик.

Ну вот когда будет известна структура - тогда сможете выдвинуть гипотезу о том, какие именно процессы позволяют появится феноменам наслаждения и страдания.

факт что лично вы считаете что гипотеза будет опровергнута экспериментом не делает ее негипотезой

Это не гипотеза а направление для поиска.

Такие направления для поиска существуют и их не мало. Квантовое сознание, электромагнитное сознание и т.д.

Но вот в рамках этих "гипотез" формально определить феномен наслаждения и феномен страдания - не представляется возможным.

Попробуйте в рамках своей "гипотезы" формально определить наслаждение и страдание, чтобы у них было разное определение.

"повторим мозг" это не гипотеза потому что неизвестно что он будет делать после его воспроизведения

Будет делать то же самое, что обычный мозг. Только там биология а тут электромагнитные реле.

Если будет делать не то же самое - значит гипотеза ошибочна.

Чем это отличается от вашей "гипотезы"?

Ну вот когда будет известна структура - тогда сможете выдвинуть гипотезу о том, какие именно процессы позволяют появится феноменам наслаждения и страдания.

Не, гипотеза о том, какие именно процессы не нужна и ее никто и не обещает, зачем оно вообще надо, никакой практической ценности в этом нет, это несущественные детали. Достаточно гипотезы о том что это процессы в нейросети мозга.

Попробуйте в рамках своей "гипотезы" формально определить наслаждение и страдание, чтобы у них было разное определение.

Да в чем проблема то, вы сами уже дали определение "наслаждение - процесс в нейросети и страдание - так же процесс в нейросети, но другой". Всё, что еще надо то, зачем?

Будет делать то же самое, что обычный мозг. Только там биология а тут электромагнитные реле.

Чтобы использовать электромагнитные реле вам нужно знать что делает мозг, как его части взаимодействуют друг с другом, для этого вам нужно описать эти взаимодействия на каком то языке чтобы можно было реализовать их с помощью электромагнитных реле, нейронная сеть это и есть такой язык, если есть еще какие то языки описания, то пожалуйста можно и их использовать и да, это не будет сильно отличатся от текущей общепринятой гипотезы с нейросетью.

какие именно процессы не нужна и ее никто и не обещает

У вас слишком детское представление. Как раз разобраться в сути процессов - самое главное. И сделать без этого ничего не получится.

Можно скопировать текст, не понимая что там написано.

А вот собрать некий девайс, который работает динамически, который нельзя заморозить и изучать (т.к. даже в процессе заморозки многое разрушается) - без понимания как это работет воссоздать не выйдет.

Понимание должно быть полным, понимание всех процессов, а не просто на уровне - это электрическая схема или это нейросеть.

вы сами уже дали определение "наслаждение - процесс в нейросети и страдание - так же процесс в нейросети, но другой"

А теперь поменяйте местами - они симметричны. Страдание - это процесс в нейросети, и наслаждение процесс в нейросети - но другой. Чем же они друг от друга отличаются? Что отличает их от других процессов в нейросети?

Это не является формальным определением.

Гипотеза должна позволять дать формальное определение искомым феноменам в рамках данной гипотезы.

Мы же такого не видим.

как его части взаимодействуют друг с другом, для этого вам нужно описать эти взаимодействия на каком то языке чтобы можно было реализовать

В чем проблема нарисовать схему? Вот схему нарисуете и будет вам описание взаимодействий. Язык описания схем.

Что там за процессы - вас же не интересует. Ну примерно знать - нейрон работает как сумматор и мы имеем группы сумматоров. Назвать группы сумматоров нейросетями или так и оставить группа сумматоров - какая разница?

Как раз разобраться в сути процессов 

Ну так понимание сути процессов в нейросети у нас есть, что там понимать то, суть примерно такая же как и во всех нейросетях только структура другая да веса разные.

Это можно сравнить с текстом некой программы в машинных кодах, если вы понимаете значение машинных кодов то значит вы полностью понимаете суть того что делает эта программа, вам полностью известна вся информация о том что она делает: вот тут она регистр меняет, тут байтик переслала и т.д. Другое дело что эта суть, эти действия программы выражены на очень низкоуровневом языке, и текст программы использует низкоуровневый язык и вы думая о ней используете низкоуровневый язык. А вот какой нибудь менеджер думает и разговаривает о том что происходит в программе используя высокоуровневый язык: "у нас заказы не создаются, пофиксить надо". И вам нужен промежуточный объектно ориентированный язык чтобы перевести вначале на него с мэнеджерского, пофиксить баг а потом уже компилятор переведет в машинные коды.

Тоже самое с мозгом, суть работы его нейросети понятна, вот тут нейрон сигнал послал, тут он его принял и т.д. Но в обычной жизни используется более высокоуровневый язык для описания того что происходит в мозгу: "батенька, да у вас депресия, пофиксить надо". Вот только в данном случае создать некий промежуточный язык (то что вы судя по всему и хотите) вряд ли возможно. Однако наверно можно создать компилятор из обычного языка в "машинные коды" нейросети, вот скажем вас скопируют на электронную основу, вы скажете компилятору "чет я грустный, пофикси, он сформирует патч, накатит, и вот вы уже веселый"

Чем же они друг от друга отличаются? Что отличает их от других процессов в нейросети?

Ну я ж написал, у вас будет ответ в виде набора цифр, это и будет формальным описанием того чем они отличаются. Также можно дать описание процесса страдания в виде набора цифр и это будет формальным определением искомого феномена в рамках данной гипотезы. Зачем вам еще что то? Хотите формальное описание на другом, более высокоуровневом языке? А зачем? Это врядли возможно.

Назвать группы сумматоров нейросетями или так и оставить группа сумматоров - какая разница?

Никакой, и что?

Ну так понимание сути процессов в нейросети у нас есть

Вы слышали про спайковые нейросети? Там много нерешенных вопросов и пока не особо нашли применение (а в нашем мозгу - используются).

Кроме нейросетей в нашем мозгу есть немало других механизмов.

Вот такой вопрос. Если вы знаете как работает транзистор, резистор, конденсатор и катушка индуктивности. Значит ли это, что вы автоматически знаете как работают все электронные устройства мира?

если вы понимаете значение машинных кодов то значит вы полностью понимаете суть того что делает эта программа

Тоже нет. Минимально для полного по Тьюрингу ассемблера достаточно около 5 команд - перемещение данных, одна логическая операция И-НЕ (остальное выводится из нее), и ветвление с переходом.

Значит ли это, что поняв эти команды, вы автоматически поймете все математические концепции, всю криптографию, все 3D-преобразования и т.д.? Конечно нет.

вот тут нейрон сигнал послал, тут он его принял и т.д.

Это не тот уровень понимания, который требуется.

Все равно что вы знаете как работает транзистор - вот тут приходит сигнал на затвор и открывает. И что? Теперь вы знаете и понимаете все электронные системы мира? Конечно нет.

Ну я ж написал, у вас будет ответ в виде набора цифр, это и будет формальным описанием того чем они отличаются.

Ответ должны быть понятным человеку.

Вот алгоритм шифрования с открытым ключом. Есть математические концепции (к примеру, малая теорема Ферма), на которых он может быть основан. И в рамках этих концепций должно быть описание.

Если вы вывалите человеку 100 килобайт цифр машинного кода и скажете - ну вот же, что вам еще нужно - это не будет пониманием.

Понимание должно базироваться на неких аксиомах и постепенно плавно доводить до нужного уровня абстракции.

Никакой, и что?

А то что это не тянет на гипотезу.

Вы слышали про спайковые нейросети? Там много нерешенных вопросов и пока не особо нашли применение (а в нашем мозгу - используются).

И что, разве то как они работают непонятно? Опять же, я же не утверждаю что мы не найдем в мозгу какие то разновидности нейронов которые работают немного не так как те которые мы сейчас используем. Может и найдем, что с того.

 Значит ли это, что вы автоматически знаете как работают все электронные устройства мира?

Значит ли это, что поняв эти команды, вы автоматически поймете все математические концепции, всю криптографию, все 3D-преобразования и т.д.?

Нет. а к чему вы это вообще, я и не утверждал что "узнаю как работают все электронные устройства мира" или "автоматически пойму все математические концепции, всю криптографию, все 3D-преобразования и т.д."

Ответ должны быть понятным человеку.

С чего вы взяли что это возможно? Я думаю что если гипотеза подтвердится экспериментом то это будет означать что невозможно найти такой ответ который будет понятен человеку.

 С чего вы взяли что это возможно?

А с чего вы взяли что не возможно? Докажите что этот вопрос, вопрос феноменов наслаждения и страдания - не возможно понять человеку.

если гипотеза подтвердится экспериментом

Это гипотеза не о природе наслаждения и страдания, а о природе мозговых процессов. Что все процессы в мозгу можно воссоздать на вычислительных элементах - сумматорах сигналов.

Такого уровня гипотезы есть - квантовое сознание, электромагнитное сознание и т.д.

Однако они не дают формального определения наслаждению и страданию, т.е. не объясняют суть этих феноменов. Не тот уровень абстракции.

До практической реализации так же очень далеко (и скорее всего не возможно) - мы не можем сканировать в реальном времени все связи и веса работающего мозга, а в мозге умершего все это быстро разрушается.

 Докажите что этот вопрос, вопрос феноменов наслаждения и страдания - не возможно понять человеку

Зачем? Это же гипотеза. Хотите опровергните, пожалуйста, никто не против.

Это гипотеза не о природе наслаждения и страдания, а о природе мозговых процессов. Что все процессы в мозгу можно воссоздать на вычислительных элементах - сумматорах сигналов.

Ну так ведь предполагается что эксперимент докажет что "природа наслаждения и страдания" это "быть мозговым процессом" , то есть что можно воссоздать страдание и наслаждение на вычислительных элементах - сумматорах сигналов. А значит это именно что гипотеза о природе страдания и наслаждения

Такого уровня гипотезы есть - квантовое сознание, электромагнитное сознание и т.д.

То есть вот они это "гипотезы", а если просто сказать "нейросеть мозга" то это и не гипотеза вовсе? И чем же таким они лучше? Гипотеза об электромагнитном сознаним это просто про то что нейроны в мозгу обладают дополнительными каналами обмена информации посредством электромагнитного поля.

Однако они не дают формального определения наслаждению и страданию, т.е. не объясняют суть этих феноменов.

Так никто и не даст вам определений на высокоуровневом человекопонятном языке. Только на низкоуровневом, но для практических целей этого вполне достаточно.

Так никто и не даст вам определений на высокоуровневом человекопонятном языке.

Ну это гипотеза о принципиальной непознаваемости феноменов, т.е. фактически вы выдвигаете предположение, что выстроить гипотезу о наслаждении и страдании не возможно.

Т.е. что каким-то образом соединить сумматоры и оно там возникнет чудесным (непознаваемым) образом, но нельзя будет никак понять их суть, нельзя понять чем они отличаются друг от друга и других процессов.

Притом что для возникновения наслаждения и страдания - не нужен мозжечок и даже не нужен неокортекс. Мозжечок - это более 50% мозга, кора полушарий - еще около 49%. Итого - менее 1% мозга скрывают искомые феномены. Т.е. предположение не имеет оснований.

Ну это гипотеза о принципиальной непознаваемости феноменов,

Нет, почему, принципиальной непознаваемости на высокоуровневом языке, на низкоуровневом то все понятно, все практические задачи решаемы. Зачем вам нужна познаваемость на высокоуровневом языке? Если у вас есть исходник программы на ассемблере, то зачем вам исходник на более высокоуровневом языке? Что то пофиксить в программе вам просто сложнее, да и только.

Т.е. что каким-то образом соединить сумматоры и оно там возникнет чудесным (непознаваемым) образом

Нет, не "чудесным", все процессы прекрасно будут описаны на низкоуровневом языке описания нейросетей, никаких "чудес" там не будет, это описание и будет описанием того как оно работает. А то что вы на интуитивном уровне не понимаете как это все работает, так это не важно, у нас уже в физике куча феноменов которые интуитивно невозможно понять, но математически всё плюс минус описано.

Итого - менее 1% мозга скрывают искомые феномены. 

Ну это лично ваши домыслы, что это вообще такое 1% мозга?, 1% чего? веса?, обьема?, нейросети? Почему это вообще должно быть важно, зачем вы вообще это упоминаете, это ж все создано эволюцией, я не удивлюсь если окажется что в мозгу огромная куча всякого не нужного более хлама, типа системы управления жабрами. Я не знаю какой у вас опыт, но по моему опыту, в крупном проекте 1% реально используемого кода это совершенно нормально, ну вот бывает такое что 99% это то что страшно удалить потому что никто не знает нужно ли оно.

на низкоуровневом то все понятно

Как это низкоуровневом? Вам дали 100 терабайт цифр - что вы из них поймете?

Понимание - это декомпозиция. Выделение неких базовых аксиом и постепенное сведение сложного к этим аксиомам.

Если у вас есть исходник программы на ассемблере, то зачем вам исходник на более высокоуровневом языке?

Вы же не про ассемблер говорите - а про машинные коды, описания которых нет.

В машинных кодах ни один человек не сможет фиксить ничего, разве что мелочь, и то без гарантий. Как минимум он применит дизассемблирование, чтобы хоть что-то понять.

На высокоуровневом языке лучше - т.к. поймет большее число людей, правки/доработки будут происходить быстрее, стоимость меньше.

Вы же хотите дать в неких кодах, который вообще ни один человек на земле понять не сможет никогда.

Понимание нужно чтобы владеть в полной мере этим, изменять, добавлять и т.д.

1% чего?

1% нейронов. Это научный факт. Для вас мозг - это единое целое и черный ящик. Для науки это давно не так.

Этого 1% точно достаточно для понимания искомых феноменов. А может и того меньше - скорее дело вообще не в нейронах а в какой-нибудь молекуле Познера.

Вам дали 100 терабайт цифр - что вы из них поймете?

Кто дал? Я же не говорю что это будут случайные числа или что их даст нам высшая сила, это будет результат сравнения двух нейросетей, в одной происходит один из феноменов которые мы называем собирательным термином "страдание", в другой один из феноменов которые мы называем собирательным термином "наслаждение". Этот результат нам выдаст специальная программа которую мы напишем, не кто то еще, и разумеется мы будем понимать как она работает и что за цифры она выдает, сможем проследить появление каждой цифры, откуда она взялась и т.д.

Вы же не про ассемблер говорите - а про машинные коды, описания которых нет.

Ну нет конечно, откуда же возьмутся машинные коды у которых нет описания. Описание разумеется будет, просто в уме оперировать этими кодами будет невозможно, но это и не нужно, зачем если есть соответствующие программы.

в одной происходит один из феноменов которые мы называем собирательным термином "страдание", в другой один из феноменов которые мы называем собирательным термином "наслаждение"

А как вы это будете определять, не понимая сути явлений?

Определять что? В какой момент в моей нейросети происходит то что я могу называть "страдание"? Ну как бы я это и сейчас знаю. Я вот не знаю пока сути этого, то есть что именно происходит в нейросети, какова её структура и т.д. Ну так когда нибудь человечество будет это знать, после тщательного сканирования мозга, да конечно, язык на котором будет выражена эта суть будет низкоуровневым и все описание сути этих явлений будет занимать несколько террабайт, но для практических целей это будет неважно.

Ну как бы я это и сейчас знаю.

Ну и что вы знаете? Вот, выше чел. предположил, что феномен наслаждения и страдания зависит от аппаратной реализации - если собрать не на биохимических элементах а на транзисторах - то феномены наслаждения и страдания не сохранятся.

Ну и что вы знаете?

В какой момент в моей нейросети происходит то что я могу называть "страдание".

Вот, выше чел. предположил, что феномен наслаждения и страдания зависит от аппаратной реализации

Ну так пожалуйста, предполагать можно всё что угодно, кто прав а кто нет разрешит только эксперимент. Но принцип бритвы окама требует выбрать как рабочую, гипотезу с наименьшим количеством новых сущностей, предположение же о наличии в биохимических элементах некой неизвестной сущности противоречит этому принципу. Я могу согласиться конечно, что феномен наслаждения и страдания  может зависеть от скорости обмена информацией в аппаратной реализации, это не будет новой сущностью, но мне кажется в биохимической реализации нет каких то особых скоростей недостижимых в кремниевой или еще какой то реализации.

мне кажется в биохимической реализации нет каких то особых скоростей недостижимых в кремниевой или еще какой то реализации

Да кто его знает. Ощущение наслаждения может быть побочным эффектом на уровне устройства нейрона. Т.е. при внешнем одинаковом функционале - одна реализация нейронов приводит к возникновению данного феномена, а другая не приводит. Хотя внешнее поведение совпадает (или отличается в неких мелочах - каких?).

Неплохо бы выстроить гипотезу сначала, а уже потом пытаться что-то копировать.

 одна реализация нейронов приводит к возникновению данного феномена, а другая не приводит.

Не приводит почему? Из за некой неизвестной сущности/явления? Не нужно нам такой гипотезы если вы следуете принципу бритвы окама

Из за некой неизвестной сущности/явления?

Из-за неполноты модели, неучтенного некого феномена. К примеру, этим феноменом могут быть квантовые эффекты. Причем эти эффекты могут оказывать незначительное влияние на работу системы, т.е. если их не учтем - все будет работать на 99% как и задумано. А почему в 1% не совпадает - мы можем не сразу понять.

неучтенного некого феномена

Ну я и говорю, нет необходимости считать что мы что то не учитываем, все такие гипотезы можно смело "отрезать" бритвой окама

нет необходимости считать что мы что то не учитываем, все такие гипотезы можно смело "отрезать" бритвой окама

Есть необходимость - ее обуславливает аргумент бихевиорального философского зомби.

В том то и фишка - ценность представляет не внешнее поведение - оно нам не нужно - а внутреннее страдание или наслаждение, которые могут не иметь внешних признаков.

Впрочем, уверен что как-то это себя проявит, т.е. этот 1% разницы в поведении можно будет увидеть, пусть и не сразу.

ее обуславливает аргумент бихевиорального философского зомби.

Чего? Этот аргумент как я понимаю базируется тоже на допущении что у нашей нейросети есть некая необнаруженная нами пока что способность обеспечивать абсолютно всё наше поведение не через сознательное управление этим поведением, а так же как обеспечиваются отдельные моменты этого поведения, через бессознательные инстинкты. Существование такого механизма не доказано, и нет необходимости считать что он есть. Мы действительно иногда можем вести себя так как будто мы страдаем хотя в действительности не страдаем, но это делается сознательно и по определенным причинам. Также нет никаких доказательств что человек скажем способен инстинктивно идти к врачу когда у него воспаление апендикса, нет у него механизма узнавания о воспалении апендикса кроме боли.

у нашей нейросети есть некая необнаруженная нами пока что способность обеспечивать абсолютно всё наше поведение не через сознательное управление этим поведением

Вы попробуйте на основе знаний биологии и устройства мозга определить где именно находится т.н. сознание, в каких частях мозга. Будете удивлены. До сих пор нет ответа.

Даже проще - какие части мозга достаточны для существования феномена сознания. Так же нет единого мнения и точного ответа.

Так же в искусственных нейросетях никаких признаков сознания нет - ни в какой степени.

Вы попробуйте на основе знаний биологии и устройства мозга 

Так нет таких знаний, пока что мозг еще в процессе изучения, но рабочие гипотезы то уже есть, предположение что нейросеть мозга это и есть то что обеспечивает сознание вполне достаточное чтобы принять его как рабочую гипотезу и изучать мозг дальше. То что сознания не будет если мы такую нейросеть сделаем искусственно лишено оснований.

предположение что нейросеть мозга это и есть то что обеспечивает сознание вполне достаточное

Тогда почему 99% этой нейросети не нужно для возникновения сознания? И если нет главной 1% - то в 99% сознание не возникнет. Причем та 1% - довольно причудлива, с амигдалами, эпифизом и пр. интересными штуками, которые даже НЕ нейросеть.

Тогда почему 99% этой нейросети не нужно для возникновения сознания?

Ну вот так вот получилось, эволюция причудливая штука.

Ну вот так вот получилось, эволюция причудливая штука.

Причем тут эволюция. Если вам нужно сделать самолет - вы будете изучать эволюцию (ведь птицы летают) или аэродинамику?

Мы видим что в мозге кроме нейросети - есть и другие элементы, которые не являются нейросетью. Тот же упомянутый эпифиз и амигдалы. Причем феномен сознания возникает вот как раз в этих древних областях, которые не являются целиком нейросетью. А кора больших полушарий, которые 100% нейросеть или мозжечок, который тоже 100% нейросеть - не производят сознания.

Вот взять мозжечок (51% нейронов) и кору больших полушарий (48% нейронов) - их функции целиком и полностью удается воссоздать на основе искусственной нейросети. Речь - можем, воображение - можем, распознание звуков - можем. Все воссоздается. Мозжечок - движение - можем. Но это не имеет отношения к феномену сознания. А вот те древние области - там ж не только нейросети - возможно что для их воссоздания нужно раскрыть другие феномены.

Мы видим что в мозге кроме нейросети - есть и другие элементы, которые не являются нейросетью. 

Есть свидетельства что эти другие элементы как то причастны к появлению сознания? Нету? Тогда отрезаем это бритвой окама. Ну и кстати амигдалы я так понимаю вполне себе часть нейросети.

Есть свидетельства что эти другие элементы как то причастны к появлению сознания?

Хотя бы те, что 99% нейронов мозга (кора больших полушарий и мозжечок) - не порождают сознания.

Кора больших полушарий и мозжечок - действуют как искусственные компьютерные нейросети - т.е. просто обрабатывают инфу. Отрезаешь кусочек большого полушария - просто не можешь вспомнить какую-то инфу. Еще отрезаешь - забыл как разговаривать. Но сознание при этом сохраняется. Отрезаешь мозжечок (более 50% нейронов, на минуточку!) - почему-то руки перестают слушаться, но ты как был собой - так и остался.

И вот та зона, в которой 1% нейронов + дополнительные разные структуры кроме нейросети - только она порождает сознание. Причем этот феномен идет в разрез с тем, что мы знаем о нейросетях.

Да, но с таким определением есть лишь одна проблема - все мы тогда так же не существуем.

Вы сегодня - несовершенная копия себя вчерашнего и абсолютно точно не тот же человек. Часть ваших атомов естественным образом обновилась (пища и отходы, дыхание, пот), часть ваших клеток умерла или поделилась, структуры мозга изменились, изменился гормональный состав и т.д.
Лишь субъективная абстракция "Я" в мозге осталась похожей и создает иллюзию, что вы это по прежнему вы. В строгом смысле это самообман, но с практической точки зрения проблем нет, вы по прежнему можете придумывать для себя планы на будущее и вспоминать славные деньки.

Так же с точки зрения идеальных копий это не будет ничем отличаться.
Два одинаковых человека проснутся с таким же ощущением Я.


Я думаю основная проблема тут именно вот в этом ощущении "Я", которое кажется людям непрерывным и идеальным, вневременным. Отсюда все идеи о точке сборки, душе, наблюдателе и т.д. Отсюда же ощущение что если скопировать мозг, то это не будешь ты, как будто копия будет иметь изъян. Или новый процесс будет иметь другой номер процесса, а оригинальный на самом деле завершен.
Но если представить сознание как процесс, то, к примеру, во время глубокого сна никакого процесса нет. Исходники сознания хранятся в долговременных структурах мозга и не запущены. Сознание появится при пробуждении. В этом случае нет разницы между смертью, сном или переносом сознания через разрушающее копирование мозга.

Часть ваших атомов естественным образом обновилась

Все верно, атомы другие, клетки другие, значит и существо физически стало частично другое. Мы считаем, что человек остался тем же, потому что не наблюдаем этих изменений, они незначительны, в том числе и для нас самих. Но чем больше элемент изменения, тем это заметнее. Можно договориться, что постепенная замена нейронов на аналоги эквивалентна замене атомов (так как процесс сознания существа продолжает работать), и понятие "договориться" означает в том числе и согласие оригинала. Именно об этом я и говорю.

С другой стороны, копирование на другой носитель при сохранении оригинала уже не эквивалентно замене атомов. Сознание и остается в оригинале, и появляется в копии. Уничтожение оригинала мы уже называем убийством, несмотря на то, что атомы остались те же. Здесь тоже можно договориться, и это тоже подразумевает согласие оригинала. Я говорю о том, что все участники должны понимать, что в этом случае оригинал потеряет сознание и будет уничтожен, а не очнется магически в другом существе.

Тут нет никаких непонятных моментов, никакой философии или магии, это просто граница ненулевой протяженности между "другой" и "тот же самый", которая имеет физические и этические аспекты.

Исходники сознания хранятся в долговременных структурах мозга и не запущены.

Нет, это не соответствует известным научным данным. После пробуждения ничего не копируется из одного места в другое. В этих терминах можно считать, что сознание всегда запущено, только часть входной информации не обрабатывается.

  1. Все так, Я в целом с вами согласен.
    По поводу убийства - если у нас появятся технологии для такого копирования и оно будет признано, то возможно придется договориться и по поводу таких смежных вариантов.
    Что по поводу, к примеру, "убийства" не оригинала, но копии?
    Если оригинал согласен и готов быть такой одноразовой копией, скажем, для каких то практических целей (запустить 10х симуляций выдающегося математика, чтобы быстро решить проблему)
    Опять же, вопрос придется проработать в случае, если такое копирование рассматривать как радикальное продление жизни. Если ты стар и немощен, подписываешь бумаги на копирование и одновременно на эвтаназию тела (особенно актуально в случае разрушающего копирования).
    То же самое вопросы правоприменения, наследства, потенциально нелегального копирования личности.

    В любом случае эти вопросы возникнут и должны быть решены, если технически это возможно.

    В каком то смысле это расширит наше отношение к современным абсолютным утверждениям.

    Скажем, допустимо ли добровольное клонирование и убийство в случае копий?
    После смерти оригинала вопрос об оригинальности не стоит, будем ли мы считать первую копию важнее, чем последующие?
    И тд

Что по поводу, к примеру, "убийства" не оригинала, но копии?

То же самое, что и сейчас. Копия это самостоятельное существо.

Если оригинал согласен

Вот я и говорю, чтобы дать осознанное согласие, оригинал должен понимать все последствия.

То же самое, что и сейчас. Копия это самостоятельное существо.

Да речь то не об этом. Если сознание - это информационно вычислительный процесс и никаких других аспектов нет, то существование дополнительной еще одной копии ни на что не влияет.

Если сознание - это информационно вычислительный процесс и никаких других аспектов нет

Ну а с чего вы решили, что никаких других аспектов нет? Я не вижу никаких оснований для такого утверждения.

то существование дополнительной еще одной копии ни на что не влияет.

Я уже привел примеры, когда существование копии влияет. Поэтому из первого не следует второе.

Ну а с чего вы решили, что никаких других аспектов нет? Я не вижу никаких оснований для такого утверждения.

Например каких?

Я уже привел примеры, когда существование копии влияет. Поэтому из первого не следует второе.

Все ваши примеры - не подходят к нашей ситуации. Наша ситуация - мы купили новый RAID-массив и перенесли туда фотографии. И нам не нужен старый диск, который на ладан дышит - мы его уничтожаем. Как мы его уничтожим - наживую или предварительно отключим - значения не имеет.

Например каких?

Это другой вопрос, мы его уже обсуждаем в другой ветке. Пока что важно то, что утверждение, что их нет, не доказано. Если оно верно, то вывод "если-то" возможно верный, если неверно, то неверный.

Наша ситуация - мы купили новый RAID-массив и перенесли туда фотографии. И нам не нужен старый диск

Так в этой ситуации мы уже решили, что он нам не нужен, это исходные условия. А вы пытались доказать, что он всегда после покупки нового не будет нужен. А это не так, я бы например продолжал его использовать для менее важных данных.
Тем не менее, к вопросу отключения личности эти выводы не имеют отношения, потому что тут важно мнение самой личности, а не кого-то еще, а RAID-массив устроен так, что у него нет своего мнения.

Мемристор — это электронный компонент, у которого меняется сопротивление в зависимости от приложенного к нему напряжения.

Нет, вы описали варистор. Мемристор - изменяет своё сопротивление в зависимости от протекшего через него электрического заряда (интеграла тока по времени).

Статья неплохая, но мысль достаточно тривиальная. А в комментариях возникает ощущение дежавю, будто читал их лет десять назад. Самое удивительное в том, что до сих пор находятся люди, путающие оригинал и копию.

А Тесею не все ли равно на каком корабле плыть? Проблему высосали из пальца ;-)

Нет тут ничего общего с кораблем. Потому что корабль - объект существующий в материальном мире, а сознание - совокупность информации и логических операций в текущий момент. И совершенно не важно, на каком железе это все происходит.

Во первых, тема идентичности личности (и парадокс тесея соответственно) популярна и практична давно в юриспруденции. Например, в вопросах разрешения абортов.

Во вторых, то сознание, которое "быть собой", давно уже не отождествляют с нейронами (и вообще вопрос это метафизический)

Так что ответ довольно однозначный - скопированные нейроны - есть ты не более, чем чатбот, натренированный на твоих сообщениях.

Остальное демагогия)

Во вторых, то сознание, которое "быть собой", давно уже не отождествляют с нейронами (и вообще вопрос это метафизический)

Это откуда вы взяли такое утверждение? А как же нейронные корреляты сознания?

Я поэтому указал, что речь о том смысле сознания, которое подразумевает субъектность, а не просто мыслительный процесс(и в посте тоже о нем). Есть разные определения, что такое "сознание"

которое подразумевает субъектность

Приведите пример субъектности. Вот младенец обладает субъектностью или нет? Взрослая собака?

Эквивалентна ли субъектность способности наслаждаться и страдать?

Субъективность, если я правильно понимаю, что вы под этим подразумеваете, с большой вероятностью присутствует у всех более-менее развитых форм жизни, что сложнее бактерии. Сознательность же в свою очередь – вряд ли. Но, например, муравьи проявляют довольно сознательные черты поведения, даже с их микроскопическими ганглиями, так что сложность нервной системы здесь не абсолютный показатель.

проявляют довольно сознательные черты поведения

А робот пылесос?

Я имею в виду их социальные поведенческие паттерны. А ещё у них, похоже, присутствуют некие абстрактные ценности. Вот пример:

Некоторые муравьи имеют привычку набегать на соседей и уводить часть их в рабство. И так получается, что пленники иногда скучают за мелкой работой и решают проявить инициативу в строительных работах. Но у муравьёв это дело престижное и абы кого к ней не подпускают, так что местный работяга может применить к наглецу зажим челюстями с последующим выпроваживанием – чтобы знал своë место.

Не думаю, что у робопылесосов существует понятие конкуренции или чего-то подобного.

Не думаю, что у робопылесосов существует понятие конкуренции или чего-то подобного.

А если добавить связь роботов пылесосов, учет работы друг-друга (кооперация) - то для вас будет достаточно чтобы объявить их сознательными?

Если они в итоге сами по себе станут соревноваться в объëмах проделанной работы и конкурировать за более "интересный" мусор, тогда и обсудим.

Если они в итоге сами по себе станут соревноваться в объëмах проделанной работы и конкурировать за более "интересный" мусор

И все-равно это будет не то. Нет проблемы алгоритмически соединить n девайсов и даже заставить их сталкиваться друг с другом, создавая впечатление в голове наблюдателя, как будто им не безразлично. Можно даже добавить звуки визга.

Но в чëм мораль, всë-таки? Пылесос это всё ещё побрякушка с рукотворными алгоритмами на двоичной логике, а муравьи это муравьи.

Мораль в том что видимость наслаждения и страдания (а именно это вы неосознанно ожидаете увидеть, говоря слова "интересный", т.е. желаемый, приносящий наслаждение) - не есть настоящие наслаждения и страдания.

Я не этого ожидаю. Вот к примеру, у бактерий есть свои инстинкты и модели поведения, но очень сомнительно, что они что-либо вообще чувствуют в привычном для нас понимании. Я же говорил о сознании в каком-либо проявлении, но без обязательной сознательности.

Я же говорил о сознании в каком-либо проявлении, но без обязательной сознательности.

А какое должно быть внешнее проявление, чтобы вы 100% удостоверились, что сознание есть?

Как мне определить, что люди вокруг сознательны, а не являются теми самыми пресловутыми философскими зомби?

Вопрос, по-моему, вне чьих-либо компетенций.

Как мне определить, что люди вокруг сознательны, а не являются теми самыми пресловутыми философскими зомби?

Философский зомби не умеет наслаждаться и страдать, в отличие от человека. Необходимо и достаточно понять суть феномена наслаждения и страдания и потом просто проверить есть ли они у искомого объекта.

Не может, но умеет их изображать. Точно так же, как друг может посмеяться с совершенно несмешной шутки.

Не может, но умеет их изображать

Тут понятно что нам нужно изучать внутренние процессы, а не внешнее проявление.

Sign up to leave a comment.

Articles