Comments 34
Далек от математики, поэтому хотел бы задать автору вопрос: В аксиоме "Если объект похож на неизвестно что, то он и является неизвестно чем" утверждения 1) "похож на неизвестно что" и 2) "является неизвестно чем" - это какие главы высшей алгебры?
Это такие же по природе утверждения, например, как: "яблоко похоже на яблоко" и "яблоко является яблоком" или какие-то другие?
Понятное и ожидаемое возражение.
Утверждение можно назвать презумпцией сознательности. Его надо читать так. Если объект проявляет свойства, какие приписывают сознанию, мы не останавливаемся на вопросе, сознание это или нет, а просто принимаем, что да
Т.е. еще нужно принять за аксиому, что у "сознания" ограниченное число "свойств"?
Можно ли считать "свойством" способность осознавать свое существование?
Ну, если считать, что сознание вычислимо на машине Тьюринга, что потребовано в качестве предпосылки дальнейшего рассуждения, то что бы ни было названо "свойством", его как-то можно загнать в конечные рамки. Так что, полагаю, что да
Хм... Тут вопрос отредактировался? Возможность осознавать своё существование обсуждалась в прошлой статье. Там про это много
Я это к тому, что лучшая аналогия "сознания" - два зеркала, стоящие друг напротив друга. Рекурсия, т.ск. Каждое отражение, т.е. каждый слой отражений - отдельное свойство.
А объект разве не должен обладать разумом? Компьютер просто инструмент а ИИ ПО у которого нет разума. Т. е. они не осознают ответственность с помощью разума, соответственно не обладают сознанием. Такие темы меня всегда смешат ) Может ли ПО обладать сознанием?) Бабкам на сплетни)
представляется как процесс рекурсивного самонаблюдения
Точно рекурсивного, а не циклического?
сознание не столько разворачивается во времени, сколько помнит, что оно разворачивается во времени.
Абсолютная игра слов, ничего не объясняющая и не утверждающая.
Если объект похож на сознание – он является сознанием
Совершенно не так. Кошка на видео или фото похожа на кошку. Но это никакая не кошка, а лишь зафирсированное изображение кошки. Ассистент Алиса из колонки похожа на рассуждающего человека, но это просто более-менее умная программа, без сознания. Система автопарковки на машинах очень похожа на опытного человека водителя. Но это просто программа, а не водитель и не человек. Искуссно сделанный цветок из пластмассы ну просто очень похож на реальный цветок. Но это не цветок ни разу. Наконец, мошенник через технологию deep fake представляется по видеозвонку вашей мамой, дочкой, или женой, но не является ни кем из них, хотя у вас полное ощущение не просто похожести, но правдивости.
Вывод: очень часто, когда объект похож на что-то, он этим чем-то не является ни разу.
Дальше читать было просто скучно.
Точно рекурсивного, а не циклического?
Они изоморфны, но рекурсия тут точнее отражает математическую суть.
Алиса
У Алисы нет памяти, а если таковой считать предшествующий текст, получается крайне низкая связность. Поэтому Алиса не похожа на сознание. Но да, я позволяю широко подстраивать рамки. Это не ломает логическую цепочку.
Они принципиально не изоморфны.
А что такое память, если не информация о предшествующем чем-то? Это просто определение памяти. И откуда данные про связность? Но главное утверждение - ведь похожа? Похожа!
Вы не подстраиваете рамки, вы высасываете нечто из пальца. Именно поэтому читать дальше и неохота (а то, уверен, было бы ещё 100500 возражений).
Как то уже была статья про то что Вселенная это голограмма, приняв в первом приближении как рабочую гипотезу мы получим что юнит "Номо" получает при создании некий трек своего существования с допустимыми границами отклонения от оного и механизмами препятствования выхода за границы этого коридора. При досрочном прекращении сущестования юнита он перемещается на другую виртуальную машину с копией вселенной с заменой однотипного юнита для продолжения своего пути к цели. Количество перемещений ограничено числом виртуальных машин. Вот вам господа и все попаданчество.:-)
Чего только нет в мультивселенной...
Какова же цель? Цветовая дифференциация штанов?
Эксперимент
А цель юнита там какая заявлялась?
Общая цель эксперимента - эволюция, чтобы эволючионировать часть юнитов должна своими действиями влиять на остальных, большая часть юнитов должна заниматься самовоспроизводством. Хомо должны под влиянием прогресса, которая обеспечивает меньшая часть юнитов эволюционировать из чисто биологического в кибербиологический, для того чтобы быть более приспособленным к условиям на других планетах.
Тогда возникают два взаимосвязанных вопроса:
1) Эти экспериментаторы, они тоже в чьем-то вышестоящем эксперименте? И где конец?
2) Или этот эксперимент - "Сам-для-Себя-Эксперимент" ?
Тезис, если объект похож на сознание, а значит обладает сознанием просто смехотворен. Откуда у ИИ или компьютера квалио?! Где там нейроны, где синапсы?!
Вещество, отвечающее за квалиа в нейронах и синапсах с нами здесь, в этом зале?
Квалиа это субъективные переживания опыта
Квалиа - это как раз свойство неизвестно чего. Давайте пока ограничимся рекурсивной функцией осознания своего существования.
Свойство 1: Осознавать свое существование.
Свойство 2: Осознавать процесс осознания своего существования.
Свойство 3. Осознавать процесс осознания процесса осознания своего существования.
...
Свойство N: ...
Как можно сделать объект с таким набором свойств на конечном аппаратном обеспечении?
Квалиа как раз таки свойство известно чего)
А зачем нам обязательно требовать бесконечный вызов этой функции? Человек обычно осознает себя через одну итерацию, иногда, например в философских рассуждениях о природе сознания, речь идет о двух итерациях. Дальнейшая глубина просто избыточна.
Вызов такой функции - это некий аналог свойства "сознания". Если таких свойств бесконечно много, то это выглядит как принципиальный запрет на создание чего-то материального, похожего на "сознание".
То есть нет какого-то конкретного вещества, есть нейромедиаторы, нейротрансмиттеры
Какая дичь
Удивительные приключения сознания в математической вселенной Тегмарка