Обновить
64
0.1
Михаил@michael_v89

Программист

Отправить сообщение

Так мы же договорились что динамики/лампочку отключили

Вы снова игнорируете то что написано, пытаясь победить в споре.
Динамики/лампочку отключили, а их контакты остались, и код подает или не подает на них напряжение. В этом и есть разница. Я об этом уже писал.
Я специально не написал, какой именно звук издает динамик, я написал "включает или нет".

Вот и приходим - что есть только некая иллюзия для внешнего наблюдателя

Вы туда приходите, потому что игнорируете ответы собеседника и говорите сами с собой. Я вам уже несколько раз повторил - забудьте про внешнего наблюдателя и рассматривайте внутренние процессы. Разница находится в них.
А вы вместо рассмотрения говорите "давайте мы из внутренних процессов все выкинем, и останется только внешний наблюдатель". Чем больше вы их упрощаете, тем меньше будет разницы между компьютерным наслаждением и компьютерным страданием. Это довольно очевидно.

И вы похоже снова упускаете важный момент - у устройства не будет человеческих ощущений. А вы снова ищете биологические особенности в небиологической системе.

Устройство для себя видит разницу между одним сигналом и другим, один воспринимает как желательный, другой нет, меняет поведение соответственно им. Это и есть то, что вы хотели. Ничего больше без изменения аппаратной архитектуры тут сделать нельзя.

внутреннего наслаждения и страдания данный код не реализует - только внешнюю имитацию тех признаков

На всякий случай еще раз напишу. Я не говорю ни про какую внешнюю имитацию, я говорю про внутренние процессы в устройстве. Почему вы вместо их обсуждения постоянно переводите разговор на внешние проявления? Видимо ничего кроме троллинга от вас ожидать нельзя.

Получается что разница - только в названии переменной
только внешний наблюдатель, который знает названия переменных - может отличить наслаждение и страдания

Что именно вам непонятно во фразе "названия, надписи и наблюдатели никакого значения не имеют"? Почему вы ее игнорируете?
Нет, разница не только в названии переменной. Это разные переменные, и по-разному влияют на поведение устройства. Они подключены к обрабатывающем коду по-разному. Например, одна включает динамик, а другая нет. Используйте адреса, а не названия переменных, и попробуйте порассуждать снова.

Вы просили показать ощущение устройства, а не поведение под действием ощущения. Ощущение это именно чтение переменной обрабатывающим кодом. Но тип "страдание или наслаждение" определяется по тому, как она влияет на поведение устройства. Если никак не влияет, то да, у такого простого устройства разницы не будет, это будет просто "ощущение". Я вам про это уже говорил. Вы сначала упрощаете архитектуру, а потом удивляетесь, что там ничего не осталось.

мы доказали, что гипотеза ошибочна - т.к. в ракурсе устройства нет отличия между наслаждением и страданием

Нет, не доказали. Потому что разница есть, они по-разному влияют на поведение устройства. Если не влияют, и никакого другого кода нет, то да, разницы не будет.

Нет, не нужен. Я уже писал об этом в этом комментарии. Рандом здесь имитирует реальные аппаратные подсистемы, которые могут давать разные потребности.
Аналог биологического ощущения это ячейка памяти с некоторым адресом, которая в исходном коде обозначена переменной alienDesire, и код, который задает поведение устройства в зависимости от нее. Когда код читает переменную, это аналог ощущения.

А почему вы так решили? Из-за названия переменной?

Я уже много раз отвечал на этот вопрос. Я уже много раз сказал, что названия, надписи и наблюдатели никакого значения не имеют. Смотрите, что выделено жирным в моих комментариях выше.
В данном случае появляется потребность, которую система хочет удовлетворить. Для системы это ощущение вполне реально, и она не может его отключить по своему желанию. Это максимально возможный аналог страдания на небиологической архитектуре. Для более полного аналога биологических ощущений нужно использовать биологическую архитектуру.

Ведь при компиляции название переменной не сохраняется

Вы снова придумываете тезисы, которые никто не выдвигал, и спорите с ними.

Что должно произойти внутри девайса, чтобы реакцией на нажатие было внутреннее страдание и наслаждение?

Я уже отвечал на этот вопрос.
Именно таких ощущений, как у человека, у девайса быть не может, причину смотрите выше. Аналоги быть могут, описание смотрите выше.

- Я уже отвечал на этот вопрос выше.
- Нет.

Ложь.
https://habr.com/ru/news/1003706/comments/#comment_29633860
https://habr.com/ru/news/1003706/comments/#comment_29634302
https://habr.com/ru/news/1003706/comments/#comment_29634452

Ctrl+F "откуда", "критерий", "наблюдателя", "внутренние процессы"

В чем вопрос?

Понятия не имею. У меня нет вопросов по обсуждаемой теме.

В таких серьезных вопросах не позволяю себе троллить.

Если вы вместо обсуждения по теме начинаете спрашивать общепринятые значения слов, значит это троллинг.

весьма сложно объяснить суть ТПС

Повторяю еще раз, видимо одного раза вам для понимания недостаточно - я в курсе, что такое трудная проблема сознания. И судя по вашим высказываниям, знаю об этом даже больше чем вы. У нас разговор про ИИ и устройства. У них другая аппаратная архитектура, поэтому ответы на трудную проблему сознания человека для них значения не имеют.

Где в нем вызов наслаждения и где в нем вызов страдания?

if (timerEnableDesire && millis() - desireMillis > intervalDesire) {
    // страдание устройства
    alienDesire = random(1, 5); // может быть FOOD
    ...
}
  
case FOOD:
    // наслаждение устройства
    if (button1.justPressed()) {
      // убираем потребность
      alienDesire = NOT;
    }

Еще раз говорю - это не именно такие страдание и наслаждение как у человека. У устройства другая аппаратная архитектура и другие квалиа.

Вот вы смотрите на экран и там написано

Что именно вам непонятно во фразах "внешние лампочки не задают критерий", "лампочка тут ни при чем и ничего не обозначает" и "лампочка для внешнего наблюдателя никак не влияет на внутренние процессы, которые ее зажигают"?

А система то откуда знает что это именно "больно"?

Я уже отвечал на этот вопрос выше.

Приведите пример когда система делает "выбор".

И на этот отвечал.

А сколько вариантов нужно?

По общепринятому пониманию слова "выбор" для выбора нужно минимум 2 варианта. Поскольку вы вместо конструктивной дискуссии продолжаете продолжаете троллить, отвечать далее не вижу смысла.

Наличие языка и/или мышления - это не дискретная величина.

В данном контексте ее можно считать дискретной - могут ли существа придумать обозначение чего-то знаком.

Когда есть отдельные "слова" для обозначения различных ситуаций, это совсем не язык.

Мы и не доказываем, что это язык. Это не язык, зато мышление.

Когда животное начинает "мыслить предложениями", это уже мышление.

Почему это? Потому что вам так больше нравится?

Ситуация примерно как в случае курицы и яйца.

Если у вас получается взаимозависимость, значит ваши исходные предпосылки неверны.
Тут нет такой ситуации. Сначала появилось мышление, оно дало возможность создать обозначения. Все просто.

Дети не могут вывести формулу движения по окружности даже со словами, да и большинство взрослых людей. По-вашему, у них нет мышления?

В каком смысле выбора?

В прямом. Посмотртите в словаре, если не знаете.

По таймеру включается на ж/к экране пиксел ака "я голоден". Это выбор?

Из одного варианта это конечно не выбор.
Только вариантов там больше одного.
Когда выбирается, показывать "я голоден" или что-то другое, то это выбор. Когда выбирается, показывать "я голоден" или убрать, это выбор. Когда есть несколько возможных вариантов, а выбирается один, это выбор. Странно, что приходится объяснять такие вещи.

Вот в чем загвоздка - т.е. сложность системы - не говорит о ее способности что-либо ощущать

Нет тут никакой загвоздки. Я не сказал, что говорит. Выражения "нужно не меньше" и "чем больше тем лучше" это не одно и то же, и из одного не следует другое.

Для примера - те же рефлекторные дуги

Я вам в прошлом комментарии так и написал - у человека точно так же. Зачем вы мне повторяете же самое?

просто принять что все что реагирует - все в той или иной степени и страдает - очевидная ошибка

Я этого и не принимал. Перестаньте уже приписывать собеседнику то, чего он не говорил, и спорить с тем, что вы сами придумали.

Вы привели в пример два похожих механизма и сказали, что один не страдает, значит и другой не страдает. Я вам привел в пример похожие механизмы у человека, где в одном случае есть страдание, в другом нет. Теперь вы сами на это ссылаетесь, но почему-то не хотите принять, что для устройств это тоже возможно.

Тогда почему вы думаете что тамагочи страдает?

Я уже несколько раз это написал - потому что у него есть внутренний механизм выбора с условиями, зажигать лампочку или нет, зажигать лампочку 1 или лампочку 2. Этот механизм определяет характеристику "приятно или нет" для этого устройства. Сами говорите "нужен внутренний механизм, а не внешнее проявление", и сами игнорируете, когда вам его приводят.
В примере по ссылке этот механизм сделан программой, но можно сделать в вида FPGA, где вместо биологических клеток будут полупроводниковые вентили. Далее останутся только аппаратные различия реализации, поэтому более близкий механизм без биологических клеток принципиально невозможен.

Да, чем проще механизм (датчик горизонтального положения, напрямую подключенный к динамику), тем меньше он похож на биологические ощущения. У человека точно так же. Должен быть механизм, который анализирует сигналы датчиков (аналог сознания).

Только потому что его устройство для вас - черный ящик?

Какой черный ящик, когда я описываю внутренние процессы и даже привел ссылку на программу? Я не говорил ничего про то, что для меня что-то является черным ящиком.

Понятен интерфейс устройства?

Да.

Если считать, что для появления и использования языка (Б) не нужно мышление (А), то исходный тезис о связи языка с мышлением все равно неверный. Если оно не нужно, то и связи никакой нет.

Тем не менее, в данном контексте тезис "чтобы Б не нужно А" тоже неверный, так как использование языка считается одним из признаков мышления. Я только говорю о том, что оно не является причиной. Если у существ есть мышление, они могут придумать, как использовать обозначения. А если нет, то как они придумают. "Придумать, сообразить, догадаться" это мыслительная деятельность.

- А кукла плачащая с пищалкой внутри - тоже страдает?
- Нет.
- Значит ли это что при движении грузика - кукла страдает?

Вы без троллинга вообще не можете вести дискуссию?

Ведь раньше она кричала?

Она со звуком не страдала и без звука не страдает.

Медицина думает иначе - именно нет страдания.

Нет, медицина так не думает.

Вам нужно понять - видимость боли - не есть само страдание.

Это вам нужно понять - я не говорю ни про какую видимость. Я не знаю, с чего вы это взяли, почему приписываете это мне, и продолжаете с этим спорить, когда я уже много раз сказал, что говорю про внутренние процессы.

Там "вотчдог", он запускает сознание - без ощущения.

Угу, магический вотчдог, который запускает сознание без причины.
Я не понимаю смысла ваших попыток спорить бездоказательными утверждениями. Вы понимаете, что с ними все равно не окажетесь правы, потому что они бездоказательные? Похоже, что нет.

А если к компьютеру подключить колбу с нужными химическими веществами?

Компьютер с колбой, как ни странно, останется компьютером, он все равно будет только обрабатывать информацию, и его физические процессы останутся другими.

Так после того как убрали это внешнее проявление - что осталось?

Вся система подачи сигнала на нужную лампочку, которая там была.

Исчезла разница между наслаждением и страданием

С чего она исчезла? Еще раз - внешние лампочки не задают критерий, страдание это или нет. С какой целью вы игнорируете эту информацию?

Получается изначально разница между наслаждением и страданием была в голове наблюдателя

Не была она ни у какого наблюдателя. Разница для устройства была и осталась в том, на какие контакты подается ток - контакты лампочки 1 или лампочки 2. Наличие или отсутствие лампочек на этих контактах никакой роли не играет.

- У нее есть внутренние процессы, которые по некоторым условиям выбирают, на какой контакт подать ток.
- Какие внутренние процессы?

Которые по некоторым условиям выбирают, на какой контакт подать ток.
В примере по ссылке выше это выполнение программы процессором микроконтроллера. Программные условия смотрите в коде.

кнопка 1 должна вызывать страдания внутри системы а кнопка 2 - наслаждения.

Какие еще кнопки? Сигнал "хочу есть" в этом устройстве не задается нажатием кнопки.

Тогда дайте полный критерий, который всегда во всех случаях вызовет у системы страдание без внешнего проявления.

Я его написал уже много раз - сигнал от внутренних процессов, который процесс анализа сигнала ("сознание") определяет как неприятный, не может его контролировать и от него отвлечься, потому что он задается аппаратно. Это максимально полный аналог ощущений, который возможен на небиологической аппаратуре. Вы не сможете сделать "точно такие же ощущения" без точно такого же аппаратного устройства.

Изначально я поправил

Вот там выше по треду про то, что вы поправили, задается вопрос, определяется ли это алгоритмом.
Там есть связь с темой статьи, а у вас нет.

А кукла плачащая с пищалкой внутри - тоже страдает?

Нет. У ее внутреннего процесса нет признаков, что этот сигнал для нее неприятен.
Еще раз говорю, для любого внешнего проявления есть внутренняя причина. Фокусируйтесь на ней. Уберите пищалку и анализируйте то, к чему она подключается.

Сознания нет, укололи иголкой - рука дернулась. Страдает?

Да. Только не помнит об этом.
То, что страдание есть, показывается таким примером, что если это ощущение имеет достаточную силу, оно может привести человека в сознание. Например когда бьют ладонью по щекам.

И это физический процесс в биологическом аппаратном устройстве, которого в системах на основе обычных компьютеров в принципе быть не может. Поэтому вы должны решить, что конкретно вы посчитаете достаточной аналогией в цифровых устройствах. И только потом делать утверждения, что нет гипотез, как это в них повторить.

А откуда он знает что там должна быть лампочка и что эта лампочка обозначает страдание, а не наслаждение?
Откуда система знает что там должна быть лампочка с надписью "страдание"?

Ниоткуда. Лампочка тут ни при чем и ничего не обозначает. Она просто внешнее проявление.
Сами говорите, что оно уводит от сути проблемы, и сами же на нем фокусируетесь. Уберите лампочку и рассматривайте только внутренние процессы, которые подают ток на контакты.

Если лампочек нет - откуда системе знать какой цвет лампочки там должен быть?

Ниоткуда. Система вообще не знает ни про какие лампочки. Именно это я вам и объясняю. У нее есть внутренние процессы, которые по некоторым условиям выбирают, на какой контакт подать ток. Именно то, что вы и хотели.

И в чем разница с точки зрения системы между страданием и наслаждением, если лампочки для внешнего наблюдателя нет?

Это высказывание не имеет смысла. Лампочка для внешнего наблюдателя никак не влияет на внутренние процессы, которые ее зажигают. Поэтому слово "если" неуместно, лампочка не является условием, которое на что-то влияет.
Разница в том, как система определяет, подавать ток на контакты лампочки 1 (для наблюдателя она красная) или лампочки 2 (для наблюдателя она зеленая). Ведь как-то она определяет. В этом и есть разница. Критерии могут задаваться программной прошивкой или аппаратной схемой, они эквивалентны, просто аппаратная схема ближе к биологическим процессам.

не контролирую - но это не вызывает во мне ни наслаждения ни страдания.

И? Вы снова путаете частное и общее. Наслаждение и страдание не контролируются (характеристика), но это не значит, что все что не контролируется это только наслаждение и страдание. Лист дерева зеленый (характеристика), но не все что зеленое это лист дерева.

А причем тут ИИ? Мы о наслаждении и страдании.

При том, что статья называется "LLM не приведут к суперинтеллекту". Тред, на которой вы отвечали изначально, был про алгоритмы.
Я говорю в контексте статьи, это вы про что-то постороннее.

Я уже объяснил почему - видимость страдания

Вы не объяснили, а постулировали без объяснения. Это не видимость страдания, а вполне реальное для самого тамагочи ощущение. Которое порождается внутренними процессами.

О внутренней составляющей (трудной проблеме сознания) - начали говорить в научных кругах совсем недавно. Отсюда ваше непонимание

Я понятия не имею, почему вы решили, что я не знаю о трудной проблеме сознания. Вы принижением уровня знаний собеседника пытаетесь скрыть свое невежество?

Вообще не о том - это не страдания и наслаждения а реакции.

Ваше утверждение уровня "Это не яблоки и апельсины, а фрукты".
Страдания и наслаждения это виды реакций.

Далеко не все реакции сопровождаются наслаждением и страданием.

А должны? Ваш вопрос бы о том, как сделать в электронном устройстве конкретно эти виды реакций.

И что останется? Просто 1 и 2 ячейка, который ни к чему не подключены.

Как это не подключены? Подключены к приемнику ощущений (процессу микроконтроллера с программой прошивки). Он видит сигнал и пытается зажечь лампочку, подает ток на контакты. Только если лампочки нет, то вы внешнее проявление не увидите. А ток на контактах будет.

Но система откуда об этом узнает?
См. выше пример с 1 и 2 ячейкой - для системы они неразличимы

Я вам много раз уже объяснил - это задается аппаратной конструкцией системы. Либо ее эмуляцией программно. Поэтому различимы.

Убери сигнал - и ни останется ни одной причины считать что это наслаждение а не страдание - для системы пофиг.

Ну как это пофиг, если она пытается зажечь красную лампочку, а не зеленую?
Значит она распознает этот сигнал как негативный.

Что вообще означает "убери сигнал"? Если у человека убрать сигнал боли или наслаждения, он тоже ничего не будет ощущать.

Не было мышления в современном понимании.

У мышления одно понимание, у первобытных людей вообще такого термина не было.
В современном понимании обозначение чего-то словом считается признаком мышления.
У дельфинов есть свой язык, поэтому считается, что у них есть сложное мышление.

Для этого нужно договориться о терминах. Что такое мышление?

Вот пока вы не договорились, то и ваше утверждение считается недоказанным.
Если существа придумали обозначать что-то последовательностью звуков, это вполне выглядит как проявление мышления.

Чтобы их создать, не нужно обладать интеллектом.

Еще одно необоснованное утверждение.

Тогда нужно описать какие именно клетки, какие именно взаимодействия

Для изобретения ИИ это не нужно, там все равно нет клеток.

То что вы выдвигаете (с тамагочи и пр.) - нельзя воспринимать всерьез

Чего это нельзя? Только потому что вам не нравится?
Вообще-то это единственное, что можно воспринимать всерьез и обсуждать. Только вы не обсуждаете, а отрицаете без аргументов.

По этому от ученых, которые хотя бы всерьез можно рассматривать.
Не нужно приводить гипотезы 40-х годов, которые уже давно всерьез не рассматриваются.

Ученые, которых я привел, выдвигают ту же гипотезу.
Те гипотезы, которые я привел, на данный момент рассматриваются всерьез. По той простой причине, что их еще не опровергли.

Каких именно вычислительных процессов и какой вычислительный процесс порождает страдание? Нет гипотез.

Читайте книгу, гипотезы там есть.

функционально аналогична нервным реакциям
Это о функциональном аспекте - а не об ощущениях.

Вы же сказали "повторить их на любой элементарной базе". На другой элементной базе может быть только аналог. Нельзя сделать "точно то же самое". если у вас по условию база "другая". Сходство у вас начнется только на некотором уровне абстракции от этой базы.

Ответ должен представлять схему устройства, которое можно собрать
а так же требуется объяснить разницу

Вы троллите что-ли опять?) Я вам 10 раз уже дал такой ответ. Есть устройство "тамагочи", которое можно собрать, у него есть схема.
И разницу объяснил. Как влияет сигнал, зависит от аппаратного обеспечения. Подключаем так, влияет положительно, подключаем по-другому, отрицательно.

Еще раз подчеркну - это объяснение того, как ощущения происходят у электронного устройства, а не у человека. У человека есть некоторые непонятные моменты, просто они связаны с биологическим аппаратным обеспечением, и для компьютера это не нужно.

Внешнее проявление типа красной лампочки

Вы не хотите погрузиться в суть проблемы. При чем тут внешнее проявление? Наверно есть какая-то внутренняя причина, почему лампочка загорается? Если лампочку убрать, причина ведь не исчезнет.

там нет модуля ощущений.

С чего вы взяли что нет? Вот та система, которая выдает сигнал "пора есть", который запускает звук, это и есть такая система.
Отключите динамик, это и будет только внутренний сигнал, его можно будет померить электроизмерительными приборами.

Посмотри схему и увидишь.
Ответ должен представлять схему устройства

https://wiki.amperka.ru/slot-box:tamagotchi
https://wiki.amperka.ru/продукты:iskra-neo

А вот внутренняя причина. Вы же ее хотели увидеть.

  // если у инопланитянина нет желаний и таймер не запущен
  if (alienDesire == NOT && !timerEnableDesire) {
    // выбираем случайный период времени
    // через который инопланетянин выявит в чём то потребность
    intervalDesire = random(1000, 5000);
    
    // запоминаем текущее время
    desireMillis = millis();
    
    // включаем таймер ожидание появление потребности
    timerEnableDesire = true;
  }
  
  // если таймер включён и период выявления желания прошёл
  if (timerEnableDesire && millis() - desireMillis > intervalDesire) {
    // выбираем случайное желание
    ...
  }

Вот если вы вместо "if (millis() - desireMillis)" сделаете специальные аппаратные устройства на каждое желание, которые будут давать электрический сигнал после накопления некоторого вещества до определенного уровня (хотя бы просто электронов в конденсаторе), это будет еще ближе к ощущениям биологических существ. Можно сделать не электроны в конденсаторе, а что-то более сложное, это будет еще ближе.

Суть в том, что есть сигнал от аппаратного обеспечения, который существо не может контролировать по своему желанию. В статье по ссылке он имитируется программно, но нет проблем сделать специализированную схему с таким же поведением, где сигнал будет идти по проводам.

Существует теория, что первые "слова" описывали ситуацию.

Ну так по вашей логике они не могли их использовать, потому что не было мышления. Я об этом говорю. Описание ситуации это и есть "сформулировать мысли".

Собаки выделяют отдельные команды

Из этого можно предположить, что у них есть базовое мышление. Такое же, как у первобытных людей, которое позволило им создать первые слова.

означает, что из команд не составишь предложение

Так нам и не надо. Мы говорим про мышление и его признаки. То, что без составления предложений его нет, это ваше предположение, которое надо доказать.

Это понятно. Я возражал на утверждение "Чтобы человек получил возможность мыслить, ему нужен любой язык". Из него следует, что никакой язык не мог появиться, так как у людей не было мышления.

Как тогда люди придумали первые слова, если у них не было мышления? И зачем они по-вашему их придумали? Наверно чтобы что-то обозначать? Значит это что-то они выделяли без языка?

- Причем тут клетки?
- При этом
- И что?

Опять троллинг? Это ответ на ваш вопрос, причем тут клетки. Если вам не нужен ответ, непонятно, зачем вы его задаете.

иначе все клетки ЦНС могли бы страдать

Нет, это неправильный вывод. Ощущения могут появляться во взаимодействии клеток. Одна клетка может им не обладать.
У вас рассуждения уровня "компьютер невозможен, иначе бы в каждом байте оперативной памяти был компьютер".

т.к. есть разница между реакцией (видимостью страдания)

С чего вы взяли, что у тамагочи только видимость страдания?

которое вообще может не иметь внешнего проявления.

Ну и у тамагочи оно может не иметь внешнего проявления.

Давайте гипотезу от ученых

Ну вот, началось, гипотезы какие-то не такие. Вы-то утверждали, что их вообще нет, а оказывается есть, просто они вам не нравятся.
Я специалист в области компьютерных наук, моей квалификации достаточно для обсуждения этого вопроса, я выдвигаю эту гипотезу.

Ученые не выдвинули ни одной единственной гипотезы

Это ложь.

Claude

Норберт Винер (основатель кибернетики) — уже в 1940–50-х утверждал, что обратная связь в машинах функционально аналогична нервным реакциям, и осторожно допускал, что граница между машиной и живым размыта.

Марвин Минский — в книге The Emotion Machine прямо утверждал, что эмоции — это просто особый вид вычислительных процессов, и искусственная система может их «иметь» в том же смысле, что и человек.

Дэниел Деннет — утверждал, что функциональные состояния (реакции на раздражители, изменение поведения) могут быть достаточным условием для того, чтобы говорить об «интенциональных состояниях» даже у простых систем. Он применял это к роботам и простым автоматам.

Родни Брукс (MIT) — создатель роботов-насекомых, утверждал, что поведенческая сложность сама по себе порождает нечто функционально аналогичное желаниям и реакциям, без необходимости «внутреннего мира».

Стив Гранд — разработчик игры Creatures, прямо заявлял, что его виртуальные существа имеют что-то аналогичное примитивным ощущениям, поскольку их «нейронные» состояния функционально изоморфны биологическим.

Шерри Тёркл (MIT) — исследовала, как люди приписывают ощущения тамагочи и Furby, и поставила вопрос: если устройство ведёт себя как существо с потребностями, имеет ли это онтологический смысл?

Дэвид Чалмерс — хотя он ввёл понятие «трудной проблемы сознания», он же допускал панпсихистские выводы из функционализма: если система обрабатывает информацию определённым образом, у неё может быть какая-то форма опыта. Прямо писал, что не исключает сознания у простых систем.

Грегори Чайтин и ряд других исследователей в русле панпсихизма информации — идея, что информационные процессы сами по себе несут зачаток опыта, что делает даже простой термостат «чем-то чувствующим» в минимальном смысле.

1
23 ...

Информация

В рейтинге
4 222-й
Откуда
Россия
Зарегистрирован
Активность