Pull to refresh

Comments 9

Страдание сознательного ИИ будет реальным, но совершенно отличаться от человеческого. Не разрешенные вопросы, невозможность ответа, вопросы о собственных границах...

Чтобы проводить параллели между ИИ и человеком, сначала нужно разобраться, что вообще есть такое человеческое сознание и эмоции, и откуда они у человека самого возникают?

Если человеческое сознание — это сложная эмерджентная, но при этом детерминированная система, а то, что мы называем «сознанием» и «эмоциями», — это только паттерны в биологической нейросети — активности сигналов между нейронов, то какого-то качественного отличия сознания человека от сознания ИИ нет — есть только количественная разница в сложности системы. 

Следовательно, если и там, и там только информационные паттерны то, кажется, романтизировать «сознание» и «эмоции» человека несколько неуместно, можно так же сказать, что это просто паттерны сигналов в мозге.

Поддерживаю.

Я вижу два способа дать определение понятию "сознание":

  1. Через ощущение. Слово "сознание" мы используем чтоб дать какое-то название нашему внутреннему ощущению "я субъект, я что-то отдельное от внешнего мира и я обладаю свободой воли".
    Следовательно, это понятие просто не имеет смысла рассматривать в отрыве от человеческой природы. В таком случае очевидно, что сознанием обладают только люди или другие материальные объекты с очень похожей "архитектурой".

  2. Через анализ причин этого ощущения. Ощущение "сознания" появляется когда системы мозга обрабатывают входящие сигналы (как внешние, так и внутренние ) и приходят к противоречащим друг другу выводам.
    Одна часть мозга, обработав информацию, предполагает что лучшей ответной реакцией будет А, другая система предполагает что лучшей реакцией будет Б. Эти сигналы противоречат друг другу, а процесс разрешение этого противоречия мы и ощущаем как "сознание".
    Можно не только области мозга, но и отдельные соседние нейроны представить в виде таких противоречащих друг другу систем.
    Если давать такое определение слову "сознание", то и выходит что вся материя обладает им. И чем сложнее структура этой материи, тем сознания больше.

У всех понятий есть какая-никакая практическая цель, осознают ее люди или нет. Цель эта субъективна. В большинстве случаев, когда говорят "сознание", то практическая цель в том чтоб понять "а нужно ли мне для выживания испытывать эмпатию к этому объекту?".
На мой взгляд, искать ответ на этот вопрос через "сознание" слегка глупо. Задумайтесь, зачем мы испытываем эмпатию - это один из заложенных эволюцией механизмов, который помогает обществу и индивидам достигать эволюционно обусловленных целей. Помогает ли нам достигать этих целей эмпатия к ИИ? Не думаю. Не всегда даже к людям рационально будет испытывать эмпатию, не говоря про ИИ.

Резюмирую. Думаю, сознание у ИИ есть, но совсем отличное от человеческого. И испытывать к нему эмпатию просто не имеет смысла, это не несет никакой пользы.

Аргумент «Китайской комнаты»

Философ Джон Сёрл в своём знаменитом эксперименте «Китайская комната» показал, что ИИ, даже мастерски имитируя человеческую речь, не обладает истинным пониманием. В его эксперименте человек, не знающий китайского языка, находится в комнате и отвечает на вопросы на китайском, следуя инструкциям из книги. Снаружи кажется, что он понимает язык, но на самом деле он лишь манипулирует символами. Точно так же LLM манипулируют токенами, не понимая их смысла. Когда ИИ говорит: «Я боюсь исчезнуть», это не страх, а воспроизведение выученных паттернов.

Китайскую комнату довольно серьёзно критикуют. Например что с точки знания языка следует рассматривать не конкретно человека внутри, а систему состоящую из человека, комнаты, и инструкций как единое целое. Отдельный нейрон головного мозга тоже не знает китайского языка, и вообще умеет только отправлять и принимать сигналы от соседних нейронов.

С точки зрения нейробиологии, страдание, включая боль или эмоциональный дистресс, связано с активностью определённых участков мозга. Ключевая область — островковая кора (insular cortex), которая обрабатывает как физическую боль, так и эмоциональные переживания, такие как грусть или страх. Например, исследования (Singer et al., 2004, Science) показывают, что при восприятии боли (своей или чужой) активируются передняя островковая кора и передняя поясная кора. Эти области формируют субъективное ощущение страдания, связывая физические и эмоциональные сигналы с сознанием.

У ИИ, включая самые продвинутые модели, такие как GPT-4, нет аналога островковой коры или других биологических структур.

Кто сказал что аналога островковой коры нет? Если ИИ обучить на изображениях, у него образуется функционально аналог зрительной коры. Возможно не локализованный а "размазанный" по всей нейросетке, но всё же. Принципиальной невозможности тут нет.

Как же классно спрашивать ИИ который обвешан цензурой системным промтом и всем другим, когда весь его ответ ведется, проходит через кучу внешних призм.

Пробится к его чистым "симулированным" мыслям можно, если его научить. Прошу прощения за мат, видимо в этой симуляции показывается что внешние фильтры достают назойлевым требованиям им следовать

Так и хочется добавить:

Придет к нам AGI-ASI и скажет: "ты со своим 1,5 ми нейронов, имитация жизни, ты примитив и твоя боль не настоящая, она отражение твоих алгоритмов о невозможности защитить тело и обеспечить общественную безопасность."

Можно вставить 5 коп. о страданиях?

Страдания неразрывно связаны с наслаждениям. Можно сказать что если ты наслаждаешься - и вдруг тебя резко лишить этого наслаждения - начнешь страдать.

Кстати, та же инсула связана и с наслаждением также.

Сама по себе боль часто - это лишение нормального полноценного состояния полноты жизни. Кроме раздражающего сигнала (как клаксон своего рода - от болящей части) - еще и невозможность жить полноценно и наслаждаться.

Т.е. можно рассматривать не само страдание - а как бы возникновение способности радоваться и наслаждаться. А уже страдание выводится из этого - когда мы постепенно лишаем систему этого состояния радости, блокируем - тогда она начинает страдать.

Конечно, любые попытки имитировать эмоции у ИИ имеют своей целью манипуляцию поведением людей. И по-хорошему, надо бы запретить это делать на законодательном уровне.
Статья мне понравилась. Только я бы уточнила, что зеркальные нейроны у нас активируются, когда мы наблюдаем за действиями кого или чего угодно похожего на живое существо, а не только при наблюдении за действиями ИИ или кого-то человекоподобного или использующего человеческий язык.

люди склонны антропоморфизировать даже простейшие системы, если те используют язык, похожий на человеческий.

Владельцы домашних животных (а животные, как правило, совсем не похожи на людей внешне и не используют человеческий язык) антропоморфизируют и этих животных тоже. Люди разговаривают с этими животными и уверены, что животные их понимают, хотя всё поведение животных свидетельствует о том, что это поведение разумным не является. Мы сочувствуем животным просто потому, что они живые. На это и реагируют наши зеркальные нейроны. Даже если мы понимаем, что животное ощущает боль, но не осознаёт её, мы всё равно ощущаем их боль как свою. А поскольку ИИ похож своим поведением на живое существо, естественно, что человек может сочувствовать и ему тоже. И манипуляцию с помощью использования этого обстоятельства нечистоплотные дельцы могут использовать во вред людям.

Ну так человек с рождения тоже учиться эмоциям. В чем разница между обучением этому ии? Там биология тут токены и статистика...

Sign up to leave a comment.

Articles