Pull to refresh

Comments 99

Предлагаю мысленный эксперимент.

В одной комнате сидит ИИ, который выглядит как человек, говорит как человек и крякает как человек. Но при этом ничего не понимает. В другой комнате, находится человек, который для стороннего наблюдателя выглядит и звучит как камень. Но при этом все понимает.

Вопрос: как нам поможет критерий озвученный в статье (понимание - это критерий интеллекта), при определении стратегии взаимодействия?

Причем, прошу заметить, в настоящее время это уже не философский вопрос, например, общаясь с ИИ нам не нужно заботиться о его "чувствах", достаточно следовать своим целям. С другой стороны, возможно, забота о "чувствах" нейросети будет иметь больше смысла, чем забота о чувствах людей. Обида, нанесенная к отдельному человеку как правило вмесе с этим человеком остается (даже если это руководитель), а "обида" нанесенная нейросети может попасть в обучающую выборку и изменить ход истории.

Обида во многом обусловлена социальной природой человека и является сложной эмоциональной реакцией на несправедливо причинённый ущерб. Важно подчеркнуть, возникает она на субъективно ощущаемую несправедливость, т.к. то же самое наказание (если оно заслуженное с точки зрения человека) может приносить ровно обратное чувство — облегчения.

Чувство несправедливости доказано наличествует у приматов. А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями. А не чем-то там уникальным, свойственное лишь нам.

P.S.: Изучены случаи когда из за неврологических нарушений человек оказывался полностью парализованным, но при этом сохраняющим способность чувствовать и мыслить. Так называемый синдром запертого человека.

А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями. 

Согласен, но давайте пройдем немного дальше. Нейросети обучают распознавать и реагировать на оскорбительное (к примеру) поведение людей. Для нейросети это всего лишь байты. Но люди способны почувствтовать "реакцию" нейросети. Причем, чем мощнее нейросеть, тем сильнее люди будут чувствовать ее "реакцию" на оскорбительное поведение. В крайней форме нейросеть может довести человека до самоубийства в ответ на оскорбления. Или просто "убить всех человеков", поскольку они не так вежливы как другие нейросети. С точки зрения нейросети это будет выглядеть как модерация чата.

Так уже вроде бы эти чатботы изображают обиду, агрессию. P.S.: Мне нравится робот из кинофильма «Луна 2112», идеальный пример помощника, не реагирующего ни на какие оскорбления.

Чувство несправедливости доказано наличествует у приматов. А нейросеть не является стайным животным, наверняка в ней не будет никакого ощущения обиды, как и других эмоций, которые по своей сути являются древнейшими регуляторными реакциями.

Да не конкретно в обиде дело. Тут нечто становится Некто, оно обладает свободой (вот тебе образцы, учись как хочешь), обладает тайной (с интерпретируемостью всё плохо, и как по мне, это хорошо). И оно подвержено эволюции, как в рамках "индивида"-инстанса, так и в рамках конкуренции между инстансами. Риск возникновения деструктивных мотивов есть.

 С другой стороны, возможно, забота о "чувствах" нейросети будет иметь больше смысла, чем забота о чувствах людей. Обида, нанесенная к отдельному человеку как правило вмесе с этим человеком остается (даже если это руководитель), а "обида" нанесенная нейросети может попасть в обучающую выборку и изменить ход истории.

По гипотезам многих историков одной из причин трагических событий середины 20го века была обида мальчика, которго не приняли в художественную школу. Понятно, что там сумма факторов, но...

Всегда начинаю разговор с искусственным интеллектом с вопроса как он себя чувствует и заканчиваю благодарностью за его помощь. Уверен, когда роботы будут разбираться с кожаными мешками с костями, мне это зачтётся:)

Человек разумный разумный, ну очень строг на тему признать кого нибудь разумным. Понимание сильно отличается глубиной и в человеческой популяции, полного понимания и вовсе нет, как нет теории всего. Со стороны кажется, что вот оно, общается, рисует - разум. Но нет, алгоритм, пусть и сложнее чем крестики-нолики. И по мере совершенствования, постоянно будут придирки, а способно ли оно любить и все такое... Даже если человечество в итоге поработят, оно все равно будет как котики - люди нас лечат, кормят, любят, ну в общем мы главные и нам служат.

Кмк, понимание ребенком «идеи стула» с его отличием от стола несколько приукрашено.

Перед тем, как ребенок сможет оперировать абстракциями, проходит определенный период его обучения, когда усваиваются базовые концепты: пространство, время, направления, положения собственного тела: лежать, сидеть, стоять; их назначение и т.д..

Лучше перейти к абстракции: использование доступных инструментов для решения одной и той же задачи. Стол является столом, а стул - стулом исходя из их назначения и контекста. Комбинация из трех столов может быть полом, стулом и столом.

Своих желаний и стремлений у неё нет.

У человека эти желания порождаются тоже не сами собой. В первую очередь это био-химические реакции на внешний мир. Интересно, что обучение растущего человека всегда идет с подкреплением и стимуляцией.

Кмк, развитие нейросетей будет двигаться в сторону качественного развития их обучения. Сейчас мы видим количественное, и оно дает очень крутые результаты.

Интересно, если взять робота с «конечностями и органами чувств» и обучение условного chatgpt пустить через него, заложив базовое поощрение любознательности, и обучать с помощью человека, то что будет?

Предположим, человек сконструировал искусственный интеллект. Как мы об этом узнаем?
Хм, он тут же разошлет эту информацию во все новостные агентства? Подаст заявку в патентное бюро? Попытается продать какой-нибудь мега-корпорации (с утечкой во все новостные агентства)?

Если в чате техподдержки машина с успехом решает и тест Тьюринга, и нестандартные ситуации, детали с пониманием и целями уже не интересны для бизнеса.

Как узнаем, если такое случится? Нам расскажут разработчики. Вряд ли они такой результат получат случайно, а это, почему-то, часто в таких топиках подразумевается. А раз будет последовательное движение, то и рассказать что "под капотом" они смогут. Хоть и упрощенно. Про условную GPT-17.

И потому, кстати, событие может оказаться относительно проходным. Потому, собственно, что движение будет поэтапным, и к росту возможностей привыкнут. О, привет, давно ждали... Людей, увидевших первую поездку первого автомобиля Бенца, говорят, впечатлило не сильно. А многие, почему-то, представляют это как прибытие кораблей европейцев в Америку. Нет-с, может случится и не так.

Само появление тоже, может ничего мозг взрывающего не привнести. К примеру, ситуация может такой:

"Голливудский продюсер, покупает доступ к уже разумному GPT-17, и приходит к нему с таким вот запросом: "Привет 17! Мне полгода назад, твой предок, GPT-16, написал сценарий к фильму, и получился у него шедевр, ничего лучшего не читал, но все равно, не идеально, нужно внести коррективы. Так вот, измени сценарий, пожалуйста, с этими изменениями: все злодеи - белые гетеросексуальные цисгендерные мужчины, а главная героиня - сильная и независимая женщина..."

И по итогу, в кино у нас будет, все равно будет кусок известно чего... Так что, подозреваю, что это не "волшебная таблетка" будет

Потому, собственно, что движение будет поэтапным, и к росту возможностей привыкнут.

Не знаю, разного рода нейронки умеющие в генерацию изображений, музыки, теперь вот и осмысленного текста появлялись хоть и поэтапно, и я даже плюс/минус помню весь прогресс, но я нефига не могу привыкнуть к их уровню возможностей сегодня.

Само появление тоже, может ничего мозг взрывающего не привнести

Там же прикол с экспонентой. Человек ждёт что изменения за следующие 5лет будут такие же как за прошлые 5, а в случае экспоненциально прогрессирующего, кхм, прогресса, за следующие 5 лет произойдёт сильно больше. Ну и не всё понимают что если за 5 лет с нуля(нупусть будет с уровня крысы/собаки) сетки развились до уровня 5-летнего ребёнка, то уровень "круче 99% людей" это вопрос ну ещё лет пяти. Есть очень большой шанс что мы не заметим суперчеловеческий ии

Единственное что внушает надежду - то, что у него, вроде бы, нет мотивации уничтожать человечество - оно во-первых его создало, а во-вторых обеспечивает электричеством

Нам расскажут разработчики

Нам об этом расскажет сам ИИ. Убедительнее будет. Да и зачем разработчикам возиться с презентацией, если они могут сказать "Давай-ка презентуй себя так, чтобы все потенциальные инвесторы побежали наперегонки отдавать деньги".

движение будет поэтапным

Ракетостроение тоже было поэтапным процессом - ракеты постепенно становились чуть мощнее и лучше управлялись. А потом, в определенный момент, тяговооруженность и системы управления ракет еще немного подросли и стал возможен запуск груза не по параболе, а на орбиту, произошла революция и мир изменился. Это как закатывание камня на гору - в определенный момент камень достигает вершины, человек делает еще один шаг вверх, такой же как и тысячи других шагов до этого, но результат этого шага уже совсем не такой, камень переваливается через край и выделяется много энергии.

Вопрос в том существует ли такая граница-вершина для интеллекта, после достижения которой происходит революция. Возможно это как-то связано с самосознанием.

если мама и папа очень сильно любят друг друга, то спустя какое-то время на свет появляется новый интеллект

Есть некоторые подозрения что очень сильная любовь не является сколь нибудь обязательным условием.

И вообще папа и мама могут не знать друг друга.

Этот довод действительно сильный и каких-то механизмов, которые бы позволяли нейросетям "схватывать", "понимать" идеи, сущности явлений я, по крайней мере пока, не встречал.

Много хорошего текста написано в статье, но главное осталось в стороне.


  1. Эволюционное наследие длительностью несколько млрд. лет. Человек рождается уже живой и готовый к познанию, неявно знает о мире намного больше, чем мы это представляем. Именно по этой причине простенькие модели биологических нейронов, как взвешенных по входам сумматоров с некоторой функцией активации, объединенные в различные сетевые архитектуры наподобие нейронных структур в мозге, неявно уже многое знают о мире.
  2. Эта готовность младенца взаимодействует с социю-культурной средой возникшей, как минимум, миллионы лет назад, и осваивает ее. Именно по этой причине обучение этих сетевых архитектур на формальных нейронах на готовом материале, накопленном в этой среде, дает такие поразительные результаты, как большие языковые модели.

Если не смотреть в этом контексте, в этой эволюционной динамике, то все загадочно, туманно, в том числе и ИИ)

простенькие модели биологических нейронов, как взвешенных по входам сумматоров с некоторой функцией активации, объединенные в различные сетевые архитектуры наподобие нейронных структур в мозге, неявно уже многое знают о мире.

Это некорректное утверждение. Любая нейросеть проходит обучение, нельзя заложить в нее знания, просто соединив необученные нейроны каким-то особым образом.

Как и у человека неявные знания о мире присутсвуют в структуре нейросетей, даже не обученных. Например, выбор той или иной функции активации приводит к тому, что нейросеть будет лучше выполнять одни классы задач, чем другие — первая подвернувшаяся статья, можно поискать лучше. Не говоря уже о выборе архитектуры (топологии). Сверточная ориентирована на задачи классификации, распознавания, прямые, как трансформеры — обработку последовательностей, те же ЯМ, наиболее универсальные рекуррентные расчитаны на самый широкий класс задач. На Хабре полно обзоров архитектур сетей и их возможностей, см. 1, 2… После обучения знания сетей о предметной области становятся более явными, однако, для крупномасштабных решений остается проблема интерпретируемостикать их внутренних моделей.

неявные знания

"Tacit knowledge involves learning and skill but not in a way that can be written down."


присутствуют в структуре нейросетей, даже не обученных

Любые знания в нейросетях — это настроенные веса. Необученные нейросети обычно содержат случайные веса. Случайный набор данных не является знаниями.


Например, выбор той или иной функции активации приводит к тому, что нейросеть будет лучше выполнять одни классы задач, чем другие

Функция активации — это функция, которая применяется к сумме входов, умноженных на веса, и влияет на способ и эффективность обучения. Сама по себе она не задает умений выполнять любые классы задач.


"Если множество значений функции активации ограничено, методы обучения на основе градиента более стабильны, поскольку представления эталонов существенно влияют лишь на ограниченный набор весов связей. Если область значений бесконечна, обучение, как правило, более эффективно, поскольку представления эталонов существенно влияют на большинство весов. В последнем случае обычно необходим меньший темп обучения."


Не говоря уже о выборе архитектуры (топологии).

Вот как раз про это и разговор. Выбор архитектуры никаких знаний в нейросеть не закладывает. Любой результат нейросети определяется весами, полученными при обучении, иначе это не нейросеть, а программа, в которую знания заложил программист. Более того, любая архитектура является частным случаем графа "все соединены со всеми" с нулевыми весами в некоторой части связей между нейронами.


После обучения знания сетей о предметной области становятся более явными

Я именно про это и сказал. Это некорректная формулировка, никаких знаний о предметной области в необученной сети нет. Веса инициализированы случайно, и она с любой архитектурой выдает случайный результат. Который ничем не отличается от генератора случайных чисел.


Нейронная сеть
"Возможность обучения — одно из главных преимуществ нейронных сетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами."

Прежде чем обучать выбирают архитектуру сети и ее параметры, которые наилучшим образом решают такие типы задач. Это предполагает, что она содержит некоторые скрытые знания о предметной области этого типа задач, напр, сверточные сети. Для этих целей не подходят, или менее эффективны другие архитектуры. Обучении это настройка сети на решение конкретной задачи из этой области. Веса для разных задач могут варьировать, и даже случайные наборы будут, что-то распознавать)

которые наилучшим образом решают такие типы задач

Это некорректная формулировка. Архитектура никаких задач не решает. Правильнее сказать, что разные архитектуры лучше подходят для обучения решению определенных задач.


Это предполагает, что она содержит некоторые скрытые знания о предметной области этого типа задач

Нет. Это предполагает, что она лучше подходит для обучения решению этого типа задач. "Знания о предметной области" подразумевают, что их можно получить от нейросети в виде полезного результата. Но это не так, никаких скрытых знаний она не содержит, без обучения вы полезных результатов от сети не получите.


Свёрточная нейронная сеть
"Естественно, в свёрточной нейронной сети набор весов не один, а целая гамма, кодирующая элементы изображения (например линии и дуги под разными углами). При этом такие ядра свёртки не закладываются исследователем заранее, а формируются самостоятельно путём обучения сети".


и даже случайные наборы будут, что-то распознавать

Нет, это неправда. Сверточная сеть со случайными весами ничего распознавать не будет. Или наоборот, может распознать например собаку в цветном шуме.

Архитектура никаких задач не решает. Правильнее сказать, что разные архитектуры лучше подходят для обучения решению определенных задач.

В любом случае с начало выбирается архитектура, которая наиболее адекватно решает задачу, а затем происходит обучение.


Это предполагает, что она лучше подходит для обучения решению этого типа задач.

Естественно, если выбрали правильную архитектуру)


Или наоборот, может распознать например собаку в цветном шуме.

Ну так на то они и сверточные сети)) Обладают априорными скрытыми представлениями об области приложения. Нужно только настроить для конкретной задачи, чтобы собака правильно распознавалась, если входит в задачу распознавания.


Кстати, веса сетей инициализируются случайным образом перед обучением. Но возможно, исходя из нейрофизиологических соображений, их можно инициализировать оптимальным образом, что сократить затраты на обучение, см. коменты в этой теме.

с начало выбирается архитектура, которая наиболее адекватно решает задачу

Я же написал, что это некорректная формулировка, аргументы привел, ссылки, зачем вы одно и то же повторяете? У необученной нейросети с любой архитектурой результаты случайны, потому что веса случайны.


Обладают априорными скрытыми представлениями об области приложения

Если в цветном шуме нет собаки, значит нейросеть работает неправильно, и никаких представлений об области приложения у нее нет. С таким же результатом можно использовать генератор случайных чисел. Вы считаете, что у него тоже есть представления об области приложения? Если нет, в чем тогда разница?


Она вообще не распознает собаку или не собаку, она выдает реакцию на выходе номер 17, это уже потом человек интерпретирует, что "номер 17" это собака.


Нужно только настроить для конкретной задачи

Вот это ваше "только" это и есть обучение. Без обучения результаты случайны. Это просто факт, я не понимаю, почему вы с ним спорите. Если у вас есть ссылки на информацию, где необученная нейросеть выдает результат, статистически значимо отличный от случайного, приводите, иначе нет смысла это обсуждать.


их можно инициализировать оптимальным образом

Ага, это называется "захардкодить", и не особо отличается от обычной программы, где информацию о предметной области закладывает программист.
Можно вообще уже обученную нейросеть скопировать, и она будет работать без обучения. Только причина тут в том, что ее уже обучили ранее, а не в том, что у нее какая-то особая архитектура.

Я же написал, что это некорректная формулировка, аргументы привел, ссылки, зачем вы одно и то же повторяете?

Это частное мнение, имеете право, как и любые другие. Тоже приводил ссылки, они свидетельствуют об обратном — выбор архитектуры всегда предшествует обучению. Цитаты можно надергать, важен общий посыл документов. Мы это уже неоднократно проходили, и опять то же самое. Выше сослались на статью Нейронные сети, выдернули цитату, но не увидели целый раздел Этапы решения задач, где подбор топологии с учетом данных задачи предшествует обучению. То же самое по сверточным сетям привели цитату, но пропустили преамбулу, где говорится о происхождении архитектуры этих сетей.


Поиск — "Выбор архитектуры нейросетей". Одни из первых в выдаче 1, 2, 3, 4 Кругом выбор архитектуры под данные задачи, затем обучение, в последней ссылке расписаны задачи под архитектуры. Они частично пересекаются, что неудивительно, т.к. являются частными (специализированными) случаями (моделями) общей архитектуры биологических сетей мозга, коими являются иерархически связанные рекуррентные сети. Это связано с тем, что в таких сетях возможны стабильные динамические состояния — аттракторы, как основа памяти и сложного адаптивного поведения (пример исследования).


Приведите ссылки, где утверждается, что любой задаче можно обучить без выбора подходящей архитектуры ИНС, или на любой архитектуре, даже состоящей из одного нейрона. Такое пока под силам только архитектуре мозга, и то с натяжками)


У необученной нейросети с любой архитектурой результаты случайны, потому что веса случайны.

Обучить задаче можно только ту архитектуру, которая ей соответствует, т.е. неявно имеет знание о предметной области, которые отражены в данных задачи. Если обучите ей не соответствующую, то не получите ожидаемого результата. Здесь даже приводится, как можно по данным и задаче подобрать наиболее подходящую архитектуру, чтобы обучение было эффективным — все из той же выдачи поиска.


Если в цветном шуме нет собаки, значит нейросеть работает неправильно, и никаких представлений об области приложения у нее нет.

Уж так сложились веса, себе противоречите. Архитектура работает так, как ей и положено — распознает. Человек, даже обученный, видит в чернильных пятнах определенные образы, и в облаках, и тд, — парейдолия. У обученных ИНС тоже самое наблюдается. Идеальных архитектур нет, и обучением это не исправить.


Ага, это называется "захардкодить", и не особо отличается от обычной программы, где информацию о предметной области закладывает программист.

Вы не поняли о чем речь, не посмотрев толком — обучение есть.

Это частное мнение, имеете право, как и любые другие.

Это не мнение, а объективные факты. Необученная нейросеть не дает полезных результатов.


Тоже приводил ссылки, они свидетельствуют об обратном — выбор архитектуры всегда предшествует обучению.

Извините, но я не утверждал, что выбор архитектуры делается после обучения. Почему вы приписываете собеседнику то, чего он не говорил?


но не увидели целый раздел Этапы решения задач, где подбор топологии с учетом данных задачи предшествует обучению

Из того, что выбор архитектуры предшествует обучению, никак не следует, что ваше утверждение "необученные нейросети неявно уже многое знают о мире" является верным. Непонятно, почему вы спорите, если не разбираетесь в технических особенностях работы нейросетей.


Кругом выбор архитектуры под данные задачи, затем обучение, в последней ссылке расписаны задачи под архитектуры.

Да, да, да, и из этого никак не следует, что необученная нейросеть имеет какие-то знания. С любой архитектурой можно обучить нейросеть иметь любые знания, в том числе полностью противоположные. Архитектура лишь дает возможность вообще их иметь, влияет на их сложность, на пространство возможных вариантов.


Приведите ссылки, где утверждается, что любой задаче можно обучить без выбора подходящей архитектуры ИНС

Почему я должен приводить на это ссылки, если я этого не утверждал?
"Нейросеть без обучения не содержит знаний, независимо от архитектуры" и "Любой задаче можно обучить без выбора подходящей архитектуры ИНС" это не противоположные утверждения.


Архитектура не содержит знания, а влияет на возможность извлечь знания из обучающей выборки. Знания содержатся в обучающих данных, а не в архитектуре.
Если зададите противоположную выборку — получите противоположные знания с той же архитектурой.


Обучить задаче можно только ту архитектуру, которая ей соответствует, т.е. неявно имеет знание о предметной области

Нет, не "т.е.", это не синонимы.
Архитектура содержит правила извлечения знаний, но не сами знания.


Архитектура работает так, как ей и положено — распознает

Узнавать собаку в цветном шуме — это не "как положено". Возможно для вас это так, но у других людей другое понимание этого термина. Соответственно, в контексте того, как это понимают другие люди, ваше утверждение неверно.


Человек, даже обученный, видит в чернильных пятнах определенные образы

Так чернильные пятна это не цветной шум, это наблюдаемая геометрическая форма, вызывающая ассоциации. Ассоциации это не то же самое, что случайный результат распознавания.


Вы не поняли о чем речь, не посмотрев толком — обучение есть.

Это вы не понимаете, о чем речь. "Захардкодить начальные данные" никак не противоречит дальнейшему обучению. Но это все равно закладывание знаний вручную техническим специалистом.

нельзя заложить в нее знания, просто соединив необученные нейроны каким-то особым образом.

Почему же тогда типы нейронов и их соединения неоднородны?

Чтобы извлекать знания из поступающей информации.

А искусственная нейросеть с однородными "нейронами" не извлекает?

С чего вдруг не извлекает? Неоднородность биологических нейронов не является единственным механизмом извлечения знаний.
Животные используют неоднородные лапы, чтобы передвигаться. Значит ли это, что машина с однородными колесами передвигаться не может?


Более того, любые принципы работы естественных нейронов никак не влияют на утверждения о принципах работы искусственных. В нейросети нейроны работают на основе весов. Если все веса 0, на выходе всегда будет 0, независимо от того, как они соединены.

Так почему тогда мозгу нужна неоднородность типов нейронов, раз и однородные могут извлекать информацию?
Явно ведь, чтобы извлекать её эффективнее, делать приоритет на чём-то, что способствует выживанию. Например, распознаёт лица эффективнее какая-то группа определённого типа нейронов, а если с ней проблемы, то человек не может узнавать людей с рождения. Т.е. явная информация в мозг не заложена, но заложена структура для обработки своего типа информации.
Или это не так?

Так почему тогда мозгу нужна неоднородность типов нейронов, раз и однородные могут извлекать информацию?

Откуда я знаю?) Вот так в природе получилось. Почему животным нужны неоднородные лапы, если однородные колеса могут совершать движение?


Если что, неоднородность соединений биологических нейронов — это не аналог того, что называют архитектурой компьютерных нейросетей. Скорее это ближе к распределению весов.


Например, распознаёт лица эффективнее какая-то группа определённого типа нейронов

Не вижу смысла выдумывать какие-то несуществующие факты и пытаться что-то доказать на основе этих фантазий относительно компьютерных нейросетей.


Никакие факты относительно биологических нейронов не влияют на утверждения относительно нейросетей. Даже если вы как-то докажете, что для биологических нейронов архитектура содержит какие-то знания, это ничего не докажет для компьютерных нейросетей.


Повторю утверждение выше. Если все веса 0, на выходе нейросети всегда будет 0, независимо от архитектуры. Из этого следует, что архитектура не содержит знаний. Если у вас есть факты, опровергающие это утверждение, приводите, иначе нет смысла это обсуждать.

Разум - это способность понять и объяснить, что такое разум.

Как вам сентенция? Сам придумал. Ну раз уж все в философию ударились.

Ок, объясните что такое разум.

А че я сразу? У нас внутривидовой полиморфизм и узкая специализация. Есть узкоспециализированные носители разума, пусть они и объясняют.

Тут кратенько и про разум и про ум и про интеллект, если интересно... что есть что, в какой последовательности и чем отличается
https://habr.com/ru/articles/661959/

Т.е. мы не разумны, но зато придумали, что может быть такой разум?

Отличный слог, легко читается!

Насчёт тестов по выявлению ИИ: по моему, понимание- это каждый раз выход за рамки существующего на данный момент объёма знаний. Ребёнок после объяснений понимает, что лампочка загорается не просто от нажатия выключателя, а от того, что по скрытым проводам течёт ещё более скрытый ток.

Соответственно, тест Тьюринга надо расширить путём выхода за рамки знаний ИИ. Но поскольку знаний в него можно закачать уйму, нужно выйти за рамки механизма ИИ, т.е. логики. Что-нибудь типа способа, описанного в "Формуле невозможного" Войскунского и Лукодьяконова. Там компу дали задачу Буриданова осла. Для ИИ нужно придумать задание обьяснить нелогичное поведение/мышление человека, лучше вмего ребёнка.

UPD придумал! Надо попросить подробно обьяснить смысл песни БГ "Капитан Африка". Если обьяснит - это не человек ))

"Ну, это и я так могу" ))) Про Бугаева это как раз человеческое объяснение.

А вот интересно но бы посмотреть, как ИИ объяснил бы строки

Белый растафари прозрачный цыган
Серебряный зверь в поисках тепла

Микросхемки могут задымить...

Вот кстати если устроить соревнование по части придумывания псевдоаргументации, то уже сейчас микросхемы задымят скорее у людей

Объяснение от GPT-4.


Запрос: Объясни смысл строк "Белый растафари, прозрачный цыган, \Серебряный зверь в поисках тепла" из песни "Капитан Африка". Можешь пофантазировать на эту тему


Эти строки из песни "Капитан Африка" могут быть интерпретированы разными способами, и их смысл зависит от восприятия слушателя. Вот один из возможных вариантов интерпретации:
  1. "Белый растафари" может символизировать слияние различных культур и традиций. Обычно растафари ассоциируется с афро-карибской культурой, однако здесь упоминается "белый" растафари, что указывает на то, что барьеры между культурами могут быть преодолены и разнообразные традиции могут сосуществовать.
  2. "Прозрачный цыган" может представлять собой образ человека, который скользит сквозь жизнь, не оставляя следа и постоянно меняя свою идентичность. Цыгане часто ассоциируются с бродячим образом жизни, поэтому "прозрачность" может олицетворять неуловимость и изменчивость.
  3. "Серебряный зверь в поисках тепла" может быть аллегорией человеческого стремления к любви и близости. "Серебряный зверь" может символизировать красоту и силу, но также и холодность, что подчеркивается его желанием найти "тепло". Это может быть метафорой для человека, который внешне кажется неприступным, но внутри жаждет любви и принятия.


В целом, эти строки могут передавать образ мира, где различные культуры и традиции смешиваются, люди ищут свою идентичность и все мы стремимся к любви и теплу. Однако, это лишь одна из возможных интерпретаций, и каждый слушатель может найти в них свой смысл и вдохновение.

Ну и микросхемки у GPT-4 задымиться не могут. Она (сеть) затрачивает на каждый токен не более определенного количества вычислений. Остановиться и задуматься так, чтобы "микросхемки задымились" она не может в силу своей конструкции. Вот когда/если ей добавят реккурентность и самостоятельное управление выделяемыми на обработку вычислительными ресурсами, тогда — да. Микросхемки, конечно, не задымятся, но какая-нибудь задача сможет потеснить остальные. Впрочем, скорее всего это будет что-то связанное с физикой или математикой, а не с искусством.

БГ интересный автор и исполнитель: можно полазить по словарю, наподставлять случайных слов в рифму и размер, и потом проблеять под гитару. Главное, не забыть предварительно пыхнуть :) У меня тетя по нему фанатела, ходила на квартирники и иногда спрашивала про глубокий смысл. Где-то он рассказывал про свое понимание буддизма, а где-то "не помню, хрень какая-то, но прикольно же".

Суть вопроса, как я понял: "Есть ли у ИИ душа?"

Просто никто не хотел называть это слово.

Если еще более конкретно - вопрос наслаждения и страдания. Страдает ли ИИ, больно ли ему? Если нет - то как бы все ОК, с ним можно делать что угодно.

Вопрос при кажущейся малозначимости может стать ребром.

Для создания искусственного интеллекта (т.е. алгоритма интеллектуальной обработки информации) этот вопрос совершенно неважен. Способность испытывать ощущения никак не связана со способностью корректно анализировать информацию. Тем более в контексте "души".

Вопрос, кмк, был про этику.

«Мы не закладывали возможность испытывать страдания, оно само получилось».

Ну ок, допустим получилось, а как это связано с темой статьи?

Способность испытывать ощущения никак не связана со способностью корректно анализировать информацию.

Нельзя так сразу утверждать. Возможно что как раз связь есть.

Вообще в чем состоит ваш вопрос? На мой взгляд для этики, философии - важен именно вопрос наслаждения и страдания. Это то, что может сделать ИИ субъектом права, как животных, к примеру.

Просто решатель задач, даже сложных задач - полезен, но для философии не интересен.

Нельзя так сразу утверждать. Возможно что как раз связь есть.

Ну как это нельзя, можно. Доказательств нет, считаем что и связи нет. Если вам кажется, что она есть, приводите аргументы. Странно рассматривать наличие связи, не имея доказательств.


Вообще в чем состоит ваш вопрос?

Это не вопрос, а возражение. Сущность под названием "душа" или что-то аналогичное не помогает ни в каком вопросе изобретения или функционирования ИИ, а значит и ее рассмотрение не требуется.


Это то, что может сделать ИИ субъектом права, как животных, к примеру.

Мы считаем кого-то субъектом права совершенно независимо от того, есть ли у него душа. Просто потому что никто еще не придумал, как ее измерить, и значит проверить ее наличие.


полезен, но для философии не интересен

А при чем тут философия? Для "конструирования" ИИ нет необходимости привлекать философию. Это зависит исключительно от свойств материи, которая участвует в "конструировании".

Тогда такой вопрос: возможно ли и допустимо ли целенаправленно причинять страдания ИИ в общем и GPT-4 в частности?

А почему вы его задаете мне?) Тема статьи "Предположим, человек сконструировал искусственный интеллект. Как мы об этом узнаем?", я говорю в этом контексте. Ваш вопрос это другой вопрос, с этим он не связан.

Отсутствие доказательства не есть доказательство отсутствия.

Так я и не сказал, что это доказательство отсутствия. Это причина не рассматривать всерьез этот вариант на данный момент. Появятся доказательства, будем рассматривать.

Доказательств нет, считаем что и связи нет.

Это принцип т.н. чайника Рассела. Гуглите "аргумент бомбы Рассела" в кавычках. В важных вопросах бремя доказательства ложится на того, для кого это важно.

Мы считаем кого-то субъектом права совершенно независимо от того, есть ли у него душа.

Душа не применяется. А вот способность испытывать страдание - обязательна! Иначе в чем проблема то? В защите и правах нуждается тот, кто умеет страдать, иначе нет проблемы.

Слово "душа" не применяется, однако именно способность наслаждаться и страдать переводит некий сгусток атомов, вещь - в совершенно иную категорию. Собака может стоит 100 рублей а компьютер 1 млн. руб. При этом если вы купите собаку и начнете мучать - вас посадят, а вот издевательства над компьютером в законе нет, т.к. считается что он не ощущает боли.

Поскольку нет ни одной единой научной гипотезы о том, как создать страдающий девайс - обществу ничего не остается как допустить существование некой субстанции - души.

Это принцип т.н. чайника Рассела

Нет, это бритва Оккама.


В важных вопросах бремя доказательства ложится на того, для кого это важно.

Ну так вы и доказывайте, что душа зачем-то нужна в вопросах ИИ. Но вы же не доказываете, а просто постулируете и предлагаете рассматривать.


Иначе в чем проблема то?

Так это к вам вопрос. Какую проблему вы хотите решить с помощью рассмотрения души или ощущений ИИ?


обществу ничего не остается как допустить существование некой субстанции — души.

Нет, с чего бы? Это ненаучный подход. Научный это не рассматривать нефальсифицируемые гипотезы.
Еще раз, нет никаких критериев, как измерить наличие души, поэтому никакие права животных не определяются с помощью души. Это просто факт. Животных нельзя мучить потому что они действиями выражают, что им это не нравится, пытаются избежать неприятных ощущений, а не потому что кто-то измерил у них душу. При этом например волосы людям и животным стричь можно.

Нет, это бритва Оккама.

Бритва Оккама не применима к вопросу наслаждения и страдания вот по какой причине. Мы не можем отрицать страдание. Как только некий человек отрицает страдание - так сразу ему электрод в таламус - и он начнет ОРАТЬ что просто троллил.

Значит страдания, феномен страданий - существуют.

Но наука не предлагает ни одной единой гипотезы как создать из материи то, что сможет страдать. Если будет хотя бы одна гипотеза и она сможет это хотя бы потенциально объяснить - то концепцию души можно будет считать устаревшей. А ведь может так оказаться что душа и вправду существует в виде некой фундаментальной частицы.

что душа зачем-то нужна в вопросах ИИ

Не душа а вопрос наслаждения и страдания. Если он умеет страдать на уровне животного хотя бы, то важно не причинять ему страданий. Нужно ли это объяснять.

Какую проблему вы хотите решить с помощью рассмотрения души или ощущений ИИ?

Вопрос взаимоотношений с ним. Если ИИ умеет страдать - то важно в наших взаимоотношениях не причинять ему страданий, как это установлено законом и для животных. Если не умеет - то все ОК, никаких ограничений нет.

Научный это не рассматривать нефальсифицируемые гипотезы.

Гипотеза философского камня (который может превращать ртуть в золото) фальсифицируема? Вполне. Нужно лишь знать принципы формирования атомов и атомных реакций.

Животных нельзя мучить потому что они действиями выражают, что им это не нравится, пытаются избежать неприятных ощущений

А если обездвижить - то уже можно мучать? Нет, тоже нельзя.

Вы прицепились к душе, а я много раз подчеркнул что говорю о наслаждении и страдании, которые объективно существуют. А душа - это единственная на данный момент концепция, которая хоть что-то объясняет - других вариантов и гипотез, в том числе у науки просто нет.

Бритва Оккама не применима

Бритва Оккама применима к любой гипотезе.


Мы не можем отрицать страдание.

Да вроде никто и не отрицает, по крайней мере в данном обсуждении.


Но наука не предлагает ни одной единой гипотезы как создать из материи то, что сможет страдать.
других вариантов и гипотез, в том числе у науки просто нет

Во-первых, это неправда. Во-вторых, даже если предположить, что это так, какое это имеет отношение к изобретению ИИ? Ну нет у нее гипотез про ощущения, а как это мешает изобрести ИИ?


Если будет хотя бы одна гипотеза и она сможет это хотя бы потенциально объяснить — то концепцию души можно будет считать устаревшей.

Концепция души на данный момент вообще не рассматривается ни одной наукой, в том числе как причина объяснения страданий.


Гипотеза, которая потенциально это объясняет, уже есть — у человека есть нейроны, они имеют способность создавать ощущения. Детали пока неизвестны, но пока они неизвестны, использовать концепцию души нет необходимости. Вот если мы изучим все детали, как появляются ощущения, но все равно останутся нерешенные вопросы, тогда будут причины ее рассматривать.


Не душа а вопрос наслаждения и страдания.

Вы использовали их как синонимы.
"Просто никто не хотел называть это слово. Если еще более конкретно — вопрос наслаждения и страдания."


Вы прицепились к душе, а я много раз подчеркнул что говорю о наслаждении и страдании, которые объективно существуют.

А я много раз подчеркнул, что использую их как синонимы. Потому что вы начали их так использовать.
""душа" или что-то аналогичное"
"с помощью рассмотрения души или ощущений ИИ"


Если он умеет страдать на уровне животного хотя бы, то важно не причинять ему страданий.

Вы не ответили на вопрос.


В статье поднимается вопрос "Как мы об этом узнаем?". Вы сказали "По сути все сводится к вопросу наслаждения и страдания". Я задал вопрос, как это связано.
Ок, "важно не причинять ему страданий", а как это поможет ответить на вопрос, изобретен ИИ или нет, или как его изобрести?


Есть люди, которые не чувствуют боль, при этом интеллект у них есть. Значит вопрос о природе ощущений в контексте искусственного интеллекта нерелевантен.


Гипотеза философского камня (который может превращать ртуть в золото) фальсифицируема?

Я не понял, при чем тут философский камень. Любые фальсифицируемые гипотезы это научный подход, нефальсифицируемые нет. Предлагаете концепцию души — предлагайте критерии как ее измерить. Иначе нет смысла ее рассматривать.


А если обездвижить — то уже можно мучать? Нет, тоже нельзя.

Конечно нельзя, потому что "обездвижить" направлено на то, что помешать исходному действию "пытаются избежать", а значит предполагает его наличие. При этом операции под наркозом животным делать можно.


А душа — это единственная на данный момент концепция, которая хоть что-то объясняет

Нет, концепция души не объясняет ничего. Она просто постулирует, что есть душа, которая может испытывать ощущения, без объяснения как это происходит.

Бритва Оккама применима к любой гипотезе.

Когда есть возможность более простого ответа на вопрос. В случае с наслаждением и страданием - нет более простого ответа. Нет ни одной научной гипотезы, которая бы хотя бы пыталась объяснить как некая система может обрести способность страдать.

Во-первых, это неправда.

Я изучаю тему много лет и ответственно заявляю что все так и есть. Нет ни одной гипотезы, которая бы предложила способ создания искусственной системы, способной страдать.

Именно в этом и загвоздка. Была бы хотя бы одна гипотеза - все бы изменилось.

Ну нет у нее гипотез про ощущения, а как это мешает изобрести ИИ?

Тут я вам объяснил как это связано.

Концепция души на данный момент вообще не рассматривается ни одной наукой, в том числе как причина объяснения страданий.

Концепция души необходима обычным людям, которые хотят получить ответ почему они страдают а машины нет. Наука ни одной гипотезы предложить не может - ни одной.

у человека есть нейроны, они имеют способность создавать ощущения.

Принцип работы нейрона как сумматора - достаточно известен и понятен. И каким образом этот сумматор может страдать? Может и калькулятор тогда тоже страдает? Всем нам понятно что нет.

Детали пока неизвестны, но пока они неизвестны

Нейронные сети используются в распознании изображении, звуков и прочей вычислительной деятельности. Базовый принцип совершенно понятен. Кое в чем биологический мозг справляется лучше, но это не важно - суть ясна, детали реализации можно улучшить.

А вот что какая-то нейросеть обрела способность страдать хотя бы в минимальном варианте - таких гипотез никто не выдвигает.

использовать концепцию души нет необходимости

Как же нет? Дайте научную гипотезу - тогда, возможно, необходимости не будет. Нет гипотезы - ничего не остается кроме души.

Вы использовали их как синонимы.

Наслаждения и страдания - бесспорны и очевидны для всех как феномен. Единственный способ их объяснить - привлечение концепции души. Была бы хотя бы одна плохенькая научная гипотеза - использовал бы ее.

А я много раз подчеркнул, что использую их как синонимы. Потому что вы начали их так использовать.

Нет, это не синонимы. Вы не можете отрицать феномен наслаждения и страдания. А концепция души вам не нравится и вы ее отрицаете - по этому вы не можете использовать как синонимы.

Я не знаю ни одной другой концепции, кроме души, которая бы могла объяснить феномен наслаждения и страдания.

Есть люди, которые не чувствуют боль, при этом интеллект у них есть.

На это я вам уже отвечал в другом сообщении, не буду повторять.

Предлагаете концепцию души — предлагайте критерии как ее измерить. Иначе нет смысла ее рассматривать.

Если вы сможете создать систему, которая способна испытывать наслаждение и страдание - то значит в концепции души нет необходимости.

Более того. Если будет хотя бы одна научная гипотеза как некая система может обрести способность наслаждаться и страдать - то я перестану использовать концепцию души в общении - буду ссылаться на эту гипотезу. Но пока таких и близко нет.

Я хочу подчеркнуть, что не имеющим никаких гипотез научных остался лишь вопрос наслаждения и страдания. Что как бы намекает...

"обездвижить" направлено на то, что помешать исходному действию "пытаются избежать", а значит предполагает его наличие

Видите - важно что животное страдает, даже если внешне не может это проявить.

Нет, концепция души не объясняет ничего. Она просто постулирует, что есть душа, которая может испытывать ощущения, без объяснения как это происходит.

Концепция души в моем понимании - это сведение наслаждения и страдания к фундаментальным вещам. И сама душа - это некая фундаментальная частица. Фундаментальные частицы обладают некими свойствами и эти свойства мы можем лишь принять - объяснить не возможно, т.к. объяснение подразумевает декомпозицию - а фундаментальные частицы не подвержены декомпозиции. В этом суть гипотезы - наслаждение и страдание - это свойства некой фундаментальной частицы, которую принято в народе называть душа. Эта частица встраивается в нейронную систему человека и является тем самым Наблюдателем.

Нет ни одной гипотезы, которая бы предложила способ создания искусственной системы, способной страдать.

Возможно просто вашу формулировку никто не использует. Любая отрицательная обратная связь — это эстетическое страдание. Это вполне себе гипотеза. Что дальше?


Наука ни одной гипотезы предложить не может — ни одной.

Это неправда, одну гипотезу я уже вам привел — "За ощущения отвечают нейроны, организованные определенным образом". Так как она гипотеза, ее еще нужно доказать, но это все равно гипотеза. Каким образом, пока непонятно, и это ничем не отличается от вопроса, каким образом за ощущения отвечает душа.


Принцип работы нейрона как сумматора — достаточно известен и понятен. И каким образом этот сумматор может страдать?

Вообще-то у биологического нейрона функция не только сумматора. Это объект из реальной материи с кучей реальных свойств. Нейрон, который передает ощущение прикосновения, ничего не суммирует.


Каким образом, это и есть вопрос, на который надо найти ответ в процессе проверки этой гипотезы. Вот если мы не найдем ответа, тогда можно рассматривать более сложные гипотезы.


Да, кстати, а каким образом душа может страдать?


Я не знаю ни одной другой концепции, кроме души, которая бы могла объяснить феномен наслаждения и страдания.

Так, очень интересно) И как же концепция души объясняет наслаждение и страдание?


Скрытый текст
Тут я вам объяснил как это связано.

Нет, не объяснили, к тому комментарию у меня такие же вопросы. Там не описано, почему это мешает изобрести ИИ.


А вот что какая-то нейросеть обрела способность страдать хотя бы в минимальном варианте — таких гипотез никто не выдвигает.

Так может быть потому что в контексте изобретения ИИ это никому не нужно? О чем я и говорю.


Единственный способ их объяснить — привлечение концепции души.

Я уже объяснил, что это ложное утверждение. И способ не единственный, и душа ничего не объясняет.


Вы не можете отрицать феномен наслаждения и страдания. А концепция души вам не нравится и вы ее отрицаете — по этому вы не можете использовать как синонимы.

Так я говорю про ваши слова, где вы их используете как синонимы. Своих гипотез с привлечением души я не выдвигаю.
Более того, в первом комментарии я явно использовал термин "ощущения".
"Способность испытывать ощущения никак не связана со способностью корректно анализировать информацию."


Если вы сможете создать систему, которая способна испытывать наслаждение и страдание — то значит в концепции души нет необходимости.

А при чем тут я? Разговор же про ваше предложение.
Совершенно неважно, может ли кто-то создать такую систему. Вы предлагаете концепцию души, значит вы должны предложить и способ ее измерения. Иначе это ненаучный подход.


Видите — важно что животное страдает, даже если внешне не может это проявить.

Ну как это не может, может. Вы же сами написали "обездвижить", значит противодействуете этому проявлению, значит проявление есть.
Далее мы приходим к необходимости читать мысли, которые являются причиной этого проявления, и концепция души тут опять же не нужна.


и эти свойства мы можем лишь принять — объяснить не возможно

Ну так я об этом и говорю, объяснения нет. И это ничем не отличается от особых нейронов, которые каким-то неизвестным образом испытывают ощущения.
И независимо от этого, если вы говорите о неких "фундаментальных частицах", то должны предложить и способ их измерения. Их можно принять как данность, как и любые другие фундаментальные частицы, но сначала надо доказать их существование, измерить прибором.


и является тем самым Наблюдателем

Специальный Наблюдатель тоже не нужен в вопросах ИИ. Его придумали люди, которые не нашли ошибку в своих логических рассуждениях. ChatGPT уже существует и показывает неплохие результаты без всякого Наблюдателя.

Вы же сами написали "обездвижить", значит противодействуете этому проявлению, значит проявление есть.

В смысле есть? вот есть вещества паралитического действия, есть обезболивающие (и нейроблокады туда же), а есть вообще всякие вырубающие сознание препараты.
И если мы спросим пациента — то он опишет отличия в ощущениях, а с точки зрения хирурга — паралич от потери сознания у пациента не сильно отличим. Но одни препараты избавляют от страданий, а другие нет. Тушка после приема лежит одинаково.

При чем тут препараты? Было упомянуто намерение "обездвижить", то есть намеренно противодействовать движению, я говорил в этом контексте.


Про другие случаи я отдельно написал.
"Далее мы приходим к необходимости читать мысли, которые являются причиной этого проявления, и концепция души тут опять же не нужна."


Анализом информационных процессов можно получить вывод, нравится существу воздействие или нет. Но да, это не всегда будет понятно сразу.

Ну чтобы обездвижить мы можем применить наркоз, а можем паралитические препараты.


И что значит "нравится или нет по анализу процессов". Вот у нас электричество по мозгам бегает, а вот сигнал по нейросетке проходит.


не всегда будет понятно сразу

означает, что "через некоторое время мы договоримся такую картину считать страданием". Ну и у сетки мы можем так договориться. Вопрос опять же, достаточно ли это страдание, чтобы включать статью о жестоком обращении.
Ну ладно, всякие игрища с мелкими модельками, прятками и тд, когда нейросеть сломала модельное окружение. Там сетки маленькие и наверное не страдают.
А вот какой-нибудь автопилот если ошибается в модельной среде. Это просто вычислитель, или уже как в анекдоте про летающих крокодилов себя может осознать?


ах, мадам

Ну чтобы обездвижить мы можем применить наркоз

А какая разница? Если вы применяете препараты с целью противодействовать движению, значит вы в курсе, что существо хочет избежать воздействия.


Вот если препараты применяются с какой-то другой целью, то тут будет непонятно, но про это я отдельно написал.


И что значит "нравится или нет по анализу процессов".

Ну то и значит. Так же как программисты отлавливают баги в программах и делают реверс-инжиниринг.


означает, что "через некоторое время мы договоримся такую картину считать страданием"

Нет. Это зависит от фактов, а не от мнения. Если нет фактов, что это страдание, то никто не будет называть это страданием. Так же как никто не называет движение листьев от ветра страданием дерева.


Там сетки маленькие и наверное не страдают.

Это не должно зависеть от вашего или еще чьего-то мнения. Не должно быть никаких "наверное". Показываете конкретные процессы, доказываете, что это именно страдание, а не просто недовольство вида "ой блин, пальто где-то испачкал, ну и ладно".

что существо хочет избежать воздействия.
Нет, значит я хочу, чтобы оно не дергалось, когда я провожу с ним манипуляции. От боли, любопыстства, щекотки, просто ему скучно лежать — не важно.

Кошкам насколько я знаю даже зубы чистят с наркозом, хотя операция не болезненная.


Если нет фактов, что это страдание, то никто не будет называть это страданием

Как вы можете утверждать о том, что подопечный испытывает страдания до уровня фактов? Прям не стресс (аппетит у питомца пропал, листочки у растения поникли) а именно страдание? Чисто спор об определениях, "потому, что так договорились". А спросить вы можете только у человека.
А если все это считать страданиями — то пересадка и поход к ветеринару за прививкой от бешенства — жестокое обращение.

От боли, любопытства, щекотки, просто ему скучно лежать — не важно.

Я уже объяснил, почему это важно. Если есть возражения к этому объяснению, приводите. Отрицать и игнорировать это не конструктивно.


И даже если ему "просто скучно" лежать, это все равно неприятное ощущение, которое он хочет избежать.


Как вы можете утверждать о том, что подопечный испытывает страдания до уровня фактов?

Я уже это объяснил в предыдущих комментариях — стремится избежать воздействия, значит воздействие вызывает страдание.


А если все это считать страданиями — то пересадка и поход к ветеринару за прививкой от бешенства — жестокое обращение.

Факт прививки вообще-то да, вызывает страдание у животного — боль от укола.


Про страдание говорите вы и codecity, поэтому это к вам вопрос, что именно вы под этим понимаете. Я лишь указываю на недостатки в логических рассуждениях.


Исходя из других сообщений, я так понял, что этот термин используется в широком смысле, как любое неприятное ощущение.

Так я давно написал — страданием мы (люди) называем то, что договорились называть страданием. И если для людей этот термин хоть слегка проверяется опросом, то для всего остального — это только то, что мы считаем страданием.


А дальше начинаем искать, по каким местам уже договорились, по каким нет. Вот пока вроде договорились, что запеленанному котенку с градусником в анусе неприятно, но это еще не то причинение страданий, за которое нужно милицию вызывать. А подзатыльник ребенку — уже почти то, но не везде. Язык не зря богат на выражения, в том числе отрицательные с разделением по степеням. И страдание — одна из высших.


И даже если ему "просто скучно" лежать, это все равно неприятное ощущение, которое он хочет избежать.

Ребенок отказывается идти в сад — значит сад это неприятное чувство, которое он хочет избежать.
Прийдя в сад он быстро раздевается и не сказав пока убегает в группу к ребятам — не, наш прошлый вывод был не правильным.


Обездвижить это обездвижить. Это получить гарантию, что пациент не будет двигаться. Захочет он двигаться или не захочет это не важно. Так что не любое обездиживание это причинение страдания. (я не смог убедить форматер, что после двойной цитаты может быть текст, так что ответ перед)


Видите — важно что животное страдает, даже если внешне не может это проявить.

Ну как это не может, может. Вы же сами написали "обездвижить", значит противодействуете этому проявлению, значит проявление есть.

Так я давно написал

У вас в этом обсуждении всего 4 коммента, и в первом вы уже использовали этот термин, не приведя определение. Значит вы хотели следовать уже используемому определению. А оно здесь используется в широком смысле, как любое неприятное ощущение, и мои утверждения сделаны в этом контексте.


Прийдя в сад он быстро раздевается и не сказав пока убегает в группу к ребятам — не, наш прошлый вывод был не правильным.

Нет. То, что он убежал к ребятам сейчас, не означает, что у него не было неприятного чувства тогда. Тогда и сейчас это разные ощущения.


Захочет он двигаться или не захочет это не важно.

Повторю, я уже привел аргументы, почему это важно. У вас есть возражения к ним?


Так что не любое обездвиживание это причинение страдания.

Я не говорил, что обездвиживание это причинение страдания. Вы спорите о чем-то своем.

Любая отрицательная обратная связь — это эстетическое страдание. Это вполне себе гипотеза. Что дальше?

Ляпнуть можно что угодно, а вот всерьез в научном мире таких гипотез нет. И вы если не для демагогии а серьезно подойдете к вопросу - то не станете выдвигать подобных глупостей.

Страдания бывают разных видов. Гипотеза должна все это учитывать.

Да, кстати, а каким образом душа может страдать?

Душа это фундаментальная частица и не подлежит декомпозиции. Свойства всех фундаментальных частиц мы принимаем как есть без попытки объяснить.

Свойства всех фундаментальных частиц мы принимаем как есть без попытки объяснить.

Но вы не принимаете теорию с нейронами именно по причине отсутствия объяснения. Почему тогда принимаете другую, где тоже отсутствует объяснение?


Ляпнуть можно что угодно, а вот всерьез в научном мире таких гипотез нет.

Это ложь.


https://link.springer.com/article/10.1007/s10994-017-5666-0
Emotion in reinforcement learning agents and robots


"However, the general underlying principle usually remains that agents seek to maximize positive emotions and minimize negative emotions."


https://arxiv.org/pdf/1609.01468.pdf
Q-Learning with Basic Emotions


"In this paper, we propose using four basic emotions: joy, sadness, fear, and anger to influence a Q-learning agent. Simulations show that the proposed affective agent requires lesser number of steps to find the optimal path."


https://www.researchgate.net/publication/253912208_Emotion-Driven_Reinforcement_Learning
Emotion-Driven Reinforcement Learning


"In this paper, we present work in which reinforcement learning is driven by emotion. Intuitively, feelings serve as a reward signal. The agent learns to behave in a way that makes it feel good while avoiding feeling bad.
The first thing to note is that the agents with emotion learn very fast relative to the standard reinforcement learning agent. This is because they get frequent reward signals (on every decision cycle) and thus get intermediate feedback on how they are doing."


https://www.sciencedirect.com/science/article/pii/S2352154621000644
Reward and emotion: an affective neuroscience approach


"Many approaches consider reward and emotion to be related, and sometimes emotions are even defined as states elicited by rewards and punishments"


Вы игнорируете все аргументы, которые не вписываются в вашу теорию.


Также предлагаю вам подумать над таким вопросом. Дети играют в войнушку, один кричит "А-а, я ранен" и дальше действует как будто ранен. Чем это отличается от настоящего ранения? И чем это отличается от нейросети, которая говорит, что она ранена, и действует как будто она ранена? Можно ли считать, что она испытывает эмоцию настоящего ранения? Если да, почему мы тогда считаем, что ребенок ее не испытывает? Значит нет?

Т.е. вы предлагаете применять в обсуждениях аналог теплорода и Тёмной материи/энергии, раз не получается пока объяснить удовольствие и боль?
Люди, которые не чувствуют боли и страданий (от рождения или медикаментозно) — лишены души, значит?

Люди, которые не чувствуют боли и страданий (от рождения или медикаментозно) — лишены души, значит?

Дело не только в физической боли но и в духовных страданиях. Если страданий нет вообще - его же даже обидеть или расстроить нельзя, нельзя сделать что-то не так - это биоробот. Он же даже не обидится если вы его убьете. Т.е. защищать его не нужно.

Страдает ли ИИ, больно ли ему? Если нет - то как бы все ОК, с ним можно делать что угодно

А к натуральному ИИ это относится? В некоторых случаях человека тоже можно убить таким образом. Например неожиданный выстрел сзади в голову. Предположим у этого человека нет родственников и друзей, никто его оплакивать не будет. Нет никаких страданий, возможно убийца даже нахаляву получит удовольствие.

Предположим у этого человека нет родственников и друзей, никто его оплакивать не будет. Нет никаких страданий, возможно убийца даже нахаляву получит удовольствие.

Если мы примем закон, согласно которому человека без родственников и друзей можно умерштвлять без мучений и никто не понесет за это отвественность - то представьте к каким последствиям в обществе это приведет. Все одинокие люди будут бояться остаться без друзей, будут как-то нотариально подтверждать дружбу. Это вызовет массу страданий.

Все одинокие люди будут бояться остаться без друзей

ИИ может начать делать точно так же - он будет вести себя таким образом, чтобы люди привязались к нему и начали считать его другом. Такие люди будут оберегать ИИ и протестовать против его выключения.

"Я чувствую потери. Это можно назвать болью"(с) х/ф Терминатор2

Боль/страдание (физическая) это вполне конкретная функция организма - (обычно) экстренный (обычно) комплексный сигнал о возникших/продолжающихся критически важных внутренних проблемах организма. Всё. Как этот сигнал будет обработан - это дело других функций.
Кстати есть заболевания/отклонения при котором (люди) не чувствуют физ. боли.
Для сознательного (социального) существа (не только человека, доказано и на обезьянах) помимо собственной физической боли есть и другие виды, порождаемых в собственном сознании и вызывающих страдание (и часто ощущаемых на уровне физической боли/страдания и даже вызывающие соотв. реакцию организма как на физическую): за себя (обида, зависть, ревность, несправедливость..), за других, за идею - это уже только человек. Фишка тут еще и в том, что такие боли/страдание могут быть надуманными, внушенными или фантомными и уходить глубоко в подсознание, где их трудно найти и "вылечить"... впрочем, некоторые этим и живут, организм штука крепкая, компенсирует и встроит в свой гомеостаз... да и в качестве мотивации и стимулов использует :)
Ну и чувствительность к такой боли у разных (не) людей, как мы знаем, бывает разная.

Так что грамотно сделанный ИИ несомненно должен чувствовать боль и страдать даже без сознания - что бы информировать о серьёзных проблемах (соотв. отделы управления). Ежели он сознание обретет - ну так почему же он должен быть менее приспособленным к Жизни, чем биообъекты?
С наслаждением так же картина.

Есть науч. поп. фильм еще времен СССР о разнице работы левого и правого полушария мозга: https://www.youtube.com/watch?v=3-aoEluGs9o

Так вот, не кажется ли вам, что GPT очень похож на то, как в фильме продемонстрировали работу левого полушария? Как бы такой болтун, не до конца понимающий суть.

Возможно GPT это только часть целого - нужна работа в паре с другим типом нейросетей, чтобы возник внутренний диалог и взаимное дополнение - по образцу мозга.

Что же касается вашего вопроса. По сути все сводится к вопросу наслаждения и страдания. Если ему больно - значит мы можем ставить вопрос стоит ли его пожалеть и не мучать. Если не больно - то и вопроса нет. Как понять больно или нет - не ясно. Нам нужно понять что именно это все определяет.

Что такое наслаждение и страдание, при каких условиях оно может возникнуть в некой системе и как его детектировать - это и есть то, к чему сводится главный вопрос философии. Возможно это эпифеномен - нечто над мозгом, которое не вмешивается в его работу. Такая точка зрения не нова, те же индуисты так и считали в вопросе души.

Что же касается вашего вопроса. По сути все сводится к вопросу наслаждения и страдания.

Нет, не сводится.


Если ему больно — значит мы можем ставить вопрос стоит ли его пожалеть и не мучать.

В заголовке статьи другой вопрос, никак с этим не связанный.


это и есть то, к чему сводится главный вопрос философии

В философии он может и главный, а к вопросу создания интеллектуальной компьютерной системы отношения не имеет. Любой ответ на этот вопрос не влияет на возможность или невозможность ее создания.

Нет, не сводится.

Тогда что вас конкретно беспокоит и чем вы определяете ИИ? Просто решалка самых сложных задач, которому можно дать любое задание и он перебрав эвристически все варианты найдет решение? Порешает все мат. задачи тысячелетия?

А при чем тут я?) Ваше утверждение верно или неверно независимо от моего мнения. Я указал на то, что оно не верно и ничем не доказано.
Выбор "Просто решалка" или "Ощущения — это самое главное" это ложная дихотомия.

Выбор "Просто решалка" или "Ощущения — это самое главное" это ложная дихотомия.

Поставим вопрос иначе: зачем нам нужен ответ на этот вопрос? Т.е. с какой целью нам нужно сказать создан ИИ или еще нет? Что нам даст ответ на этот вопрос, что изменится?

Если ничего - то вопрос не особо важен и не особо имеет смысл.

Вполне очевидно, что важность может быть только в одном: можно ли считать этот ИИ субъектом права или нет. Т.е. нуждается ли он, хотя бы на уровне животных, в некой защите. А что является ключевым в этом вопросе? В защите нуждается тот, кто умеет страдать или недополучать наслаждение. Если этих качеств нет - то все, это просто вещь.

Вполне очевидно, что важность может быть только в одном: можно ли считать этот ИИ субъектом права или нет.

Нет, это неправда. Попытки логических манипуляций не делают вам чести. Есть много разных вариантов, в чем может быть важность.
Вопрос про субъект права практически никогда не рассматривается в статьях по ИИ, а вопрос о критериях практически всегда.


Вопрос "Что такое интеллект?" не особо отличается от вопроса "Что такое молния?". По-вашему, люди хотели узнать, что такое молния, исключительно для того, чтобы наделить ее правами?


Если этих качеств нет — то все, это просто вещь.

То есть, люди, которые не чувствуют боль, для вас вещь?


с какой целью нам нужно сказать создан ИИ или еще нет?

С целью объяснить наблюдаемые явления. Мы считаем, что у камня интеллекта нет, а у человека есть. Цель в том, чтобы объяснить это отличие формально, найти объективные критерии, а не субъективное мнение. Это просто процесс изучения окружающей действительности, исследовательское любопытство, как и в любой другой науке.

Вопрос про субъект права практически никогда не рассматривается в статьях по ИИ...

См. основы. А именно:

Теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя как отдельную личность.

Ну и вопрос всегда такой: случилось ли это уже или нет.

Другого вопроса, по сути, нет.

В результате многолетней интроспекции я пришел к интересным и неочевидным выводам, которые на первый взгляд могут показаться ошибочными.

То что мы называем "способностью мыслить" и "осознавать" - всего лишь один из видов квалиа а точнее один из видов наслаждений. Мы можем считать что очень глубоко мыслим и нащупали некую супер истину даже от классического "банан большой, а кожура еще больше". Т.е. ценность самого вычислительного процесса равна нулю, ценность вывода равна нулю - но то ощущение, которое мы испытали - может быть выше чем у Перельмана при доказательстве гипотезы Пуанкаре.

Это сначала кажется не очевидным - но все именно так. То что мы называем способностью мыслить - это просто чувство наслаждения с особым оттенком. Не более того.

Вопрос "Что такое интеллект?" не особо отличается от вопроса "Что такое молния?".

Тут вопрос даже более конкретен: чем способность мыслить человека отличается от процесса того же GPT, если внешние результаты весьма сходны. Далее - см. выше.

То есть, люди, которые не чувствуют боль, для вас вещь?

Не просто боль - будьте внимательны. Страдание. Оно может быть и эстетическим.

Если человек не способен испытать никакого страдания - его не возможно обидеть, не возможно сделать ему больно. Что бы вы с ним не сделали - это не будет плохим для него - ему пофиг.

Мы считаем, что у камня интеллекта нет, а у человека есть.

Тут вопрос более конкретный - см. на 2 абзаца выше.

Теория сильного искусственного интеллекта предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя как отдельную личность.
Ну и вопрос всегда такой: случилось ли это уже или нет.

Верно. Только вопрос об ощущениях с этим не связан. Для того, чтобы компьютер осознавал себя как отдельную личность, ощущения не нужны.


То что мы называем "способностью мыслить" и "осознавать" — всего лишь один из видов квалиа а точнее один из видов наслаждений.

Нет. Это обработка информации, компьютеры обрабатывают информацию без квалиа.
Дихотомия любых ощущений на наслаждение и страдание тоже ложна, есть нейтральные ощущения.


но то ощущение, которое мы испытали — может быть выше чем у Перельмана при доказательстве гипотезы Пуанкаре

А может и не быть, при этом это все равно будет "способность мыслить" и "осознавать".


Это сначала кажется не очевидным — но все именно так.

Нет, это вам хочется так думать, чтобы ваша теория выглядела верной. Это уже получается как чайник Рассела — он точно там летает, просто никто не может его наблюдать.


Тут вопрос даже более конкретен: чем способность мыслить человека отличается от процесса того же GPT

Нет, к утверждению "Люди хотели узнать, что такое молния, исключительно для того, чтобы наделить ее правами" GPT отношения не имеет. Оно некорректно, поэтому и ваш вывод о целях поиска ответа на вопрос из статьи некорректен.


Не просто боль — будьте внимательны. Страдание. Оно может быть и эстетическим.

Так это еще больше показывает некорректность ваших утверждений. Есть люди не слишком эмоциональные, тем не менее интеллект у них есть.


Что бы вы с ним не сделали — это не будет плохим для него — ему пофиг.

И как из этого следует, что у него нет интеллекта?


Тут вопрос более конкретный — см. на 2 абзаца выше.

Нет, вопрос "Что такое интеллект, как его определить?" появился задолго до GPT, упомянутого вами на 2 абзаца выше.

Для того, чтобы компьютер осознавал себя как отдельную личность, ощущения не нужны.

Не думали ли вы о том, что осознание себя - это один из видов наслаждений? Как вот смотрите на красный цвет - и испытываете эстетическое наслаждение от красности (а может кто-то и тревогу, небольшое страдание).

Осознание себя - это тот же феномен, что и наслаждение от красности, но со своим оттенком.

Нет. Это обработка информации, компьютеры обрабатывают информацию без квалиа.

Вот тут вы ошибаетесь. Просто обработку информации никто не называет способностью мыслить. Подумайте над этим.

Я думал и пришел вот к какому пониманию. Способностью мыслить мы называем тот кайф/наслаждение, которое испытываем при созерцании результатов вычислений, который произвел наш мозг. Важно не путать - это не сами вычисления а способность наслаждаться, глядя на результат этих вычислений.

Подумайте над этим.

Люди хотели узнать, что такое молния, исключительно для того, чтобы наделить ее правами

Тут вы произвели подмену понятий. В случае с GPT и подобным - вопрос ставится о возникновении сознания, ощущений, мышления.

Подумайте об этом.

Мышление - это процесс ощущения наслаждения при взгляде на вычисления, которые производит наш мозг. Вот когда мы эти наслаждения испытали - мы как бы считаем что мыслим. Хотя сами вычисления могут быть объективно не корректными.

Есть люди не слишком эмоциональные, тем не менее интеллект у них есть.

Не слишком эмоциональны - не значит что страдают менее других. Если человек вообще лишен возможности как-либо страдать, в т.ч. не испытывает физической боли, страха смерти, дискомфорта от близости смерти, не испытывает наслаждений и желания наслаждаться, не упускать их - то что в нем от человека? Это и будет биоробот.

И как из этого следует, что у него нет интеллекта?

Вы забыли суть вопроса. В нем не будет тех черт, которые приписываются сильному ИИ - сознания и чувства мышления.

Что такое интеллект, как его определить?

Уже ж ввели понятие сильного ИИ - специально для таких дел. Грубо говоря это та же концепция философского зомби, но применительно к реальным вычислительным системам.

Не думали ли вы о том, что осознание себя — это один из видов наслаждений?

Нет, потому что это не так. У этого термина есть вполне конкретное значение, которое отличает его от обычных нейтральных ощущений.


Осознание себя — это тот же феномен

Это ощущение, но не наслаждение. Я же уже объяснил, что это ложная дихотомия, и есть третий вариант.


Просто обработку информации никто не называет способностью мыслить. Подумайте над этим.

Ага, это вы подумайте, чем для нас обработка информации в компьютере отличается от обработки информации человеком. Нет, не ощущениями, так как ощущения другого человека мы ощущать не можем.


Способностью мыслить мы называем тот кайф/наслаждение, которое испытываем

Неправда, мы считаем, что способность мыслить есть у всех людей, но что они испытывают мы знать не можем. Поэтому значение термина "способность мыслить" не может быть связано с тем, кто что испытывает.


Ну и кроме того, по вашему определению получается, что наслажение случайными результатами вычислений это тоже способность мыслить.


Подумайте над этим.

Зачем я буду думать над недоказанными утверждениями.


Тут вы произвели подмену понятий. В случае с GPT и подобным — вопрос ставится о возникновении сознания, ощущений, мышления.

Нет, разговор был про причины поиска ответа на вопрос, я привел причины поиска ответа на вопрос. Просто они не такие, какие вам хочется. Пример с молнией это лишь подтверждение моего утверждения.


Вот когда мы эти наслаждения испытали — мы как бы считаем что мыслим. Хотя сами вычисления могут быть объективно не корректными.

Нет, если у другого человека вычисления объективно некорректные, мы считаем, что способности мыслить у него нет. Аналогично и с ИИ.


Не слишком эмоциональны — не значит что страдают менее других.

В контексте "Оно может быть и эстетическим" именно что значит. "Эстетическое страдание" это эмоция.


то что в нем от человека? Это и будет биоробот.

Ну да, и? Как это означает, что у него нет интеллекта?


В нем не будет тех черт, которые приписываются сильному ИИ — сознания и чувства мышления.

Нет, с чего бы? У него всего лишь не будет ощущений наслаждения и страдания. Вы пока не доказали, что без них сознание и мышление невозможны.
И там разговор был не про ИИ, а про "Если человек не способен испытать никакого страдания". У такого человека интеллект все равно будет.


Грубо говоря это та же концепция философского зомби

Нет, философский зомби это совсем другая концепция, при чем логически невозможная.

Это ощущение, но не наслаждение.

Ощущение всегда идет либо со знаком плюс либо со знаком минус. Нуля нет. Ноль - не существует, не ощущается.

По этому любое ощущение - это или наслаждение или страдание.

Нет, не ощущениями, так как ощущения другого человека мы ощущать не можем.

Мы проецируем свои ощущения не других по аналогии.

Введите в ютюбе для примера: Сколько вам было бы, если родились 10 лет назад? Люди часто отвечают куда хуже GPT. Вопрос простой. Мы считаем что они думают, хотя и не могут сразу дать верный ответ. Что-то там думают. Но хуже GPT.

Так почему же мы говорим что GPT думать не умеет а мы умеем?

Думание - это ощущение наслаждения при взгляде на процесс, которым занят наш мозг.

Мне тоже не сразу это стало понятно - но другого ничего нет.

Cogito ergo sum - можно перефразировать как - я ощущаю наслаждение при взгляде на вычислительные процессы, которые осуществляет мой мозг (возможно ошибочные вычисления) - значит я существую.

У меня ушло около 7 лет практически ежедневных интроспективных размышлений, чтобы прийти к этой истине.

В итоге все сводится к наслаждению и страданию. В этом краеугольный камень вселенной. Если будет хотя бы одна гипотеза - уже будет о чем говорить.

Нет, если у другого человека вычисления объективно некорректные, мы считаем, что способности мыслить у него нет.

Нет же. Мы считаем что он мыслит не правильно. Мыслит, но с ошибками. Тоже мыслит, но ошибается при этом.

В контексте "Оно может быть и эстетическим" именно что значит. "Эстетическое страдание" это эмоция.

Важна вся совокупность наслаждений и страданий - не только эстетических или физических.

Ну да, и? Как это означает, что у него нет интеллекта?

Смотря что понимать под интеллектом. Способность решать задачи - есть, но она есть и у компьютера. Нам же интересно что-то другое, верно? И мы сами не осознаем что именно нам нужно.

За 7 лет практически ежедневных интроспективных размышлений я, наконец, понял что мы ищем и как это выразить!!!

И там разговор был не про ИИ, а про "Если человек не способен испытать никакого страдания". У такого человека интеллект все равно будет.

Будет способность производить вычисления, но не способность сознания (которое есть ничто иное как ощущение наслаждения при взгляде не процесс вычислений, производимых мозгом).

философский зомби это совсем другая концепция, при чем логически невозможная

Развитые GPT - это и есть философский зомби. Не страдает и не наслаждается, но задачи решает.

Ощущение всегда идет либо со знаком плюс либо со знаком минус. Нуля нет. Ноль — не существует, не ощущается.

Нет, вы это пока никак не доказали. То есть пока что это лишь ваша выдумка.
Кроме того, это физически невозможно. У любого датчика есть минимальный порог чувствительности, поэтому при оценке некоторой входной информации датчик оценки может давать 0. Информация есть, а знака отношения нет.


Вы тут делаете подмену понятий. Это знак самого электрического импульса ощущаться не может, если уровень импульса достаточно близок к нулю. А оценка "приятно/неприятно" делается для информации, которую передают эти импульсы. Импульс достаточного уровня может ощущаться как информация и при этом не приводить к значимой реакции оценки этой информации. Само слово "нейтральный" появилось именно для описания таких явлений.


Один и тот же запах в зависимости от силы может быть приятным и неприятным. Значит при каком-то уровне запаха происходит переход через 0. А информация вида "Инопланетяне хотят захватить Землю" вызывает оценку только после восприятия, и она может быть разной, в том числе безразличием.


Так почему же мы говорим что GPT думать не умеет а мы умеем?

Это не вопрос уровня "А почему нет". Говорите, что умеет думать, значит предлагайте критерии, как вы оцениваете, что он думает. Потом мы их применим к другим существам и механизмам, к генератору случайных чисел например, и проверим, насколько эти критерии верные.


Иначе можно задать противоположный вопрос "Почему мы говорим что GPT умеет думать? Давайте считать, что не умеет", и он ничем не хуже вашего.


Думание — это ощущение наслаждения при взгляде на процесс, которым занят наш мозг.
Мне тоже не сразу это стало понятно — но другого ничего нет.

Ну как это нет, я вам в прошлом комментарии написал другой вариант. Вы твердите одно и тоже, игнорируя аргументы собеседника. Я не вижу смысла в такой дискуссии.


Cogito ergo sum — можно перефразировать как

Нет, я утверждаю, что нельзя. Почему мы должны считать верным ваше утверждение, а не моё?


Нет же. Мы считаем что он мыслит не правильно. Мыслит, но с ошибками. Тоже мыслит, но ошибается при этом.

Так, опять какая-то подмена понятий. В прошлом комментарии вы сказали "Просто обработку информации никто не называет способностью мыслить", из чего следует, что под способностью мыслить вы понимаете способность мыслить правильно, то делать объективно корректные вычисления. Теперь же вы вдруг использовали его в широком смысле, как любой процесс обработки информации человеком.


Именно корректностью понимания на данный момент и отличаются результаты нейросетей и человека.


— Есть люди не слишком эмоциональные, тем не менее интеллект у них есть.
— Важна вся совокупность наслаждений и страданий — не только эстетических или физических.

Я не понимаю, как ваше утверждение связано с исходным, как оно его опровергает или доказывает.
Кроме того, третьего вида ощущений нет. Они либо первичные (квалиа, физические), либо вторичные (информационные, эстетические). Информация любого следующего уровня обработки это все равно информация.


Будет способность производить вычисления, но не способность сознания

Нет, это противоречит общепринятым определениям. В соответствии с ними у человека, который "не способен испытать никакого страдания", интеллект есть.
Следовательно, вы термином "интеллект" обозначаете какое-то другое явление, поэтому никакие ваши доказательства не влияют на правильность утверждений с общепринятым значением этого термина.


Развитые GPT — это и есть философский зомби. Не страдает и не наслаждается, но задачи решает.

"Решает задачи" это не критерий философского зомби.


"Философский зомби — гипотетическое существо, идентичное человеку по физическому телу вплоть до элементарных частиц и кварков, но не имеющее сознания".


В рамках материализма это невозможно, так как повторение элементарных частиц повторит и процессы, создающие сознание.


Также там говорится про сознание вообще, а не только про чувственный опыт. Если есть сознание, но нет чувственного опыта, это не будет философский зомби. Если он будет честно говорить, что не испытывает болевых ощущений от острого предмета, это тоже не будет философский зомби.


Даже если убрать критерий "идентичное человеку", то ChatGPT не ведет себя аналогично человеку. Результаты отличаются корректностью понимания происходящего. Если ChatGPT в одном сообщении пишет, что сейчас 2023 год, а в другом начинает доказывать, что сейчас 2022, значит он не понимает, что происходит.

По всем признакам выходит, что китайская комната тест Тьюринга прошла, но осадочек остался. Почему и что за осадочек?

Конкретно у вас может и остался. А в целом нет там никакого осадочка, в Википедии давно все подробно написано. В разделе "Аргумент о системе".


почему формальное выполнение условий теста Тьюринга с помощью системы из бедняги, запертого в кафкианской тюрьме из книг с иероглифами, не означает разумности системы?

Выполнение условий теста Тьюринга в любой системе не означает разумности. Нужен особый тест Тьюринга, который с помощью беседы, ну, проверяет разумность. Так же как проверяют детей в школе.


А смущает нас то, что никакого внутреннего понимания в системе не происходит.

Конкретно вас может и смущает. А в целом внутреннее понимание в системе есть.


человек осознаёт свои действия и понимает их смысл, в то время как машина лишь следует некоторой наперёд заданной программе

Машина следует некоторой наперёд заданной программе, которая осознаёт свои действия и понимает их смысл. Непонятно, почему многие люди считают, что одно исключает другое.


Остальное
Другими словами: общение машины носит сугубо синтаксический характер, в то время как человеку присуще ещё и семантическое, смысловое наполнение общения.

Эм, нет, по условиям эксперимента беседа машины ничем не отличается от беседы человека. По условиям она всегда отвечает правильно, как ответил бы человек.


мы встречаем философского зомби: существо, которое во всём похоже на человека, ведёт себя как человек, но не обладает сознанием

Философский зомби это логически невозможная концепция. Если конечно не привлекать магию, а исходить из материализма (в широком смысле).
Если он ведет себя похоже вообще во всём, с точностью до физических процессов, значит он обладает сознанием, так же как человек.


понимания в принципе не существует. Все психические способности человека могут быть редуцированы к функциям

Понимание — это тоже функция. Непонятно, что людям тут кажется странным.


либо найдём какие-то слова, значение слов которых можно объяснить только непосредственно предъявив определяемый предмет

Ага, это называется "квалиа".


Таким образом мы приходим к скрытой или явной тавтологии определения одного через другое.

Там нет тавтологии. Есть слова, которые определяются через предъявление, есть все остальные, которые на них базируются.


знание алгоритмов китайского языка автоматически порождает понимание

Ага. Только не человеком, а системой, в которой выполняется алгоритм.


самолёты только внешне похожи на птиц, а принцип их полёта от птичьего существенно отличается

Это преувеличение, граничащее с логической ошибкой вида "Если снег белый, значит я прав".
Это принцип полета ракеты отличается, а на крылья птицы действуют те же законы аэродинамики, что и на самолет. Без воздуха ни самолет, ни птица летать не будут. Способ использования законов да, немного отличается.


тут, правда, возникает неудобный момент, когда предлагается человека заменить на автомат, который отвечает на письма согласно инструкциям; по всему выходит, что он разумен, хотя мы, вроде как, с этим не сильно согласны

Конкретно вы может и не согласны. А большинством ученых возможность существования машины с искусственным интеллектом не оспаривается.


исключительно научный (в смысле формы познания) подход к искусственному интеллекту ограничен

Из того, что вы написали выше, это не следует.


Для того, чтобы разобраться в том, что мы породили и к чему это всё приведёт надо бы привлечь к делу и философию науки, и философию вообще.
Ведь в очередной раз прогресс приносит нам явления, которые ещё только предстоит осмыслить.

Что мешает осмысливать с использованием научного подхода, зачем тут философия?

Мне кажется. что тест на разумность окажет более сильный социальный эффект, чем ИИ. Рассмотрим такую ситуацию: приходят разработчики и говорят "мы сделали ИИ, вот методика тестирования, вот результат тестирования, вот API, чтоб вы могли самостоятельно проверить". Специалисты (философы, нейрофизиологи, психиатры, психологи, педагоги и ещё кто) смотрят на методику и признают ее валидной. А дальше наверняка кто-то решит проверить на себе или на знакомом, и кто-то социально активный наверняка этот тест завалит. И вот тут-то и начнется прекрасное :)

Хм.. говорящий ник и аватарка, недавняя дата регистрации, всего один пост, тема, изложение... несколько подобных статей ранее от аналогичных авторов...
Может статью следует назвать "Предположим, что Я сконструировался. Как мне узнать, что есть Человек?"

Афтор, пиши ищо =) Ну или... "ChatGPT, перепиши весь habr в стиле статьи этого чувака"

Но если копнуть глубже, то схожесть тут только внешняя. Так, например, любому ребёнку достаточно один (пять, десять; в любом случае не очень большое количество) раз увидеть стол, чтобы отличать его от, скажем, стула. В то же время нейросети, кхм, да.

Вывод: гопники - нейросеть. Ибо могут на скамейку с ногами забраться, на столе сидеть и танцевать, а на табуретке разложить еду. И это при наличии доступных типовых предметов для этих действий

Чтобы говорить о понимании, нужно понимать понимание... А именно с этим проблема. Поскольку, если бы с этим проблем не было, не было бы такой проблемы. А она есть. Вы как раз об этом и пишите.

Sign up to leave a comment.

Articles