Как стать автором
Обновить

Людям нравится заниматься вопросами, в которых они не могут быть полностью компетентны

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров17K
Всего голосов 47: ↑32 и ↓15+25
Комментарии150

Комментарии 150

Не совсем по теме вашей статьи вброс, но все же напишу, ибо держать в себе уже не могу :) Последнее время на хабре появилось очень много статей, на тему нашего совместного с ИИ будущего. От крайне алармичных до очень оптимистичных. Авторы последних довольно часто апеллируют к аргументу "это ведь просто языковая модель", "она не обладает разумом", это "китайская комната". Очень интересно, а чем сами авторы статьи отличаются от китайской комнаты? Для меня, как для читателя с другого конца провода - ничем.

Мой месседж здесь, что очень глупо и опрометчиво считать что человек со своей нервной системой чем то принципиально отличается от языковой модели. Количественно - да, качественно - нет. Нейронов больше на порядки, да и сами нейроны ведут себя очень сложно, на каждый потребуется отдельная нейросеть для симуляции. Но, суть та же, мы биороботы, и никакого "сознания", "свободы воли", "разума" в его магическом смысле у нас нет.

Подгорает у меня именно от попыток авторов этих статей провести жесткую границу, между тем, где начинается "разумное существо", а где "языковая модель". Это путь в никуда, можно перечислять живых существ, упорядочив их по сложности их нервной системы. Люди, обезьяны, собаки, насекомые, всякие там черви простые. Где существо начинает быть разумным, в какой момент? Также и с языковой моделью, причин считать что нам, людям, принадлежит какой-то уникальный перк - разум, глупо

А у меня подгорает от попыток других авторов ставить знак равенства между алгоритмом и до конца неизученным (непонятым) явлением. Если свести разум к восприятию среды существования, накоплению опыта и изменению среды существования, то да - черви разумны. Если же посмотреть, кто из живых существ планеты Земля осознанно вышел за пределы собственной атмосферы, то да - людям принадлежит какой-то уникальный перк. В рамках этой планеты, как минимум.

Считают ли себя особенными и уникальными летающие рыбы?

Летающих рыб не существует. Есть планирующие. Если у них есть способность отличать себя от окружающего мира, и способность находить в окружающем мире себе подобных, то да - они считают себя особенными. Считают ли они себя уникальными? Можно предположить, что - да, можно, что - нет, можно, что некоторые считают, что - да, а некоторые, что - нет. Боюсь, это будет сложно проверить.

НЛО прилетело и опубликовало эту надпись здесь

Зачем, если можно просто эволюционировать? :)

Не понял к чему этот риторический вопрос. Вы тоже не сможете постоить самолет. Означает ли это что вы неразумны?

НЛО прилетело и опубликовало эту надпись здесь

После заявления, что вы можете построить самолет, ChatGPT мне кажется более разумным, чем вы. Удачи вам в создании языка для кооперации с товарищами, открытия таких концепций, как "воздух" и "аэродинамика", добычи нужных ископаемых ресурсов (для начала вам нужно будет понять, каких именно), далее изобретении двигателя внутреннего сгорания, создании завода с нужным оборудованием и т.д. Сколько миллионов лет ушло на все это у "человечества"? Около 3-х?

Второй момент, в котором вы заблуждаетесь, заключается в том, что вы, почему-то, считаете, что "разум" существа, способного на создание палки-копалки (на что способны некоторые приматы), принципиально, качественно или структурно чем-то отличается от "разума" существа, способного создать адронный коллайдер. Правда в том, что различия только количественные. Приматы, например, не могут оперировать в голове одновременно с более чем тремя взаимодействующими друг с другом сущностями - камень, используемый как наковальня, орех, который нужно расколоть, и второй камень, которым нужно бить по ореху на "наковальне". А вот у людей этот показатель намного больше, что позволяет нам держать в голове более сложные концепции.

Имея размеры мозга (количество нейронов), как у нас, а также физиологическое строение гортани, позволяющее извлекать больший спектр звуков, и строение рук, которое позволяет заниматься вещами в которых нужна развитая мелкая моторика - любой живой организм сможет породить высокоразвитую цивилизацию благодаря накапливающимся тысячами лет знаниям.

После заявления, что вы можете построить самолет, ChatGPT мне кажется более разумным, чем вы.

Братья Райт построили самолёт из говна и палок. Говна и палок вокруг достаточно. Самолёт можно построить в гараже.

 благодаря накапливающимся тысячами лет знаниям

Для этого нужна письменность, как минимум. Кто из "любой живой организм" на этой планете, кроме человека, ещё обладает письменностью? Даже ChatGPT не обладает, пользуется нашей. Человек же обладает, поэтому и я, и вы (при желании), и уж тем более @ednersky(раз он сам об этом заявил) - все мы можем построить самолёт, пользуясь знаниями, накопленными до нас другими разумными существами. Кстати, ChatGPT в этом ряду "разумных существ" отсутствует, т.к. он не добывает знания, а использует уже добытые. И пока что на этой планете других следов письменности, кроме как человеческих, не обнаружено. Так насколько глупо судить об уникальности человеческого перка "разум"? Весь вопрос в том, что мы считаем разумом. Если разум это, например, способность ориентироваться в пространстве, то нет разум человека не уникален. Если разум включает в себя способность передавать свой опыт в письменном виде другим поколениям своего вида, то разум человека уникален.

Даже ChatGPT не обладает, пользуется нашей.

Если под "обладает" вы понимаете "владеет умением", то ChatGPT им как раз обладает, он общается исключительно в письменной форме.


Если разум включает в себя способность передавать свой опыт в письменном виде другим поколениям своего вида, то разум человека уникален.

Выходит если дать инстансам ChatGPT возможность писать друг другу и обмениваться опытом, то они немедленно станут разумными.

Я так и сказал - "пользуется нашей". Это как раз и подразумевает "владеет умением". Вы всё правильно поняли.

Как только один ChatGPT родит другой ChatGPT ваше понимание фразы "передавать свой опыт ... другим поколениям" тоже станет правильным.

Как только один ChatGPT родит другой ChatGPT

В смысле, осилит команду "copy"?

НЛО прилетело и опубликовало эту надпись здесь
Если же посмотреть, кто из живых существ планеты Земля осознанно вышел за пределы собственной атмосферы

Вы строите аргумент об некой уникальности вида лишь на основании преодоления этим видом некоторого природного барьера и расширения экологической ниши. Как насчёт выхода из океана на сушу — это тоже какой-то триумф, делающий мозг сухопутных животных чем-то совершенно несравнимым с мозгом морских обитателей?

Но это всё равно не позволило им начать плавить железо. Наверное для того, чтобы начать плавить железо нужно нечто большее, чем приспособляемость? Возможно, это нечто большее и есть разум.

Т.е. теперь вы основываете свой аргумент уникальности на появлении способности управлять новыми химическими реакциями?

Плавление железа это не химическая реакция, а физический процесс.

Плавят руду, чистое железо же из неё получают восстановлением из окислов, что есть химическая реакция.

Если бы хотел написать про руду, я бы так и написал: "плавят руду". А я написал "плавят железо".

Вы не очень внимательный человек.

А вы увернулись от ответа на мой вопрос. Хорошо, задам его заново, с вашей несомненно важной поправкой. Итак:


Теперь вы основываете свой аргумент уникальности на появлении способности управлять новыми химическими реакциями физическими процессами?

Т.е. до 1961-го года люди не были разумны?

Человек концептуально отличается от языковой модели. Просто потому, что языковая модель это очень небольшая подсистема человека. К примеру, реальные "маугли" не сформировали совместимую с человечеством языковую модель и считаются "дикарями". К сожалению, пока никто не проводил эксперимента по обучению мозга в пробирке на текстах. Может ли он вообще быть поставлен? Вроде как, органеллы мозга выращиваются... Вспоминается рассказ, где всем управляют "пиццы", органелы мозга на подложке, в картридже размером с коробку из под пиццы.

В принципе, сделать еще несколько подсистем не должно быть сложно, особенно если начать обучение модели на эмуляторе физической среды. В дальнейшем, телом модели может стать робот. Фактически, это для нее будет, как для нас ездить на велосипеде или пилотировать истребитель.

Но совершенно не понятно, как дать почувствовать модели боль. Думаю, это самое сильное препятствие к полноценному AGI.

У меня в детстве была машинка, которая не падала со стола и разворачивалась, если утыкалась в стену. Я её разобрал - чистая механика. Но со стороны некоторым могло показаться, что у неё есть какое-то подобие разума.

Боль - это сигнал с высоким уровнем приоритета.

Думаю, что автопилот в Тесле уже в какой-то степени является таким роботом, который вы имели в виду.

Человек концептуально отличается от языковой модели.

Абсолютно верно. К ChatGPT ещё нужно, как минимум, добавить устройства взаимодействия с окружающей средой (для её изменения и получения обратной связи) и целевую функцию (на фига ему вот это всё?). Только после этого можно будет говорить о каком-то разуме (червячьем, рыбьем или человечьем). По-большому счёту агрессивность ИИ к кожаным мешкам зависит от целевой фукнции. Можно и в Теслу заложить цель поиграть с людьми в Кармагеддон.

Автопилот Теслы не имеет языковой модели, его поведение, скорее всего, полностью инстинктивно.

Если боль это приоритет, не завидую я моделям. Зато очень понятно, от чего они такие выдумщики. Люди под пытками примерно так же сочиняют, и со всем соглашаются.

Автопилот Теслы я привёл в качестве "искусственного интеллекта", обладающего "телом". Да, у него "модель разума" отличается от "модели разума" ChatGPT полной инстинктивностью. У ChatGPT "инстинктивность" размытая - в "размышлениях" используется генератор случайных чисел. Похоже, разрабы хотели добавить в приложение немного женственности.

Боль - это сигнал, во-первых. Приоритетный - лишь во-вторых. Тела человеков так устроены, что сигналы с высоким приоритетом ими ощущаются как боль. Истории известны личности, которые могли игнорировать приоритетные сигналы во имя великих целей ("не выдал даже под пытками"), ставя духовное над телесным. Да и всякие шествия с самопобиением или самопротыканием на этой планете достаточно распространенное явление (хотя и из другой оперы).

Болевой порог не константа, у разных живых существ он базово разный изза разного отбора. Полюс внутренняя химия запросто может отключать боль, если есть более приоритетные сигналы. За собаками например, надо глаз да глаз во время игры, тк. они запросто будут игнорировать травмы ради возможности поиграть с мячиком. Что чревато... И это не какие-то отдельные случаи самопобития, это абсолютно рядовой случай.

Описаны люди и вовсе без боли, они постоянно травмировались. Вытеснение боли возможно, иногда дети не замечают сломаной руки, солдаты ранения, опять таки обезболивание психотерапевтическими тезниками. Но механизм довольно древний, и в основном работает стабильно хорошо.

языковая модель это очень небольшая подсистема человека. К примеру, реальные "маугли" не сформировали совместимую с человечеством языковую модель и считаются "дикарями"

Не просто дикарями, они считаются безнадёжно умственно отсталыми, а не просто немыми. Не такая уж и маленькая, эта подсистема. Она полностью вмещает в себя то, что называют "социальной личностью" человека. Отбери у человека способность говорить и размышлять, и останется примат.

Что интересно, если есть хотя бы два ребенка предоставлены сами себе, они образуют язык. Называется язык близнецов.

Видимо, это базовая функция нейрона — создавать язык общения с соседним нейроном.

Не факт. https://en.wikipedia.org/wiki/Cryptophasia говорит, что большая часть — слова из взрослого языка. Немного неологизмов. И мне кажется, что без основы в виде слов взрослых, неологизмов тоже не будет. Не из чего.

Но совершенно не понятно, как дать почувствовать модели боль. Думаю, это самое сильное препятствие к полноценному AGI.

Существует очень редкое генетическое заболевание, когда люди не способны чувствовать боль. Разума их это не лишает.

К сожалению, пока никто не проводил эксперимента по обучению мозга в пробирке на текстах. 

Да даже обычного человека никто еще не пробовал обучать только на текстах, ведь даже у слепоглухонемых людей есть осязание

Но совершенно не понятно, как дать почувствовать модели боль. 

Ну почему же непонятно, надо делать все то же самое что происходило в ходе эволюции, в первую очередь надо делать AI самостоятельным и способным умереть.

Обычных не получится, висцернальную систему никуда не деть.

Способность умирать нужна лишь для отбора. Да и модели умирают, вытесняемые новыми версиями.

надо делать AI самостоятельным и способным умереть.

Почему обучение под это не подходит? Самостоятельно ищет ответ на вопрос человека, если не нашёл — принудительно изменяется, т.е. текущий вариант как бы убивается, не пройдя отбор.

самостоятельный в смысле автономный, те такой чтобы мог существовать даже если все люди исчезнут

Не стоит делать из человеческих чувств что-то мифическое. Либо это можно как-то логически обосновать, либо у нас еще пробелы в данной теме.

Например "боль" - это всего лишь эволюционная защита от разрушения организма. Нам даже необязательно знать, почему разрушение организма это плохо. Допустим в начале эволюционного развития были существа "с болью" и "без боли". Вторые отсеялись и вымерли, т.к. теряли руку, ногу, хвост и умирали от потери крови. А тот, кто чувствовал боль - смог сохранить свой организм, прожить дольше, дать потомство и т.д. и т.п. Поэтому боль - очень банальная функция организма.

По такой же аналогии можно разобрать "эмоциональную боль".

Реализация боли на "ИИ + физическая оболочка" тоже осуществимая - мониторинг и обработка всех частей "тела" или даже каждого милиметра "кожи". (Боль у человека - всего лишь мощный импульс нейрона от точки до мозга). Даже необязательно сразу хардкодить боль андроидам, дайте просто вариативность каждому и эволюция сделает своё дело и оставит только дроидов с "болью".

НЛО прилетело и опубликовало эту надпись здесь
проблема в том, что то, что пока зовут ИИ — всего навсего набор фикс программ + нейросети способные интерполировать

Почему это проблема?


Нейросети кроме интерполяции не умеют ничего.

Человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции.

Человеческий мозг нечто большее, чем "просто нейросеть". Мы ещё не настолько хорошо его изучили, насколько уверенно вы тут заявляете.

Если вы утверждаете, что там есть что-то больше, чем нейросеть, то вам и доказывать этот тезис. Я не могу доказывать отсутствие чего-то незримого.

Запросто. Мозг человека это не "просто нейросеть", он состоит из:

  • больших полушариев

  • среднего мозга

  • мозжечка

  • варолиева моста

  • продолговатого мозга

Всё взято из вики.

То, что вы называете "нейросетью" является моделью (упрощением) того, что есть на самом деле в человеческом мозге.

А теперь вы докажите ваше утверждение, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции"

Вы перечислили разные отделы мозга, каждый из которых состоит из нейронов, т.е. является нейросетью по определению. Что это доказывает?

Это доказывает, что вы видите только то, что хотите видеть. Например, мою просьбу доказать, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции" вы не увидели. А ещё это доказывает то, что вы не в курсе, что в случае сложных систем, типа мозга, "свойство целого принципиально не сводится к сумме свойств составляющих элементов". Т.е. свойства совокупности элементов != совокупности свойств элементов.

мою просьбу доказать, что "человеческий мозг является нейросетью, значит он не умеет ничего, кроме интерполяции" вы не увидели.

Я же написал: мозг состоит из нейронов, объединённых в сеть, значит он по-определению является нейронной сетью. Что тут доказывать — определение?


То, что у этой нейросети можно выделить области, не делает её не-нейросетью.


свойства совокупности элементов != совокупности свойств элементов.

Т.е. совокупность нейросетей способна к большему, чем просто интерполяции?

Я уже отметил в другой ветке, что вы невнимательны. Здесь вы, например, не увидели вторую часть своего же утверждения "не умеет ничего, кроме интерполяции". Поэтому и не сообразили, что же именно я просил доказать.

Я отмечаю бесплодность наших с вами дискуссий в силу вашей невнимательности и слабой сообразительности. Боюсь, что всё ценное из общения с вами я уже извлёк :)

вы, например, не увидели вторую часть своего же утверждения "не умеет ничего, кроме интерполяции"

Эта часть была утверждением ednersky, а не моей. Я пытался показать её абсурдность.


Хотите обсудить вашу невнимательность и несообразительность?

Я же написал: мозг состоит из нейронов, объединённых в сеть, значит он по-определению является нейронной сетью. Что тут доказывать — определение?

Доказывать тут надо, что нечто, называемое нейросетью — GPT и иже с ними — состоит пусть не из нейронов (физических), но из их достаточно полных и адекватных моделей. И вот это как раз не очевидно.

"Очень интересно, а чем сами авторы статьи отличаются от китайской комнаты?"
Об этом будет следующая статья.

Подгорает у меня именно от попыток авторов этих статей провести жесткую границу, между тем, где начинается "разумное существо", а где "языковая модель".

Возьмем нейросетку, работающую с изображением. Она видит картинку, или просто транслирует один набор значений в другой?
Почему свет человек видит, а звук слышит? Почему конкретный цвет человек видит именно таким? Ведь нейросетке все это совсем не нужно для трансляции светового и звукового сигнала в мехагическое движение тушки.
Вот когда будут точные, доказанные ответы на эти вопросы, тогда и поговорим о наличии точных границ и их положении, о том, является ли человек тупо нейросеткой, или там есть что-то еще и т.д., и т.п.

человек видит

Вы пишите так, будто это какой-то магический процесс, отличающийся от чтения с аналоговых датчиков ака колбочек и палочек.

Вообще-то в глазе есть постообработка сигнала, сигнал в мозг попадает не "сырым". К сожалению, ссылки на источник не приведу, читал давно в бумажной книге, которой под рукой нет.

Так и в матрице тоже обработка есть, принципиально ничего не меняет.

Эти крпсивые картинки не значат ничего.
"Датчики" в глазах формируют сигнал. Этот сигнал проходит обработку. То, что человек видит - результат этой обработки. Ну сформировалось где-то в мозгу некоторое электрическое и химическое состояние. Это все просто и понятно.
Вопрос совсем про другое. Почему сигналу красного (т.е, если упрощать, определенной комбинации сигналов трех датчиков) соответствует ииенно красный цвет (не формальное название, которое всего лишь договоренность между индивидами, а именно ощущение красного цвета), а сигналу зеленого именно зеленый, а не наоборот. Что оно вообше такое - это ощущение картинки? Почему не простая трансляция в электрические и химические процессы, которые в итоге приведут к какой-то ответной реакции тушки (изменение химии и движение частей).

То что вы описали это так называемое "чувство". И самый типичный представитель это — боль. Человек чувствует боль. Испытывает страдания. Может ли машина также чувствовать боль?
В бессознательном состоянии (или состоянии гипноза и подобного), человек не чувствует боли. Его можно оперировать. Значит ли что боль — это свойства именно сознания?
Есть мнение что чувства это эффект возникающий в сложной информационной системе. Которая должна моделировать внутри себя субъективную картину мира. А также субъект себя в этой картине.
Собственно мозг в следствии эволюции превратился в машину для предсказания будущего исходя из смоделированного внутреннего мира. Что бы выжить. Что то от типа не влезай — убъёт. Та штука выглядит опасно — не лезь сдохнешь.


Т.е. чувства это эффект возникающий в этом сгенерированном внутреннем мире. Такой же эффект ка центробежная сила — которой не существует как сила сама по себе. или архимедова и подобного.

НЛО прилетело и опубликовало эту надпись здесь

Чувство самосознания это всего лишь внутренний диалог. Когда вы сами себе задаёте вопрос: я есть, и сами же можете дать ответ — Да. В обычной жизни как по мне человек процентов 80%-90% работает как автомат. Попробуйте идти куда то, например в магазин, и при этом не думайте не о чём. Вы собственно как робот дойдёте до магазина. С вождением машины точно также. Впринциепе если не думать ни о чём — то вы будете вести себя как конечный автомат.


Когда вы ведёте диалог, и если не вести при этом внутренний диалог — от вы не особо будите отличатся от ChatGPT.


Как я уже писал — человек, его Я, самосознание это генерация и модуляция мира и его как субъекта мира в быстрой памяти. Остальное это ChatGPT.

НЛО прилетело и опубликовало эту надпись здесь

Я про это и говорю — возможность задавать вопросы, и самому на них отвечать. Забери у человека возможность задавать вопросы про себя — и он превратится в ChatGPT.
А какие это вопросы — азм есть? Или как прожить до получки за оставшиеся 100 рублей, не суть важно.


Внутренний диалог — это как бы и есть пресловутое самосознание.


И да дополню — вся путаница кто есть человек, самосознания, Я и прочего происходит от того, что как правило спорящие стороны рассматривают одну сторону сложного механизма — человека.
А он по сути машина с одновременно работающими системами — автоматом, обеспечивающим неосознанные реакции. И внутренним диалогом — как бы осознанные. В один момент времени они работают либо одновременно либо какая то из них. Мы можем заставить себя не дышать, а в другой момент времени вообще не задумываемся о дыхании.


Ну и ещё дополню — самосознание напрямую зависит от появления неокортекса и появлении речи.


Вот тут говорят мол маугли как бы не говорят но самосознанием вроде как обладают. Они обладают животным самосознанием — которое ближе к аппаратному, это самосознание генерирует мир и субъект мира себя, для предсказания будущего. При этом внутренний диалог отсутствует т.к. отсутствует речь.

Я так понимаю, достаточно ChatGPT прикрутить функцию задавать вопросы самому себе и отвечать на них и он эволюционирует в разумное существо, как мы представляем разум.

Ну и строить внутри себя проекцию виртуального мира на внешний. И поместить себя в этот мир как субъекта. И управлять этим миром — предсказывая поведения реального.


У человека есть ещё богатая биохимия — она задаёт почти все поведенческие направления.


А химия эта обусловлена эволюцией. Размножение рода тяга к противоположному полу, страх — адреналин, голод.


У железяки этой химии нет. Поэтому направление поведения должны задаваться программно. Как по мне само собой оно не возникнет. Отсюда просто нелепо опасение, что сам по себе ИИ захочет истребить людей. Сам по себе ИИ скорее всего не захочет ничего. А вот уже поведение которое будет заложено в архитектуру модели на начальном этапе )))) Тут может быть что угодно )))


Собственно железяка без полного набора человеческих интерфейсов, по типу биохимии и прочего, уже будет похожа на человека. Но будет работать несколько по иному. Например как тут уже упомянули — есть болезнь когда у человека отсутствует короткая память — и он похож на ChatGPT по поведению. Или шизофрения — когда из точных коротких ответов, строится неточная общая картина — опять же похоже на ChatGPT. По этому мы можем получить совершенно разные типы поведения. Вопрос насколько они будут лучше человека или хуже. Достаточно просто установить определения "лучшести". Да и не важно это. На самом деле никому не надо точная копия человека. Т.к. сами человеки то и не очень точны сами себе. Надо лишь что бы ИИ делала определённые вещи лучше чем человек. Даже если это — выживание. Определённо ИИ на это способен будет.


И да, насколько я знаю, текущий ChatGPT не меняет свои веса в зависимости от поступления свежей информации, т.е. не находится в постоянном дообучении. Человеческий же мозг просто постоянно нарастает и уничтожает гиганское количество синапсов.

Чувство самосознания, прежде всего - дифференциация внешнего и внутреннего.

А так можно — вообще ни о чём не думать? Можно конечно не думать о ходьбе, но всегда будут хоть какие-то мысли, о работе, о жизни, или, если уж ничего нет — про внешние раздражители вот прямо сейчас — дорожка, машины, ветер.

В мозгу есть своеобразные тактовые генераторы которые заставляют области нейронов постоянно "дёргаться", для нас это будет выглядеть как поток мыслей. Например у шизофреников или когда мы спим, или когда засыпаем, мы не можем влиять на этот механизм. В крайних случаях вообще галлюцинации появляются.


Так вот не думать ни о чём — сложно. На десятки секунд легко, но дальше уже начинаются проблемы.


Монахи долгие годы тренируются обучают нейронную сеть медитируют, что бы достичь так называемого просветления.


Как я понял, такое стояние — это полная очистка короткой памяти. Собственно такой эффект можно получить и обычному человеку. Передавить себе сонную артерию и потерять сознание на несколько секунд. Происходит ресет короткой памяти и в первые секунды человек находится в загрузке и инициализации пограничном состоянии. При этом звуки и краски, возможно другие чувства, находятся в состоянии прямой загрузке без текущих нейро фильтров в неестественно "ярком" состоянии. Причину последнего точно не объяснить с "железячной" точки зрения.


Разумеется всё вышесказанное является исключительно ИМХО.

То что вы описали это так называемое "чувство".

Оно, родимое. И никто толком не может сказать, как это в реальности на физическом уровне работает. Всегда в наличии только рассуждения об источнике данных для чувства, но ни слова про само чувство. Причем эволюционной необходимости в чувствах в общем-то нет.

Та же боль не нужна. Нужен просто высокоприоритетный сигнал, меняющий поведение. Страдать для этого совершенно необязательно.

И что характерно, про механизм возникновения собственно боли тоже ничего. Только про источник данных для нее расписывают.

Причем эволюционной необходимости в чувствах в общем-то нет.

Как раз исключительно эволюцией боль и была создана. Как заставить тушку не лезть туда куда не надо?


С точки зрения голого технического представления боль это возбуждение нейронов, например кожи, передача сигнала с частотной модуляцией по синапсам в мозг и каскадное срабатывание нейронов в определённых участках мозга.


Но мы находясь в сознании чувствуем боль.


Я думаю что на ранних этапах эволюции — сигнал боли воздействовал только на двигательные рецепторы. Ткнули червяка иголкой, он сжался. Поэтому страдания как человек он не испытывает. У человека такой подобный аппаратный механизм сохранился до сих пор — от горячего мы отдёргиваем руку раньше, чем осознаём это.
Но с появлением неокортекса (почти у всех высших млекопитающих), появился механизм моделирования реальности внутри мозга. И что бы заставить такое животное запоминать травмирующий опыт (для дальнейшего выживания), сигнал боли превратился в эффект страданий внутри этого сгенерированного мира.


Понятно что что такое боль простыми словами не описать. Но есть факт — она определённо для человека есть. Человек сложная информационная машина. Боль появляется как эффект в такой машине. Значит если сделать такую же сложную информационную машину но на другом носителе, кремний, оптроника, то ничего не мешает появится этому эффекту и там. Т.е. машины тоже смогут чувствовать боль.


Может показаться что чувство боли это какое то наведённое состояние на сознание, а раз оно наведённое, искусственное, то может его нет? Может долгая медитация способна помочь осознать что боли как токовой нет? Хотя это эзотерика уже какая то.

С точки зрения голого технического представления боль это возбуждение нейронов, например кожи, передача сигнала с частотной модуляцией по синапсам в мозг и каскадное срабатывание нейронов в определённых участках мозга.

Это не боль. Это всего лишь сигналы. А вот как оно дает это самое ощущение боли? Вопрос без ответа.

Значит если сделать такую же сложную информационную машину но на другом носителе, кремний, оптроника, то ничего не мешает появится этому эффекту и там. Т.е. машины тоже смогут чувствовать боль.

Абсолютно безосновательно. Вы можете сделать сколь угодно сложную машину, которая даже будет сообщать вам, что ей больно. Но далеко не факт, что вы не упустите какой-то мелкий, но важный фактор, и никакой боли у машины на самом деле не будет. А все потому, что вы таки не згаете, как появляется боль из сигналов.

Откуда вы знаете, что другие люди ощущают боль? Вы же не можете почувствовать чужую боль, только догадываетесь из сообщений. Может все лишь говорят, что у них боль, но такой настоящей боли, как у вас, они никогда не чувствовали, может только её жалкую тень.

Знаете в чём парадокс вашего видения мира? Вы стоите на позиции что можно в принципе узнать есть боль или нету. Но при этом вы используете правила — по которым никогда в абсолюте этого не узнать. Т.е. вы никогда в абсолюте не станете машиной и собой одновременно. Что бы сравнить боли. Как минимум вы можете быть в машине и в себе по очереди — но это уже не подходит под ваши условия сравнения. Боль в вашем понимании это как Чайник Рассела В парадигме которой сущность практически приравнивается к несуществующей. Это как 0 делить на 0.


Поэтому ваши утверждения должны звучать так. Мы никогда не узнаем существует ли боль у других сущностей. Что же. Такая позиция имеет право на существование — но она не интересна. Она тупиковая.


Есть другая позиция. Ставить критерии. Их может быть огромное количество, но их количество конечно. И вот если критерии двух явлений равны — то мы условно принимаем равенство явлений. При этом количество может нарастать со временем. И вот по этой парадигме уже можно строить модели — и предсказывать будущее. Собственно так физика современная и работает.


И к чему я всё это написал. А написал я это к тому, что существование боли это лишь принцип видения мира. Т.е. любой принцип это не истина в последней инстанции. Это всего лишь придерживания правил которые дают наибольший профит.

Понятно что что такое боль простыми словами не описать. Но есть факт — она определённо для человека есть

Почему не описать? Нервные пути все известны
По большей части, боль — это сигнал за границей определенного порога, температуры, давления и тп


Сложнее с отраженной болью — но она, вроде как, передается по путям от температурных рецепторов


Обьяснить машине, что звук снимаемый с динамика больше определенного количества децибел — это "больно" и может ей повредить чисто физически — и она будет реагировать

Имеется ввиду не техническая составляющая. А почему боль воспринимается сознанием именно как боль. Именно как страдания. А не например как просто тактильный сигнал. Когда простой сигнал с синапсов у червяков, который приходил напрямую на мышцы, трансформировался у высших млекопитающих (и не только), в ощущения страданий?


Отсюда более общий вопрос — почему сознание воспринимает чувства, как оно собственно их и воспринимает. Даже описать это как не особо получается.


Я собственно описание опытов таких и не встречал, казалось бы всё для этого есть, бери да экспериментируй на себе. Могу сказать что глубоко анализируя что же такое боль, я например смог на не сильной боли, придти к состоянию что этого чувства нет. В противоположность — очень сильная боль, кажется отключает сознание. Остаются только аппаратные проявления.

А почему боль воспринимается сознанием именно как боль. Именно как страдания

Это сигнал тревоги — с организмом что-то сильно не так, надо срочно принимать меры


Я собственно описание опытов таких и не встречал

Эммм… Каких?

Это сигнал тревоги

И всё? Т.е. когда молотком по пальцу — это просто сигнал тревоги? Есть такая болезнь — не чувствовать боли, вот для таких людей
это просто сигнал на который можно забить.


Если бы это просто был сигнал тревоги, то человек по природе своей ленивый, когда заболел бы зуб — просто забил бы болт на этот сигнал. Но что то когда от боли начинаешь выть на луну, уже как то не воспринимаешь это как сигнал тревоги, а идёшь к врачу.


Ах-да, вспомнил про эксперимент. Человек за ширму протягивает руку. Перед человеком кладут резиновую руку. Потом обе руки поглаживают одинаковым способом, т.е. вызывают иллюзию у человека что резиновая рука его. Потом внезапно бьют молотком по резиновой руке. И в первые секунды человек чувствует боль. Не говорит ли этот эксперимент что эффект боли это эффект чисто сознания?


И ещё. Правда не уверен в достоверности этой информации. Вроде как если ввести человека в гипноз и сказать что он горит, то человек будет испытывать настоящие страдания и боль, хотя никаких сигналов от рецепторов не приходит что он горит.


100% факт, люди ампутанты испытывают фантомные боли в ампутированных конечностях.


Кстати сказанное выше может навести на теорию, что ощущение боли непосредственно связанно с ощущением тела — Проприоцепция. Как я уже высказывал, этот то тело которое проецируется в виртуальном мире мозга. И которое непосредственно ассоциируется с феноменом Я. Вся это механика была изобретена эволюцией для максимального сохранения тушки и продолжения рода. И написал я это к тому — что у всяких текстовых сетей без виртуального тела не может появится своего Я и феномена боли.

Проприоцепция — просто обратная связь от тонуса мышц. Ничего "виртуального" там нет


Про эксперимент не слышал, достоверность его непонятна


Таки да — это сигнал тревоги, действующий так, чтобы человек его не смог игнорировать. Никакой мистики — чистая физиология

Ладно. Я тут как раз никакой мистики никогда и не видел. Мы просто говорим на разных языках.
Напоследок задам вопрос ради интереса. По вашему мнения может ли процессор в видеокарте чувствовать боль так как её чувствует человек? И если да то должны ли мы признать процессор видеокарты живым со всеми вытекающими правами?


Ведь процессор получает по проводам сигнал от датчика, например температуры, который сигнализирует что температура 101 градус. А программа в память загружена с кодами мол до 100 градусов, всё OK, 101 уже аларам! Чувствуй боль. Ведь описанная картина полностью укладывается в ваше понимание боли как только сигналы и ничего большего.


Upd. А если программист допустил ошибку и программа попала в вечный цикл — чувствуй боль! Мы получается изобрели ад?

Что значит "как человек"


Есть датчик температуры, к примеру. Если она больше определенного порога — включаются экстренные программы по избежанию разрушения. И не обязательно так примитивно, 100-101 градус. Сделать порог градиентный, с увеличением интенсивности реакции


Хемотаксис есть даже у инфузорий, они сваливают, если капнуть кислоту в среду — они чувствуют боль? Сигнал то есть


Человеческий мозг тоже можно закоротить и обмануть. Тот же капсаицин — закорачивает рецепторы, но никакой химической или физической угрозы от него нет. Такой вот "бай-пасс".


Есть граничные нарушения нервной системы, когда человек чувствует непрекращающуюся боль, или непрекращающееся удовольствие. Можно электродами прямо в мозгу раздражать определенный участок. Можно определенный препарат вколоть. Наркота, от которой кайфуют — это тоже химический бай-пасс


Главное — в мистику не ударяться и оставаться в рамках физиологии нервной системы

Что значит "как человек"

Вы так пишете как будто вы робот, никогда не чувствующий боли.


Как человек это значит страдания. Одни сигналы мы можем полностью игнорировать, тактильные, а вот боль — мы уже как то не особо можем игнорировать. При этом испытываем страдания.


По поводу инфузорий и прочих простейших — я уже писал. На ранних этапах эволюции сигналы от рецепторов чуть ли не напрямую идут на мышцы.


Но с появлением неокортекса, сознания, в котором эмулируется виртуальный мир (проекция реального). И в котором эмулируется тушка как часть этого мира, уже в этом виртуальном мире — сигналы от рецепторов вызывают нечто иное.


Т.е. на каком то этапе эволюции количество перешло в качество.


Скажите — испытывает ли человек боль находясь в бессознательном состоянии? Ведь все сигналы от рецепторов по прежнему беспрепятственно приходят в мозг?


Но почему то в бессознательном состоянии человека можно оперировать, а он при этом не извивается как червяк?


Значит ли это что чувства это эффект возникающий в сознании?


И да я не говорю про аппаратную составляющую, все эти сигналы они есть. Например человек отдёргивает руку от горячего ещё до того пока осознает что ему больно.


Я просто говорю что аппаратная составляющая она была и есть, но добавилась ещё новая. Та которая интерпретируется в сознании.


Если вам трудно представить как в информационных системах может появляться различные эффекты, которые казалось бы ни как не связаны с аппаратной частью, то приведу пример монитор или телевизор, это всего лишь разноцветные пиксели мерцающие 60 раз в секунду. И при ближайшем рассмотрении ничего в этой мерцающей пиксельной матрице нету. Но отойдя на расстояние — мы видим живую картинку. Как будто это реальность.


Или виртуальные игры. Мы видим целый живой мир. Но в кишках компьютера кроме электрических импульсов, ничего нет. Этот виртуальный мир — это иллюзия. Может и сознание это иллюзия, но иллюзия такого уровня, что позволяет проявляться таким эффектам как боль. Которая человеком воспринимается вполне реально.

Еще раз — это физиология


В отдергивании руки от горячего — включается спинномозговой рефлекс, простейший, даже близко не заходящий в ЦНС, какой там еще неокортекс? Это базовые защитные рефлексы, это не какое-то там "страдание". Боль — это боль. Реакция на раздражитель выше определенного порога, эволюционно запрограммированная так — чтобы ее нельзя было оставить без внимания. В физиологии нет термина — "страдание"


Все что вы хотите узнать — уже достаточно хорошо исследовано. Но у вас недостаточно знаний для спора на эту тему. Это не снобизм или попытка унизить — это факт. И я точно могу сказать, что ответы на ваши вопросы нельзя дать за 5 минут, как нельзя за 5 минут научить решать системы дифуров — просто потому что нет базовых знаний

"Я ему про Ерёму он мне про Фому" (С)
Я уже говорил что вы в упор не видите позицию диалога.


В отдергивании руки от горячего — включается спинномозговой рефлекс, простейший, даже близко не заходящий в ЦНС, какой там еще неокортекс?

Ну и? Я про это же самое и писал. У простейших этот механизм и был чисто сигнальный. У человека к этому механизму прибавилась высшая нервная система. Куда тоже сигнал уходит.


Вообще весь этот диалог я веду исключительно в сфере обсуждения понятия сознания в искусственном интеллекте. Про которое каб бы исходная статья.


Раз вы перешли на позицию всё это уже давно изучено и досконально исследовано, и следуя этой логике мы уже должны наблюдать ИИ по типу человеческого на каждом шагу, дискутировать дальше не о чем.


P.S. Вы так и не поняли что мы не обсуждаем как работают нейроны и синапсы. По крайней мере я, пытался вести диалог по проблеме понимание как миллиарды нейронов и синапсов работая примитивно по отдельности, разом превращаются в машину, которая может генерировать ну или иллюзинировать сущности… да пофиг… надоело расписывать.

У человека к этому механизму прибавилась высшая нервная система.

Еще раз — нет
Это безусловный рефлекс, не выходящий за пределы спинного мозга


Раз вы перешли на позицию всё это уже давно изучено и досконально исследовано, и следуя этой логике мы уже должны наблюдать ИИ по типу человеческого на каждом шагу, дискутировать дальше не о чем.

Ну вот, что мы и наблюдаем, собственно говоря. GPT — это первые попытки создать такие нейросети, с количеством нейронов сравнимым с количеством их в мозге человека. Ключевые слова "первые попытки"

Это безусловный рефлекс, не выходящий за пределы спинного мозга

Вы вообще читаете что вы пишите?


Имеем сигнал например ожог пальца. Этот сигнал идёт по аксону в спинной мозг. И далее он не выходит за пределы спинного мозга? И до головного мозга он не доходит? Так вы написали?
Повторяю в 20 раз — этот сигнал участвует и в безусловном рефлексе, который изначально и развивался у простейших И КОТОРЫЙ Я НЕ ОБСУЖДАЮ, а также этот сигнал участвует и в высшей нервной деятельности. Интерпретация этого сигнала в высшей нервной деятельности и есть суть моего обсуждения. А то почему лапка у лягушки дёргается под воздействием электротока — то это как вы уже писали, довольно подробно исследовано и объяснено.


По моему я дискутирую с нейросетью...

И что же он делает в головном мозге? "Рождает страдания"?


В головной мозг идет просто сигнал от терморецептора. Что с ним делать — решает сознание. Может оно захочет сказать "тепленькая пошла" или "кажется, я замерз"


А когда превышается определенный порог — включается безусловный рефлекс


Я уже говорил — без базовых знаний физиологии нервной системы и физиологии ВНД — эти вопросы обсуждать не имеет ни малейшего смысла. Могу порекомендовать вузовские учебники, но это тема второго курса, к которой потребуется первый курс — морфология, биохимия и общая физиология. Хорошо бы добить зоологией беспозвоночных


И никто вам не даст простого ответа, потому что это не простой вопрос


Уровень примерно как — обьяснять архитектуру процессора человеку, который даже слово "схемотехника" не знает

Сон разума — рождает чудовищ. Без профильных знаний — получается бессмысленная каша


И далеко ходить не надо, вот вам пример — как человек без профильных знаний характеризует эту болталку на нейросети:


Китайская комната дает ответ на вопрос при помощи обработки написанных человеком текстов по алгоритму.

ГПТ дает ответ на вопрос при помощи обработки написанных человеком текстов по алгоритму.

Как мы видим разницы нет.

Что тут можно обьяснить, на таком уровне непонимания?


Финиш
Гасите свет, спускайте воду

И что же он делает в головном мозге? "Рождает страдания"?

Мдаа… человек с упорством барана утверждает что страданий не существует.


Хватит тут бравировать книжками. Я тут тоже могу посоветовать книгу почитать, например по логике.


С моей стороны дискуссия окончена.

Да тут вообще не о чем было говорить, на таком уровне. Это вечное "Я программист, а значит и в биологии разберусь за пять минут. Пусть только кто-то мне объяснит все за пять минут, а то никто не может"


Недавно тут мне один человек пытался доказать, что у человека есть инстинкты. При этом — сам он не знал, что такое рефлексы

Почему сигналу красного (т.е, если упрощать, определенной комбинации сигналов трех датчиков) соответствует ииенно красный цвет (не формальное название, которое всего лишь договоренность между индивидами, а именно ощущение красного цвета)

Вопрос не имеет смысла. Красный цвет — это и есть формальное название, договорённость между индивидами.

нейроны ведут себя очень сложно

И скоро станет ясно, что 99% их "поведения" не имеют ничего общего с когнитивными функциями, а представляют собой погрешности эволюции и физиологию.

Человек отличается качественно. Говоря простыми словами, он не детерминирован. А языковая модель детерминирована. Да, у нас нет технической возможности (или ресурсов) отследить в деталях причинно-следственные связи в работе нейронной сети. Но она действует "по причине" (я в курсе про рандом). А человек действует без причины. В этом отличие

То есть качественное отличие человека только в том, что у нас (пока) нет инструментов его дебаггинга, позволяющие вычленить причинно-следственные связи?

Справедливо ли это наоборот: как только мы будем не способны разобраться в сложной нейронке, она автоматически станет "человеком"?

Человек так же полностью детерминирован(Я в курсе про квантовую физику, но её как и рандом выделяем за скобки) Если сделать полный коннектом человеческого мозга и загрузить в полную математическую модель, то мы сможем получить этого человека в коробочке. Где каждую его мысль можно будет точно проследить через всей нейроны. Составить таблицы и всё такое прочее. Поэтому не детерминированность людей это только слабость наших измерительных инструментов.

Не совсем. Мысли человека — это в конечном счете химия, изменение локальной концентрации определенных веществ. Чтобы они были полностью детерминированы, нужно иметь возможность предсказывать броуновское движение в жидкости. Что на сегодняшний день невозможно.


На практике сигналы как правило действительно можно предсказать не спускаясь на молекулярный уровень, т.к. концентрации и их градиенты достаточно велики. Но какой-то процент граничных случаев потеряется. Возможно как раз те самые "внезапные божественные озарения" :)

Ну то есть это всего лишь упирается в точность нашей модели. Если использовать память без коррекции ошибок, то по этой логике и нейросеть становится недетерминированной?

Если использовать память без коррекции ошибок, то по этой логике и нейросеть становится недетерминированной?

Теоретически да, но в общем случае "бессмысленно недетерминированной". Чтобы влияние случайных факторов было сравнимо с их значением для мозга, должны выполняться как минимум еще два условия:
1) все случайные изменения должны вести к разрешенным и валидным состояниям (т.е. не вылетать с исключением)
2) функция случайных изменений должна быть непрерывна в математическом смысле (химические концентрации не прыгают с 0 до 100, а проходят через все промежуточные значения)

химические концентрации не прыгают с 0 до 100

В достаточно маленьком объёме — прыгают.

А мы можем предсказать такое движение жидкости, мы не может предсказать отдельную молекулу. А вот их массу проще простого. (не кидайтесь в меня тапками работники аэродинамики, гидродинамики т прочих сложных наук)

НЛО прилетело и опубликовало эту надпись здесь

А почему мы квантовую физику выделяем за скобки?

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Значит, что если у вас есть данная волновая функция и данный оператор эволюции системы, то результат вполне себе детерминирован.

Это смотря что называть результатом. Если — волновую функцию в результате взаимодействия, то да, такой варинт детерминирован.
Но вот если нам нужен результат измерения некоей величины, то вот он будет совсем не детрминирован (ну, кроме вырожденного случая, когда волновая функция совпадает с собственной функцией оператора этого измерения). Ну и, заодно, волновая функция после измерения поменяется — на ту собственую функцию оператора измерения, которая соответствует полученому результату (собственному значению оператора). А потому толк от такой детерминированности довольно ограничен, до детерминированности из классической механики — в которой, если в принципе в принципе, можно предсказать все — она по возможностям не дотягивает.

Кажется, что говорить о том, что человек однозначно не детерминирован не совсем верно (если речь идет о свободе воли, творчества и подобном). Как показали некоторые исследования, нашим сознательным действиям предшествуют физиологические процессы, так же как именно они во многом определяют психическое состояние человека. И если есть прямая зависимость нашего состояния (настроения, работоспособности) от физиологии, то наша полная детерминированность оказывается под сомнением (равно как и полная обусловленность поведения/мысли физиологией).

По итогу мы все находимся где-то посередине между "тупые кожаные мешки, мозг которых постоянно взламывают НЛП-шники, биохакеры, спецслужбы и прочие" с одной стороны, и "единственные и неповторимые, преисполнившиеся в своем познании и отринувшие оковы бренного тела разумы" с другой.

С одной стороны, вы весьма правы в том, что человек в той или иной ситуации может проявлять когнитивные способности на уровне или ниже уровня языковой модели, т.е. вести себя, как настоящий олигофрен, при этом не являясь олигофреном в медицинском смысле.

С другой стороны, вы совершенно не правы в том, что вы говорите о количественном и качественном различии. Потому что "количественно" (в конкретно-предметных тестах) ML-системы могут побить человека абсолютно без проблем. Например, на операции сравнения множеств. А вот "качественно" - пока что не очень, потому что анализ и синтез (абстрактные операции) языковым моделям "не завезли".

Вот - ещё один сильно до**я умный но не имеющий никакого отношения. Количество нейронов не является показателем. У слона например мозг больше, и нейронов в нём тоже - но он тупее и примитивнее. Загвоздка? Количество межнейронных связей на которых качество и скорость мозга строятся.

Есть у нас и сознание, и свободная воля и разум. На этот счёт посвящены целые научные работы которые довольно хорошо описывают как и номенклатуру так и механики работ, каким образом мы оцениваем разум, его сложность и грубо говоря умность. Всего-то несколько слов в различии нашего генома и генома обезьяны - но из за того как работают хаотические системы (chaotic theory) - из этого различия вырастает целый набор и сложность функционала. Так и начинается существо разумное. "Достаточно одной таблэтки расхожести".

Существо начинает быть разумным в тот момент когда полностью осознаёт себя и может понять абстракцию а также провести само-рефлектирование на логическом уровне, и/или когда логическо-когнитивный цикл по используемости выше чем инстинктивный.

P.S/ "На каждый нейрон потребуется отдельная нейросеть" да вашуж мамашу. "Для каждой детали лодки потребуется целая 3д модель лодки" дядь, не кури. И не отсыпай, не хочу. Что за тавтология такая? Модель она и есть модель. Модель может быть как и упрощённой так и точно-следующей. Ну да у нас пока понятие diminishing echoing signal не настолько хорошо сделано в моделях. Да пока что вместо биологической симуляции кровосистемы и веществ используется векторный шум. Смысл примерно тот же. Сложность модели пониженая.

Строго говоря, самосознание критично только для некоторых абстрактных когнитивных операций. Для "отвечалки на вопросы" оно не обязательно, если вопросы не включают, явно или косвенно, понятие себя.

Интересный у вас конечно стиль общения, но да ладно, оставим это на вашей совести. Все что я тут написал, я не придумал сам. Это компиляция информации которая мне понравилась, нашла отклик в моем интуитивном ощущение сабжа, но я просто как обезьянка слово в слово ее цитирую.

да вашуж мамашу. "Для каждой детали лодки потребуется целая 3д модель лодки" дядь, не кури

Пример с нейросетью нейросетей придумал не я, я подслушал это у Вячеслава Дубинина вот здесь https://www.youtube.com/watch?v=0qlgd8HLn_M и эта идея мне очень понравилась, учитывая как сложно сейчас линейными алгоритмами заходить нейрон, не такой уж это и бред

У слона например мозг больше, и нейронов в нём тоже

Проблема в том что слону нужно тратить большинство своих нейронов на моторику, контроль мышц. Не было бы у слона такого массивного тела, нет причин считать что он не был бы умным.

Есть у нас и сознание, и свободная воля и разум

Тут я тоже просто проецирую мнение видных нейробиологов. Например Роберт Сапольский так считает, или вот например Николай Кукушкин, в своей книге Хлопок одной ладонью четко об этом говорит. Есть исследования, которые показывают, что решение принимается в мозге за некоторое время до того как субъект начнет его осознавать. Исследователи смогли с помощью функционального МРТ предсказывать выбор человека с очень большой точностью, до того как он его принял. Есть эксперименты с людьми, у которых нарушена связь полушарий. Им в разные глаза показывают разные картинки, просят нащупать предмет что они видят, и произнести его название. И вот человек держит кубик в руках, а говорит что видит шар. В какой полушарии осталась его "свобода воли" и "самосознание"?) Что оно сейчас воспринимает, шар или кубик?

Существо начинает быть разумным в тот момент когда полностью осознаёт себя и может понять абстракцию

OpenAI GPT4 умеет в абстракцию. Она уже разумна?

описывают как и номенклатуру так и механики работ, каким образом мы оцениваем разум, его сложность и грубо говоря умность

Классификации это здорово конечно, особенно когда на них гранты дают, (Плутон - планета, да, да) но есть проблема. Их постоянно нужно менять. Эти противные люди, то обезьяну научат словам, то нейронки свои проходящие тесты Тьюринга и и умеющие в Theory of mind собеседника накодят, . Мы постоянно будем находить в природе или создавать, феномены, которые в эти классификации уже не укладываются. Можно сколько угодно классификаций сделать, по одной мы будем разумными вместе с плоскими червями, в другой человек будет венцом творения, и не позовет с собой даже обезьяну, сути вещей это не меняет, как не классифицируй, явление остается тем же.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

OpenAI не умеет в абстракцию. Никакие программы пока и в обозримом будущем не умеют в абстракцию и не будут уметь.

Сможете сочинить простой текстовый вопрос для меня, умеющего в абстрактное мышление, на который я смогу ответить, а искусственная нейросеть нет?

Представь семь красных линий таким образом, чтобы все они были строго перпендикулярны друг другу, причем некоторые зелёным цветом, а некоторые — прозрачным. А теперь опиши тип боли который ты испытываешь.

Неплохо :) Я схожу с этим в OpenAI и вернусь к вам с ответом

НЛО прилетело и опубликовало эту надпись здесь

Сори за мои лонгриды, мой посыл из всего это треда укладывается в два пункта.

  1. Глупо искать священный Грааль в человеке, качественно отличающий нас по мышлению от животных и теперь уже нейросетей или выдавать за неоспоримый очевидный факт. Мол сеть это программа, а я душа со свободной волей, между нами пропасть. Не надо так :)

  2. Еще довольно часто люди недооценивают важность языка. Они воспринимают его как способ сериализации своих мыслей, идей, образов. И я их понимаю, я ровно также это субъективно ощущаю. Но из того что я прочитал и посмотрел на эту тему за последнее время, я пришел к выводу, что язык и есть эти мысли, образы и идеи. Абстрактное мышление без языка тоже довольно сложно представить, люди Маугли например совсем не могут абстрактно мыслить.

Есть у нас и сознание, и свободная воля и разум. На этот счёт посвящены целые научные работы

Точно также существет куча научных работ, ставящих под сомнение наличие свободы воли. И?

Как минимум, человеческий разум - это не только языковая модель. У нас есть ещё и другие органы для осязания реального мира, и никакие тексты не убедят меня, что холодное - это горячее, когда я это холодное держу и ощущаю в руках. А текстовые боты могут сколько угодно писать отсебятину на незнакомые им темы, но у них нет инструментов для познания мира, за исключением людей, написавших об этом текст.

Картинка в начале поста гениальна - умер на рабочем месте от смеха)

Потому что он будет просто более адекватен в своем восприятии, что гораздо важнее знаний и опыта.

Ну, как бы адекватности без опыта не бывает. Адекватность - производная опыта. Своего или чужого, почерпнутого из каких-либо информационных источников. Адекватность - это соответствие чего-то чему-то. В рамках статьи - представления человека о реальности самой реальности.

Адекватен в восприятии... Тут вообще не понятно, о чём это. Что с чем сопоставлять? Восприятие реальности - это уже её искажение (согласно изложенного в самой статье). Так чему должно соответствовать восприятие, чтобы судить об адекватности этого самого восприятия? Уже сформировавшимся на момент восприятия иллюзиям? В таком случае мы тут все адекватные в восприятии. Каждый по-своему.

Адекватность воприятия можно оценить из точности прогноза. Если прогнозы точны, точна и модель.

Ничего не могу поделать с собой, но мне как человеку, учившемуся в СССР, где материализму (причем — диалектическому) учили в добровольно-принудительном порядке, хочется при чтении подобных статей взять какой-нибудь аргумент потяжелее. Например, когда на глаза попадается рассуждение вроде этого:
все мы живем в подобии «галлюцинации», которая синхронизируется с внешним миром тогда, когда расхождение становится значительным. Мы не можем иметь представление о самой реальности, так как всегда имеем дело лишь с ее «симуляцией», которую нам рисует наш мозг, имея обрывочные представления о внешнем мире.

— то у меня возникает желание поинтересоваться: а грабли, которые ударили по лбу наступившего на них — это тоже «галлюцинация» или, там, «симмуляция»? Или это все же — часть объективной реальности, которая, как нас учили, дана нам в ощущениях: в примере с граблями — в ощущении боли от удара и нащупываемой на лбу шишки? И будут ли эти ощущения существенно отличаться у разных людей, одинаково наступивших на одни и те же грабли? Вопрос, как говорится — риторический.
Но это частности. А в целом, (если придерживаться естественнонаучной точки зрения, конечно) то мозг у человека развился ради простой цели — обеспечить для этого человека возможность добычи средств для существования. Точнее — для существования группы людей, иначе — общества.
Почему?
Потому что, во-первых, одиночный человек не может добыть средства к существованию без помощи других. А, во вторых, одиночный человек подвержен запланированному устареванию: каких-то несколько десятков лет — и все, был человек — и нет человека.
Так вот, мозг — это орган, предназначенный для создания модели окружающего мира. Модель создается, начиная с неполной и неточной, но она постепенно пополняется за счет практики в процессе добычи этих самых средств для существования. А если говорить не об отдельном человеке, а об обществе, членом которого человек неизбежно является (почему — см спойлер выше), то, благодаря способности членов общества к коммуникации, модель объективной реальности разделяется членами общества (в диалектическом материализме это называется общественным сознанием).
Собственно, автор это даже понимает:
Теперь перейдем к главному. Если мы все склонны уходить в иллюзии, то наше мировоззрение чаще всего не более, чем нагромождение различных «костылей», помогающие нам уйти от болевых моментов.

Но он игнорирует главное: причину появления этих «болевых моментов» — что они возникают от столкновения «иллюзий» (т.е. модели мира в сознании) с той самой объективной реальностью. Модели могут быть устроены по-разному: от «костылей» типа набора табу в первобытном племени, до стройных научных теорий современности. Но есть нечто, что их роднит: они изменяются в резульате взаимодействия людей с реальностью в таком направлении, чтобы лучше ей соответствовать. Почему именно в таком? А это — результат отбора: общества, не научившиеся двигаться в правильном направлении (и притом двигаться достаточно быстро), проигрывают своим конкурентам и сходят со сцены истории.
А вот теперь, когда я вкратце описал устройство процесса познания в рамках диалектического материализма, можно вернуться к нашим баранам — к GPT. GPT тоже создает модель, но другую — модель языка и изложенных на нем утверждений. То есть — модель модели, части общественного сознания, которой является язык (ну, и отбраженные на этом языке факты). Взаимодействия с объективной реальностью у GPT нет. А даже если бы и было — далеко не факт, что GPT будет способен строить модель этой самой реальности. Хотя бы потому, что реальность (и ощущения от нее) структурированы куда хуже, чем язык вместе с зафиксированными на нем фактами, которые уже есть продукт первичной переработки результатов взаимодействия (общественной практики, если на языке диалектического материализма). Собственно, статья Zangasta, как я ее понял — она как раз об этом.
PS Прошу простить избыток философских терминов в комментарии (причем — из одной философской школы): меня учили именно на таком языке, а своими словами я это изложить затрудняюсь.

GPT тоже создает модель, но другую — модель языка и изложенных на нем утверждений

Вот зря вы так пренебрежительно о языке. Просто надо их с midjorney подружить, и будет практически наше сознание. Собственно, и интернет так взлетел потому что подавляющая часть нашего мышления - слова и картинки.

— то у меня возникает желание поинтересоваться: а грабли, которые ударили по лбу наступившего на них — это тоже «галлюцинация» или, там, «симмуляция»?

Мне кажется, грабли — пример для этого высказывания в статье:


которая синхронизируется с внешним миром тогда, когда расхождение становится значительным.

Удар по лбу — значительное расхождение между галлюцинацией "грабель нет" и реальностью "грабли есть".
А будет ли человек дальше убеждать себя в отсутствии грабель — отдельный вопрос. И ответ на него вовсе не очевиден. Всякое бывает.
Более того. Мне кажется, что удар по лбу совсем не обязательно был на самом деле. Особенно, если момент удара человек не помнит по вполне очевидным причинам. Его могли ударить. И не граблями. Но сказали, что он сам наступил, дурак этакий. Фантомные боли бывают. И шишка может быть вовсе не шишка. А может и не быть.
Я конечно утрирую. Но всё же.

Закрадывается подозрение, что эта статья тоже иллюзия.

и написана чат-ботом...

Роллаут языковой модели, то бишь "симуляция" или "конфабуляция". "Иллюзия" имеет другую коннотация - что-то что и "не собиралось" сходиться с реальностью. Как художественная литература. А если текст не художественный - он все таки хочет что-то выразить про реальность. Насколько у него получится описать реальность точно - это другой вопрос.

От сюда и различия во мнениях у людей с одинаковым уровнем знаний и IQ.

Эта "иллюзия", как вы ее называете - продукт многолетнего процесса формирования личности, набора опыта и формирования модели мироустройства.
А вы сводите это просто к "одинаковому уровню знаний и IQ".

Потому что иллюзии - это механизм защиты психики от чего-то неприятного

То, о чем вы говорите называется "когнитивный диссонанс" и, подчас, чтобы принять какой-то один простой факт, человеку придется переосмыслить не только обсуждаемый вопрос, но и кучу окружающих его теорий и идей, с которыми он живет уже давно, что сделать не так-то просто.
Для уменьшения диссонанса человеку проще придумать причину того, почему факт не важен, чем переосмысливать всю картину целиком.

рассуждая про сознание в ИИ

Если вы про Юдковского, то я наискосок читал его старые статьи на тему ИИ.
Они не очень убедительны (ИМХО), но он призывает кастрировать ЛЮБОЙ прогресс в ИИ (даже такой "незначительный" как чатгпт), потому что это неизбежно приведет к созданию полноценного ИИ.
Т.е. его позиция не "чатгпт - сильно умный и убьет нас, давайте срочно удолим", а "не стоит делать ИИ вообще, а чатгпт - неплохой такой шаг в ту сторону, поэтому давайте срочно удолим".

Попалась мне статься "GPT-апокалипсис отменяется", которая в очередной раз заставила меня задуматься

А как, собс-но, Ваши размышления связаны с тезисами статьи "GPT-апокалипсис отменяется"?

По видимости, только использованием аббревиатуры ИИ.

А как, собс-но, Ваши размышления связаны с тезисами статьи "GPT-апокалипсис отменяется"?

Я не автор но попробую ответить.
Обратите внимание на заголовок текущей статьи. Приведённая в пример статья написана человеком, который не может быть полностью компетентен в вопросе ИИ. Автор той статьи — экономист. Он наверняка хорошо разбирается в экономике. Но это не значит, что он будет хорошо разбираться в её отдельном компоненте — будь то кофейня на углу, договор купли-продажи гвоздей у китайского поставщика или языковая модель GPT4.

Это же про автора. А сама статья ("GPT-апокалипсис отменяется") никак не затрагивается.

Приведённая в пример статья написана человеком, который не может быть полностью компетентен в вопросе ИИ. Автор той статьи — экономист

//смеется


Автор той статьи — считает сметы в компании, которая строит коттеджи в Подмск. К экономике это относится… Ну так себе, как и к машинному обучению


А та статья короткая заметка (4.5к знаков), написана как последняя попытка пропиарить книгу текст, который за пять лет — так и не взлетел


Не стоит его слишком строго судить )))

GPT это только инструмент, апокалипсис устроят сами люди. Хотя и без GPT как-то обходимся постоянно.

Автар маладэц но не арёл :-) Нашел вроде бы правильную ниточку, но клубочек не стал распутывать, от того и многие утверждения и вывод . . кривые . . но в духе культурной повесточки, не взирая на абсурдность оной.

Обывательские рассуждения, суть споры о неведомом боге, а специалисты по богу, попы, говорят красиво и складно вокруг не менее неведомого бога :-)

Иное дело, какой-нибудь наблюдатель звёздного неба, который тоже не увидит там бога, но вот затмения, то есть гнев божий, не будут для него внезапными.

Будет ли он посягать на хрупкий душевный мир обывателя или специалиста, или примерит роль пророка?

Вопрос к автору: а вы находитесь в данный момент в иллюзорном мире?
Если да, то собственно к кому вы обращаетесь? Мы, читатели, для вас никто, иллюзия...
Если нет, то почему?

Морфиус, это ты?

Ну, если очень утрированно, то конечно же я всегда имею дело только лишь с миром своего восприятия, в том числе с симуляцией людей, так как реальные их чувства, мысли, и будущее поведение мне не может быть известно напрямую. Все что у меня есть - монитор, который мне показывает текст сообщения. Поэтому я общаюсь с "выдуманными" людьми, но это воображение синхронизировано с реальность на столько, на сколько это возможно через анализ текста, и на сколько это мне удобно с точки зрения моих внутренних проблемок.

Например, мне может начать казаться что все меня критикуют, и причем это может быть безосновательно, т.к. скорее всего не все. Очевидно, что такие воображаемые "критики" менее соответствуют реальности, но больше подходят мне для каких-то уже эмоциональных потребностей.

Я задал вопрос не для того, чтобы подколоть. (собрался было даже отредактировать, но не успел).
Я к тому, что если допустить иллюзорность мира, в том числе и себя, "полностью", то все встает на свои места )).
Я как отдельная личность - иллюзия, мир вокруг меня - иллюзия.
Реален только вселенский разум, который я собственно и представляю, сам про это не зная, который через меня играет в игры, в частности в ChatGPT. Я сам себя спрашиваю, сам же и отвечаю.

Уже несколько авторов отмечали, что чем подробнее задаешь вопрос, тем адекватнее получаешь ответы. Что логично. Но "чем подробнее задаешь вопрос" - это уже половина, а то и больше - ответа. Т.е. задающий почти знает ответ, и в каком то смысле он спрашивает самого себя.

Автор, берёт за основу верные аргументы, и использует их, чтобы без обоснований намекнуть на абсолютно необоснованый вывод! Какие эмоции движут автором в этот момент?

Если люди, которые увлечены ИИ, скажут честно, что появилось раньше: желание видеть в машине нечто живое, некий разум, или объективная оценка такой возможности, то думаю сначала будет желание. А значит все остальное будет не более, чем подгонкой логики под это желание.

Может быть это страх перед неизвестным движет теми, кто не хочет признать, что GPT может представлять угрозу и это надо обсуждать? Или страх показаться некомпетентным в условиях новой волны хайпа? Почему автором делаются именно выводы только в одну сторону?)

Скажу честно, когда начинался хайп, я довольно скептично относился к возможностям GPT, пока не попробовал. Я точно не хотел увидеть в машине нечто живое. Сейчас, неплохо разбираясь в нейронных сетях и теме AGI, я могу сказать что есть большая вероятность того, что GPT имеет уровень мышления и понимания, близкий к человеку. Так что у меня произошла ровно обратная история, от "вряд ли текущими мощностями с текущей несовершенной моделью нейронов можно повторить мышление" к "ого, эта модель точно умеет абстрагировать информацию, и применять её в других областях, умеет осуществлять трансфер знаний между языками, обладает абстрактной логикой и способна решать задачи, которые никогда не видела".

Попробую обосновать эти утверждения. Но сначала про "это всего лишь статистическая модель". Тут есть хороший контраргумент. Каковы отличия нашего мозга от статистической модели, которая предсказывает будущее? Сможете ли вы ответить на этот вопрос в функциональных терминал, объясняя человеческое мышление? Главный разработчик GPT говорит что мы можем смотреть на нейронные сети, обученные таким образом, как на способ сжатия информации, который помогает эффективно предсказывать будущее. И он утверждает, что именно так работает мозг. Я скорее соглашусь с ним. Основная разница в том, что у мозга 5 чувств для восприятия, GPT же воспринимает мир только через текст. Чтобы эффективно предсказывать следующее слово, модели пришлось научиться глубокому уровню понимания мира через призму текста. Попробую ниже обосновать про глубокий уровень понимания.

GPT проходила сложные тесты на знание самых разных предметных областей, на разных редких языках, на которых даже нет книг на эти темы (600 тыс. носителей языка). И проходила их успешно. Она умеет мапить понятия из одних языков в другие (при том что её этому не обучали), и использовать их для решения задач. Эти задачи, которые решала GPT, не встречались в интернете. Это трансфер знаний. В более полной форме по той же схеме человек может использовать знание из финансовой сферы в IT, изобретая DeFi, это очень серьёзный когнитивный навык. Пруф - презентация GPT-4 от openAI.

Я сам давал ей разные задачи на логику, которые средние люди не могут решить, она справляется на ура. Даже если переформулировать задачу на свою, которой никогда не было в интернете. Я дал ей задачу на изобретение мат индукции (про 12 мудрецов и изумруды). Она ошиблась в подсчёте в одном месте, но успешно изобрела математическую индукцию с нуля. Что ещё раз доказывает что она не копирует интернет, а абстрагирует, переосмысляет, и пытается использовать в других сферах. Что уже очень высокий уровень когнитивных способностей, и претендует на "понимание".

Напомню презентацию GPT4, где по изображению GPT создаёт сайты или видит что из жареный крылешек люди выложили нечто похожее на карту мира. Ещё один факт трансфера знаний. Я склонен доверять этой презентации после ежедневного использования GPT4.

В целом на GPT4 мои аргументы гораздо более заметны. Она действительно очень мощная.

Про китайскую комнату. Уж очень бесит этот аргумент. В китайской комнате понимание текста находится в наборе правил, которые отдаются человеку на исполнение. Либо китайская комната невозможна. Вот основные ответы на этот вообаржаемый эксперимент. У вас есть другие ответы? Если китайская комната возможна, значит, скорее всего, понимание это информационный процесс обработки данных. А значит он может исполняться, вероятно, на любых тьюринг полных вычислительных машинах, и даже, возможно, на куче карточек с правилами. Кто-то скажет абсурд, кто-то скажет нет, но где аргументы за версию что это абсурд?

Про сознание у GPT. У нас до сих пор нет определения сознания и квалиа. Мы не знаем ответа на проблему философского зомби. Поэтому это вопрос больше предпочтений. Те, кто согласны, что некоторые животные проявляют формы самосознания (дельфины, слоны), могут предположить что и GPT имеет некоторую форму самосознания в зачаточной форме. GPT способна замечать своё существование в мире. И способна проявлять эмпатию (по описанию действий человека угадывать его эмоциональное состояние). Мы не знаем, достаточно ли этого для самосознания, и что это вообще такое. Так что можно спорить бесконечно.

Про китайскую комнату. Уж очень бесит этот аргумент.

Когда слышу про китайскую комнату, я хватаюсь за бритву. Китайская комната — это в точности компьютер, ни больше, ни меньше. Таким образом, это совершенно бесполезная метафора для обсуждения феномена сознания. Ну, разве что для людей, которые никогда не видели компьютер и не читали про машину Тьюринга.

Ошибка Сёрла (автора метафоры) состоит в том, что он задает вопрос о понимании китайского языка человеком, находящимся внутри комнаты (и дает отрицательный ответ с последующим выводом о невозможности алгоритмизации сознания). Но роль человека в комнате очень мала — это просто компьютерный процессор, который представляет собой всего лишь конечный автомат, притом небольшой. Если уж ставить вопрос о том, обладает ли комната сознанием, то искать его нужно, очевидно, не в процессоре, а в состоянии памяти.

Я думаю, в любой дискуссии все упоминания китайской комнаты можно смело выбрасывать и заменять на тезис о том, что сознание (не)алгоритмизуемо.

Пойдем дальше. Упоминание китайской комнаты - метафора, потому уже по своей природе - упрощение, которое может только иллюстрировать, но не доказывать. Потому мы просто обязаны сначала сказать об алгоритмизации, описав механику явления, а потом уже можно говорить о "комнатах", пытаясь наглядно проиллюстрировать явление. Иначе, мы скатываемся к конкретно-предметному мышлению и действительно становимся на одну ступень с ML-системами.

Поэтому, если взять человека, который никакого отношения к ИИ не имеет, то скорее всего после ознакомления с информацией он более адекватно оценит те или иные опасности от ИИ и более адекватно ответит на философские вопросы про то же сознание.

Оценка качества моделей полученных на основе машинного обучения это намного более нетривиальная проблема, чем может показаться обывателю на первый взгляд.

И человек, имеющий хоть какое-то отношение к ИИ по крайней мере это понимает и не будет вестись на научпоп сказки для инвесторов в стиле "наша революционная модель дает 99% точности определения остеохондроза левой пятки правой ноги по фотографии волос на наших тестовых данных, а завтра будет давать 99.9%". Или, по крайней мере, воспримет подобную новость с должной степенью скептицизма.

А вот обыватель - и прочитает (причем стараниями корпоративных блогеров вполне возможно, что и на этом ресурсе), и примет за чистую монету.

Debunking Illusions in Science.

HaL G

Ответь на статью и укажи недостатки:

будет не в том, что аргументы не достаточно убедительные. А просто потому что так не работает. Человек не сможет выйти из иллюзии, которая его защищает от чего-то крайне неприятного, пока не устранены сами эти переживания.

Теперь перейдем к главному. Если мы все склонны уходить в иллюзии, то наше мировоззрение чаще всего не более, чем нагромождение различных "костылей", помогающие нам уйти от болевых моментов. Поэтому очень редко бывает так, что человеку просто интересно заниматься физикой, просто интересна тема искусственного интеллекта, просто интересна наука сама по себе. К сожалению, скорее всего "не просто интересно", а это выполняет еще и роль построения некой иллюзии для эскапизма от болевых моментов.

Самое парадоксальное, что у человека, интересующегося наукой, может при этом быть самое настоящее "магическое мышление". Рациональность дает мощный инструмент не только познания мира, но и для ощущения себя "магом", которому весь мир теперь понятен, а значит все под его контролем, все разложено по полочкам. Это самое настоящее чувство псевдоконтроля над жизнью. Такая иллюзия просто защищает от тревоги, от страха смерти и от много чего еще, точно также, как и у суеверного человека. Поэтому такие "маги" рационалисты могут написать книгу про методы рационального мышления в магическом мире, какая ирония.

Такие вопросы, как устройство сознания, являются эмоционально значимыми, потому что где-то рядом с данной темой проходят такие вопросы, как собственная смерть. Поэтому трудно быть объективным, рассуждая про сознание в ИИ. И особенно труднее быть объективным, если ты посвятил свою жизнь данному вопросу. Потому что очень вероятно, что человек не просто так посвятил свою жизнь данному вопросу, а для ухода от каких-то внутренних противоречий.

Если люди, которые увлечены ИИ, скажут честно, что появилось раньше: желание видеть в машине нечто живое, некий разум, или объективная оценка такой возможности, то думаю сначала будет желание. А значит все остальное будет не более, чем подгонкой логики под это желание. И никакой научный метод им не поможет это увидеть, никакие знания, опыт машинного обучения и т.д. И все их философские выводы будут не более, чем одной большой такой красивой "сказкой". Но другим людям эта сказка не интересная и не нужна. Им уже нужны реальные основания что либо считать по данной теме.

Поэтому, если взять человека, который никакого отношения к ИИ не имеет, то скорее всего после ознакомления с информацией он более адекватно оценит те или иные опасности от ИИ и более адекватно ответит на философские вопросы про то же сознание. Потому что он будет просто более адекватен в своем восприятии, что гораздо важнее знаний и опыта.

Статья утверждает, что интерес человека к науке и технологиям может быть не только результатом познавательного стремления, но также служить средством эскапизма от личных проблем и болевых моментов, что может привести к иллюзиям и неправильным выводам. Также автор указывает на то, что интерес к темам, связанным с сознанием, может быть связан с желанием обрести контроль над собственной жизнью и защититься от страха смерти.

Однако, статья не уделяет должного внимания тому, что интерес к науке и технологиям может быть связан не только с эскапизмом, но также с желанием преодолеть сложности и решить глобальные проблемы человечества. Кроме того, автор не предоставляет достаточно доказательств и аргументов, чтобы подтвердить свои утверждения, что делает статью слишком спекулятивной и неполноценной.

Также следует отметить, что автор слишком категорично и обобщенно рассуждает о всех ученых и специалистах в области искусственного интеллекта, считая их всех эскапистами, стремящимися к контролю над жизнью и избеганию страха. Это является недостатком статьи, так как все люди индивидуальны и у каждого свои мотивации и цели.

В целом, статья представляет интересный взгляд на интерес к науке и технологиям, но требует более серьезных аргументов и учета различий в мотивациях людей.

Сгенерировано ChatGpt

Также автор указывает на то, что интерес к темам, связанным с сознанием, может быть связан с желанием обрести контроль над собственной жизнью и защититься от страха смерти.

Однако, статья не уделяет должного внимания тому, что интерес к науке и технологиям может быть связан не только с эскапизмом, но также с желанием преодолеть сложности и решить глобальные проблемы человечества.

Т.е. выходит, что человек хочет решить глобальные проблемы просто так, а не потому что ему потом в этом мире жить, и если не решить глобальные проблемы, то будет как минимум менее приятно жить. Или даже вовсе не получится жить дальше.

Также следует отметить, что автор слишком категорично и обобщенно рассуждает о всех ученых и специалистах в области искусственного интеллекта, считая их всех эскапистами, стремящимися к контролю над жизнью и избеганию страха.

Если рассматривать конкретную тему, то эскаписты не все. Будут ведь разные мнения на один и тот же счет. А значит кто-то эскапирует, кто-то менее.

Если же рассматривать человека в принципе, причем любого, то да, мы все эскаписты.

На мой взгляд, важнейшее отличие биологической нервной системы — самопроизвольная инициализация, генерация сигналов. Алгоритм нейронки, каким сложным бы он ни был, по определению запускается кем-то извне и работает по каким-то детерминированным принципам. Пускай и настолько сложным, что сейчас они перестали поддаваться анализу. Нейроны же, вероятно, связаны не только с вводами и выводами, но и с неизученными стохастическими процессами.

Иными словами, современные нейронки и биологические нервные системы допустимо сравнивать только если доказуемо и доказано, что последние тоже можно свести к машине Тьюринга.

Но человек также создан извне, так как сама вселенная создана из вне, при этом какой-то принципиальной границы конца этого толчка при создании вселенной нет, так что и человек и нейросеть по сути включаются одинаково

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Если спросить сам чат, то он выдает следующее мнение: "ИИ может быть опасен, если он используется неправильно или в неподходящих условиях. Например, если ИИ используется для принятия важных решений, таких как выдача кредитов или диагностика заболеваний, то его ошибки могут иметь серьезные последствия для людей. Поэтому важно разрабатывать ИИ с учетом этических и социальных аспектов, а также обеспечивать прозрачность и ответственность при его использовании."

Согласно теории предсказательной обработки, к сожалению, все мы живем в подобии "галлюцинации", которая синхронизируется с внешним миром тогда, когда расхождение становится значительным. Мы не можем иметь представление о самой реальности, так как всегда имеем дело лишь с ее "симуляцией", которую нам рисует наш мозг, имея обрывочные представления о внешнем мире.

Во-первых, эта теория не доказана на физиологическом уровне
Во-вторых, она касается только чисто сенсорного восприятия, вы пытаетесь натянуть ее на сознание


Не надо так

  1. На счёт того, что люди делают по сути осознанный (пусть это осознание даже у них где-то глуобко внутри) выбор в пользу конкретных идей я соглашусь с вами. Я давно заметил, что то что происходит в нашем государстве это не только по глупости людей, они не просто поддерживают конкретные неадекватные вещи, происходящие в государстве, а это именно из выбор, потому что никакие объяснения, которые могут привести к изменению выбора не работают, даже объективные.

  2. На счёт того, что в споре два человека не могут сделать единые выводы и отказаться от старых убеждений только из-за чисто психологических проблем или удобств я не соглашусь, потому что есть неизученные вещи, которые необходимо не просто объяснить в теории, а как-то доказать, соответственно, если нет доказательства какой-то позиции, то не может быть единого мнения. Например в экономике нет единственноверной теории, есть разные экономические школы и разные экономические теории, даже если есть доминирующая экономическая теория, которая используется центральными банками в мире это не означает, что эти теории доказаны в отличии от других, просто это подход, который имеет свои плюсы и минусы, а плюсы и минусы выбираются не только чисто психологически, но и исходя из обстоятельств, т.е. возможно на определенном этапе развития человека те экономические структуры и теории и еют место быть, а при изменении обстоятельств их уже выгодно менять. Также и в науке может быть спор о чем-либо, но пока нет объективных доказательств, то не может быть единого мнения. Просто недостаток информации об обсуждаемом явлении может приводить к различным мнениям на этот счёт, всё-таки именно так и работает мышление и даже научный метод, нельзя прийти к какому-либо выводу не исследуя ничего, а сам процесс исследования как раз и подразумевает, что исследовать можно разными способами с разных сторон. Слона не видно, но в слепую мудрецы его могут исследовать пока не опишут полностью и поэтому слон вполне может быть и веревкой, деревом или змеёй.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации