Pull to refresh

Comments 24

Так почему этот не до конца понятный нам механизм (LLM) по мере его усложнения, увеличения вычислительных ресурсов, обрабатываемой информации, не сможет получить это непонятное нам свойство (сознание, самоосознание) - так, как получил это непонятное свойство непонятный нам мозг?

Это не контр довод.
Это вопрос.

То есть это аргумент не атеистический (для многих это эквивалент "не научный")

Не материалистический, а не атеистический.
Атеизм не подразумевает материализм.

Во-первых, что означает "человек понимает эмоциональные и культурные нюансы"? 

Статья называется Чем человеческое мышление принципиально отличается от LLM?, она не называется Давайте всерьез разберем бред нейронок

А если показать многочисленные примеры? 

Показав больше примеров ты получишь переобучение и все.

Хорошо, нейросеть их распознает - "вот здесь есть отсылка к такому-то культурному феномену, а здесь явно присутствует ирония"

Она их не распознает. Чтобы распознать отсылку, нужно иметь осознания концепции отсылки. А тут "GPT просто подбирает следующий наиболее вероятный токен"

а разве человек не говорит часто фразами, каждое слово в которой также крайне вероятно исходя из предыдущей речи, услышанного?

Нет, потому что он устроен очевидно не так, как устроенна llm.
Очевидность проистекает из того факта, что llm мы уже построили, а человека даже близко не знаем как построить.

В общем вся статья это попытка задать вопросы(переформировав утверждения) к вопросам и не получив ответы(от кого их получить то?), увериться в собственных суждениях.

Для начала нужно определиться, а что в действительности хотели объяснить в этой статье. Действительно ли хотят найти более качественную симуляцию человеческого мышления или все же хотят найти механизмы более качественно решающие вопросы? Это два разных вопроса.

Не могут понять куда дальше хайповать что бы и далее 300 наносек зарабатывать.

Да, один из вопросов - возможна ли качественная симуляция человеческого мышления? И может ли качество этой симуляции стать таким, что это будет уже не симуляция, а иное, нечеловеческое, мышление?

Симуляция человеческого мышления будет в пределе улучшения становиться именно подобием человеческого мышления, а не чем-то не человеческим.

Но вот использование такого принципа для решения задач, это не эффективно, это как делать инерпретаторы выполняемые на интерпретируемых языках, и наследуя при этом в довесок вероятности ошибок человеческого мышления.

Решение вопросов это задача решается чистым прогнозированием и классификацией, за счет улучшения качества.

Симуляция человеческого мышления может быть достигнута либо непосредственно кодируя человеческое мышление. Либо за счета выполнения задачи на решателе вопросов, указав ему задачу по симуляции человека, что уже будет инерпретация на интерпретаторе, но в обратном направлении, чем упомянутая выше.

А нужна ли она? Колесо намного лучше человеческих ног решает аналогичные задачи. Ноги универсальные, но такая универсальность обычно не нужна, для решения конкретных задач лучше работают более узконаправленные механизмы.

Чтобы проверить, можем ли имитировать конкретно человеческое сознание со всеми его недостатками? Принципиальных возражений пока нет, только высокая сложность физического устройства, понимания работы которого не хватает на сегодня для качественной полноценной имитации.

Спрашивать у ллм, обученных на известных данных о неизвестных областях, вроде природы мышления - максимально странный эксперимент. Что вы ожидали в ответ?

Тем что в компьютерах все основано но 0 и 1, а мозг на электрохимических процессах.

Минусующие. Можно ваши аргументы против? Или у вас тоже мозг работает на основе 0 и 1?

Современные нейронные сети не имеют механизмов логического вывода, используемых в языке Prolog, экспертных системах и т.д. Идеальным было интегрировать сильные и слабые методы искусственного интеллекта в единую систему, позволяющую находить новые решение и объяснять как это делается. Многие проблемы непонимания смысла понятий, действий, законов мира, характерные для нынешних поколений нейронных сетей, могут быть успешно решены добавлением систем логического вывода.

Систем логического вывода тоже далеко недостаточно. Основу человеческого мышления составляет интуиция, интуитивное мышление. Именно она направляет логические рассуждения в нужное русло. А иногда целостная картинка сама мгновенно складывается сама по себе. Правда, после длительных логических рассуждений.

А интуиция разве не результат тренировки части нейронной сети мозга разными жизненными ситуациями (как реальными, так и воображаемыми)?

тайны интуиции, как и роль сна, еще не до конца разгаданы. Понятно, что ключевую роль тут играет обучение и опыт во многом аналогичный используемому в нейронных сетях. Но мне кажется, что это связано с подсознанием, чей механизм тоже еще далек от поной ясности.

понятно, что до уровня человеческого мышления много чего не хватает еще. Контура эмоций например, но начинать модификацию существующих нейронных сетей надо по моему мнению именно с добавления модуля логического вывода. Это будет принципиальный шаг в самом главном направлении. Возможно в качестве движка логического вывода можно попробовать некую модификацию рекуррентных сетей?

Хотел бы заметить, что большинство людей также не имеют встроенных механизмов логического вывода, используемые в языке Prolog.

понятно что механизм унификаций Prolog это только модель мозга для решения логических задач, как и сами искусственные нейронные сети, тоже модель, но этот механизм доказан математически и проверен на практике. Я не утверждаю, что это оптимальный выбор для применения в нейрокомпьютинге.

Чем человеческое мышление принципиально отличается от LLM?

Наверно тем, что в хайповом термине "Искусственный Интеллект" слово "интеллект" лишнее. Нейронная сеть - это лишь набор статистически значимых коэффициентов.

Приведу несколько аналогий, на что похожи языковые модели:

1) На пародиста (см. например в ютюбе старую пародию Курехина на лекцию о броме...).

2) На человека, находящегося в тяжелом бреду (например, после травмы головы). Нейронные связи еще позволяют ему складно (и даже профессионально) генерить предложения, но связи с реальностью и интеллекта (уже без кавычек) там уже нет.

Можем ли мы сказать, что нейроны и связи между ними в человеческом мозге тоже в некоторой степени набор статистически значимых коэффициентов, сформированный эволюцией и взаимодействием с окружающей средой? Или здесь есть что-то большее, нематериальное?

Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.

Это же надо написать такой кликабельный заголовок, а потом ляпнуть такую глупость, что дальше читить уже совсем не хочется.

А "истинное" понимание отличается от просто понимания истинностью. Во истину же!

Сознание — это

Результат особого строения, эволюции мозга

Результат особых «алгоритмов» работы нейросети мозга

Нечто нематериальное, которое невозможно воспроизвести в виде рукотворной машины

Явление с пока непонятной природой

А где очевидный примерно со времен "пустоты и атомов" демокрита вариант "Никакого сознания нет, "сознание" - это просто то как мыслит конкретно человек, любой AI достигший человеческого качества в принятии решений и обладающий агентностью подобно человеку можно будет считать обладающим сознанием, все что мы можем исследовать - как сделать AI эффективным как человек".

Это был ответ gpt4:) - см.в самом начале, ответы llm

Языковые модели работают на основе вероятностных оценок словосочетаний и паттернов в больших наборах данных, но не обладают истинным пониманием контекста или смысла текста, который они обрабатывают.

Вариант, что сознания нет - это "свой вариант" )

Я считаю, что сознание есть, поскольку у человека есть как минимум понимание своего места в мире (вот он я, а вот он остальной мир, живой и неживой)...

Т.е. у человека в голове есть модель мира в которой указано его место. И это значит что существует некая особая сущность "сознание"? Связи не видно.

Сознание - это ощущение "я живу здесь и сейчас, я есть, я Иванов а не Петров, я ощущаю себя здесь и сейчас а не завтра или вчера". Но это ощущение - оно является чем-то особенным если оно мое лично, а если я рассматриваю его у других людей, это опять нечто довольно непримечательное происходящее в нейронах их мозга. Не более примечетельное чем работа GPT4.

Я всем советую разделять два типа сознания - сознание с точки зрения философии и сознание с точки зрения AI и исследования мозга. Вторая сущность не представляет из себя ничего фундаментального. Это просто набор интересных качеств который появляется у достаточно умных систем. Первая сущность (сознание в философии) - это фундаментальная вещь, о которой вообще нельзи ни говорить ни ее исследовать.

На это "сознание-в-философии" даже указать очень сложно. Есть правда один способ: "Сегодня 12 сентября. Чем с точки зрения науки этот момент времени отличается от всех других?". Ответ на этот вопрос невозможен без привлечения философской концепции сознания. Сегодня отличается от всех моментов потому что я ощущаю себя сегодня..

А что такое понимание? Как его выразить в категориях, которые позволят сравнить ваше понимание с моим, а наше - с нейросетями? Если вы спросите нейросеть "кто ты", она ответит "я большая языковая модель" или что-то в этом духе. Так она осознает кто она? Как доказать, что нет? Ее спросить? А если я вам отвечу, что у меня сознания нет, вы согласитесь с таким ответом? Нужна физическая основа, а ее нет.

Стоит заметить, что сознание человека часто выключается - во сне, при травме, болезни. А иногда постепенно угасает, например от алкоголя.
Из этого можно предположить, что сознание очень ресурсоемкий процесс. Думаю, это что-то типа симулятора, который надстроился над большой нейросетью (интуицией) и моделирует реальность, в том числе своего носителя.

Всё больше и больше людей, фактически, прямо заявляют о том, что существующие LLM — суть искусственная интуиция, не хватает лишь маленького шага, чтобы осознать это и сформулировать именно так.

Аббревиатура ИИ — правильная, неправильна лишь её расшифровка: интеллекта там нет, там — голая интуиция.

Становится понятно, почему иногда LLM несёт бред, а иногда становится безгранично тупа: думать-то — нечем, потому что интеллекта — ровно 0, сплошная интуиция.

"Мне так кажется", "я так вижу" — это можно добавить к каждому ответу LLM, и тогда даже галлюцинации становятся приемлемыми: ну, интуиция "видит это именно так", "ей так кажется", — какие тут могут быть претензии?

Когда люди стараются дать ответ на какой-то вопрос, основываясь лишь на интуиции при жёстком недостатке данных по теме этого вопроса, получается ничуть не лучше, чем у искусственной интуиции. Ничего удивительного, таковы свойства интуиции.

Итак, искусственную интуицию изобрести уже удалось, теперь осталось изобрести искусственный интеллект. Но на этом поприще, похоже, ещё и конь не валялся. Даже осознание существующего положения вещей далеко не у всех, кто этим занимается, есть.

А вопрос сознания упирается в природу создания - что оно из себя представляет? Это особая форма "железа" (биоматерии мозга), "софта", "данных" (связей между нейронами) или сознание нематериально (с небольшим отходом от жёсткого атеизма), хоть и неотделимо от материи, и не может поэтому быть / возникнуть у машины, сколько бы железа, алгоритмов и данных у нее не было?

Хорошо сформулировано.

В случае нематериальности сознания, в первом приближении, почему нельзя создать нечто искусственное нематериальное?

Ведь мы же можем создать искусственное материальное.
И даже кое-что нематериальное.

Алгоритмы и программы — нематериальны, хотя и проявляются в материальном.
И мы придумываем (открываем) алгоритмы, а потом создаём на их основе программы, — то есть, создаём искусственное нематериальное.

Сознательное или бессознательное, это к LLM не имеет отношения. К LLM имеет отношение точность классификации, которая может быть достигнута той или иной структурой сетки.

А так же то, какие именно правила лучше усваиваются этой структурой, а какие поплоше.

И у человека просто другое множество правил, которые природа посчитала более важными к усвоению. Отсюда и возникает такое не понимание, как такая сверх большая и умненькая сеточка, не может понять какие-либо простые вещи, зато хорошо знает термины из какой-нибудь узкой научной области.

А дальше, глядя на эти расхождения в важности правил, люди пытаются понять, чего нехватает в сетке, из того, что есть в человеке.

Но по факту, когда утверждают, что у сетки не хватает сознания, то для начала нужно определиться, что такое сознание, и как выглядит этот алгоритм. А уже потом говорить, есть это в сетке или нет.

Какую бы вещь не назвали, чего в сетке не хватает, сначала нужно определить, как эта вещь выглядить в алгоритмическом виде. А уже потом будет понятно, есть это в сетке или нет.

Sign up to leave a comment.

Articles