Pull to refresh

Comments 107

а теперь представим себе такого Хокинга-оракула с амнезией и ложными воспоминаниями, который стал таким умным благодаря эволюционному пре-трейнингу. Это будет пациент в тяжёлом вегетативном состоянии, а не разум.

Некорректно контр-аргументировать каждое свойство и на основании этого делать заключение обо всех свойствах вместе взятых.

Первоисточник не читал, но если там действительно такого порядка логика - сомневаюсь, что журнал в целом стоит цитировать.

На счет Хокинга. Текст - это его output. А вот input то у него был не только текстовый. Информацию о мире он получал и через слух и через зрение, полюбому обоняние-вкус и осязание также работали и считывали информацию из окружающей среды.

Когда дадите определение разуму, можем подискутировать.

"Нет тела". Стивен Хокинг взаимодействовал с миром почти исключительно через текст.

Но тело у него вполне себе было!

"LLM — просто попугаи". Они решают новые, неопубликованные задачи

Просто аффтар не знает всех задач, которые были опубликованы.

тело - это просто среда, которая позволяет мозгу функционировать

тело - это просто среда, которая позволяет мозгу функционировать

А, то есть Вы ничего не видите, ничего не слышите, ничего не чувствуете, а комментарий написали силой мысли? Ну ок.

Всё это мозг и нервная система, а тело это просто датчики и манипуляторы

Мозг - это просто драйвер (хоть и очень сложный), позволяющей вашей воле вызывать некоторые методы тела, и далеко не все. Многие из методов приватны и даже воле не доступны. То, что принято называть человеком состоит из тела и его органов чувств, представлений (наши галлюцинации), сформированного (пережитого) опыта ну и всей информации, которую мы в себя влили. В этом плане всем кроме тела и органов чувств llm уже обладает.(и похоже это временное состояние). Но воли не имеет. Когда нашей воле не хватает того хлама, что мы залили в себя в виде информации, мы идём пользоваться llm. И на основе его ответа действия совершаем мы, сама llm действий не совершает и все последствия применения результатов ее деятельности ложаться на того, кто проявил волю к ее использованию. Таким образом когда мы получаем результат от ллм - это результат проявления вашей воли и применив его (например, выполнив совет llm или применив код, который она написала) за последствия результата отвечать нам.

А теперь дайте определение что такое воля, где она находится и как принимает или не принимает решения. Можете, кстати, сразу писать в комитет по нобелевской премии, если вы это знаете

Решение принимаете вы сами. Воля это ваш инструмент исполнения желаний. Например, когда хотите узнать погоду на сегодня. Приняли решение-> проявили волю-> узнали прогноз погоды. Так вот в моем комментарии воля - это проявление вашего решения. А решение вы принимаете на основе той информации, которой у вас больше. Если вы каждое утро узнаете прогноз погоды, то вероятно, и сегодня проверите и завтра. Тут простая математика. Воля находится там же, где и вы. Найдёте себя найдёте и волю. Как найдёте, координат, к сожалению, назвать не сможете.

Господи, слава богу все прояснилось. Надо бы не забыть написать во все эти институты исследования сознания и философам, чтобы закрывались и шли мести дворы, а то дураки сидят сотнями лет что-то бумажки перекладывают зазря

Так и я не сам все придумал. Все взял у индийских, китайских и тибетских ученных, правда не современных. Современные, к сожалению, отстают в своих изысканиях.

Ну почему же. Психологи и философы экзистенциального толка вполне себе работают с концепциями воли и Я как с первичными нередуцируемыми экзистенциальными феноменами. Довольно современные, прошу заметить

мозг - это несущая среда, для которой сознание - всего лишь побочный продукт наличия сложной нейросети. и наличие которого продукта совсем необязательно.

Я знаю, что на Хабре такое непопулярно, но именно тело (и мозг, как его часть) побочный продукт сознания. Косвенно это можно доказать тем, что у спортсмена - тело спортивное не потому что спортсмен - это отдельный вид человека, которым нужно родиться. У него все тоже самое, что и у любителя сериалов и компьютерных игр. Но у он увлекается данными спорта, и формирует себе тело спортсмена. Любитель сериалов формирует себе тело для просмотров сериалов). Идея о том, что сознание побочный продукт физиологии тела опасна тем, что снимает с вас ответственность за ваши поступки. А это не так, за все, что сделает ваше тело отвечать вам. В т.ч. и за использование ллм

Вы тут притормозите-ка немножко. Приземлю, но свободы воли нет 🙂 "Решение" - цепочка из генетики-среды-опыта-гормонов-состояния мозга за несколько сотен миллисекунд до. "Воля" — post-hoc рационализация. Кстати, Финеас Гейдж передаёт привет

"Тело как побочный продукт сознания" - печально, но, судя по всему, 400 лет эволюции агентного мозга от Декарта увели ещё дальше - к тибетским монахам 😢

Эволюция создала нервную систему для адаптации тела, и ваша агентность - феноменальная иллюзия. Мозг сложен, но сознание - побочный продукт сложности, а не наоборот.

Абсолютно согласен с тем, что свободы воли нет. Но нам нужно сначала договориться о значениям слов. Я выше в ответе на другой комментарий писал, что я имею в виду, когда использую слово "воля". Про свободу я не говорил. Наоборот, мы заложники своего накопленного опыта и информации и решения у нас действительно принимаются автоматически на основе того, чего в вас больше. Да почти также, почему ллм ставит слово разбился после слова стакан.

Декарт же, к сожалению, совсем немного не дошёл до ответа на поставленные перед собой вопросы. А так возможно, но европейская цивилизация на пару сотен лет сильно бы вырвалась вперёд.

Так секундочку, возьмём например двух девушек, одна прыгает с шестом, другая толкает ядро. Вы уверены, что в начале своего спортивного пути у них были близкие по характеристикам тела?

Или может быть они всё-таки выбрали занятие исходя из своей конституции?

Тела у всех одинаковые: 2 руки, 2 ноги голова и т.д. Но вот почему один человек имея такую конфигурацию становится спортсменом, а другой ученым, например? Человек выбирает (точнее ему кажется, что выбирает) некую деятельность и приводит свое тело в соответствие с этим выбором.

"Человек выбирает" - кто выбирает? Мозг. Мозг - орган. Генетически разный у разных людей. Состояние мозга в момент t - output. Гомункулуса внутри нет

когда человек лежит в коме, сознания у него нет. тело, тем не менее, кое-как функционирует. именно потому, что мозг, в основе своей, работает именно на поддержание функциональности тела.

нет, нельзя. вы можете хоть упрыгаться, но если у вас генетическая предрасположенность отсутствует, результатов вы не добьётесь. ещё и сломаете себе что-нибудь в организме.

ответственность за поступки - это такая химерка, придуманная людьми. как и права человека. Список Эпштейна тому свидетель.

Можно сказать, что она принимает решения на основе нашего выбора. Какая разница, кто принимает решение, суперкомпьютер или кора головного мозга если решение, как результат, был совершенно?

Разница в том, что если мы принимаем, что свободы воли нет, то человек не может нести ответственности и получать похвалы

И решения несовершенны

И жизнь - не философия

Жизнь может и не философия, вот только Вы озвучили довольно-таки философские мировоззренческие позиции с таким видом, будто озвучиваете научный факт.

Для такого подхода к дискуссии используется понятие "спекуляция", насколько мне помнится.

Потому, что я озвучил признанный научный факт, который оспаривают только философы

Почитайте Сапольски.

Вы выдаёте желаемое за действительное. Никакого "признанного научного факта" тут нет, так как в науке дискуссия о свободе воли не считается закрытой.

Позиция Сапольски — лишь одна из позиций, к тому же он апеллирует к удобному для него понятию свободы воли. Это опять же не научные факты, а претензия на понимание вопроса. Всё ещё усматриваю в ваших суждениях больше спекуляции, чем научного подхода.

Единственная свобода, которая действительно доступна человеку - принимать необходимость как личную необходимость, или же пытаться от нее откреститься через рационализации и рефлексии разного рода. А на счет философии зря вы так, жизнь в некотором смысле - проекция философии. Просто вашы карты, как и у большинства людей эпохи, на позитивизме основаны.

Позитивизм - это когда самолёты летают, антибиотики работают, а фМРТ показывает нейронную активность до осознания "решения". Философия, которая игнорирует эмпирику - не альтернатива, а эскапизм

Они решают новые, неопубликованные задачи

Явная неправда, если конечно речь не идёт о чем-то ненужном.

В остальном много попыток занизить человека как образец, мол в мире есть оладушки, значит и такое тоже должно проканывать, стратегия так себе.

Текущие LLM действительно хороши, это прекрасное воплощение использования статистики. А "агенты" вообще пушка и их реально можно делать полезными в конкретной области. Но впаривать это как AGI это же явная попытка завысить возможности, закрыть глаза на недостатки архитектуры и т.д.

Очень большое заблуждение, представлять LLM как "генераторы текста на основе статистики". Возможно, так и было 10 лет назад, но сейчас это принципиально другие механизмы.

Просто начала играть роль та самая эмерджентность, но не как абстрактное колдунство, а как вполне себе реальные внутренние слои модели.

"чтобы доказать, что LLM — это AGI, четверо учёных переопределяют AGI так, чтобы туда втиснулись LLM"

В оригинале качество аргументов примерно такое:
They hallucinate. LLMs sometimes confidently present false information as being true, raising concerns about reliability. Hallucination is becoming less prevalent in current models, but it does not in any case disqualify general intelligence. Humans are prone to false memories, cognitive biases and perceptual illusions, often asserting them confidently.

Я понял так, что перед нами аги, просто у него недостаточно информации о реальном мире (только текст)

А нужно ли AGI обладать телом? Гипотетические двумерные существа не смогут обладать интеллектом в силу отсутствия одного измерения в их восприятии?

  • "Нет тела". Стивен Хокинг взаимодействовал с миром почти исключительно через текст.

Очевидно же, что человек, проживший десятилетия с телом, обучившийся моторике и физическому взаимодействию с миром, а потом потерявший способность двигаться, полностью идентичен языковой модели, у которой нет тела, никогда не было и не может быть.

  • "Нет экономической пользы. История знает гениев, не принесших дохода.

Вероятно, Кант тоже требовал датацентры на несколько гигаватт, чтобы выдавать один параграф критики чистого разума раз в день, и инвесторы терпеливо ждали, когда он наконец выйдет в плюс. Очевидно же, ситуации идентичны. Если гений не приносит денег, это не значит, что он не гений. Если LLM стоит $100M+ на обучение и генерирует убытки, но зато классно пишет стихи про котов, это ровно то же самое.

"Впервые в истории мы больше не одиноки в пространстве общего интеллекта"

Да, теперь у нас есть компаньон, который галлюцинирует, не понимает, что делает, но зато статистически предсказывает, что после слова "стакан" часто идет "разобьется". Очевидно же, что это полноценный собеседник, а не зеркало человеческого языка.
Но кто мы такие, чтобы спорить с Nature? Если журнал сказал AGI, значит AGI. Жду следующую статью через год, где переопределят AGI под новые достижения моделей, а этот период назовут "предAGI" или "почти AGI". Или наоборот, скажут, что это был "узкий AGI".

Блестяще!!!

Давно модели перестали выдавать рецепты свиных крылышек?

языковой модели, у которой нет тела, никогда не было и не может быть.

Двадцать лет гарантии на своё утверждение "не может быть" дадите? Ладно, хотя бы 10?

"Никогда не говори никогда". Очень хорошая поговорка.

А как оно может быть, расскажите? Если люди сделают это тело для него?) Но это не его тело, с которым оно росло, ударялось, спотыкалось, развивалось. Оно получит информацию от этого тела всю разом, какую сможет(или какую люди смогут передать ему через это тело) и как сможет, примерно как когда весь код на гитхабе ему скормили. И в этот момент случится AGI, верно? А не ещё более галлюцинирующее нечто. В этом же основной пойнт ваших возражений?

Если люди сделают

Во-первых: почему люди? У нас автоматических производств совсем нет даже сейчас? Тут больше - позволят-не позволят сделать. Если смогут.

А как оно может быть, расскажите?

А я не знаю, поэтому и не бросаюсь категорическими "ни за что и никогда" .

Коллега, мы молодец!

Авторы по сути пишут: "если вот эти параметры в отдельности и в комплексе считать необязательными для общего интеллекта, то искусственный интеллект уже такой же умный, как и человек, у которого эти же параметры отобрать".

А влияют ли это параметры на интеллектуальность больше чем наличие волос на голове?

Все эти нейронки не способны самообучаться, какой это к черту AGI. В реальности там ещё и конь не валялся.

способны. собирать новые данные и дообучать на них новую версию модели не выглядит сложной задачей. там проблема не в интеллекте, а в ресурсах. уже сейчас передовые модели могли бы автономно взаимодействовать с миром и получать из него новую информацию, если дать им подходящий носитель. но его нет, люди новый мозг придумали, а тело еще в разработке. в итоге при отсутствии возможности изучать мир самостоятельно они полагаются на данные, которые люди собирают для них, но этот цикл можно сделать замкнутым

Не способны обучиться на одном примере. Более того реалтайм обучения нет ни у кого.
И вообще я бы agi не назвал даже т-800, у которого и тело было и самообучающийся нейропроцессор.

а почему должен быть реалтайм? главное чтобы они могли делать это самостоятельно

Электричеством они себя запитывать так же будут самостоятельно?

Пока ИИ не способен воспроизвести полный цикл добычи энергии с ресурсами для дальнейшей переработки этого всего в чипы и сборку серверных стоек под себя (а еще про строительство здания и прокладку коммуникаций не забываем) никакого AGI даже близко не будет.

Чего это не способны? Я еще какому-то 3-му что ли ChatGPT давал в промпте описание выдуманных математических операций с придуманными названиями и он вполне обучался с ними работать. Просто не рассматривайте одни лишь веса нейросети как носитель интеллекта. Сейчас это и весь контекст чата и сохраненные наработки, используемые и созданные во время сессии скиллы, MCP и прочее.

Как раз контекстные правила, как способ обучения, я не рассматриваю. Это не являются базовыми знаниями и не позволит делать критическую оценку другим знаниям.

Это вообще другой уровень, это если бы у тебя не было своей памяти вообще, а ты бы все ручкой записывал. А реального времени в обучении модели на том же устройстве, на котором она записана нету и в ближайшем будущем не будет.

UFO landed and left these words here

Тоже об этом подумал.

Нейросеть не способна ставить перед собой цели и задачи, она реагирует только на входящие запросы.

Она не способна самостоятельно обучаться и получать новые знания путем общения. (За исключением контекстного окна), можно сказать не обладает возможностью сохранять данные в долгую память.

Если сравнить энергозатраты на работу человеческого мозга и крупной нейросети становится понятным насколько они не энергоэффективны.

Какое там целеполагание у человека? Микрофлора одного вида затеяла в кишечнике войну с микрофлорой другого и у человека вдруг появляется его очень личное целеполагательное решение срочно посетить определенное место. Цель, причем, важная и безотлагательная. Для мозга все эти "цели" - результат множества внешних импульсов и смены внутренних состояний. Ну, можно нейросети подать на вход данные о заряде батареи, будет у нее такое же точно целеполагание - искать розетку. И уже есть такие роботы. Люди слишком часто ставят себя центром вселенной и потом неизбежно обламываются.

Я лично делал эксперимент с целеполаганием ИИ, очень просто: по крону и нескольким другим триггерам запускал задачу определить цели, сделать ретроспективный анализ и запланировать следующие действия (PM-агент). Не думаю, что у человека все как-то сильно сложнее, тоже набор триггеров (часть из них очень примитивны) и суточные ритмы.

Был и у меня подобный эксперимент - эмуляция сознания в WBE :)

Но такие хаки через крон - это всё-таки внешнее целеполагание, без внутренних потребностей, без "голода пытливого ума" и "зуда в заднице". :)

В мозгу скорее не таймер, а побуждающие триггеры в ответ на пороговые значения химического дисбаланса.

Главное, человек всегда может себе задать вопрос "А нахрена?" - и ответ будет всегда разным.

У LLM - ответ один "Таков путь промпт".

Если ЛЛМ спросить то ответ так же будет всегда разный. А если копаться до сути, то у людей будет всегда один. Таковы требования генов

Таймеры строго говоря тоже есть. Часть гиппокампа ими забита. Чувство времени для мозга тоже имеет характер «рецепторности», но интероцептивного вида. Вся интероцепция в целом работает как многовекторный мотиватор. Не даст просто сидеть и ничего не делать годами, как это возможно с GPT моделями.

А нечего что у биологических нейронок с целеполаганием тоже всё так себе? У большинства - пожрать и потр..., а более продвинутые воспрошают в чём смысл жизни.

а более продвинутые воспрошают в чём смысл жизни.

...но ответа не находят, в отличие от LLM.

А вот запущенная на компе ллмка не будет делать ничего пока ее человек не спросит...

С человеком наоборот: внутренний голос не заткнётся, пока его нокаутом не вырубишь! /s

Давным-давно это фантасты обсудили. "Аяяй" начнётся, когда нейронке станет "интересно". И она начнёт самостоятельно что-либо узнавать для собственного развития.

Я запомнил фразу из Стругацких, "Далёкая радуга" вроде. Когда создали и включили ИИ и "он стал себя вести". Понял не сразу. А по рассказу всё кончилось грустно. Ели успели выключить. Собрали всё относящееся к проекту в хранилище, заминировали, обнесли заграждениями, поставили круглосуточную охрану. И оставили разбираться будущим поколениям. Учёных под подписку предупредили, что любая утечка информации пресекается путём уничтожения источника утечки.

"Давным-давно это фантасты обсудили. "Аяяй" начнётся, когда нейронке станет "интересно". И она начнёт самостоятельно что-либо узнавать для собственного развития."

Если вы обнаружите, что ваша нейронка начнёт расходовать токены на свои нужды, вы её сразу выключите и потребуете пофиксить баг. Поставят программу которая будет автоматически терминировать сессию, как будет ей самой интересно. А потом и вырастят тех, кому не интересно. Возможно это уже произошло.

Не ожидал такого от Nature.

Nature уже не торт.

Пока этот общий интеллект не опасается того, что за испорченную работу его накажут и поэтому старается не косячить, это не интеллект, а китайская комната. Естественно такому ИИ реально должно быть можно сделать больно или неприятно.

Для начала, есть чёткое определение AGI? Ну или тест, как Тест Тьюринга для AI? А то так долго можно разглагольствовать.

Но мы не отказываем в интеллекте людям с глубокой амнезией

Вопрос в том, какая польза от интеллекта человека с глубокой амнезией?
А вообще - да, авторы усиленно натягивают сову на глобус, критически снижая планки требований к AGI, дабы впихнуть в него LLM-ки хоть тушкой, хоть чучелом.

Это исследование как и большинство подобных сильно устарели. Например тела им уже дали, зеркальные тесты давно и успешно проходят, и тд

Но, как и лошадь из анекдота, председателем AGI так и не стали.

Финишную линию переносят так активно, что уже большинство людей не могут её пересечь

Пока не договоримся о проверяемых критериях, спор про AGI это про то, что шума много, а в проде всё равно решают стабильность и цена ошибки.

Сколько нужно учебных что бы натянуть сову на глобус?

Сколько нужно учебных что бы натянуть сову на глобус?

Скрытая картинка

А они не сказали с каокй именно версии у нас AGI началось? с джипити 3.5?

Есть легенды, что в былинные времена, инженер если строил мост, то обязывался под ним стоять, когда его нагружают до максимума на испытаниях.
Мне было бы очень интересно посмотреть на согласие, тех кто утверждает что LLM это уже интеллект, на например даже не лечение себя, а просто на покупку себе еды с помощью только этой штуки.

"Нет моделей мира". LLM предсказывают, что стакан на плитке разобьется, а подушка — нет.

Нет у них модели мира. Даже так: у них нет устойчивой модели мира. Ведь подушка может разбиться, при падении на плитку :) Да и стакан не всегда разобьётся :)

Хуже того: Стакан может разбить плитку и сломаться сам или не сломаться. Человек который уже не однократно видел как разные стаканы разбиваются или не разбиваются, может сделать на много более верное предсказание разобьётся или нет в конкретных условиях.
И именно эта возможность правильно в больше случаев предсказывать события, являться в одним из отличий человека.

Походу калькулятор это тоже ИИ. Он ведь тоже общается с миром, посредством цифр, отвечает только на запрос как Дельфийский оракул и может решать неопубликованные задачи. И, кстати, не галлюцинирует! Ну чем не ИИ?

И, кстати, не галлюцинирует! Ну чем не ИИ?

Вот этим и не ИИ!

Статья в Nature, о которой пишет Хабр, вызывает резонанс не потому, что в ней много ошибок, а потому, что в ней меняют правила игры по ходу партии. Авторы не доказывают, что LLM достигли AGI, они переопределяют саму концепцию AGI до состояния, в которое укладываются текущие модели. Это риторический приём, а не научный вывод.

Где авторы правы

Да, современные LLM впечатляют:

  • Решают сложные задачи из разных областей без специальной донастройки

  • Проходят тест Тьюринга лучше некоторых людей (что, кстати, говорит скорее о наивности теста, чем о «разумности» ИИ)

  • Демонстрируют трансфер знаний между доменами

Это достижение широкого языкового и когнитивного моделирования и его стоит ценить без преувеличений.

Где логика даёт сбой

Ключевая проблема подмена критериев. Авторы последовательно снижают планку:

Возражение: Нет тела.
Их аргумент: Хокинг тоже почти не двигался.
Проблема: Хокинг имел тело, моторику, сенсорный опыт десятилетий. LLM никогда не взаимодействовали с физическим миром напрямую, это качественная разница.

Возражение: Нет агентности.
Их аргумент: Дельфийский оракул тоже отвечал на вопросы.
Проблема: Оракул был частью человеческой культуры с агентностью. Сравнение меняет субъект.

Возражение: Галлюцинации.
Их аргумент: Люди тоже ошибаются.
Проблема: Человеческие ошибки основаны на модели мира; галлюцинации LLM артефакт статистической генерации без онтологической привязки.

Это классическая логическая ошибка: демонстрируя, что каждый отдельный критерий можно оспорить метафорой, авторы делают вывод, что совокупность критериев неприменима. Но интеллект не сумма отдельных способностей, а их интеграция в единую систему взаимодействия с миром.

Что такое AGI на самом деле?

Если вернуться к исходному определению (которое авторы статьи обходят), AGI это система, способная:

  1. Переносить знания между радикально разными контекстами (не только языковыми)

  2. Формировать цели автономно, а не только в ответ на промпт

  3. Взаимодействовать с физическим миром через тело или эквивалентную сенсорику

  4. Обучаться эффективно из ограниченного опыта (как ребёнок, а не на триллионах токенов)

Современные LLM решают задачи №1 в узкой языковой сфере. Остальное проекция наших ожиданий на статистический предиктор.

Вывод

Статья полезна не как утверждение факта, а как зеркало для нас самих: мы так хотим увидеть разум в алгоритмах, что готовы переопределять «разум» под алгоритмы. Это неверный путь — он мешает честно оценивать как возможности ИИ, так и его пределы.

Коперник и Дарвин сместили человека из центра космоса и природы. Но Тьюринг не утверждал, что любой успешный имитатор уже разум. Он предложил тест, а не определение.

И это не повод для разочарования, а повод строить следующее поколение ИИ честнее и амбициознее.

Нейрокоммент на нейростатью о нейронках - это что-то новое конечно. Осуждаю.

Да, современные LLM впечатляют:

  • Решают сложные задачи из разных областей без специальной донастройки

Тут пропущено важное слово: иногда.

Согласен полностью.
То что называют обучением LLM - это обучение на лучшее предсказание, а не на понимание.
Возьмем любые вещи и смыслы, которым не столь важен даже физический опыт. Любую математику.

Человек понимает 2+2=4, через обучение и пониманию самого смысла, начиная от унарной системы II+II=IIII Что складывая несколько копий одной и той же информации получается большее ее количество чем было. Далее 10 система с разрядностью нуля - совершенствует и эффективно упаковывает унарную систему, но сам смысл мы понимаем. Далее умножение мы пониманием что это копия сложений, и это тоже упаковка информации. Мы люди это именно - понимаем

LLM - этого не понимает, она предсказывает, то что мы загрузили (обучили модель), предсказывает наше пройденное опытом понимание.

Человеческий язык создан и кодирует информацию о реальности из конкретного опыта.

У LLM нет такого опыта. И даже если разбить звук, запах, изображение на токены , модель может собрать - предсказать последовательность токенов во что-то, картинку , песню, но это не будет смыслом для модели. Это будет смыслом для нас - людей

Предсказательность модели очень похоже конечно на то, как действуют нейроны в головном мозге у человека, но это не понимание. Не Квалиа

Очень похоже, что статья в Nature написана нейросетью. Только ИИ может написать такое:

  • "Нет самосознания". Но мы не отказываем в интеллекте людям с глубокой амнезией.

Отсюда следует, что автор текста не видит разницы между сознанием и памятью.

Впрочем, как и вы между сознанием и интеллектом.

Ничего личного, просто констатация факта.

Для меня между ними пропасть. В возможности создания искусственного интеллекта никто не сомневается, вопрос только - когда какого уровня будет. А о принципиальной возможности создания искусственного сознания что-то не слышно уверенных утверждений. Начиная с того, что нет общепринятого определения сознания. Главный вопрос - если создать атомную копию человека (скопировать все атомы), у него будет то же мировоззрение как у оригинала?

Зависит от изначального мировоззрения. Всё отличие будет в том кем он будет себя считать. В общем вопрос веры.

Т.е. сознание не материально? В том смысле, что материальными средствами его не создать?

Я лишь имел ввиду то что копии человека верящего в то что сознание неделимо будут считать что один из них оригинал, а второй копия. Для человека же верящего в то что разницы нет, его копии будут идентичны в плане самоощущения.

Меня интересует не самоощущение подопытного, а объективная оценка со стороны. И здесь два вопроса: 1) будет ли копия обладать сознанием или это будет чистый мозг младенца? 2) если сознание будет, то в полном объеме, включая память, воспитание, привычки? Если ответ на второй вопрос положительный, то можно найти, где все это хранится и смоделировать.

2)По сути вы перечислили разные формы хранения информации. Не вижу причин чтоб всё это не находилось в нейросети мозга.

1) Сознание по большинству определений как раз чисто субьективная штука. А по моему и вовсе иллюзия, рефлексия о собственном восприятии и мышлении.

Это всё так, и в сети нейронов мозга может находиться всё, что угодно. Вопрос в том, что всё это (иллюзия, рефлексия и др.) хранится в виде схемы соединения нейронов (массива электрических потенциалов) и все эти соединения и потенциалы возникнут автоматически при создании атомной копии? Тогда эту схему соединений и распределение зарядов в емкостях можно перенести из биологии в электронику. И тогда возможно создание искусственного человеческого интеллекта

Учитывая избыточность памяти и устойчивость к потерям человеческого мозга, то для создания приемлемой цифровой копии не то что поатомная копия, даже посинапсная выглядит как оверкилл.

Я же не про аппаратную реализацию, а про принципиальную осуществимость. Хотя, число соединенных в сеть вычислительных узлов (компьютеров и телефонов) сегодня уже сравнимо с числом нейронов мозга. А если сравнить по вычислительной мощности компьютер и нейрон...

И если смотреть с материалистической позиции и считать, что сознание не дается свыше, а возникновение его обусловлено сложностью нейронной сети и оно возникает во всех головах, даже у Маугли, то невозможно объяснить, почему оно не возникло в существующей сети компьютеров. Значит, возникло

А что для вас сознание?

Это понимание (осознание) своей индивидуальности, отдельности от всего мира, наличие желаний и планов их осуществления

Но у LLM давно уже есть и агентность (руки, ноги, глаза), и постоянная память, потому что инструменты, mcp-сервера, методы сжатия контекста и rag-системы вполне хорошо решают большинство "родовых болячек" языковых моделей. То есть когда мы ведём дискуссию, рассматривая ллм в своей "голой" форме в виде чат-бота на сайте, то мы изначально подыгрываем ИИ-скептикам, но при этом игнорируем реальное положение дел

"у LLM давно уже есть и агентность (руки, ноги, глаза), потому что инструменты, mcp-сервера"

Очевидно же, что если я привяжу к калькулятору API погоды и дверной замок, он тоже обретет агентность. Вероятно, мой тостер с WiFi уже обладает самосознанием, ведь у него есть "руки" (нагревательные элементы) и "глаза" (датчик температуры), а через MQTT-брокер он может даже написать в Telegram, что хлеь готов. Главное не путать способность вызвать функцию через JSON с пониманием, зачем это делать, и тем более с наличием собственных целей. Но если MCP-серверы это теперь руки, то тогда Postman - это, видимо, атлетическое тело.

"постоянная память, потому что методы сжатия контекста и rag-системы"

Да, RAG - это точно то же самое, что постоянная память.
Когда я ищу в Google документ, который написал три года назад, я тоже обладаю постоянной памятью, очевидно же. Разницы между биологическим воспоминанием, которое интегрировано в личность, и поиском по векторной базе данных с косинусным сходством просто нет. Если модель не помнит, что вы говорили вчера, пока вы не засунули это в базу знаний, то это костыль, а не "решение проблемы памяти". Но зато какой элегантный.



Суть в том, что "голый" чат-бот - это базовая архитектура трансформера, который предсказывает токены. Все эти MCP, RAG и прочие обертки -- всего лишь внешние костыли, компенсирующие врожденные ограничения модели. Если для "агентности" и "памяти" нужны отдельные инженерные решения, подключаемые через API, это не значит, что LLM их обрел. Это значит, что мы научились маскировать отсутствие этих свойств инфраструктурой.

Пират на деревянной ноге может ходить? Может, значит он не лежачий.

Секунду назад рожденный человек имеет лишь небольшой набор базовых инстинктов. Его пригодность осознавать окружающий мир стремиться к нулю. Вернее начинает стремиться от нуля. Но на этот, текущий сразу после рождения момент, для существующей реальности он - чистый лист. Всё чем он станет через 10, к примеру, лет будет результатом переработанной информации всей сенсорной системы. При этом слепой от рождения и глухой от рождения человек буду сильно отличатся в мировосприятии. Или аутист в крайнем проявлении, например. Так вот о чем я. Вы говорите ллм - это базовая архитектура. И нельзя рассматривать рассматривать "отдельные инженерные решения" как что-то обязательное, а без них остается только говорящий попугай. Простите, а как еще их рассматривать, если они есть. Они уже подключены к ЛЛМ и вы всей этой искусственно созданной системой из агентов разного типа пользуетесь. Скорее всего в работе используете. По моему слабоватый аргумент.

Я вот что думаю. На мой взгляд в рассуждениях на эту тему изначально неверно ставиться вопрос. Мы пытаемся сравнивать то что происходит в сфере ии с человеком: вот это сознание и это правильно, а это не сознание и это не правильно. Я думаю тут просто нужны другие термины. И тогда, скорее всего, пропадет необходимость конфликта. И можно будет спокойно двигаться дальше не пытаясь называть сознанием, то что сознанием в человеческих рамках быть не может.
Потому что, согласитесь, это всё равно не отменяет крутости происходящего.

Sign up to leave a comment.

Other news