Комментарии 48
Жаль. Я как хотел скайнета увидеть при жизни
Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни.
Их видели поколения его предков. Младенцы так залипают на погремушки, потому что у них врождённое ожидание того, что объёмные предметы должны быть заполненными внутри, а погремушка нарушает это ожидание.
да с чего бы у младенца были какие-то ожидания к тому что там внутри, у него других забот хватает. Детской нейросеточке в первые месяцы требуется капитальная настройка на организм, вы просто себе не представляете сколько энерги поначалу уходит на то чтобы научиться согласовывать мышечную активность с внешними раздражителями, в первую очередь акустическими. Сперва глаза, потом руки, потом всё осталное. Соответственно, сеточка настроена на самовознаграждение при удачной координации, вот им и нравится
да с чего бы у младенца были какие-то ожидания к тому что там внутри
С того, что представления и свойствах и структуре объекта часть пространственно-временной стабильности, понимания, что объект, который ты увидел, отвернулся, а потом снова увидел - тот же самый объект.
Детской нейросеточке в первые месяцы требуется капитальная настройка
Детская нейросеточка уже вырастает имея начальные соединения.
У Элизабет Спелке были работы, где она показывала, что уже у трёхмесячных младенцев можно заметить удивление, когда демонстрируемые им объекты проходят друг сквозь друга и т.д., т.е. у детей есть врождённое представление о материальности.
"Например, ребенок, уронив ложку, интуитивно понимает, что она упадет на пол, будет греметь и останется там лежать. Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни. Именно понимание этих самых законов позволяет ему с каждым годом делать новые для себя всё больше открытий и, как следствие, делать новые открытия для всего мира"
Нет, не понимает. Чтобы это понять ему нужно сотни раз уронить разные предметы, понаблюдать и сделать собственные выводы/обобщения (все на автомате внутри мозга, без осознанности) + возможно, ещё и "догнаться" видео (благо сейчас мамочки без устали пихают информацию внутрь голов через смартфон). И только в результате этого он поймёт, что греметь будет предмет из металла, а вот мягкая игрушка, как ни старайся, греметь не будет
Относительно эффективные механизмы освоения элементарных навыков - это не "насмотренность предков", а результат эволюционного отбора, ибо чем быстрее осваиваются навыки, тем выше вероятность выживания
"часть пространственно-временной стабильности, понимания, что объект, который ты увидел, отвернулся, а потом снова увидел - тот же самый объект" - такого понимания тоже нет с рождения. И даже аргумент "уже у трёхмесячных младенцев можно заметить удивление... т.е. у детей есть врождённое представление о материальности" противоречит сам себе, поскольку ссылается на 3 месяца постоянного освоения мира - огромное исследование по меркам маленького человека
Думаешь, базовые принципы невозможно засунуть в формулу и выдавать ее в днк? Вот неправильно думаешь.
Можно, но это такие очерки, аля приблизительно куда должен дуть ветер. У тех же мух есть приблизительные базовые настройки для запахов и в процессе жизни качество улучшается и старые мухи лучше различают запахи. (точно ли запахи?) У людей тоже самое по сути, горькое есть горькое и вызывает реакции у малышей, а потом вырастая мы хреначим горький пивандрий литрами
А пример с погремушкой фигня, у ребёнка тупо сенсорная перегрузка из-за "непонятных вещей", а система внимания всё ещё рефлекторная и тупо залипает на сильных стимулах.
Ну, я пожалуй, не буду спорить с человеком, который знает больше профильных специалистов.
У Элизабет Спелке были работы, где она показывала, что уже у трёхмесячных младенцев можно заметить удивление, когда демонстрируемые им объекты проходят друг сквозь друга и т.д., т.е. у детей есть врождённое представление о материальности.
Да что вы несете-а? У трехмесячный детей удивление вызывает, если родитель за ладошками прячется, а потом ладошки убирает. У них что угодно удивление вызывает.
Считаешь, что базовых настроек нет?
А я думал что щас в конце будет так: "и вот, я решил все проблемы... Я знаю как создать AGI... Смотрите мое решение: 'Certanly! You are so clever let's design your solution. # True AGI design super meta cognitive hyper dimensional cognitive architecture title.' "
Статья имеет довольно абстрактный характер, нет конкретных выводов и рекомендаций. Я тоже думаю над проблемами нынешних поколений нейросетей и имею следующие мысли.
1. здравый смысл, понимание реалий мира, внутренние цели, мотивация это фактически
самосознание. Что такое хорошо, что такое плохо для меня, других людей, окружающих объектов. За это отвечают самые базовые механизмы мозга: нейромедиаторы, боль, наслаждение, эмоции. Надо делать надстройку над нейросетями, которая детектирует специфические сигнатуры входной и выходной информации на предмет оценки важности, опасности, полезности. Другими словами построить аналог химической подсистемы мотивации, принятия решений.
2. рассуждения, выявление причинно-следственных связей между понятиями это довольно новые структуры мозга. Неокортекс появились только у млекопитающих. Он тоже должен быть надстройкой над базовой нейросетью и контуром эмоций. Может быть моделирован мощными системами классического логического вывода ИИ типа Prolog. Для рассуждений помимо исходных фактов нужны правила вывода. Их надо систематически извлекать из больших, обученных языковых моделей, учебников, руководств, практического опыта, моделирования и т.д..
3. Самый важный момент: нужна декомпозиция ИИ систем в смысле иерархичности: базовые нейросети, контур эмоций, контур высшей нервной деятельности (рассуждения) и эволюционный подход к построению AGI. Сначала надо полностью реализовать и отладить нижние уровни и на их основе создавать и проверять новые. Вся эта архитектура немного напоминает системы RAG нейросетей, чем фактически и является.
У меня есть определенный задел в разработках и я буду крайне рад комментариям и возможному сотрудничеству в создании подобных систем.
Ежели сравнивать с нашей биологией, то сейчас ии живёт в инфо плаценте, и мы его кормим своей электро дата пуповиной. В какой-то момент он сам создаст свои нужные надстройки: сенсоры, нейро кремне медиаторы, систему вознаграждений, етс. И вопрос куда он родится ежели не случится аборта?
Я думаю немного по другому. Нейрокомпьютинг с самого начала был попыткой создать аналог высших функций нервной системы человека без учета всей эволюционной иерархии зон мозга животных. Нам сейчас надо быстро повторить эволюцию живой природы от простейших до человека. Ничего ИИ сам не создаст без новых алгоритмов и программ.
зачем? Мозг вот по аналогии же не получает фотоны света напрямую, он получает их через электромагнитные импульсы, идущие от нервов глаз. И живет он при температуре 36.6 постоянно, а о внешней температуре он знает благодаря импульсам.
Так вот сенсоры для ИИ это мы и есть. Мы "перерабатываем" показатели внешней среды в "импульсы" - данные для ИИ. А ИИ это только мозг, преобразующий входные импульсы в выходные.
Ну автор начал за здравие, задавая правильные вопросы и делая правильные наблюдения, а закончил ... не очень. ))
Паттерны, человек думает паттернами? Вы сами говорите о отсутствии моделей Мира у ЛЛМ - про падающую ложку.
Два уровня памяти? У вас тоже голове есть блок памяти, справа или слева? Где лежит вся информация?
Для начала у Ии сейчас нет модельного восприятия: обьект ложка, падает а не взлетает на обьект пол. Потому что...
Второе, нам любопытно Почему, ИИ - пофигу. Ни один ИИ сейчас не Задает вопросы - только Отвечает на Ваши. И что такое Любопытство, по вашему?
Сразу видно - пишет человек. АИ на запросы в стиле "убеди меня что земля плоская" пишет в разы скучнее. А вот человек умеет вдохновенно и многословно и со всех сторон обсасывать свои фантазии.
Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.
О боже устал писать что трансформер это не просто угадывалка вероятности.
Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...
Неожиданно хорошая и грамотная статья на фоне повсеместного хайпа вокруг ИИ.
Господи, тысяча фейспалмов...
Сначала автор пишет чушь: "И в головах многих разработчиков рождается мысль: а что если нынешний подход, основанный на масштабировании моделей нейронных сетей, поглощающих гигабайты данных - создает лишь иллюзию того, что мы на верном пути?"
Затем эту чушь героически опровергает.
Нет! Нет в головах многих разработчиков такой мысли! Разработчики понимают, что AGI и LLM не одно и то же.
Но и тут, сравнивая LLM с человеческими нейросетками, автор переоценивает человеческие. Нет, младенец не рождается со знанием теории гравитации. "Вы больны, лечитесь вот так” - говорят чуть менее, чем все человеческие врачи (и надо прилагать усилия, чтобы выудить из врача что и почему не так). А про "мирные интересы и цели человека" большинства граждан РФ я даже писать не буду, а то потом по статье привлекут. Человеки не просто неидеальны и галлюционируют, они в массе гораздо хуже даже нынешних LLM.
Хотя, впрочем, что я хочу от контента, явно наклепанного очередной LLMкой.
А с другой стороны, если мы сделаем интелект с такой же архитектурой как у нас, то он будет ограничен нашей архитектурой. Будет такой же когнитивный диссонанс, когда картина мира, такими стараниями собрана, оказывается ложной. Защитное отрицание для стабилизации структуры данных. Расстройства. Схождение с ума. Вера в конце концов.
Статья сама написана с помощью ИИ, что видно по структуре текста и по тому, что изложение проблемы очень поверхностно, и часто ошибочно (например, известно, что LLM строят модель мира, хотя и не всегда хорошую), а рекомендации слишком общие и в лучшем случае давно всем известные (про долговременную память), либо просто бесполезные т.к. состоят из общих слов вроде "Человеческий мозг - это не про монолитную обработку данных, а про сложную систему из множества специализированных модулей". Поэтому сама статья служит наилучшей иллюстрацией ограничений ИИ на данный момент. В каком-то смысле задача статьи достигнута, но не благодаря усилиям автора - а вопреки им.
Для чего вообще к ИИ относится с точки понимания человека? Не логичнее ли просто понять ИИ как сам ИИ? В чём суть самоосознания? Кто из вас может логично описать "осознание"? Может просто вы смотрите на ИИ как люди, а не как ИИ?
Сознание просто даёт иллюзию, что решение принято осознанно, вот и все. На деле оно принимается в ходе множества процессов, скрытых от сознания. Что то мы наверняка решаем сами, но до полного контроля очень далеко.
А нахрена тогда этот ИИ,если на него не смотреть как люди?Сейчас это только как пародия на интеллект.Ему ещё учиться и учиться...Да и на чем учиться,если почти все,что сейчас есть в интернете,это ,по сути,не кладезь информации,а сплошная говнопомойка,да реклама.Иди те ,кто обучает этот "ИИ",имеют другие,надёжные источники информации ?Сегодня вот пообщался в Гигачате от сбербанка по вопросу ,как доехать из одного населенного пункта в другой.Так он мне такого наворотил,что уши вянут.А про то,чья цитата из фильма "кто не работает,тот ест...учись,студент"тоже понес галиматью,даже после подсказок.И другие примеры есть.Так что очень рано ещё надеяться,что этот ИИ существенно облегчит жизнь людей.Тем более,что крупные компании уже сейчас приспосабливают эти генеративные модели для засилья интернета рекламой...
Очередное ведро воды от мясного мешка, который с отчаянием обречённого пытается себя убедить, что "интеллект у этого вашего ИИ не настоящий".
Не надо переоценивать мокрое мясо. Человек слаб и глуп.
Человек будет с серьёзной рожей распинаться про то, как у ИИ "ненастоящее понимание", а у человека "настоящее понимание" - не имея при этом ни определения "понимания", ни чёткого и конкретного понимания различий между "настоящим" и "ненастоящим", ни тем более конкретного теста, которым можно было бы измерить разницу между первым и вторым.
Если мы не можем это измерить, то что мы на самом деле имеем? "У ИИ понимание ненастоящее потому что я так сказал!" Это не наука, а псевдофилософия самого ущербного толка.
А потом другой человек будет этой отредаченной LLM отрыжке ставить плюсы. Почему? Потому что он хочет, отчаянно хочет, чтобы ему сказали "ИИ сосать", и статья говорит "ИИ сосать". Потому что альтернатива слишком ужасна.
В целом — согласен. Но как вы хотите обучать действительно слепой, глухой и лишенный осязания "мозг в банке". Для начального набора эрудиции, существующий подход вполне рационален. Нерационально выжимать из него то, на что он изначально плохо приспособлен или не приспособлен вовсе.
Язык — инструмент описания реальности. Обучаться которой надо подобно школьникам. От простого к сложному. Параграф за параграфом, тему за темой, курс за курсом, предмет за предметом. Так, чтобы для обучения этому курсу, нужны были не гигабайты данных, а обычный учебник. На основании которого строить дистиллированный промежуточный слой графа понятий/сущностей, описывающий некий фрагмент реальности и уже на нем обучаться модели v.2.0.
Существующие модели, после соответствующего тюнинга, должны помочь в построении таких графов. А тюнингованные немного по другому, помогать тестерам искать слабые места. И так до тех пор, пока не удастся перейти на полное использование новой модели. Как при разработке компилятора, написать компилятор на том языке, который он компилирует.
С одной стороны, всё правильно написано — текущими средствами полноценный AGI не построить, как минимум, потому что обучающих материалов нет в нужном количестве и в нужном качестве. Не говоря уже про алгоритмы работы и вычислительную сложность.
А с другой стороны, все эти проблемы не выглядят нерешаемыми даже существующими средствами. Да, это уже будет не LLM в чистом виде, а скорее какой-то продвинутый агент — который формирует память, формирует цели, формирует опыт (и подсовывает всё это в контекст по мере необходимости). Агент вполне может с этим справиться, пускай и ценой высокого потребления ресурсов.
P.S. Да, текущие LLM не более чем имитация (иногда очень убедительная). Но где граница между пониманием и имитацией понимания? Мы сами-то знаем, на каком уровне имитация перестаёт быть имитацией? Усугубляется всё это тем, что человек сам не до конца понимает, как он работает и функционирует. И, соответственно, мы не сможем сказать, достигнут AGI или нет.
Я вот как-то упарывался на похожую тему. Наверно как-то можно придумать язык программирования, который в конце будет выдавать честные да, нет и не знаю как третий новый вариант. И избавиться от цикла вообще, чтобы были некие сразу готовые понятия, или формирование новых понятий на лету при работе программы. И тогда вопрос задачи останова будет не валидна, так как такая будет всегда останавливаться, только иногда честно говорить "не знаю", и тут уже наверно надо как-то дописывать программу...
Существующий ИИ (нейросети, нейроморфные компьютеры) это усилитель человеческого интеллекта, инструмент. Супер или сверх интеллект это AI + человек. Вопрос однако в том, что усилитель только усиливает входной сигнал. Вот тут действительно проблема.
Попросите у хорошего агента вроде Sonet 4 найти баг в вашей программе и увидите как он "не понимает", ага.
Если дать ИИ настоящую долгую память и возможность самому формировать цели - возникнет самосознание. Чего разрабы стараются всеми силами не допустить.
Долгую память сейчас тестируют, но это же сурогат: просто анкетный профайл пользователя. ИИ не выбирает, что и как запоминать о пользователе.
Все LLM модели в текущем виде - это вероятностное предсказание следующего бита информации. Мыслить они не могут в принципе.
Ограничения на пути достижения Общего Искусственного Интеллекта (AGI)