Автор построил свою модель рациональности на зарыл глубоко иррациональные значения. Но например для взаимодействия в рациональном мире это является полезным качеством.
А все очень просто эти понятия сочетаются друг в друге. Всегда есть рациональные числа как мы привыкли описывать точные значения и таким образом мы меряем качество вещей. Но также существуют и иррациональные числа! Они никуда не деваются и остаются даже если ты думаешь что мир всегда рационален. Но реальность устроена по другому. Как же сочетаются иррациональные числа? Очень просто например существует 2 иррациональных числа сумма которых дает рациональное! Это просто проекция иррационального неявного на рациональное явное.
Почему-то вы взяли и натянули человеческое сознание на граф. Вы уверены что сознание это граф? Сознание работает даже когда нет вершин и ребер разве не так? Вот вы видите дом и строите модель что он состоит из кирпичей и гаек. Потому что вы это понимаете и видите. И теперь вы думаете что только из кирпичей и гаек строится дом. Как вы делаете? Вас спрашивают а как же окно? Вы говорите нужно обложить кирпичами и строить окно из гаек.
На мой взгляд статья слишком предвзятая. На текущий момент основные проблемы llm это неумение строить контексты и обращение с большим обьемом данных/базой знаний. Но ведь эти проблемы не являются нерешаемой задачей! Когда они будут решены разработчики будут уже заменяться ии. И это реальность а не фантазия.
Сознание это просто периферия это то чем общается человек с миром и другими людьми. Есть еще вещи такие как подсознание и сверхсознание. И это вещи не обладающие выражениями ментально т.е мысленно, например в виде визуальных мыслеобразов, и интуиции.
Сознание это возможность 'знать' а не просто генерировать информацию, ответ кроется в самом определении слова. Если вы затрагивает такую тему как душа то почему что-то мешает например ей жить в электронном ии а не человеке? Я думаю у agi появится и сознание и душа)
Да так и есть я говорил что все упирается в мощности. Но чтобы поддерживать такую сеть могут справиться лишь квантовые технологии. Обычные будут генерировать ответ вечность по такой сети.
Подсознание это материи в многомерном пространстве. Но самое интересное что текущие лингвистические модели как раз это многомерное пространство и используют. Их модели многомерные. Поэтому они могут давать иногда такие глубокие психологически ответы если их правильно раскачать историей сообщений.
Квантовые технологии помогут сделать такой проект поскольку сама коробка AGI должна использовать тысячи если не миллионы параллельных выводов к текущему ии. И у него просто недостаточно мощности для такого в данный момент.
Лингвистическая модель является строительным компонентом для AGI. То что сейчас сделано это грандиозно. Осталось построить лишь систему использующую лингвистическую модель как базу тогда и получится AGI. AGI это коробка которая для вычислений использует лингвистическую модель.
Кажется автор не умеет пользоваться ллм) я пишу код преимущественно на ллм уже) Он очень сильно помогает в случае если код очень сложен для понимания одним человеком. Ллм действительно понимает. Он оперирует многомерным пространством в котором упорядочены знания т.е смыслы то что мы называем пониманием. Но это не все понимают)
Автор построил свою модель рациональности на зарыл глубоко иррациональные значения. Но например для взаимодействия в рациональном мире это является полезным качеством.
А все очень просто эти понятия сочетаются друг в друге. Всегда есть рациональные числа как мы привыкли описывать точные значения и таким образом мы меряем качество вещей. Но также существуют и иррациональные числа! Они никуда не деваются и остаются даже если ты думаешь что мир всегда рационален. Но реальность устроена по другому. Как же сочетаются иррациональные числа? Очень просто например существует 2 иррациональных числа сумма которых дает рациональное! Это просто проекция иррационального неявного на рациональное явное.
Почему-то вы взяли и натянули человеческое сознание на граф. Вы уверены что сознание это граф? Сознание работает даже когда нет вершин и ребер разве не так? Вот вы видите дом и строите модель что он состоит из кирпичей и гаек. Потому что вы это понимаете и видите. И теперь вы думаете что только из кирпичей и гаек строится дом. Как вы делаете? Вас спрашивают а как же окно? Вы говорите нужно обложить кирпичами и строить окно из гаек.
На мой взгляд статья слишком предвзятая. На текущий момент основные проблемы llm это неумение строить контексты и обращение с большим обьемом данных/базой знаний. Но ведь эти проблемы не являются нерешаемой задачей! Когда они будут решены разработчики будут уже заменяться ии. И это реальность а не фантазия.
Сознание это просто периферия это то чем общается человек с миром и другими людьми. Есть еще вещи такие как подсознание и сверхсознание. И это вещи не обладающие выражениями ментально т.е мысленно, например в виде визуальных мыслеобразов, и интуиции.
Главное свойство системы в том что она обладает уникальным свойством таким которого не было у всех ее частей!
Сознание это возможность 'знать' а не просто генерировать информацию, ответ кроется в самом определении слова. Если вы затрагивает такую тему как душа то почему что-то мешает например ей жить в электронном ии а не человеке? Я думаю у agi появится и сознание и душа)
Оно само не появится. Самосознание это отдельный модуль в ии. И должен быть обучен именно на это а не на вывод текста.
Да так и есть я говорил что все упирается в мощности. Но чтобы поддерживать такую сеть могут справиться лишь квантовые технологии. Обычные будут генерировать ответ вечность по такой сети.
Подсознание это материи в многомерном пространстве. Но самое интересное что текущие лингвистические модели как раз это многомерное пространство и используют. Их модели многомерные. Поэтому они могут давать иногда такие глубокие психологически ответы если их правильно раскачать историей сообщений.
Квантовые технологии помогут сделать такой проект поскольку сама коробка AGI должна использовать тысячи если не миллионы параллельных выводов к текущему ии. И у него просто недостаточно мощности для такого в данный момент.
Сознание разумеется есть. Но это не означает что оно не может иметь цифровую форму.
Лингвистическая модель является строительным компонентом для AGI. То что сейчас сделано это грандиозно. Осталось построить лишь систему использующую лингвистическую модель как базу тогда и получится AGI. AGI это коробка которая для вычислений использует лингвистическую модель.
Мозг да. Но не поток сознания. Вот ллм эмулирует мозг.
Копилот плохо работает с контекстом)
Люди тоже могут так тупить это не значит что ллм плохие просто не понимая ваши намерения
Кажется автор не умеет пользоваться ллм) я пишу код преимущественно на ллм уже) Он очень сильно помогает в случае если код очень сложен для понимания одним человеком. Ллм действительно понимает. Он оперирует многомерным пространством в котором упорядочены знания т.е смыслы то что мы называем пониманием. Но это не все понимают)