высокая сцепленность кода происходит из за излишней перегруженностями слоев и паттернов в архитектуре. Когда их больше 3х то все скоро проект уйдёт в красную зону)
А такой вариант как одна бд и много микросервисов не вариант?) Щас как раз делаем под эту модель. Есть основной микросервис обновляющий схему бд и он еще для авторизации. Остальные просто разделены по модулям и все. Это удобно и каждый модуль обновляется и изменяется независимо. Через маршрутизацию выходит как единая точка апи. Еще можно подключить aspire) .net 8, postgresql. Бакенд очень удобный получился и легко изменяемый. Кому интересно могу статьей описать) просто не надо бегать за серебрянными пулями в голове)
Ну почему автор прольет свет на работу сознания при когнитивном режиме мышления и для текущего общества это даст хороший результат так как сейчас общество в основном построено на когнитивной модели.
Автор построил свою модель рациональности на зарыл глубоко иррациональные значения. Но например для взаимодействия в рациональном мире это является полезным качеством.
А все очень просто эти понятия сочетаются друг в друге. Всегда есть рациональные числа как мы привыкли описывать точные значения и таким образом мы меряем качество вещей. Но также существуют и иррациональные числа! Они никуда не деваются и остаются даже если ты думаешь что мир всегда рационален. Но реальность устроена по другому. Как же сочетаются иррациональные числа? Очень просто например существует 2 иррациональных числа сумма которых дает рациональное! Это просто проекция иррационального неявного на рациональное явное.
Почему-то вы взяли и натянули человеческое сознание на граф. Вы уверены что сознание это граф? Сознание работает даже когда нет вершин и ребер разве не так? Вот вы видите дом и строите модель что он состоит из кирпичей и гаек. Потому что вы это понимаете и видите. И теперь вы думаете что только из кирпичей и гаек строится дом. Как вы делаете? Вас спрашивают а как же окно? Вы говорите нужно обложить кирпичами и строить окно из гаек.
На мой взгляд статья слишком предвзятая. На текущий момент основные проблемы llm это неумение строить контексты и обращение с большим обьемом данных/базой знаний. Но ведь эти проблемы не являются нерешаемой задачей! Когда они будут решены разработчики будут уже заменяться ии. И это реальность а не фантазия.
Сознание это просто периферия это то чем общается человек с миром и другими людьми. Есть еще вещи такие как подсознание и сверхсознание. И это вещи не обладающие выражениями ментально т.е мысленно, например в виде визуальных мыслеобразов, и интуиции.
Сознание это возможность 'знать' а не просто генерировать информацию, ответ кроется в самом определении слова. Если вы затрагивает такую тему как душа то почему что-то мешает например ей жить в электронном ии а не человеке? Я думаю у agi появится и сознание и душа)
Да так и есть я говорил что все упирается в мощности. Но чтобы поддерживать такую сеть могут справиться лишь квантовые технологии. Обычные будут генерировать ответ вечность по такой сети.
Подсознание это материи в многомерном пространстве. Но самое интересное что текущие лингвистические модели как раз это многомерное пространство и используют. Их модели многомерные. Поэтому они могут давать иногда такие глубокие психологически ответы если их правильно раскачать историей сообщений.
Квантовые технологии помогут сделать такой проект поскольку сама коробка AGI должна использовать тысячи если не миллионы параллельных выводов к текущему ии. И у него просто недостаточно мощности для такого в данный момент.
Лингвистическая модель является строительным компонентом для AGI. То что сейчас сделано это грандиозно. Осталось построить лишь систему использующую лингвистическую модель как базу тогда и получится AGI. AGI это коробка которая для вычислений использует лингвистическую модель.
высокая сцепленность кода происходит из за излишней перегруженностями слоев и паттернов в архитектуре. Когда их больше 3х то все скоро проект уйдёт в красную зону)
интуиция и восприятие развиты настолько, чтобы чувствовать эту виртуальную материю у меня развито это чувство :D
А такой вариант как одна бд и много микросервисов не вариант?) Щас как раз делаем под эту модель. Есть основной микросервис обновляющий схему бд и он еще для авторизации. Остальные просто разделены по модулям и все. Это удобно и каждый модуль обновляется и изменяется независимо. Через маршрутизацию выходит как единая точка апи. Еще можно подключить aspire) .net 8, postgresql. Бакенд очень удобный получился и легко изменяемый. Кому интересно могу статьей описать) просто не надо бегать за серебрянными пулями в голове)
Когнитивные да. Но человек не вечно когнитивными живет.
Это просто отношения между вершинами графа с весами вероятности этого отношения
Ну почему автор прольет свет на работу сознания при когнитивном режиме мышления и для текущего общества это даст хороший результат так как сейчас общество в основном построено на когнитивной модели.
Автор построил свою модель рациональности на зарыл глубоко иррациональные значения. Но например для взаимодействия в рациональном мире это является полезным качеством.
А все очень просто эти понятия сочетаются друг в друге. Всегда есть рациональные числа как мы привыкли описывать точные значения и таким образом мы меряем качество вещей. Но также существуют и иррациональные числа! Они никуда не деваются и остаются даже если ты думаешь что мир всегда рационален. Но реальность устроена по другому. Как же сочетаются иррациональные числа? Очень просто например существует 2 иррациональных числа сумма которых дает рациональное! Это просто проекция иррационального неявного на рациональное явное.
Почему-то вы взяли и натянули человеческое сознание на граф. Вы уверены что сознание это граф? Сознание работает даже когда нет вершин и ребер разве не так? Вот вы видите дом и строите модель что он состоит из кирпичей и гаек. Потому что вы это понимаете и видите. И теперь вы думаете что только из кирпичей и гаек строится дом. Как вы делаете? Вас спрашивают а как же окно? Вы говорите нужно обложить кирпичами и строить окно из гаек.
На мой взгляд статья слишком предвзятая. На текущий момент основные проблемы llm это неумение строить контексты и обращение с большим обьемом данных/базой знаний. Но ведь эти проблемы не являются нерешаемой задачей! Когда они будут решены разработчики будут уже заменяться ии. И это реальность а не фантазия.
Сознание это просто периферия это то чем общается человек с миром и другими людьми. Есть еще вещи такие как подсознание и сверхсознание. И это вещи не обладающие выражениями ментально т.е мысленно, например в виде визуальных мыслеобразов, и интуиции.
Главное свойство системы в том что она обладает уникальным свойством таким которого не было у всех ее частей!
Сознание это возможность 'знать' а не просто генерировать информацию, ответ кроется в самом определении слова. Если вы затрагивает такую тему как душа то почему что-то мешает например ей жить в электронном ии а не человеке? Я думаю у agi появится и сознание и душа)
Оно само не появится. Самосознание это отдельный модуль в ии. И должен быть обучен именно на это а не на вывод текста.
Да так и есть я говорил что все упирается в мощности. Но чтобы поддерживать такую сеть могут справиться лишь квантовые технологии. Обычные будут генерировать ответ вечность по такой сети.
Подсознание это материи в многомерном пространстве. Но самое интересное что текущие лингвистические модели как раз это многомерное пространство и используют. Их модели многомерные. Поэтому они могут давать иногда такие глубокие психологически ответы если их правильно раскачать историей сообщений.
Квантовые технологии помогут сделать такой проект поскольку сама коробка AGI должна использовать тысячи если не миллионы параллельных выводов к текущему ии. И у него просто недостаточно мощности для такого в данный момент.
Сознание разумеется есть. Но это не означает что оно не может иметь цифровую форму.
Лингвистическая модель является строительным компонентом для AGI. То что сейчас сделано это грандиозно. Осталось построить лишь систему использующую лингвистическую модель как базу тогда и получится AGI. AGI это коробка которая для вычислений использует лингвистическую модель.
Мозг да. Но не поток сознания. Вот ллм эмулирует мозг.