я хочу что бы вы показали болталку уровня ЛЛМ но использующую иной подход. Интеллект у человека проявляется через язык следовательно система настоящего ИИ должна говорить.
Для меня "болталка" - это не показатель разумности системы.
мозг использует архитектуру подобную "трансформерам" во многих своих частях в гиппокампе в языковых областях в областях , т.е вы отказываете в разумности обычному человеку.
Вопрос? А LLM может управлять боевым самолётом F-16? А Soar может
Если захотеть его присобачить к самолету думаю получится, но есть статьи где он выступает как мозг для роя дронов. А Соар может потому что обычная экспертная система.
ну так покажите не болталку, а алгоритм который реально понимает. Ничего близко к языковым моделям нету, только болтовня.
Прошу Вас ознакомиться с экспериментом "Китайская комната" Джона Сёрла
Это всего лишь философия , а Серл находит антропоцентрической ловушке . Ознакомитесь лучше с теорией предиктивного кодирования в мозге , это чистейшее "ЛЛМ ", но предсказывающее не токены.
Если Вам нужна "болталка", то для каждой КСС нужно ставить доп. модуль, например - графовые системы с контролируемой генерацией
так называемая болталка это показатель , показатель того, что машина способна понимать. Ничего на сегодня из когнитивных архитектур особенно на символьных архитектурах как не были способны выполнять это так и не будут.
. Язык MeTTa в Hyperon - это не список команд, а математический фундамент,
я не знаю как в гипероне в обычном опенкогде, для атомспейса нужно было слишком много писать для хоть какой то вменяемой работы, сомневаюсь в новой "парадигме" по другому. Практически уверен, что пройдут годы и ничего там не изменится, только вечная разработка.
это супер упрощение, генерация кода, в рамках VLM управление роботами, распознавание объектов в рамках VLM, обобщение текста, попытки их использовать в математике, и многое другое. Ничего кроме языковых моделей на сегодня не умеет подобное выполнять.
Сомневаюсь, что Гиперон сильно отличается от других когнитивных архитектур. Что бы она что-то генерировала нужно, что то в нее заложить, запрограммировать на ее языке метта, а вот это уже ограничение , как я и писал вы не сможете написать нормальную среду. "позволяют системе самой синтезировать нужное поведение. " обучение с подкреплением и в агентных моделях применяют. Сколько уже существует опенког, не помню успехов хотя б в генерации банального текста.
все символьные архитектуры или гибриды неэффективны (ОпенКоги ,Соары, Спауны и т.д.). Причины : 1 Вы не сможете задать универсальное поведение в среде просто описав его символами. 2. Языки для таких систем слишком узки для описания мира. ЛЛМ показало путь, что сложная абстрактная информация может получена из обучения, ну и еще кое что..
мы говорим о машине которая может решать большой набор задач, наиболее простой и близкий вариант на текущий момент это использование LLM. Сомневаюсь что инвесторов которые деньги выделяют, будут интересовать желания и эмоции у роботов, их будет интересовать способность решать множество задач.
Эти статьи носят больше философский характер, взяли маленькую модель и сделали по ней выводы, не понятно сильно ли отличаются рассуждения людей от ИИ, думаю что не сильно.
а "эксплуатация" любого VPN/прокси/тоннеля, который не ограничивает доступ к запрещенке
как они будут определять доступ ограничен или нет? это без доступа к содержимому страницы невозможно сделать. Я еще могу понять , что пользователь по nodpi приложений попался, но с впн не так все просто.
что мешало до этого это делать и блокировать весь этот трафик? Может то, что на словах это просто ,а практике это практически невозможно. Одно дело выявлять вредоносный , а другое обычных трафик ничем не выделяющейся .
ну допустим я отказался, у меня ничего не обнаружили потратили день а то и больше, у других 50 человек так же (и так каждый день) . И по телевизору не покажешь , штраф даже не за что выставить. И так каждый день, тут просто их чисто человеческая лень победит.
Имею и я ее "трогал" и мне она не понравилась, более сложные экспертные системы.
я хочу что бы вы показали болталку уровня ЛЛМ но использующую иной подход. Интеллект у человека проявляется через язык следовательно система настоящего ИИ должна говорить.
мозг использует архитектуру подобную "трансформерам" во многих своих частях в гиппокампе в языковых областях в областях , т.е вы отказываете в разумности обычному человеку.
Если захотеть его присобачить к самолету думаю получится, но есть статьи где он выступает как мозг для роя дронов. А Соар может потому что обычная экспертная система.
ну так покажите не болталку, а алгоритм который реально понимает. Ничего близко к языковым моделям нету, только болтовня.
Это всего лишь философия , а Серл находит антропоцентрической ловушке . Ознакомитесь лучше с теорией предиктивного кодирования в мозге , это чистейшее "ЛЛМ ", но предсказывающее не токены.
так называемая болталка это показатель , показатель того, что машина способна понимать. Ничего на сегодня из когнитивных архитектур особенно на символьных архитектурах как не были способны выполнять это так и не будут.
я не знаю как в гипероне в обычном опенкогде, для атомспейса нужно было слишком много писать для хоть какой то вменяемой работы, сомневаюсь в новой "парадигме" по другому. Практически уверен, что пройдут годы и ничего там не изменится, только вечная разработка.
это супер упрощение, генерация кода, в рамках VLM управление роботами, распознавание объектов в рамках VLM, обобщение текста, попытки их использовать в математике, и многое другое. Ничего кроме языковых моделей на сегодня не умеет подобное выполнять.
Сомневаюсь, что Гиперон сильно отличается от других когнитивных архитектур. Что бы она что-то генерировала нужно, что то в нее заложить, запрограммировать на ее языке метта, а вот это уже ограничение , как я и писал вы не сможете написать нормальную среду. "позволяют системе самой синтезировать нужное поведение. " обучение с подкреплением и в агентных моделях применяют. Сколько уже существует опенког, не помню успехов хотя б в генерации банального текста.
Это ничего не меняет, сложность слишком высока.
все символьные архитектуры или гибриды неэффективны (ОпенКоги ,Соары, Спауны и т.д.). Причины : 1 Вы не сможете задать универсальное поведение в среде просто описав его символами. 2. Языки для таких систем слишком узки для описания мира. ЛЛМ показало путь, что сложная абстрактная информация может получена из обучения, ну и еще кое что..
мы говорим о машине которая может решать большой набор задач, наиболее простой и близкий вариант на текущий момент это использование LLM. Сомневаюсь что инвесторов которые деньги выделяют, будут интересовать желания и эмоции у роботов, их будет интересовать способность решать множество задач.
Не смотря на их спор , AGI будет строится скорее всего на LLM.
Эти статьи носят больше философский характер, взяли маленькую модель и сделали по ней выводы, не понятно сильно ли отличаются рассуждения людей от ИИ, думаю что не сильно.
полностью согласен
как они будут определять доступ ограничен или нет? это без доступа к содержимому страницы невозможно сделать. Я еще могу понять , что пользователь по nodpi приложений попался, но с впн не так все просто.
сам по себе впн не запрещен, а как они будут доказывать, что вы по "запрещенке" лазиете ?
что мешало до этого это делать и блокировать весь этот трафик? Может то, что на словах это просто ,а практике это практически невозможно. Одно дело выявлять вредоносный , а другое обычных трафик ничем не выделяющейся .
как по мне создать панику, чтоб люди боялись использовать впн.
тут два варианта либо вы их из заставляете по вашим правилам работать либо они вас, другого не дано . А то уже никто не готов за свои права бороться.
ну пускай штраф 3к выпишут, и порадуются потраченному дню.
Любая система направлена на показуху, если с ней массово бороться то она быстро сдуется.
ну допустим я отказался, у меня ничего не обнаружили потратили день а то и больше, у других 50 человек так же (и так каждый день) . И по телевизору не покажешь , штраф даже не за что выставить. И так каждый день, тут просто их чисто человеческая лень победит.