Информация
- В рейтинге
- 1 473-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust
Приведите доказательства, пожалуйста. Дайте список научных работ, которые могли бы это подтвердить - факты, Сэр
Уважаемый, Вы изучали зоопсихологию?
Посоветую изучить такие работы: Ж.И.Резниковой, Л.В.Крушинского, И.Б. Головановой и многих других. Вы удивитесь, но у насекомых есть мышление
Ссылаться на то, что "варится в голове", когда речь идет о биологических алгоритмах - это подмена фактов. Вы имеете право на свои заблуждения, как и я, как и многие другие, но не стоит выдавать их за альтернативную науку. Научный консенсус года однозначен: биологический мозг и LLM обучаются принципиально по-разному и работают тоже по-разному.
Человек так не мыслит. Если Вы утверждаете обратное, не могли бы Вы предоставить ссылки на рецензируемые научные работы, по нейробиологии или когнитивистике, где доказано, что человеческий мозг работает по принципу статистического предсказания следующего токена?
А если серьезно, то это лишь умозрительная гипотеза, которая на сегодняшний день не имеет под собой твердой доказательной базы. Сводить всё многообразие когнитивных процессов, формирования смыслов и работы сознания к "игре вероятностей" - это огромная натяжка и попытка антропоморфизировать алгоритмы ИИ, а не объяснить устройство человеческого разума. Почитайте:
Джерри Фодор в работе "The Language of Thought" (1975) предложил гипотезу ментального языка ("mentalese") - внутренняя символическая система, на которой "работает мышление";
Стивен Пинкер - яркий пример. Какая основная мысль проходит через две его работы: "The Language Instinct" (1994) и "How the Mind Works" (1997)?! "Мысли не состоят из слов. Язык - это интерфейс между мыслями и другими людьми";
Берём работу Лакоффа "Philosophy in the Flesh" и что мы в ней видим? Цитата: "...Эта модель существует до и независимо от языка..."
На эти, как и многие другие классические работы в современной науке о мышлении, до сих пор приводится огромное количество ссылок. Современная когнитивистика продолжает развивать идеи о том, что разум оперирует концептами и логическими структурами, а не просто играет в вероятности.
Тогда, ждём "AGI от Маска в 2026" (Хабр)
Сижу, жду
Получается, что "AGI от Альтмана" можно не ждать? Все эти громкие заявления были лишь ширмой для привлечения инвестиций, а не реальной инженерной целью?
Стратегия OpenAI пугающе напоминает ловушку успеха, в которую попали: Kodak, Nokia, General Motors, как и многие другие. Вместо инвестиций в прорывные архитектуры, они фокусируются на монетизации текущего поколения LLM. Приоритет "быстрых денег" над R&D - классический пример того, как доминирование на рынке убивает инновации и ведет к исчезновению компании в долгосрочной перспективе
Да и давно вышло за рамки академических исследований, именно Soar (когнитивная ситема), а не Soar (ИБ)
Обратите на внимание на проект - https://github.com/SoarGroup/rosie-project - Rosie от SoarGroup. В отличие от LLM, Rosie обучается новым задачам через инструкции на естественном языке, сразу встраивая их в свою символьную структуру.
OpenCog Hyperon - Архитектура на базе гиперграфа знаний (AtomSpace). Они представили язык MeTTa, который позволяет объединять нейросети, логический вывод и эволюционные алгоритмы в одной системе.
По SOTA в JEPA от Яна ЛеКуна пока мало информации, проект еще развивается, пока еще исследовательский фронтир (World Models). Проект движется в сторону "машинного здравого смысла" (Common Sense, о котором писал МакКарти) через понимание физики мира, что идеологически очень близко к КСС
Герберт Саймон, "Науки об искусственном" (The Sciences of the Artificial) - На русском есть хорошее издание, перевод вполне адекватный. книга о том, как из простых правил рождается сложное поведение;
Аллен Ньюэлл, "Единые теории познания" (Unified Theories of Cognition) - На русском есть старые переводы, но лучше оригинал 1990 года. Она сложная, но переворачивает сознание. Это "библия" для понимания архитектуры разума. Ньюэлл там объясняет, как устроено пространство задач и почему интеллект - это структура;
Джон МакКарти. У него нет ни одной книги, а есть его статьи по теме Formalizing Common Sense. Это база для понимания того, как ИИ должен оперировать логикой мира;
Джон Лэрд, "The Soar Cognitive Architecture". Читать строго на английском, так как терминология очень - "специфическая".
Если английский позволяет, то читайте в оригинале. Термины вроде chunking, production rules, working memory в русском переводе иногда теряют инженерный смысл. Начинайте с Саймона, он заходит легче всего, а потом сразу к Ньюэллу и по списку.
Об AGI говорит только создатель OpenCog, я же "классик", для меня термин AI=AGI=ASI. Не все символисты одинаковы, как и не все коннекционисты. Внутри этих лагерей есть свои школы и свои приверженцы
P.S.: Задайте такой вопрос любой ЛЛМ: "Как именно когнитивно-символьная система архитектурно осознает нехватку знаний и может вывести ответ "Я не знаю"?". Я спросил: ChatGPT, DeepSeek, Qwen, Gemini и почти у всех ответы похожи, разница в количестве букв
Сэр, Вы на полном серьезе предлагаете мне лично для Вас написать систему, которая выведет одну фразу? А как Вы поймете, правильно ли, а главное - вовремя ли она выдала этот ответ, если Вы не знаете базовых основ когнитивной инженерии?
Может Вы уже знаете механику импассов (Impasses)? Как именно система архитектурно осознает нехватку знаний или конфликт правил и переходит в подзадачу (substate) для разрешения тупика.
Вы уже знаете работу логического ядра (Decision Cycle)? Про пять фаз когнитивного цикла (Input, Elaboration, Decision, Application, Output). Без понимания того, как работает Match-Resolve-Act, Вы не отличите интеллект от скрипта.
Может уже знаете про инкрементальное обучение и как система на лету превращает результаты разрешения тупиков в новые правила, оптимизируя саму себя без переобучения.
Я всё таки оказался прав. Нет примеров? Мда.. ну что ж, начнём
https://github.com/amininger/pysoarlib - This is a python library module with code to help make working with Soar SML in python just a little bit easier (2018)
https://github.com/SoarGroup/Soar - сам Soar, обновлялся 3 недели назад
https://github.com/CarletonCognitiveModelingLab/python_actr - A Python implementation of the ACT-R cognitive Architecture, обновлялся 3 месяца назад
https://github.com/cram2/cognitive_robot_abstract_machine - Monorepo for the CRAM cognitive architecture, обновлялся 4 дня назад
и т.д. и т.п.
За 10 минут я нашел более 30 ссылок с примерами для всех когнитивных систем - на C++/Python/Java/C#. Всё таки используйте ЛЛМ - это просто, можно лениться и никто слова поперек не скажет
А что вы искали? Демки, где можно "початиться"? 100%, что Вы просто бегло пробежались по ссылкам, не нашли привычного чат-интерфейса, бегло просмотрели тексты, ничего не поняли и решили, что это "бла-бла-бла". А именно во всем этом "бла-бла-бла", которое Вы пролистали, и спрятана вся суть КСС - описания работы логического ядра, механизмов верификации, вывода и многое другое.
Видите ли, Исследователи ИИ, сразу находят и GitHub с исходниками, и чат-интерфейсы для этих систем, модули, и документацию. Если для Вас ИИ - это только окно чата с вежливым собеседником, то ошиблись адресом.
Очевидно, что Вы не понимаете термина "Искусственный Интеллект" в его истинном, инженерном смысле, каким его видели отцы-основатели: Джон МакКарти, Аллен Ньюэлл и многие другие. Оставайтесь лучше с ЛЛМ - для Ваших задач это будет самым правильным решением. К КСС приходят с осознанным выбором, когда уже переросли стадию восторга от "говорящих попугаев". Когда ждут от системы надежность и понимание, а не имитацию.
Мне некогда заниматься такой ерундой, как "промптинг". Если я называю систему ИИ, то я ожидаю, что система сама будет контролировать границы своей компетентности. Интеллект должен сам понимать, чего он не знает, исходя из своей модели мира. Если мне нужно "уговаривать" систему промптами не врать - это не разум, а неисправный "механизм". С КСС я не трачу время на составление промптов, тем самым экономя гигантское количество ресурсов. Я не хочу подбирать "магические слова", чтобы система меня поняла - для меня важно, чтобы система понимала семантику и логику запроса. На мой взгляд - это нормальное желание
Оставил ссылки в этом комменте
Коллега, Вы допустили ту же самую ошибку: "...А тут - моя собака тупая, все собаки тупые..." = "...все ИИ плохо кодят..." - поверьте, не все. КСС сейчас именно обучают программировать, а не просто ей "скармливают" тонны чужого кода в надежде на то, что она "сама" обучится программировать. Первые эксперименты успешны, хотя предстоит еще много работы, т.к. программирование никогда не было приоритетом для развития Symbolic AI. У КСС нет ограничений в контекстных окнах; в токенах; она не переименовывает функции и переменные, когда ее не просят; не используют несуразные описания в MD-файлах, а используют нормальный, сгенерированный и структурированный формат описания проекта и всего того, что с ним связано - "дурная" привычка все делать структурировано (по Ньюэллу), а это значит - что система оперирует всеми именами, переменными и функциями - правильно, ну и так далее.
Можно данный инцидент считать первой успешной попыткой самоубийства роботов? Я так понимаю, что у робота-курьера началась депрессия от того, что он осознал - не быть ему роботом-официантом или терминатором и что он, всю оставшуюся жизнь, будет доставлять посылки и решил покончить счёты с жизнью, заехав на ж/д пути?!
Когнитивно-символьные системы (КСС) спокойно "говорят" - "Я не знаю" или "У меня недостаточно информации" ну и т.д., в отличии от "глупеньких" ЛЛМ, которые мало того, что не знают, так и начинают "выдумать" всякую ерунду, лишь бы "угодить" пользователю (оператору)
Дело вовсе не в истребителях, надо смотреть дальше и глубже. Успешное внедрение КСС в авиации - это не про "железо" и не про код, а про валидацию технологии управления в экстремально сложных средах. Это внедрение показывает нам будущее, где КСС постепенно забирают у нейросетей самое важное, оставляя им лишь роль "обслуживающего" сервиса:
Динамическое планирование (Mission Planning) - мы забираем у нейросетей задачу принятия решений в условиях OOD (Out-of-Distribution). В отличие от ЛЛМ, которая "галлюцинирует" план на основе средних данных, КСС на базе Soar или ACT-R строит логически безупречную стратегию, исходя из физических инвариантов и текущих целей. Это применимо везде: от беспилотной логистики до управления умными городами;
Символьное зрение (Symbolic Vision) - истребитель "учит" нас тому, что нейросеть должна перестать быть лишь "глазами" (детектором), а КСС - "мозгом", который интерпретирует сигналы. У коннекционистов больше не будет "монополии" на "понимание" сцены. КСС сама будет знать что перед ней, верифицируя объекты через образы и символы и всё это в реалтайме;
и многое другое.
Истребители - это как самая жёсткая школа, но для ИИ. То, что "выживет" и докажет свою эффективность - "завтра" станет стандартом для гражданской медицины, автономного транспорта, глобальных систем безопасности и других отраслей науки и техники.