Pull to refresh
18

User

45
Subscribers
Send message

Вы верно оценили нагрузку на создателя ядра, но поспешу Вас успокоить - всё зависит от Вашей роли в проекте. Если Вы занимаетесь именно исследованием ИИ и созданием ядра системы, то да - Вам нужно знать: лингвистику, логику, философию, когнитивиные науки и многое другое.

Если же Вы переходите к этапу разработки модулей (расширения возможностей ядра), ситуация меняется: Ядро предоставляет Вам готовые инструменты, протоколы и онтологический каркас. Вы работаете в понятной и предсказуемой среде.

На этом этапе, ментальная нагрузка сменяется чисто инженерной работой. Вам нужно грамотно "пристыковать", например, математический модуль или модуль распознавания образов, к символьному ядру. Это классическое программирование: четкие интерфейсы, понятные входные данные и предсказуемый результат. В отличие от ЛЛМ, где Вы "пихаете данные" и надеетесь, что не сломаете старые навыки модели (проблема катастрофического забывания), в КСС добавление нового модуля никак не портит работу ядра. Вы просто наращиваете мощь системы, как добавляете новые библиотеки в код.

Работа с КСС - это как строительство современного самолета. Группа главных конструкторов (ядро) берет на себя всю сложность расчетов аэродинамики и физики, но тысячи инженеров потом создают модули (навигацию, связь, управление двигателем), опираясь на готовые стандарты.

Сэр, а с чего Вы вдруг заговорили о гибридах? Вы же всегда были "чистым" коннекционистом. Что-то случилось?! Что-то заставило пересмотреть взгляды?

Помимо чистых КСС, я неоднократно говорил, что будущее за нейро-символьными архитектурами, но при одном условии - ядром системы должна являться КСС, а нейросеть в таком союзе - это лишь эффективный "орган чувств" ("глаза" и "уши"), но не центр принятия решений.

Что касаемо галлюцинаций - обучение (RLHF и прочее) может лишь снизить их частоту и "причесать" ответ, но не исключить.

Сравнение с "зубилами 4080" и смартфонами уместно для бытовых чат-ботов, но не для управления истребителем. В программах вроде ACE и ACE-TRUST (DARPA) вычисления вынесены в выделенный специализированный вычислительный контур. Главное преимущество КСС здесь не в объеме памяти под веса, а в скорости логического цикла. Пока нейросеть тратит секунды на вероятностную генерацию токенов, символьное ядро выполняет детерминированный цикл OODA ("наблюдение-ориентация-решение-действие") за милисекунды. В бою на сверхзвуке, любая задержка - это не просто "медленный ответ", это потеря машины

Вы восторгаетесь мощью масштабирования? Тогда ответьте на простой вопрос: Когда мы увидим боевой самолет под управлением ЛЛМ? Или вы предлагаете пустить вслед за истребителем на буксире мобильный дата-центр мощностью в несколько гигаватт, чтобы ваша "гибкая система" могла в реальном времени отличить помеху от цели? А для эскадрильи самолётов сколько надо создать мобильных дата-центров? И где гарантии того, что при первой же галлюцинации одного самолета они вступят в бой друг с другом? Здесь Вы правы, будет масштабно - взрывы и фейерверки, самолёты из одной эскадрильи уничтожают друг друга

Я так понимаю - это тоже масштабно: "ИИ-кластер xAI Colossus 2 потребляет 1 ГВт мощности — больше, чем Сан-Франциско" (Хабр) - для системы, которая галлюцинирует нужен 1ГВт? И это я еще не упоминал про масштабный рост цен по всему миру на железо

Сколько существуют коннекционисты и символисты, столько они и "воюют" - этот холивар старше, чем большинство современных языков программирования. В истории "ИИ маятник" постоянно качался, и на каждом изломе даже появлялись свои "перебежчики": Марвин Минский (коннекционизм->символизм), Ян ЛеКун (коннекционизм->JEPA (среднее между тем и тем)), Себастьян Бубек (коннекционизм->символизм) ну и обратно: Терри Виноград (символизм->коннекционизм), Джон Хопфилд (символизм->коннекционизм)

Ошибаются (галлюцинируют) ТОЛЬКО коннекционистские архитектуры по самой своей природе. Символьные системы детерминированы. Ошибка в них возможна лишь в двух случаях: если оператор пропустил "грязные" данные в ядро или не проверил логическую ветку при обучении, но это сразу вычисляется, задолго до релиза и обычные пользователи ее даже не увидят. Но это уже уходит в прошлое благодаря продвинутым механизмам самообучения и формальной верификации, что в разы снижает стоимость обучения символьных систем.

Что там у ваших систем с бенчмарками?

Можно, конечно, мериться цифрами, но зачем? Это напоминает мужчин, которые меряются... носами. Их разбуди ночью - они назовут длину и ширину своего носа, вплоть до миллиметра. А другие не меряются - они в этот момент делают новых Буратин и Мальвин, им некогда заниматься ерундой.

Тест Тьюринга проходят?

На 2026 год официально тест Тьюринга не прошла ни одна система, включая ваши ЛЛМ. Зато ToM-тесты (Theory of Mind - понимание состояний, намерений и логики других субъектов) КСС проходят на уровне, недоступном для статистических моделей

Международные олимпиады по математике решают?

Вы до сих пор не понимаете разницу между "создать ИИ" и "навесить ярлык ИИ". Приоткрою вам завесу тайны: у Soar, ACT-R и других систем есть математические модули. Они щелкают любые задачи как орехи, но решать задачи модулем - это... скууушна.

Настоящий ИИ должен научиться "думать как математик". Мы приглашаем специалиста, разбираем конкретную задачу на "атомы" и вводим в ядро новые когнитивные компоненты. После этого математический модуль "выбрасывается на свалку" за ненадобностью и система сама обретает способность - математически рассуждать.

Экспертных систем (ЭС) почти не осталось. Медицинская DXplain дожила до сегодняшних дней и еще пара других, в разных отраслях. Экспертные системы применяются в играх, чтобы "оживить" торговлю. Им на замену пришли КСС - мощные, быстрые, умные, без "болячек" ЭС и у них, не у всех пока, но уже есть реализованная (бывшая фундаментальная проблема ИИ - "желания и мотивация") и исследователи уже работают над другой фундаментальной проблемой ИИ - "здравый смысл" (Common Sense). Почему ничего из вышеперечисленного никогда не будет в коннкционистких архитектурах - ограничения самих архитектур и нерешенные фундаментальные проблемы

P.S.: Скажите пожалуйста, а Ваша Алиса умеет не галлюцинировать? Яркий пример галлюцинаций - "Две Алисы ругаются" (Youtube)

Когда изобрели ИИ? В 2005 году? Сэр, термину ИИ в этом году исполняется 70 лет как и первой ИИ программе - Logic Theorist (логико-символьная архитектура, 1956, А. Ньюэлл, Г. Саймон, К. Шоу)

Где реально используются я Вам уже написал выше. А ссылки, так они давно всем известны, но мне не лень продублировать:

Вы путаете экспертную систему с когнитивно-символьными системами (КСС). И ехидничаете совершенно не по делу. F-16 - это боевой самолет, и задача управления им требует огромного спектра когнитивных функций у системы и опытного пилота.

Суть в другом. Если условия меняются, узкая экспертная система ломается, но ЛЛМ в этом плане ничем не лучше - она начинает галлюцинировать при малейшем отклонении от обучающей выборки (вспомним Ваших слона и кошку).

КСС же адаптируется через логический вывод и перестроение модели мира. Она не ломается, она мгновенно пересчитывает, не генерирует ошибки (минимальная точность не менее 95%. В медицине и юриспруденции точность должна быть не менее 97%). Все символьные системы, исторически строились как ИИ и они намного ближе к настоящему ИИ, чем любая ЛЛМ.

Вы, наверное, шутите?! Проверка фактов запросом ИИ в интернет? Вы предлагаете лечить галлюцинации галлюцинациями? Это выглядит так: какая-то ЛЛМ "придумала факт" (сгенерировала), никто этот "факт" не проверил, и он ушел в общую массу интернет-шума. А потом ваша вторая ЛЛМ лезет в этот интернет, видит ту самую ошибку и говорит: "Да вот же - официальное подтверждение!".

Давайте посмотрим на эти грабли: в 2023–2024 годах на этом уже погорели юристы в США и Канаде. В громком деле Mata v. Avianca адвокаты подали документы с выдуманными названиями прецедентов, которых никогда не существовало. Позже аналогичный случай произошел в Британской Колумбии в рамках семейного спора. Они совершили ту самую ошибку: они не просто доверились генерации, а попросили чат-бота подтвердить подлинность этих же выдумок, и ЛЛМ предсказуемо ответил: "Да, эти дела реальны". И таких примеров в судебной практике 2025 года становилось только больше и больше, несмотря на развитие технологий.

Тут даже Вангой быть не надо. На Хабре, в течение этого года мы гарантированно увидим новые публикации о том, как в очередных судебных процессах вскрылось использование ЛЛМ, и как ЛЛМ снова "выдумал" несуществующие нормы или детали сделок. И таких статей будет становиться всё больше, потому что интернет стремительно заполняется "самоподтверждающимся" бредом

Давайте скажем честно: 1. Вы ими никогда и не интересовались; 2. маркетологам LLM-компаний можно поставить плюс - они продали обществу идею, что автоматизированные системы - это ИИ. А вот только небольшой список того, где применяются когнитивнор-символьные системы:

  • Soar - активно используется в программах DARPA (например, ACE). Результаты испытаний по автономному управлению истребителями F-16 показали, что ИИ на базе логики и правил превосходит пилотов-людей в ближнем бою. Сейчас эти наработки ложатся в основу истребителей следующих поколений, где пилот не предусмотрен. Это позволяет самолету выполнять маневры с перегрузками, которые мгновенно убили бы пилота;

  • ACT-R - десятилетиями используется в NASA и авиации для моделирования действий операторов в критических ситуациях и управления сложными интерфейсами, где цена ошибки - потеря космического аппарата. А также, в образовательных технологиях (Intelligent Tutoring Systems) - эта архитектура десятилетиями используется для создания адаптивных обучающих систем. К 2026 году статистика неумолима: студенты, использующие "тьюторов" на базе ACT-R, показывают результаты значительно выше, чем те, кто пытается учиться с помощью ЛЛМ;

  • CRAM (Cognitive Robot Abstract Machine) - успешно применяется в высокотехнологичной робототехнике для выполнения сложных манипуляций в быту и на производстве. В отличие от нейросетевых роботов, CRAM понимает семантику действий (почему он это делает), а не просто копирует движения.

Я могу этот список продолжать и продолжать, настолько долго, что у меня быстрее возникнет ограничение по количеству символов в комментарии, чем этот список закончится. Альтернативные методы давно и надежно "захватили" реальный сектор экономики, обороны и науки. Просто об этом не пишут в рекламных буклетах - люди работают над развитием этих систем, а не "размахивают терминами".

Проблемы только будут накапливаться и одна из них галлюцинации, их станет больше, как и других проблем. Если накрыть кучку гуано листиком - это не означает что оно перестанет пахнуть. Проблемы надо решать, а не "прятать" в виде: "А вот квантовый компьютер снимет одну проблему...". Вот только их 15 у коннекционистов

То есть, не решив фундаментальные проблемы коннеционистких подходов, Вы считаете что Вам поможет квантовый компьютер их.. "обойти"?!

LT проложила путь к последующим решениям и системам, которые развивали идеи эвристического поиска, логического вывода и символьных вычислений. Да и как первопроходцу, ей сейчас, спустя годы можно это простить - "...решать только задачи формальной логики, а не из реальной жизни...". Затем появился GPS (Универсальный решатель задач, А. Ньюэлл, 1957), SHRDLU (Т. Виноград), экспертные системы 70-80ых (Dendral, Mycin и др.) - все эти разработки привели к современным когнитивно-символьным системам (Soar, ACT-R и др., с 2000 по наше время), где логика является супер-гибкой и решает реальные задачи.

В сложных прикладных задачах, таких как управление беспилотниками, симуляция боевых пилотов или комплексное планирование в динамических средах, количество активных правил, в КСС, часто превышает 2000 (это еще "скромное" число). В то же время, LLM с CoT (Chain of Thought) - едва достигает 200 и даже в данных цифрах сомнения, так как очень много логических ошибок.

Автор так сильно увлёкся ИИ-хайпом, что не заметил, что проблемы описанные в статье касаются только конекционистских архитектур (LLM, CNN, RL, MoE) и частично нейро-символьных систем (где ядром является "нейро"-составляющая), а у других архитектур таких проблем нет, таких как: Symbolic AI (в том числе - когнитивно-символьные (КСС)), Embodied AI, SNN и других.

Давайте всё разбирать по порядку:

Если это так - с парсерами, то этот метод немасштабируемый и такой же статистический, как и у LLM

Вы путаете статистику предсказания с детерминизмом структуры. Парсер в КСС не угадывает следующее слово, а транслирует фразу в строгую логическую и семантическую форму. Ошибку в правилах парсинга можно отладить и верифицировать, а статистическую галлюцинацию в весах LLM - нет.

Ведь вы где-то взяли "верифицированные корпуса " - где? Абсолютной достоверности данных нет, хоть Википедия, хоть научные статьи, хоть Советская энциклопедия.

Мы сами собирали эти корпуса и многократно их проверяли и перепроверяли, так как они ложатся в фундамент ядра системы. Если в ядре будут "грязные" данные, то результат на выходе будет плачевным и это еще мягко сказано.

Так что эти диалоги ничем не лучше и не корректнее тех, что есть в интернете.

Утверждение о том, что эти диалоги "не лучше интернетных", справедливо только если оценивать их как развлекательный контент. С точки зрения инженерии смыслов, наши диалоги на порядок корректнее.

В интернете и "диалог" c LLM - это поток ассоциаций, где "красиво" важнее, чем "верно". "Диалог" с КСС - это работа с четко определенными объектами и их свойствами. Это делает общение более глубоким и содержательным: система не просто подбирает слова, а выстраивает логически безупречную нить рассуждения. Для нас "интерес" в общении заключается в точности и новизне выводов, а не в имитации сетевого стиля - это диалог, который ведет к решению.

Добавлю, что современная когнитивная инженерия не стоит на месте. В некоторых КСС и в нашей в частности, уже реализованы экспериментальные системы: желаний, внутренних мотиваций и целеполагания - была решена одна из фундаментальных проблем ИИ.

Это меняет суть взаимодействия: мы переходим к полноценным двусторонним диалогам. Система перестает быть "пассивным оракулом", "ожидающим промпта", и становится активным участником процесса, который может инициировать уточнения, исходя из собственной иерархии целей.

Так что я сильно сомневаюсь в том, что такой подход лучше чем LLM - он хуже по как минимум параметру количества знаний. которые система может вывести из данных.

Сэр, давайте посерьезней. На что ЛЛМ разбирает промпт? По большому счету - на статистические токены. Для неё нет разницы между физическим законом и текстом песни, если они в выборке стоят рядом

А что делает КСС? Она разбирает входной текст на "атомы": символы, логические связи, предикаты и типы объектов. После того, как "атомы" были получены, то система забывает про текст - он больше не нужен и начинается та самая "магия" КСС, которая и делает её интеллектом: начинает оперировать не словами, а сущностями и их отношениями в пространстве задач, о которых писал Ньюэлл в своих работах.

LLM также строят онтологии предметных областей как и ручные парсеры - но масштабируемо, а потом мы имеем возможность использовать in context learning давая промты чтобы создать онтологию - и сейчас это работает уже достаточно хорошо.то же касается и математики - хотя там дыр намного больше и тут я больше согласен, что нужны нейросимвольные движки

  1. То, что вы называете "онтологией" в ЛЛМ - это лишь облако статистических ассоциаций. Система знает, что слова стоят рядом, но она не понимает сути их иерархической связи. В КСС онтология - это набор правил, который нельзя нарушить;

  2. Вы серьезно считаете, что временная настройка контекста через промпт - это создание архитектуры знаний? Для нас "In-context learning" - это не более чем попытка на лету "построить костыли" для модели, у которой нет собственного логического фундамента. Это не обучение системы, это дрессировка "попугая" на время одного диалога. Настоящий интеллект должен интегрировать опыт в долговременную память (LTM) и уметь связывать ее с локальной БЗ, а не забывать всё при открытии новой вкладки. Зачем нам система, которую нужно заново "учить" в каждом чате?

P.S. И последний, чисто прагматичный момент. В наше время, когда цены на "железо" бьют все рекорды, а энергопотребление исчисляется мегаваттами, выбор в пользу эффективной символьной архитектуры с точечным использованием "нейро"-компонентов - это не только вопрос качества, но и элементарной инженерной и экономической целесообразности.

Я рад, что Вы выбрали такой путь. Да и будущее за нейро-символьными системами, где ядро символьная часть, а "нейро"-компонент - "глаза" и "уши", а также и "чистыми" КСС с модулями "расширений возможностей" - интеллект по Ньюэллу

Каким образом сознание может помочь искусственному интеллекту эту задачу? Зачем вообще использовать ИИ для решения этой и любой другой задачи, которая предполагает наличие логического мышления, которого у ИИ нет, и не известно будет ли когда-то. И с чего Вы взяли, что эту задачу можно решить и нужно решать? ;)

Логика давно уже есть у всех символьных систем, еще с 1956 года - программа "Logic Theorist" (А. Ньюэлл, Г. Саймон, К. Шоу; 1956). Логики не было у перцептронов и нет у его "наследников" - LLM. Историю ИИ надо знать, особенно в 2026 году, так как в этом году официальный ДР термина ИИ так и "Logic Theorist" - 70 лет

Я уже давно работаю с когнитивно-символьными системами (КСС), и вопрос "железа" меня никогда особо не интересовал. Суть КСС в том, что они архитектурно гибки: могут эффективно работать как на CPU, так и на GPU (когда это действительно оправдано).

На самом деле, текущие проблемы индустрии с нехваткой мощностей и энергии только на руку символистам. Может люди задумаются о том, что пора возвращаться к архитектурам, где интеллект определяется структурой знаний.

Ну, если я поеду на дорогом авто, который будет галлюцинировать ломаться каждые 50-100 метров, то все чиксы разбегутся

Ну почему сразу обманывали-то? Ну разве можно так про бабушку? Нет, они все просто очень, очень, очень, очень, очень, очень сильно приукрашивали

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity

Specialization

Разработчик игр, Real AI Developer
Ведущий
From 150,000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust