Information
- Rating
- 1,038-th
- Location
- Москва, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust
Вы говорите, что прогресс виден и что через три месяца появятся результаты, которые, возможно, убедят даже скептиков. Это звучит оптимистично, но не меняет сути: мы до сих пор оцениваем системы по их способности генерировать текст, а не по наличию понимания. Если основная проблема - это отсутствие адекватной внутренней модели мира, то решение не в том, чтобы масштабировать предсказание следующего токена, а в том, чтобы построить систему, где знания, цели и контекст не побочный эффект, а основа поведения. LLM могут стать лучше в имитации, но пока не переходят на следующий уровень, потому что архитектурно не предназначены для рассуждений. В то время как альтернативные подходы: LBS, CESP и их гибриды, изначально строятся на логике, событийном управлении и когнитивной целостности. Ниже, наглядное сравнение, которое показывает, чем эти системы принципиально отличаются от LLM, начиная от вычислительных требований и заканчивая способностью к "теории разума" (ToM).
LLM (Large Language Models):
- вычислительные мощности (обучение) - экстремально высокие;
- вычислительные мощности (вывод) - высокие;
- объяснимость решений - нет, чёрный ящик;
- галлюцинации / ошибки - часто, генерирует правдоподобную ложь;
- способность к рассуждению - нет, статистическое предсказание;
- ToM - не проходят (<50%);
LBS (Logic-Based Systems):
- вычислительные мощности (обучение) - низкие, не обучается, знания задаются;
- вычислительные мощности (вывод) - очень низкие, логический вывод;
- объяснимость решений - есть, цепочка логических правил;
- галлюцинации / ошибки - нет, вывод следует из фактов;
- способность к рассуждению - есть, логический вывод;
- ToM - проходят частично (>57%);
CESP (Cognitive Event-Driven Symbolic Processing):
- вычислительные мощности (обучение) - низкие / средние, обучение правилам, через взаимодействие;
- вычислительные мощности (вывод) - низкие, выбор действия по состоянию;
- объяснимость решений - есть и полностью прослеживаемый процесс;
- галлюцинации / ошибки - нет;
- способность к рассуждению - есть, планирование;
- ToM - почти проходят (>69%);
Это не вопрос: "альтернатива или развитие?", разница очевидна.
Утверждение, что моё отношение к ИИ - это "хобби" или "новостной фон", не соответствует действительности. Наши команды, численностью более 20 человек, уже около семи лет работают над развитием логических систем (LBS) и когнитивно-символьных архитектур (CESP). В этом году мы начали совместный проект по созданию гибридной системы LBS/CESP с другой исследовательской группой, фокусируясь на построении моделей, способных к рассуждению, объяснению решений и обучению в процессе. Мы не потребляем хайп, а десятилетиями работаем в области, которая сегодня остаётся за кадром внимания массовых медиа, потому что она не генерирует "красивых ответов", но строит настоящую основу для понимания.
Что касается форума - это закрытое профессиональное сообщество, посвящённое LBS, CESP, нейро-символьным гибридам и другим альтернативным парадигмам ИИ в противовес LLM. Доступ возможен только по приглашению, что стало следствием горького опыта: в начале 2010-х наши попытки обсуждать символьные системы на открытых платформах были сорваны агрессивными кампаниями со стороны сторонников статистического подхода, которых мы тогда называли "LLM-сатанистами", не в оскорбительном смысле, а как метафору "слепого поклонения" масштабу данных вместо содержания. Что до задач по геометрии, если даже "заточенные" под математику модели не справляются с базовыми школьными примерами, это не вопрос "пространственного мышления", а свидетельство отсутствия у них внутренней модели мира. Ожидать от LLM последовательности и точности, когда он проваливает элементарные тесты, не наивность, а требование минимального здравого смысла.
Вы говорите, что ИИ решает олимпиадные задачи, которых не было в датасетах, но при этом ни одна LLM до сих пор не может стабильно решить элементарную задачу по геометрии из учебника 10 класса - умираем со смеху на одном из довольно больших форумах посвященных ИИ. Как так? ПО "заточенное" под решение олимиадных задач, не может справится с простой задачей!? Если бы система действительно понимала контекст, она не ошибалась бы в таких простых случаях.
Сравнивать ИИ с человеком - естественно, но только если мы понимаем, что именно сравниваем. Мы не спорим, что автомат шьёт быстрее сапожника - это триумф инженерии. Но когда вы говорите, что LLM "понимает контекст лучше среднего программиста", то Вы путаете релевантность с пониманием.
А при чём тут человеки? :О
Триумф - это не когда система решает задачу из прошлых олимпиад, а когда она "создаёт "новую математику". Пока что, все "победы" ИИ в математике и программировании - это поиск по обучающим данным, переформулировка уже известных решений, подбор паттернов. Настоящая олимпиадная задача та, решение на которую не заложено в датасетах. Именно такие задачи остаются непосильными для LLM. Они не решают их, не потому что медленные или плохо обученные, а потому что не понимают, не рассуждают причинно, не строят модель мира. Это не триумф интеллекта - это триумф масштабирования статистики.
Говорить, что "ИИ пишет реально работающий код", всё равно что сказать, что калькулятор управляет цивилизацией. Да, системы генерируют код, но он часто поверхностный, полон скрытых багов, требует глубокой проверки человеком. Более того, они не понимают контекста, не видят архитектурных последствий, не могут объяснить, почему выбрали тот или иной путь. Это автозаполнение высокого уровня, а не инженерное мышление.
И да, интернет не исчез после дотком-краха. Но тогда хотя бы было ясно: сайты, серверы, протоколы - это реальные технологии. А сегодня мы называем "триумфом" то, что даже не умеет отличить истину от правдоподобной лжи. Если победа в том, чтобы убедить мир, что имитация - это разум, то да, 2025 - год триумфа, но не ИИ, а массового самообмана.
И нет ничего нет удивительного, что был создан гибрид LBS/LLM, об этом давно были "слухи" среди MIT. Но посмотрим, как данный гибрид пройдёт свой первый ToM и сразу всё встанет на свои места
Статья не ложь, а полуправда. Разбираем "почему"...
Ложная иерархия. Такая иерархия используется новичками в теме ИИ: AI → ML → Generative AI → LLM → GEO и GEO (Generative Engine Optimization) - не технология ИИ, а маркетинговая практика;
AI модели и LLM - это не одно и то же - да, верно формально, но автор дальше говорит: "Существует множество моделей искусственного интеллекта. Часть из них является машинным обучением (ML), часть не является" - это мифическое представление;
Полное отсутствие LBS, CESP и других когнитивных архитектур.
Автор перечисляет: CNN, RNN, GAN, Diffusion, ViT, RL, Байесовские модели, Fuzzy Logic…
Но ни слова о:
- LBS (Logic-Based Systems) - логических системах, где знания представлены явно, а решения выводятся;
- CESP (Cognitive Event-Driven Symbolic Processing) - решения, где поведение управляется событиями и символическими правилами;
- нейро-символьных гибридах;
- LBS/CESP гибридах
Данные системы уже давно и эффективно используются:
- в военных целях;
- в разведке;
- в медицине, для диагностики с точным и детальным объяснением;
- в юриспруденции;
- и т.д.
Не галлюцинируют, могут объяснить ход мысли и не "чёрные ящики".
Частично верно: термин GOFAI (Good Old-Fashioned AI) и он не нейтральный, а ироничный, введённый противниками символьного подхода
Ошибка: RL - не всегда использует нейросети. RL - это парадигма обучения через взаимодействие, а не тип нейросети.
Главная проблема - сужение термина "ИИ" до LLM и генеративных моделей, при игнорировании альтернативных, более зрелых парадигм, которые работают там, где нельзя ошибаться.
DARPA (Defense Advanced Research Projects Agency) - ключевой игрок в развитии передовых технологий, включая искусственный интеллект. Она не просто финансирует исследования, она формирует направления, выбирает победителей и отказывается от устаревших парадигм. Это один из самых влиятельных "архитекторов" технологического будущего человечества. Именно здесь родились интернет, GPS, беспилотники и первые прототипы машинного зрения. Мы, как цивилизация, обязаны DARPA не только прогрессом в обороне, но и фундаментальными прорывами, которые со временем становятся основой гражданских технологий. Их выбор всегда не в стороне хайпа, а в стороне надёжности, объяснимости и реальной эффективности там, где цена ошибки - человеческая жизнь.
Именно поэтому в 2020–2025 годах DARPA делает ставку не на масштабируемые LLM, а на системы, способные рассуждать: нейро-символьные гибриды, когнитивные архитектуры вроде Soar и ACT-R, логические системы (LBS), где знания представлены явно, а решения выводятся, а не предсказываются. Эти системы, основа для автономных агентов, способных к целеполаганию, обучению в процессе и объяснению своих действий
P.S.: термин ГенИИ - это просто еще одна маркетинговая уловка. У нормальных специалистов, которые давно работают в области ИИ, использование этого термина - моветон
Бррр... аж передёрнуло после прочтения... Об ИИ ни слова, где будет именно говорится о проблемах ИИ, о вопросах связанных с ИИ, морально-этической стороны и т.д., зато куча информации про нейронные сети
Такие выводы быстро приводят к выгоранию и до психиатрической клиники, к сожалению, знаю из личных наблюдений за знакомыми. Люди тоже гнались за длинным рублём. А сейчас, после курса реабилитации, занимаются только любимым делом, которое приносит деньги, но в приоритете только любимая работа. Я в первую очередь, работал не за идею и не за деньги, мне были интересны проекты, на которых я мог набить скилы + печеньки.
Ну вот. Я думал что будет про Wet. Lula Sexy Empire
Изюююмительный текст - 87% сгенерирован. И без анализа видно "кучу маркеров", что сгенерирован
LBS - логические системы, CESP - конитивино=символьные системы, тест Theory of Mind (ToM)
Никак. Только в Штатах каждый сходит с ума по своему: кто-то хочет получить Нобелевскую медаль мира, а кто-то хочет выпустить самую Первую AGI, просто быть Первым
То, что вы описываете — это не слабость и не отсутствие таланта. Это "выгорание познающего ума", когда стремление понять всё и сразу превращается в бесконечный цикл самопроверки, переписывания и сомнения. Вы не одиноки, многие разработчики, художники, мыслители сталкиваются с этим и не потому что им чего-то не хватает, а потому что они слишком "остро" чувствуют масштаб задачи.
Советы вроде "начни с малого" или "выбери стек" не работают потому, что проблема не в инструментах, а в структуре внимания и энергии. У Вас, скорее всего, не дефицит навыков, а "перегрузка возможностей" - Вы видите слишком много путей, слишком много смыслов, слишком много способов сделать "Идеально" и каждый из них требует сил. А мозг "плывёт" не от объёма кода, а от давления необходимости быть всем сразу: архитектором, программистом, дизайнером, автором, менеджером.
Попробуйте не бороться с этим, а принять как особенность своей работы. Возможно, Вы не созданы для того, чтобы делать большие проекты в одиночку и это нормально. Может, Ваша "сила", в начале, в зародыше, в первом прототипе, где рождается искра. А дальше - передача, коллаборация, выход за пределы "я должен всё сам". Или, сознательное ограничение: одна игра, 1000 строк, одна механика, одна эмоция. Не сырой продукт, а законченный микро-мир.
И да, использование LLM - это не "обман". Пусть помогает не только писать код, но и сохранять мысли, когда память отказывает. Ведите не дневники, а карты решений: "почему я выбрал X вместо Y" - это снимет нагрузку с мозга.
Главное, перестаньте считать, что ценность в завершённости. Ваше настоящее достижение в том, что Вы продолжаете спрашивать, искать, пробовать, даже когда ничего не работает.
Правильней говорить для LLM-моделей. У LBS/CESP нет понятия модель;
LBS/CESP системам вообще не нужен GPU на сервере
ToM уже проходят LBS и CESP, с резкультатами от 63% до 81%. LLM даже близко не сравнится с такими показателями
И мы конечно верим, что 76% на этом тесте... ага, ага... при этом на обычном (не строгом!) тесте Тьюринга, он не набирает даже 50%, как и в задачах ToM. Как обычно - очередное "шоу с цифрами", где "успех" измеряется не способностью мыслить, а количеством промптов, перебранных за $8,42
А "эволюционная мультиагентная система" Бермана - это, по сути, "генетический алгоритм" на стероидах: тысячи копий одной и той же модели тыкаются в промпты, пока не найдут формулировку, которая обманет бенчмарк
Да и это ключевое преимущество LBS/CESP перед современными LLM. Эти системы изначально строятся вокруг способности выстраивать и управлять причинно-следственными связями и не как статистическую корреляцию, а как часть своей архитектуры. В Soar, например, каждое правило в процедурной памяти имеет форму "если → то", что позволяет системе не просто реагировать, а моделировать последствия действий, планировать и переосмысливать стратегию при возникновении конфликта целей. Причинность здесь, не "побочный эффект" обучения, а основа принятия решений: система может отслеживать, почему было выбрано то или иное действие, как оно повлияло на состояние мира и что нужно изменить, если результат не совпал с ожиданием.
В CESP-архитектурах, сочетающих символические и подсимвольные уровни, причинно-следственные связи ещё более явны: они могут быть заложены в онтологию домена, обновляться через обучение и проверяться в процессе рассуждения. Такие системы способны не только сказать "А привело к Б", но и объяснить, на каком основании сделан этот вывод, можно ли его опровергнуть и какие альтернативные цепочки возможны. Это делает их особенно подходящими для задач, где важны прозрачность, ответственность и понимание, от диагностики до стратегического планирования. В отличие от LLM, которые часто имитируют причинность через языковые паттерны, LBS и CESP реализуют её как операционный принцип работы
Действительно, на первый взгляд идеи LBS/CESP и JEPA, Яна Лекуна, кажутся близкими, потому что обе стремятся к более глубокому, предсказательному пониманию мира без зависимости от автогрегрессии. Однако различия фундаментальны. JEPA строится вокруг идеи обучения представлений через сравнение в скрытом пространстве, она кодирует два вида одного и того же контекста, сравнивает их в латентном пространстве и учится предсказывать изменения.
LBS и CESP идут дальше, они не просто предсказывают, а моделируют интеллект как процесс, управляемый целями, с явной структурой памяти, правилами вывода и механизмом саморегуляции. В Soar или ACT-R, например, есть декларативная и процедурная память, модуль принятия решений, способность к рефлексии и обучению на основе конфликтов.Там, где JEPA учится "понимать мир" через предсказание изменений, LBS/CESP пытаются "мыслить" в этом мире, используя символы, цели и внутренние модели. То есть, JEPA - это мощный шаг к семантическому обучению без учителя, но пока без "ядра разума", тогда как LBS/CESP - попытка создать это ядро.