Информация
- В рейтинге
- 599-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust
Утверждение, что моё отношение к ИИ - это "хобби" или "новостной фон", не соответствует действительности. Наши команды, численностью более 20 человек, уже около семи лет работают над развитием логических систем (LBS) и когнитивно-символьных архитектур (CESP). В этом году мы начали совместный проект по созданию гибридной системы LBS/CESP с другой исследовательской группой, фокусируясь на построении моделей, способных к рассуждению, объяснению решений и обучению в процессе. Мы не потребляем хайп, а десятилетиями работаем в области, которая сегодня остаётся за кадром внимания массовых медиа, потому что она не генерирует "красивых ответов", но строит настоящую основу для понимания.
Что касается форума - это закрытое профессиональное сообщество, посвящённое LBS, CESP, нейро-символьным гибридам и другим альтернативным парадигмам ИИ в противовес LLM. Доступ возможен только по приглашению, что стало следствием горького опыта: в начале 2010-х наши попытки обсуждать символьные системы на открытых платформах были сорваны агрессивными кампаниями со стороны сторонников статистического подхода, которых мы тогда называли "LLM-сатанистами", не в оскорбительном смысле, а как метафору "слепого поклонения" масштабу данных вместо содержания. Что до задач по геометрии, если даже "заточенные" под математику модели не справляются с базовыми школьными примерами, это не вопрос "пространственного мышления", а свидетельство отсутствия у них внутренней модели мира. Ожидать от LLM последовательности и точности, когда он проваливает элементарные тесты, не наивность, а требование минимального здравого смысла.
Вы говорите, что ИИ решает олимпиадные задачи, которых не было в датасетах, но при этом ни одна LLM до сих пор не может стабильно решить элементарную задачу по геометрии из учебника 10 класса - умираем со смеху на одном из довольно больших форумах посвященных ИИ. Как так? ПО "заточенное" под решение олимиадных задач, не может справится с простой задачей!? Если бы система действительно понимала контекст, она не ошибалась бы в таких простых случаях.
Сравнивать ИИ с человеком - естественно, но только если мы понимаем, что именно сравниваем. Мы не спорим, что автомат шьёт быстрее сапожника - это триумф инженерии. Но когда вы говорите, что LLM "понимает контекст лучше среднего программиста", то Вы путаете релевантность с пониманием.
А при чём тут человеки? :О
Триумф - это не когда система решает задачу из прошлых олимпиад, а когда она "создаёт "новую математику". Пока что, все "победы" ИИ в математике и программировании - это поиск по обучающим данным, переформулировка уже известных решений, подбор паттернов. Настоящая олимпиадная задача та, решение на которую не заложено в датасетах. Именно такие задачи остаются непосильными для LLM. Они не решают их, не потому что медленные или плохо обученные, а потому что не понимают, не рассуждают причинно, не строят модель мира. Это не триумф интеллекта - это триумф масштабирования статистики.
Говорить, что "ИИ пишет реально работающий код", всё равно что сказать, что калькулятор управляет цивилизацией. Да, системы генерируют код, но он часто поверхностный, полон скрытых багов, требует глубокой проверки человеком. Более того, они не понимают контекста, не видят архитектурных последствий, не могут объяснить, почему выбрали тот или иной путь. Это автозаполнение высокого уровня, а не инженерное мышление.
И да, интернет не исчез после дотком-краха. Но тогда хотя бы было ясно: сайты, серверы, протоколы - это реальные технологии. А сегодня мы называем "триумфом" то, что даже не умеет отличить истину от правдоподобной лжи. Если победа в том, чтобы убедить мир, что имитация - это разум, то да, 2025 - год триумфа, но не ИИ, а массового самообмана.
И нет ничего нет удивительного, что был создан гибрид LBS/LLM, об этом давно были "слухи" среди MIT. Но посмотрим, как данный гибрид пройдёт свой первый ToM и сразу всё встанет на свои места
Статья не ложь, а полуправда. Разбираем "почему"...
Ложная иерархия. Такая иерархия используется новичками в теме ИИ: AI → ML → Generative AI → LLM → GEO и GEO (Generative Engine Optimization) - не технология ИИ, а маркетинговая практика;
AI модели и LLM - это не одно и то же - да, верно формально, но автор дальше говорит: "Существует множество моделей искусственного интеллекта. Часть из них является машинным обучением (ML), часть не является" - это мифическое представление;
Полное отсутствие LBS, CESP и других когнитивных архитектур.
Автор перечисляет: CNN, RNN, GAN, Diffusion, ViT, RL, Байесовские модели, Fuzzy Logic…
Но ни слова о:
- LBS (Logic-Based Systems) - логических системах, где знания представлены явно, а решения выводятся;
- CESP (Cognitive Event-Driven Symbolic Processing) - решения, где поведение управляется событиями и символическими правилами;
- нейро-символьных гибридах;
- LBS/CESP гибридах
Данные системы уже давно и эффективно используются:
- в военных целях;
- в разведке;
- в медицине, для диагностики с точным и детальным объяснением;
- в юриспруденции;
- и т.д.
Не галлюцинируют, могут объяснить ход мысли и не "чёрные ящики".
Частично верно: термин GOFAI (Good Old-Fashioned AI) и он не нейтральный, а ироничный, введённый противниками символьного подхода
Ошибка: RL - не всегда использует нейросети. RL - это парадигма обучения через взаимодействие, а не тип нейросети.
Главная проблема - сужение термина "ИИ" до LLM и генеративных моделей, при игнорировании альтернативных, более зрелых парадигм, которые работают там, где нельзя ошибаться.
DARPA (Defense Advanced Research Projects Agency) - ключевой игрок в развитии передовых технологий, включая искусственный интеллект. Она не просто финансирует исследования, она формирует направления, выбирает победителей и отказывается от устаревших парадигм. Это один из самых влиятельных "архитекторов" технологического будущего человечества. Именно здесь родились интернет, GPS, беспилотники и первые прототипы машинного зрения. Мы, как цивилизация, обязаны DARPA не только прогрессом в обороне, но и фундаментальными прорывами, которые со временем становятся основой гражданских технологий. Их выбор всегда не в стороне хайпа, а в стороне надёжности, объяснимости и реальной эффективности там, где цена ошибки - человеческая жизнь.
Именно поэтому в 2020–2025 годах DARPA делает ставку не на масштабируемые LLM, а на системы, способные рассуждать: нейро-символьные гибриды, когнитивные архитектуры вроде Soar и ACT-R, логические системы (LBS), где знания представлены явно, а решения выводятся, а не предсказываются. Эти системы, основа для автономных агентов, способных к целеполаганию, обучению в процессе и объяснению своих действий
P.S.: термин ГенИИ - это просто еще одна маркетинговая уловка. У нормальных специалистов, которые давно работают в области ИИ, использование этого термина - моветон
Бррр... аж передёрнуло после прочтения... Об ИИ ни слова, где будет именно говорится о проблемах ИИ, о вопросах связанных с ИИ, морально-этической стороны и т.д., зато куча информации про нейронные сети
Такие выводы быстро приводят к выгоранию и до психиатрической клиники, к сожалению, знаю из личных наблюдений за знакомыми. Люди тоже гнались за длинным рублём. А сейчас, после курса реабилитации, занимаются только любимым делом, которое приносит деньги, но в приоритете только любимая работа. Я в первую очередь, работал не за идею и не за деньги, мне были интересны проекты, на которых я мог набить скилы + печеньки.
Ну вот. Я думал что будет про Wet. Lula Sexy Empire
Изюююмительный текст - 87% сгенерирован. И без анализа видно "кучу маркеров", что сгенерирован
LBS - логические системы, CESP - конитивино=символьные системы, тест Theory of Mind (ToM)
Никак. Только в Штатах каждый сходит с ума по своему: кто-то хочет получить Нобелевскую медаль мира, а кто-то хочет выпустить самую Первую AGI, просто быть Первым
То, что вы описываете — это не слабость и не отсутствие таланта. Это "выгорание познающего ума", когда стремление понять всё и сразу превращается в бесконечный цикл самопроверки, переписывания и сомнения. Вы не одиноки, многие разработчики, художники, мыслители сталкиваются с этим и не потому что им чего-то не хватает, а потому что они слишком "остро" чувствуют масштаб задачи.
Советы вроде "начни с малого" или "выбери стек" не работают потому, что проблема не в инструментах, а в структуре внимания и энергии. У Вас, скорее всего, не дефицит навыков, а "перегрузка возможностей" - Вы видите слишком много путей, слишком много смыслов, слишком много способов сделать "Идеально" и каждый из них требует сил. А мозг "плывёт" не от объёма кода, а от давления необходимости быть всем сразу: архитектором, программистом, дизайнером, автором, менеджером.
Попробуйте не бороться с этим, а принять как особенность своей работы. Возможно, Вы не созданы для того, чтобы делать большие проекты в одиночку и это нормально. Может, Ваша "сила", в начале, в зародыше, в первом прототипе, где рождается искра. А дальше - передача, коллаборация, выход за пределы "я должен всё сам". Или, сознательное ограничение: одна игра, 1000 строк, одна механика, одна эмоция. Не сырой продукт, а законченный микро-мир.
И да, использование LLM - это не "обман". Пусть помогает не только писать код, но и сохранять мысли, когда память отказывает. Ведите не дневники, а карты решений: "почему я выбрал X вместо Y" - это снимет нагрузку с мозга.
Главное, перестаньте считать, что ценность в завершённости. Ваше настоящее достижение в том, что Вы продолжаете спрашивать, искать, пробовать, даже когда ничего не работает.
Правильней говорить для LLM-моделей. У LBS/CESP нет понятия модель;
LBS/CESP системам вообще не нужен GPU на сервере
ToM уже проходят LBS и CESP, с резкультатами от 63% до 81%. LLM даже близко не сравнится с такими показателями
И мы конечно верим, что 76% на этом тесте... ага, ага... при этом на обычном (не строгом!) тесте Тьюринга, он не набирает даже 50%, как и в задачах ToM. Как обычно - очередное "шоу с цифрами", где "успех" измеряется не способностью мыслить, а количеством промптов, перебранных за $8,42
А "эволюционная мультиагентная система" Бермана - это, по сути, "генетический алгоритм" на стероидах: тысячи копий одной и той же модели тыкаются в промпты, пока не найдут формулировку, которая обманет бенчмарк
Да и это ключевое преимущество LBS/CESP перед современными LLM. Эти системы изначально строятся вокруг способности выстраивать и управлять причинно-следственными связями и не как статистическую корреляцию, а как часть своей архитектуры. В Soar, например, каждое правило в процедурной памяти имеет форму "если → то", что позволяет системе не просто реагировать, а моделировать последствия действий, планировать и переосмысливать стратегию при возникновении конфликта целей. Причинность здесь, не "побочный эффект" обучения, а основа принятия решений: система может отслеживать, почему было выбрано то или иное действие, как оно повлияло на состояние мира и что нужно изменить, если результат не совпал с ожиданием.
В CESP-архитектурах, сочетающих символические и подсимвольные уровни, причинно-следственные связи ещё более явны: они могут быть заложены в онтологию домена, обновляться через обучение и проверяться в процессе рассуждения. Такие системы способны не только сказать "А привело к Б", но и объяснить, на каком основании сделан этот вывод, можно ли его опровергнуть и какие альтернативные цепочки возможны. Это делает их особенно подходящими для задач, где важны прозрачность, ответственность и понимание, от диагностики до стратегического планирования. В отличие от LLM, которые часто имитируют причинность через языковые паттерны, LBS и CESP реализуют её как операционный принцип работы
Действительно, на первый взгляд идеи LBS/CESP и JEPA, Яна Лекуна, кажутся близкими, потому что обе стремятся к более глубокому, предсказательному пониманию мира без зависимости от автогрегрессии. Однако различия фундаментальны. JEPA строится вокруг идеи обучения представлений через сравнение в скрытом пространстве, она кодирует два вида одного и того же контекста, сравнивает их в латентном пространстве и учится предсказывать изменения.
LBS и CESP идут дальше, они не просто предсказывают, а моделируют интеллект как процесс, управляемый целями, с явной структурой памяти, правилами вывода и механизмом саморегуляции. В Soar или ACT-R, например, есть декларативная и процедурная память, модуль принятия решений, способность к рефлексии и обучению на основе конфликтов.Там, где JEPA учится "понимать мир" через предсказание изменений, LBS/CESP пытаются "мыслить" в этом мире, используя символы, цели и внутренние модели. То есть, JEPA - это мощный шаг к семантическому обучению без учителя, но пока без "ядра разума", тогда как LBS/CESP - попытка создать это ядро.
Понимаю, что идеальное - враг возможного и когда нет команды с опытом в C++ или Rust, хочется просто начать на Python и двигаться вперёд, а это абсолютно нормально. Но важно не допустить, чтобы временная реализация стала препятствием для будущей архитектуры. Если ядро "Вихря" изначально построено как монолит на Python, то потом заменить его будет почти невозможно без полного переписывания. Вместо этого можно уже сейчас проектировать систему как модульную: Fast Loop, GSV, ΛV и Поле пульсаров - это должны быть отдельные компоненты с чёткими интерфейсами, которые можно реализовать сначала в прототипе, но заложить возможность замены на производительные аналоги.
Наша самая первая LBS-система была монолитом на Asm/C/C++, и мы тогда уже понимали, что именно монолит станет бутылочным горлышком для масштабирования и развития ядра, поэтому с самого начала закладывали поддержку модульности, даже если она не использовалась сразу. Сейчас, когда мы создаём гибрид LBS/CESP, это сложная многокомпонентная система, где каждый уровень, от низкоуровневой обработки до символических рассуждений, работает как отдельный, но согласованный модуль, связанный через строгие контракты и сериализацию состояний. Мы не можем позволить себе задержки, "дрожание" в принятии решений или потерю целостности формы и именно поэтому контроль над памятью, временем и потоками управления начинается с выбора языка. Вы не обязаны писать всё на Rust с первого дня, но если вы заложите правильную структуру, где критические части могут быть заменены, то каждый шаг будет движением вперёд, а не тупиком. Мир не ждёт ещё один бот, он ждёт первую систему, которая скажет: "Я здесь и знаю зачем". Начните с малого, но начните так, чтобы каждый шаг приближал Вас к этой точке.