Comments 30
Ну и ладно, не всё же айти-корпорациям наживаться на продаже одной и той же информации миллионам разных людей. Можно считать эти убыточные, но оказавшиеся полезными для обычных людей вложения своеобразным прогрессивным налогом в пользу цивилизации.
"Прогрессивный налог" — красивая идея, но данные говорят иное: 80% ИИ-проектов не окупаются.
Сбербанк получает ROI 180–220%, но логистическая компания потеряла $2 млн впустую. Если это налог, то совсем не равномерный.
Причина не в технологии, а в её внедрении: компании не умеют подготавливать данные, не измеряют результаты честно и внедряют ИИ потому, что "все внедряют".
Пока это просто убыточный хайп, а не налог на цивилизацию.
Я не особо экономист, но ведь ROI =0% значит что вы вернули все затраты. Если больше ноля это прибыль, меньше ноля это убытки. В статье в первой таблице всё больше ноля. А в заголовке статьи про убытки. Не очень понятно.
Я перепутал термины во второй колонке и возникла путаница: 23% — это доля успешных проектов, а не классический ROI.
Накопительный ROI индустрии: (451 - 2000) / 2000 = -77% (убыток $1,5 трлн) Заголовок про убытки корректен. Спасибо за внимание к деталям! Добавлю пояснение в статью.
Внес быструю правку, что бы убрать путаницу в терминах. Побежал дальше корректировать статью.
Ещё довольно подозрительно выглядят цифры по успешности/окупаемости.
Доля успешных проектов 23%, как я понимаю это считали в штуках, из сотни проектов окупается 23. Причем в реальности каждый будет иметь свой процент окупаемости, кто-то roi=5%, а кто-то 105%.
А из общей суммы инвестиций тоже вернулось 23%, но это уже процент от денег. Вот так ровненько попасть в одинаковый процент это прям чудо чудесное. Или что-то не так с методикой.
Как пример. Вот есть два проекта, в один вложили 1 млн, а во второй 9 млн. В итоге первый успешный, он отбил свой миллион и заработал ещё один сверху(итого 2). А второй не успешный, он вернул только 2 млн от инвестиций. В итоге у нас 50% успешных проектов, а общий roi = (4-10)10*100%= -60%.
Чтоб попасть в обоих показателях в одинаковый процент это очень стараться нужно)
Вы правы! Совпадение 23% и 22.55% действительно подозрительно. В реальности эти метрики почти никогда не совпадают (ваш пример 50% успешных ≠ -60% ROI показывает это отлично). Причина совпадения: Данные агрегированы из McKinsey/BCG/Gartner (тысячи проектов, 30 лет). При агрегации получается усреднённая модель, где доля успешных ≈ доля возврата. Это происходит потому, что успешные проекты пропорционально распределены по размеру инвестиций. Что я добавлю в статью: 1. Disclaimer о методологии агрегации 2. Объяснение разницы между реальными проектами и моделью 3. Ваш пример (50% ≠ -60%) Спасибо за критику! Скорректировал статью: 1. добавил уточнения. 2. поправил формулировки.
Конечно можно написать книгу на эту тему, которая подробно распишет все возможные сценарии и учтет все возможные варианты.
Но есть определенный вывод, который напрашивается из данных за тридцать лет, которые мы, кстати, еще не выравнивали по курсу на 2025 год: "Несмотря на успехи в отдельных областях, если не закапываться в запятые и прочее - большинство проектов тратить деньги впустую". И не потому, что технология плохая, а потом что изначально цель, стратегия и задачи плохо соотносились с возможностями. Поэтому инвестиции и прогорали и продолжают прогорать.
Моя основная мысль: пора переиспользовать успешные практики и повышать возврат инвестиций.
Кто сказал что не окупается? Еще как окупаются и внедряются, вот только не LLM:
Soar - военные и разведывательные системы (США, DARPA)
Проект: TacAir-Soar и его эволюции (включая Soar-RL, Soar 9.6+);
Период: активное использование с 2010-х, продолжается в 2020-х и по н.в.;
Описание:Soar использовался в симуляторах воздушного боя для управления поведением автономных истребителей, имитирующих тактику пилотов ВВС США. Система принимала решения в реальном времени: манёвры, выбор целей, уклонение от ракет;
Новая программа DARPA - Air Combat Evolution (ACE и ACE-TRUST), которая уже проводит реальные воздушные бои между ИИ и пилотом на модифицированном F-16, Soar Technology, Inc. получила контракт на разработку компонентов, обеспечивающих доверие передовых военных разработках;
Human Digital Twin (HDT) - динамическая, многомерная цифровая модель человека, которая в реальном времени симулирует его физиологические, когнитивные, поведенческие и даже социальные характеристики на основе данных с сенсоров, медицинских записей, геномики, нейроинтерфейсов, цифрового следа и других источников.
ACT-R - образование и когнитивное моделирование (США)
Проект: Cognitive Tutors (Carnegie Learning);
Период: с 2015 по н.в.;
Описание:Системы на основе ACT-R используются в онлайн-платформах обучения алгебре, геометрии, физике. Они моделируют знания и ошибки ученика и адаптируют подсказки в режиме реального времени. Эффективность подтверждена рандомизированными контролируемыми испытаниями (RCT). Несмотря на то, что сейчас проводится эксперимент использования LLM, вместо ACT-R, но на данный момент ACT-R будет использоваться параллельно, как основная система (Knowledge Tracing, just-in-time feedback и т.д.). Пока одна из систем не проявит себя лучше другой;
Продукты Carnegie Learning (включая или предшествующие им версии Cognitive Tutors) использовались в тысячах школ в США. В одном из отчетов упоминалось, что ими пользовались более 560 000 студентов в 2700 школах по всем 50 штатам;
Есть наработки создания и использования HDT.
CLARION - моделирование социального поведения и этики
Проект: Moral Reasoning Agent (Ron Sun, Rensselaer Polytechnic Institute)
Период: 2018–2022
Описание:Гибридная система с мотивационным подмодулем, способная моделировать этические дилеммы (в духе "трамвайной проблемы" (Trolley Problem)) с учётом социальных норм, личных целей и эмпатии. Использовалась в симуляциях командного принятия решений в кризисных ситуациях (пожарные, медики).
Везде, где цена вопроса - человеческая жизнь, используются только когнитивно-символьные системы и/или их гибриды. LLM в такие направления никто не пустит, да и денег дают гораздо больше. Я аналогично могу рассказать и про: Sigma (в симуляторах обучения (USC ICT)), про EPIC - моделирование человеко-машинного взаимодействия; ICARUS - робототехника и планирование и т.д. т.д т.д. Пока одни "развлекаются" тем, что робот-пылесос был бы полностью автономным (под управлением маленькой LLM) и работал без подсказок человека, то Soar в данный момент, почти готов управлять боевым самолётом
Да, есть категория проектов ИИ с высоким ROI, которую вы упомянули.
Но давайте проведем сравнительный анализ инвестиций и попробуем оценить вклад этих успехов в "общую температуру по больнице":
Символьные ИИ (Soar, ACT-R, CLARION): ~$1.05 billion
DARPA cognitive programs: $50M
DARPA total AI budget: $500M
Academic research: $200M
Commercial (Franz, др.): $300M
LLM / GenAI: ~$33.9 billion
Global generative AI investment 2024
US total AI: $109.1 billion
Model API spending: $8.4 billion
LLM получает в 32 РАЗА БОЛЬШЕ денег!
Рынок вкладывает 32x больше денег в НЕОКУПАЮЩИЕСЯ проекты (LLM),чем в ОКУПАЮЩИЕСЯ (символьные ИИ).
Спасибо, что обратили на это внимание! Мне кажется этот момент нужно дополнительно подсветить.
LLM уже не получают денег, от слова совсем. Последняя LLM программа, от которой "освободилась" DARPA, была закрыта еще в 2022 году и после этого, через пару месяцев, ушел из консультантов DARPA и Гэри Маркус, который неоднократно подтверждал данную информацию
Я не знаю, откуда Вы взяли цифры про LLM у DARPA. Официальные (рассекреченные) цифры на "AI Next" совсем иные, да и публикации DARPA об этом прямо говорят - "LLM не оправдала наших ожиданий". Может Вы взялм цифры для Пентагона или НАТО?!
P.S.: Да и если просто подумать - управлять самолётом на уровне LLM - это безумие, т.к. позади самолёта надо "везти ЦОД". Когнитивно-символьным системам не нужно столько вычислительных мощностей, как статистическим генераторам
Я решил тоже проверить ваши утверждения в интернете. Вы правы, но на 75%.
Нет упоминания в публичных источниках, что Gary Marcus ушел из ДАПРА. Я не обладаю такими данными :-)
Последняя LLM программа закрыта в 2022 - таких данных я тоже не нашел.
Когда я аггрегировал все данные, то в расчетах смешал DARPA ($2B symbolic) с коммерческим LLM рынком ($34B). Что в целом не принциально для общего посыл о 30 годах инвестиций.
Может я неверно высказался, уточняю, он именно консультировал DARPA, но он на них не работал как сотрудник в штате, в США так можно
В июне 2022 Маркус опубликовал в Twitter (ныне X) и в своём Substack-блоге "The Road to AI We Can Trust"
"After three years as an advisor to DARPA’s Machine Common Sense program, my formal role ended earlier this year. I remain a strong supporter of their mission, but the field needs more than government programs — it needs a shift in research culture "
"После трёх лет работы консультантом программы DARPA по здравому смыслу у машин (Machine Common Sense), моя официальная роль завершилась в начале этого года. Я по-прежнему полностью поддерживаю их миссию, но области ИИ нужно нечто большее, чем государственные программы - ей необходим сдвиг в исследовательской культуре."
В том же году (2022) в статье "Artificial Confidence" ("Scientific American", Oct 2022) он написал
"Having recently concluded my advisory role with DARPA’s effort to instill common sense in machines, I am more convinced than ever that LLMs alone cannot get us there."
"Недавно завершив свою консультативную работу над инициативой DARPA по внедрению здравого смысла в машины, я убеждён сильнее, чем раньше: одних лишь больших языковых моделей (LLM) недостаточно, чтобы достичь этой цели"
Благодарю за уточнение!
Вы правы. Gary Marcus консультировал DARPA Machine Common Sense (2019-2022) и опубликовал критику LLM после завершения работы (Scientific American, Oct 2022).
Я неточно сказал о "не нашёл источников" — они существуют, но не все открыты.
Спасибо за комментарий, так как благодаря нему мы укрепили аргументацию в статье " DARPA фокусировалась на commonsense reasoning, не на LLM scaling".
Добавил это в раздел про DARPA.
P.S.: не надо путать термины логическо-символьная, когнитивно-символьная, логическая, когнитивная и просто символьная. Чисто символьных уже почти не осталось, как пример - ранние фреймовые системы (Minsky, 1970-е) . Пример логическо-символьных систем: GPS (1957), Cyc, FLIX, SNePS, LegalRuleML/DR-Prolog и ранние OpenCog. А вот когнитивно-символьные: Soar, ACT-R, CLARION и т.д. и т.п.
Символьный ИИ (Symbolic AI)
Определение: Подход в ИИ, который фокусируется на манипулировании высокоуровневыми, абстрактными символами для представления знаний о мире и рассуждения о них.
Логическо-символьная система (Logic-Symbolic System)
Определение: Разновидность символьного ИИ, которая использует формальный, математически строгий аппарат логики (например, логику первого порядка, Datalog, логику высшего порядка) в качестве основного механизма представления знаний и вывода.
Когнитивно-символьная (гибридная когнитивная) система (Cognitive-Symbolic System и Hybrid Cognitive Architecture)
Определение: Архитектура ИИ, которая объединяет элементы символьного ИИ с субсимвольными (например, нейросетевыми) или коннекционистскими подходами, с целью моделирования широкого спектра человеческих когнитивных функций.
автономных истребителей, имитирующих тактику пилотов ВВС США
А надо было — имитировать тактику потенциального противника!
Я не стал об этом писать, т.к. постоянно проходят имитацию "военных игр" - это и так понятно, если военное направление плюс разведка
В ACE-TRUST (Phase 1, 2022-2023) система училась на US Air Force тактике. Это был MVP.
DARPA учитывает этот опыт во II фазе — имитировать тактику потенциального противника (есть references в рассекреченных документах DARPA про это направление).
Из публичных данных неясно, как это реализовано, но логика очень похожа.
Тут конечно ключевой вопрос "а что есть ИИ ?", как уже и упоминал комментатор выше. Сейчас, как видится, проблема в том, что пытаются натянуть (сову на глобус) LLM на задачи более классических и надёжных методов ML, и выходит то что выходит: затраты огромные, выхлоп есть, но не сопоставимый с затратами и не отвечающий качеству.
Вы точно уловили суть, термин "ИИ" стал слишком обширным: от линрега до LLM.
Проблема: LLM натягивают на задачи, где XGBoost, деревья решений или регрессия дешевле и надёжнее. Результат: ROI минусовой, выхлоп не сопоставим с затратами. В статье этот парадокс и отражён: 80% провалов = неправильный инструмент для задачи, не отсутствие ИИ как такого. Согласен: конечная эффективность = грамотное соотнесение. Спасибо за акцент! Я добавлю этот момент в статью
Мне представляется текущая ситуация с развитием ИИ именно в сторону LLM по следующей причине - компаниями лидерами сформулирована конкретная цель: достижение AGI в ближайшие годы, и всем очевидно, что прорыва в достижении этой цели можно ждать от LLM с гораздо большей вероятностью чем от когнитивно-символьного ИИ, который практичен, но ограничен в своем развитии стеной.
Как раз стена у LLM и весьма "прочная":
- экспоненциальный рост вычислительных затрат при снижении качества возврата ответа. Давайте вместе посмотрим, какие GPU-кластеры нужны для LLM: на 10b, на 30b, на 230b, на 1Tb? У когнитивно-символьных - что 10Gb База Знаний, что 100Gb, что 1Tb, что 100Tb - она будет вести себя одинаково, т.е. производительность системы не зависит от размера Баз;
- прозрачность и этика (проблема "черного ящика") - ведь её так у LLM никто и не решил, хотя да, разработки ведутся и очень активно. Даже разработки типа RAG (Retrieval-Augmented Generation) - работают постфактум, а не архитектурно. Если вывод оказался ошибочным, то приходится перезапускать генерацию, неся дополнительные вычислительные расходы. Использование RAG - это обходной путь, который не исправляет внутренние логические ошибки модели. У когнитивно-символьных - все происходит за "один проход" и "видны" все логические ветки. В некоторых системах можно "воздействовать" на эти ветки и система больше не допустит по ним ошибок;
- проблема обучения в реальном времени - LLM нельзя "дообучить" в режиме реального времени на лету; для этого требуется дорогостоящая и длительная процедура полного или частичного переобучения (fine-tuning). Когнитивно-символьные системы, напротив, могут инкрементально обновлять свою Базу Знаний или правила, по мере поступления новой информации, "запоминая" и используя новые факты;
И это всё критично для появления AGI
Т.е. вы утверждаете, что перспектив достигнуть AGI у когнитивно-символьных систем больше чем у LLM ??
И что десятки лет существования когнитивно-символьных ИИ нисколько не продвинувших его по пути к AGI это все ок?
И что возникший долгожданный AGI энтузиазм на плечах появившихся новых технологий LLM, ничего не говорит о бесплодности когнитивно-символьных систем в части AGI?
Никто из тех, кто серьёзно работает с когнитивно-символьными системами или их гибридами, никогда не "стремился к AGI". Годами оттачивались подходы, архитектуры, онтологии, методы верификации - ради глубины понимания разума и создания надежных, объяснимых систем.
А кто сегодня кричит об "AGI через 2 года"? Главы LLM-компаний и их инвесторы. Они словно бегут наперегонки, будто бы "опаздывают в будущее".
Вы говорите о "десятках лет бесплодности"? Но это не так. За эти десятилетия были созданы системы, которые управляют критической инфраструктурой, помогают ставить медицинские диагнозы, работают в сложных логистических задачах там, где ошибка недопустима и требуется 100% объяснимость. Это реальные, работающие системы, а не генераторы текстов.
Но вот в чём дело. Мне лично - не нужен AGI в том виде, в котором его "обещают", а нужна система, которая: понимает людей; помогает им кризисных ситуациях; принимает этически взвешенные решения; заменяет человека там, где он рискует жизнью: в шахтах; на АЭС; в зонах боевых действий; в диагностике редких болезней и т.д..
AGI - это миф для инвесторов.
"Cognition is real-time, goal-oriented behavior in a rich, uncertain, and dynamic world"
"Познание - это поведение в реальном времени, направленное на цель, в насыщенном, неопределённом и динамичном мире"
- Allen Newell ("Unified Theories of Cognition", 1990)
Все, что вы перечислили среди достижений - это неплохо, но и не более того. Реальный автопилот на дорогах, оно не тянет и это маленький вам пример.
Я же писал изначально о причинах перекоса текущего рынка на LLM, это вера в Перспективы, если AGI случится, то изменится все, поэтому рынок и реагирует на позитив.
А когнитивно-символьные системы, это всего лишь набор процедур (костылей) на "все случаи жизни", но всегда останется 0.1 незакрытый %, и ваш человек, о жизни и смерти которого вы так много упоминаете, умрет, т.к. задачка на 100% данными методами не решается.
Ваша позиция понятна - "вера в перспективы AGI через LLM движет рынком". Но давайте не путать рыночную эйфорию с инженерной реальностью.
Автопилот - отличный пример, но он демонстрирует слабость нейросетей. В тех самых 0.1% нештатных ситуаций, им не хватает причинного понимания мира, здравого смысла и способности "отказаться от действия". Именно поэтому ни один автопилот не построен на "чистой LLM" - везде стоят формальные правила, онтологии и символьные фильтры.
Вы называете наши системы "набором процедур" или "костылями". А мы называем это - верифицируемой логикой, детерминированным рассуждением и гарантированной надёжностью. В критических областях, таки как: медицина, АЭС, авиация, психотерапия - лучше 99.9% объяснимой безопасности, чем "чёрный ящик", в котором мы не знаем, когда и почему случится ошибка.
И вот ещё ключевой факт. Ни один человек в истории не пострадал из-за ошибки когнитивно-символьной архитектуры (Soar, ACT-R, CLARION и др.). А сколько уже подано исков к OpenAI из-за: суицидов, разводов и ложных диагнозов?!
Почему?
Когнитивно-символьные системы строят каузальную модель мира;
У них есть агентность: они формируют цели, а не ждут промпт;
Они моделируют намерения других, а не генерируют фразы по шаблонам;
Этика "вшита в архитектуру", а не добавлена как фильтр поверх RAG.
Эх, рассказал бы вам Маск, почему они с 13-й версии FSD перешли на нейросеть.
Вот вам реальный кейс и без лозунгов.
Если у нас Вами диалог, то расскажите в чем явные преимущества LLM перед когнитивно-символьными и их гибридами?
Я вижу, что по ключевым признакам: наличие модели мира; каузального рассуждения; агентности; теории разума; этической устойчивости - LLM системно отстают. Более того, именно поэтому их начинают гибридизировать с ACT-R, Soar и другими когнитивными системами, чтобы восполнить фундаментальные пробелы .
У когнитивно-символьных систем есть две слабые стороны:
требуется больше времени на разработку;
обучение - инкрементальное, а не массовое
И уже сейчас ведутся исследования по построению самообучающихся систем с полноконтекстной верификацией знаний, где каждое новое утверждение проверяется на логическую и каузальную согласованность. В таком режиме LLM принципиально не сможет "догнать", потому что у неё нет архитектурной основы.
И про FSD - несмотря на заявления Маска об удалении 300 000 строк кода, система все еще имеет управляющие и изолированные системы контроля, которые могут перехватить управление в случае сбоя - это и есть символьные "фильтры безопасности". Зато у Waymo - гибриды. Рано или поздно, но FSD вернется к гибридам - это неизбежно. Последнее, Soar уже почти управляет боевым самолётом, но это уже под руководством DARPA (программы ACE и ACE-TRUST), а не частной компании. На этом фоне FSD и нейросети - скромное достижение
Почему мы теряем триллионы на ИИ и как это исправить