Обновить

Комментарии 2

Статья не ложь, а полуправда. Разбираем "почему"...

  1. Ложная иерархия. Такая иерархия используется новичками в теме ИИ: AI → ML → Generative AI → LLM → GEO и GEO (Generative Engine Optimization) - не технология ИИ, а маркетинговая практика;

  2. AI модели и LLM - это не одно и то же - да, верно формально, но автор дальше говорит: "Существует множество моделей искусственного интеллекта. Часть из них является машинным обучением (ML), часть не является" - это мифическое представление;

  3. Полное отсутствие LBS, CESP и других когнитивных архитектур.
    Автор перечисляет: CNN, RNN, GAN, Diffusion, ViT, RL, Байесовские модели, Fuzzy Logic…
    Но ни слова о:
    - LBS (Logic-Based Systems) - логических системах, где знания представлены явно, а решения выводятся;
    - CESP (Cognitive Event-Driven Symbolic Processing) - решения, где поведение управляется событиями и символическими правилами;
    - нейро-символьных гибридах;
    - LBS/CESP гибридах

    Данные системы уже давно и эффективно используются:
    - в военных целях;
    - в разведке;
    - в медицине, для диагностики с точным и детальным объяснением;
    - в юриспруденции;
    - и т.д.

    Не галлюцинируют, могут объяснить ход мысли и не "чёрные ящики".

  4. Частично верно: термин GOFAI (Good Old-Fashioned AI) и он не нейтральный, а ироничный, введённый противниками символьного подхода

  5. Ошибка: RL - не всегда использует нейросети. RL - это парадигма обучения через взаимодействие, а не тип нейросети.

Главная проблема - сужение термина "ИИ" до LLM и генеративных моделей, при игнорировании альтернативных, более зрелых парадигм, которые работают там, где нельзя ошибаться.

DARPA (Defense Advanced Research Projects Agency) - ключевой игрок в развитии передовых технологий, включая искусственный интеллект. Она не просто финансирует исследования, она формирует направления, выбирает победителей и отказывается от устаревших парадигм. Это один из самых влиятельных "архитекторов" технологического будущего человечества. Именно здесь родились интернет, GPS, беспилотники и первые прототипы машинного зрения. Мы, как цивилизация, обязаны DARPA не только прогрессом в обороне, но и фундаментальными прорывами, которые со временем становятся основой гражданских технологий. Их выбор всегда не в стороне хайпа, а в стороне надёжности, объяснимости и реальной эффективности там, где цена ошибки - человеческая жизнь.

Именно поэтому в 2020–2025 годах DARPA делает ставку не на масштабируемые LLM, а на системы, способные рассуждать: нейро-символьные гибриды, когнитивные архитектуры вроде Soar и ACT-R, логические системы (LBS), где знания представлены явно, а решения выводятся, а не предсказываются. Эти системы, основа для автономных агентов, способных к целеполаганию, обучению в процессе и объяснению своих действий

P.S.: термин ГенИИ - это просто еще одна маркетинговая уловка. У нормальных специалистов, которые давно работают в области ИИ, использование этого термина - моветон

Большое спасибо, что обратили внимание на нашу статью и оставили обширный комментарий, в котором сообщили нам и миру о том, что эта статья — не ложь, а вы, безусловно, больший эксперт в области Real AI, чем мы.

Но мы и не претендуем на высшую истину.

Цель нашей статьи — дать маркетологам (не специалистам в сфере AI) общее понимание того, что означают термины, которые сейчас повсеместно используются: ИИ, LLM, нейросети, GPT и т.д. Смотрите заголовок статьи.

Цель вашего комментария в общем понятна; не понятно, зачем так напористо рекламировать Агентство перспективных исследовательских проектов Министерства обороны США?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации