Обновить
20
3.9

Пользователь

Отправить сообщение

Мы стоим на пороге массового "упрощения сознания". Выдавая лингвистические алгоритмы за полноценный разум, своими руками приучаем общество к "фастфуд-интеллекту": яркому, доступному и вредному. В будущем это обернется катастрофой: люди просто перестанут воспринимать всё, что сложнее и глубже болтливого интерфейса. Мы (всё общество) сознательно растим поколение с атрофированным критическим мышлением, которое сведёт всю глубину человеческого духа к генерации типового контента. "Идиократия" уже на пороге и это печально...

Массовое сознание пало жертвой "эффекта Элизы", приняв беглость речи за наличие разума, а маркетинговый капитал корпораций окончательно закрепил этот "антропоморфный фасад" как новый "стандарт ИИ". В итоге произошла подмена глубокой когнитивной архитектуры на поверхностную имитацию, которая коммерчески выгоднее, так как создает иллюзию понимания здесь и сейчас без необходимости решать сложнейшую проблему целеполагания. Маркетологи у коннекционистов хорошо работают, здесь надо признать их "победу". Но! Если посмотреть правде в глаза, то у символистов за 2024 и 2025 года, в разы больше прорывов в технологиях, что любая, даже топовая LLM уже давно позади.

Подмена понятий произошла преимущественно в лагере современных коннекционистов (сторонников LLM), где под "интеллектом" стали понимать лишь аппроксимацию данных и статистическую генерацию, тогда как классическая школа символьного ИИ сохранила верность первоначальным принципам. Для исследователей, работающих с когнитивно-символьными системами, ИИ по-прежнему заключается в моделировании рассуждений, целенаправленном поведении и манипуляции смыслами, а не в простом поиске закономерностей. Таким образом, "подмена" не тотальна и только отражает разрыв между двумя школами, внутри самой дисциплины, где символисты по-прежнему верны изначальной цели создания систем, способных к осмысленным действиям.

Какого развития?! Быстрого? Немного истории:

  • Термин "искусственный интеллект" был официально предложен в 1956 году. Его автором стал американский ученый Джон Маккарти, который использовал это название для Дартмутской конференции;

  • Программа "Логик-Теоретик" (Logic Theorist) была разработана в 1956 году Алленом Ньюэллом, Гербертом Саймоном и Клиффом Шоу. Программа считается первой в истории программой искусственного интеллекта, так как она была способна доказывать математические теоремы, имитируя человеческое мышление.

Итог - 69 лет развития отрасли

Для когнитивно-символьных систем точность ниже 95% - это уже повод для серьезного аудита системы и поиска ошибки входов/выходов данных. В этом контексте, 31% точности выглядит просто катастрофично, бррр...

Прибыльность у КСС в разы выше. Давайте посмотрим на аренду NVidia H100 от 290 000 до 750 000+ рублей, в зависимости от провайдера, конфигурации сервера, объема памяти (80GB) и включенных ресурсов (взял из сети). Стоимость работы КСС в месяц = стоимость эл-ва за месяц от 1500 до 3000 руб в Москве (взято из сети). Ой...

HLE разработан, чтобы вознаграждать логическое понимание, а т.к. у LLM с логикой всё туго, то его проходят когнитивно-символьные и нейро-символьные системы с ядром КСС, а не LLM. Чистые LLM всегда на последних местах А это второй ой...

"...Если мы интеллект можем переложить на текст, и этот текст имеет некоторую функцию в лебеговом пространстве, то LLM теоретически могут это воссоздать..."

Нет, не можете - причина не в тексте. Поинтересуйтесь тем, как думают слепо-глухо-немые от рождения. Возьмите за пример жизнь Хелен Келлер

"...мы ограничены ресурсами, но суть в том, что сейчас они показывают свою некоторую эффективность где это необходимо..."

Где и в чем эффективны? Что простая задача, что сложная, требует вычисления на видеокарте - это уже не эффективное расходование вычислительных ресурсов, а расходы растут по экспоненте

"...лидером является пока что LLM в финансовом плане..."

Кто сказал? Уже лярды вбуханы в OpenAI, а она до сих пор убыточна. В Soar примерно столько же вбухано, но растянуто по времени, но интегрирована и глубоко во все военные системы США и дает результат. В КАС выгодней вкладывать, что и показывают последние инвестиции в тот же CRAM (робототехника)

"...если бы они обогнали на большинстве задач LLM..."

Назовите хоть одну интеллектуальную задачу где LLM лидирует, увы но нет таких.

"...из ваших красивых речей?..."

Не только моих, об этом твердят много исследователей и экспертов в области ИИ. Просто ради праздного любопытства, ознакомьтесь со всеми последними достижениями в КСА за 2025 год, Вы будете удивлены. Немного примеров:

  • Soar - новые механизмы работы с долговременной памятью (LTI), а у LLM на уровне ядра даже простой LTM нет;

  • ACT-R - моделирование физиологических состояний внутри архитектуры;

  • CRAM - показали способность к логическому выводу в нестандартных ситуациях;

  • и т.д. и т.п.

Прошу Вас ответить на один простой вопрос: почему если у LLM все так хорошо и "распрекрасно", то появляются все больше и больше нейро-символьных проектов? Символьные же архитектуры и их гибриды - это же фигня и ничего не могут, они же "устаревшие"?!

Благодарю за Ваше терпение и ответы. Я с командой, обсудили Ваш проект, он заинтересовал, но... увы всегда появляется какое-то но... проект на питоне - это бутылочное горлышко для нас

"...мозг вообще никакая не нейросеть и работает вовсе на других принципах..."

Вообще то так оно и есть

Вопрос закономерный: "если архитектура настолько крута", то где миллиарды долларов? Давайте попробую ответить:

  1. КСА - это "игра вдолгую". OpenAI и другие, пошли по пути наименьшего сопротивления: закинули в нейросеть колоссальный объем данных и вычислительных мощностей. Это дало быстрый, "магический" результат, на котором легко спекулировать. КСА же требуют глубокой проработки структуры знаний. Обучить КСА - это как воспитать и обучить ребенка, а создать LLM - это как построить гигантскую статистическую таблицу. Инвесторы в 2023-2025 годах предпочитают вкладывать в то, что "просто работает прямо сейчас", даже если оно галлюцинирует и не обладает логикой;

  2. Присутствует инфраструктурный разрыв. Для развития OpenAI нужны только видеокарты и данные. Для развития КСА нужны высококвалифицированные специалисты, понимающие когнитивную психологию, логику и архитектуру систем одновременно. Таких людей в мире в тысячи раз меньше, чем дата-сатанистов сайентистов;

  3. Где же конкуренты? На самом деле, они есть, но они не всегда называют себя "конкурентами OpenAI". Многие военные, космические и промышленные проекты (примеры: в NASA, оборонный сектор США, медицина, обучение людей, юриспруденция) используют именно КСА (включая Soar), потому что там нельзя ошибаться. OpenAI или xAI не может гарантировать, что их ракета не врежется в здание из-за "галлюцинации" модели, а КСА - может, так как она работает на проверяемых выводах. Вспомним случаи "галлюцинаций" и некорректных ответов Grok в середине 2025 года (скандалы с политическими высказываниями), что заставляют инженеров SpaceX быть крайне осторожными с внедрением ИИ в критические системы управления полетом и ITAR уже высказалась в своё время по этому поводу. Маск может в один момент лишится и SpaceX и других своих компаний, если Grok допустит хоть одну ошибку при взаимодействии со SpaceX;

  4. Люди, работающие над КСА, часто стремятся к созданию настоящего и сильного ИИ, а не "продвинутого Т9". Проекты вроде OpenCog Hyperon Бена Гертцеля или новые разработки в Soar и ACT-R как раз нацелены на объединение нейросетей (как глаз и ушей) и КСА (как основного и логического центра);

  5. Экономика и окупаемость - это самый важный момент. Да, разработка и интеграция КСА на старте дороже и сложнее. Но как только система создана и внедрена, её использование с лихвой окупает все расходы:

  • Во-первых, ей не нужны фермы из тысяч видеокарт - она потребляет в разы меньше энергии. Одна система спокойно работает на любом компьютере, даже со "старенькой" видеокартой;

  • Во-вторых, она не требует "армии людей" для проверки ошибок;

  • В-третьих, она легко изменяется в реальном режиме времени, добавлением пары правил, а не переобучением за миллионы долларов.

Мы не видим конкурента OpenAI на базе КСА в каждом смартфоне не потому, что архитектура слабая, а потому что она требует другого уровня инженерной культуры. LLM - это фастфуд: быстро, вкусно, но вредно. КСА - это высокая кухня: долго, дорого, но это единственный путь к созданию интеллекта.

Коллега, мы с Вами не в детском саду и оба умеем пользоваться поисковыми системами. Soar "наистарейшая", а значит наиболее известная система, примеров для неё не просто вагон и маленькая тележка, а океан. Для всех когнитивно-символьных систем есть примеры, полная документация, полностью прописанные этические кодексы и т.д. и т.д.

P.S.: LLM не является агентом по своей сути, в отличии от КСА

Наберите в Google одну систему из списка (список когнитивно-символьных систем очень большой) и изучайте: Soar, ACT-R, ICARUS, CRAM, CLARION и т.д. и т.п.

Написать приложение? Может, но вопрос в целесообразности.

Когнитивно-символьные архитектуры (КСА), такие как Soar, в первую очередь предназначены для моделирования человеческого мышления, адаптивного принятия решений и решения задач в динамических средах, а не для простой генерации кода.

Тем не менее, на уровне специализированных модулей обучить КСА разработке ПО вполне реально. Я знаю как минимум три проекта на базе КСА, где подобные модули уже внедряются. Результаты впечатляют: архитектура способна не просто "выдавать код", а понимать логику работы программы и планировать её структуру. Сейчас для разработчиков этих систем создание приложений не приоритетная задача.

P.S. Любую когнитивную архитектуру можно обучить чему угодно, хоть код писать, хоть крестиком вышивать. И в отличие от LLM, которые просто подбирают наиболее вероятные токены, КСА после обучения будет выдавать гарантированно качественный и логически выверенный результат. Вопрос лишь в том, кто будет обучать систему этим правилам и как выстроить этот процесс.

Если Вам не нравится какой-либо комментарий, то Вы можете написать с Службу поддержки Хабра с пояснениями почему тот или иной комментарий должен быть удалён и они вынесут окончательное решение - все просто

"Счёты", т.е. Soar, ведь так Вы её назвали?! Soar почти управляет боевым самолётом F-16, а LLM`ки даже толком роботами управлять не умеют. Программы ACE и ACE-TRUST (DARPA), успешно заканчивается и в ближайшие год-два полностью будет управлять самолётами других поколений и частично заменит/дополнит пилотов на службе USAF

Какой страшный ИИ, везде то он пишет... страшно до жути. А можно мне показать этот ИИ?

И чем они хотели удивить? Что их "монстры", сжигающие целые ГЭС на сотнях GPU, с трудом держат 50%-ную точность всего на 5 часах и это в 2025-то году? Фи... Позорники.

Тот же SOAR или продвинутые когнитивно-символьные архитектуры 10 лет назад выдавали 95%+ точности на 6-часовых тактических симуляциях (DARPA) и безо всяких галлюцинаций и доверительных интервалов от часа до суток. Их горизонт ограничивался не "окном внимания", а сложностью формализации мира. А этот "революционный прогресс" - это просто рост мощности "обогревателя" данных, который научили случайным образом тыкаться в интерфейсы. Прорыв? Скорее, признание, что нейросети без логического скелета - это как шимпанзе с шуруповёртом: может случайно собрать стул, а может и себе по лбу дать. Когда уже начнёте мерить надёжность, а не "горизонт надежды"?

С какой вероятностью?! :О Вы ничего не знаете о современных когнитивно-символьных системах. У "нас" нет вероятностей, все четко и по полочкам разложено и поэтому ответы формируются "моментально" в отличии от LLM

P.S.: О каких минусах Вы говорите?

И я знаю лично несколькими людей, которые во взрослом возрасте выучили несколько языков, хотя в школе "балду гоняли" на уроках иностранного языка

Ваш аргумент про Выготского на самом деле работает против Вашего же тезиса. Давайте разберем по пунктам, почему сведение разума к языковым схемам LLM - это методологическая ошибка.

  1. Выготский ввел понятие опосредования: знак (символ) - это инструмент, которым субъект волевым образом управляет своими психическими функциями. У LLM нет субъектности и воли; она не "владеет" языком как инструментом для достижения внеязыковых целей, она им "одержима". Это не осознанное мышление, а статистический отклик. Как сказал бы Выготский, это возврат к до-человеческой стадии "стимул-реакция", просто раздутой до космических масштабов;

  2. Современные исследования мозга (fMRI) четко показывают: языковой модуль - это лишь "парсер", интерфейс. Мышление (логика, математика, планирование) происходит в других зонах мозга. LLM - это блестящая цифровая копия языкового модуля, но она лишена когнитивного ядра. У нее есть "интерфейс", но нет того, что он должен "обслуживать".

Немного истории:

  • "Чистый символизм" (типа Cyc) во многом забуксовал, потому что символы были "пустыми" ярлыками без связи с сенсомоторным опытом;

  • Чистый коннекционизм (LLM) сейчас упирается в тот же потолок: это корреляционная модель без понимания каузальности (причинности) и законов мира.

1
23 ...

Информация

В рейтинге
1 214-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust