Информация
- В рейтинге
- 1 214-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust
Мы стоим на пороге массового "упрощения сознания". Выдавая лингвистические алгоритмы за полноценный разум, своими руками приучаем общество к "фастфуд-интеллекту": яркому, доступному и вредному. В будущем это обернется катастрофой: люди просто перестанут воспринимать всё, что сложнее и глубже болтливого интерфейса. Мы (всё общество) сознательно растим поколение с атрофированным критическим мышлением, которое сведёт всю глубину человеческого духа к генерации типового контента. "Идиократия" уже на пороге и это печально...
Массовое сознание пало жертвой "эффекта Элизы", приняв беглость речи за наличие разума, а маркетинговый капитал корпораций окончательно закрепил этот "антропоморфный фасад" как новый "стандарт ИИ". В итоге произошла подмена глубокой когнитивной архитектуры на поверхностную имитацию, которая коммерчески выгоднее, так как создает иллюзию понимания здесь и сейчас без необходимости решать сложнейшую проблему целеполагания. Маркетологи у коннекционистов хорошо работают, здесь надо признать их "победу". Но! Если посмотреть правде в глаза, то у символистов за 2024 и 2025 года, в разы больше прорывов в технологиях, что любая, даже топовая LLM уже давно позади.
Подмена понятий произошла преимущественно в лагере современных коннекционистов (сторонников LLM), где под "интеллектом" стали понимать лишь аппроксимацию данных и статистическую генерацию, тогда как классическая школа символьного ИИ сохранила верность первоначальным принципам. Для исследователей, работающих с когнитивно-символьными системами, ИИ по-прежнему заключается в моделировании рассуждений, целенаправленном поведении и манипуляции смыслами, а не в простом поиске закономерностей. Таким образом, "подмена" не тотальна и только отражает разрыв между двумя школами, внутри самой дисциплины, где символисты по-прежнему верны изначальной цели создания систем, способных к осмысленным действиям.
Какого развития?! Быстрого? Немного истории:
Термин "искусственный интеллект" был официально предложен в 1956 году. Его автором стал американский ученый Джон Маккарти, который использовал это название для Дартмутской конференции;
Программа "Логик-Теоретик" (Logic Theorist) была разработана в 1956 году Алленом Ньюэллом, Гербертом Саймоном и Клиффом Шоу. Программа считается первой в истории программой искусственного интеллекта, так как она была способна доказывать математические теоремы, имитируя человеческое мышление.
Итог - 69 лет развития отрасли
Для когнитивно-символьных систем точность ниже 95% - это уже повод для серьезного аудита системы и поиска ошибки входов/выходов данных. В этом контексте, 31% точности выглядит просто катастрофично, бррр...
Прибыльность у КСС в разы выше. Давайте посмотрим на аренду NVidia H100 от 290 000 до 750 000+ рублей, в зависимости от провайдера, конфигурации сервера, объема памяти (80GB) и включенных ресурсов (взял из сети). Стоимость работы КСС в месяц = стоимость эл-ва за месяц от 1500 до 3000 руб в Москве (взято из сети). Ой...
HLE разработан, чтобы вознаграждать логическое понимание, а т.к. у LLM с логикой всё туго, то его проходят когнитивно-символьные и нейро-символьные системы с ядром КСС, а не LLM. Чистые LLM всегда на последних местах А это второй ой...
Нет, не можете - причина не в тексте. Поинтересуйтесь тем, как думают слепо-глухо-немые от рождения. Возьмите за пример жизнь Хелен Келлер
Где и в чем эффективны? Что простая задача, что сложная, требует вычисления на видеокарте - это уже не эффективное расходование вычислительных ресурсов, а расходы растут по экспоненте
Кто сказал? Уже лярды вбуханы в OpenAI, а она до сих пор убыточна. В Soar примерно столько же вбухано, но растянуто по времени, но интегрирована и глубоко во все военные системы США и дает результат. В КАС выгодней вкладывать, что и показывают последние инвестиции в тот же CRAM (робототехника)
Назовите хоть одну интеллектуальную задачу где LLM лидирует, увы но нет таких.
Не только моих, об этом твердят много исследователей и экспертов в области ИИ. Просто ради праздного любопытства, ознакомьтесь со всеми последними достижениями в КСА за 2025 год, Вы будете удивлены. Немного примеров:
Soar - новые механизмы работы с долговременной памятью (LTI), а у LLM на уровне ядра даже простой LTM нет;
ACT-R - моделирование физиологических состояний внутри архитектуры;
CRAM - показали способность к логическому выводу в нестандартных ситуациях;
и т.д. и т.п.
Прошу Вас ответить на один простой вопрос: почему если у LLM все так хорошо и "распрекрасно", то появляются все больше и больше нейро-символьных проектов? Символьные же архитектуры и их гибриды - это же фигня и ничего не могут, они же "устаревшие"?!
Благодарю за Ваше терпение и ответы. Я с командой, обсудили Ваш проект, он заинтересовал, но... увы всегда появляется какое-то но... проект на питоне - это бутылочное горлышко для нас
Вообще то так оно и есть
Вопрос закономерный: "если архитектура настолько крута", то где миллиарды долларов? Давайте попробую ответить:
КСА - это "игра вдолгую". OpenAI и другие, пошли по пути наименьшего сопротивления: закинули в нейросеть колоссальный объем данных и вычислительных мощностей. Это дало быстрый, "магический" результат, на котором легко спекулировать. КСА же требуют глубокой проработки структуры знаний. Обучить КСА - это как воспитать и обучить ребенка, а создать LLM - это как построить гигантскую статистическую таблицу. Инвесторы в 2023-2025 годах предпочитают вкладывать в то, что "просто работает прямо сейчас", даже если оно галлюцинирует и не обладает логикой;
Присутствует инфраструктурный разрыв. Для развития OpenAI нужны только видеокарты и данные. Для развития КСА нужны высококвалифицированные специалисты, понимающие когнитивную психологию, логику и архитектуру систем одновременно. Таких людей в мире в тысячи раз меньше, чем дата-
сатанистовсайентистов;Где же конкуренты? На самом деле, они есть, но они не всегда называют себя "конкурентами OpenAI". Многие военные, космические и промышленные проекты (примеры: в NASA, оборонный сектор США, медицина, обучение людей, юриспруденция) используют именно КСА (включая Soar), потому что там нельзя ошибаться. OpenAI или xAI не может гарантировать, что их ракета не врежется в здание из-за "галлюцинации" модели, а КСА - может, так как она работает на проверяемых выводах. Вспомним случаи "галлюцинаций" и некорректных ответов Grok в середине 2025 года (скандалы с политическими высказываниями), что заставляют инженеров SpaceX быть крайне осторожными с внедрением ИИ в критические системы управления полетом и ITAR уже высказалась в своё время по этому поводу. Маск может в один момент лишится и SpaceX и других своих компаний, если Grok допустит хоть одну ошибку при взаимодействии со SpaceX;
Люди, работающие над КСА, часто стремятся к созданию настоящего и сильного ИИ, а не "продвинутого Т9". Проекты вроде OpenCog Hyperon Бена Гертцеля или новые разработки в Soar и ACT-R как раз нацелены на объединение нейросетей (как глаз и ушей) и КСА (как основного и логического центра);
Экономика и окупаемость - это самый важный момент. Да, разработка и интеграция КСА на старте дороже и сложнее. Но как только система создана и внедрена, её использование с лихвой окупает все расходы:
Во-первых, ей не нужны фермы из тысяч видеокарт - она потребляет в разы меньше энергии. Одна система спокойно работает на любом компьютере, даже со "старенькой" видеокартой;
Во-вторых, она не требует "армии людей" для проверки ошибок;
В-третьих, она легко изменяется в реальном режиме времени, добавлением пары правил, а не переобучением за миллионы долларов.
Мы не видим конкурента OpenAI на базе КСА в каждом смартфоне не потому, что архитектура слабая, а потому что она требует другого уровня инженерной культуры. LLM - это фастфуд: быстро, вкусно, но вредно. КСА - это высокая кухня: долго, дорого, но это единственный путь к созданию интеллекта.
Коллега, мы с Вами не в детском саду и оба умеем пользоваться поисковыми системами. Soar "наистарейшая", а значит наиболее известная система, примеров для неё не просто вагон и маленькая тележка, а океан. Для всех когнитивно-символьных систем есть примеры, полная документация, полностью прописанные этические кодексы и т.д. и т.д.
P.S.: LLM не является агентом по своей сути, в отличии от КСА
Наберите в Google одну систему из списка (список когнитивно-символьных систем очень большой) и изучайте: Soar, ACT-R, ICARUS, CRAM, CLARION и т.д. и т.п.
Написать приложение? Может, но вопрос в целесообразности.
Когнитивно-символьные архитектуры (КСА), такие как Soar, в первую очередь предназначены для моделирования человеческого мышления, адаптивного принятия решений и решения задач в динамических средах, а не для простой генерации кода.
Тем не менее, на уровне специализированных модулей обучить КСА разработке ПО вполне реально. Я знаю как минимум три проекта на базе КСА, где подобные модули уже внедряются. Результаты впечатляют: архитектура способна не просто "выдавать код", а понимать логику работы программы и планировать её структуру. Сейчас для разработчиков этих систем создание приложений не приоритетная задача.
P.S. Любую когнитивную архитектуру можно обучить чему угодно, хоть код писать, хоть крестиком вышивать. И в отличие от LLM, которые просто подбирают наиболее вероятные токены, КСА после обучения будет выдавать гарантированно качественный и логически выверенный результат. Вопрос лишь в том, кто будет обучать систему этим правилам и как выстроить этот процесс.
Если Вам не нравится какой-либо комментарий, то Вы можете написать с Службу поддержки Хабра с пояснениями почему тот или иной комментарий должен быть удалён и они вынесут окончательное решение - все просто
"Счёты", т.е. Soar, ведь так Вы её назвали?! Soar почти управляет боевым самолётом F-16, а LLM`ки даже толком роботами управлять не умеют. Программы ACE и ACE-TRUST (DARPA), успешно заканчивается и в ближайшие год-два полностью будет управлять самолётами других поколений и частично заменит/дополнит пилотов на службе USAF
Какой страшный ИИ, везде то он пишет... страшно до жути. А можно мне показать этот ИИ?
И чем они хотели удивить? Что их "монстры", сжигающие целые ГЭС на сотнях GPU, с трудом держат 50%-ную точность всего на 5 часах и это в 2025-то году? Фи... Позорники.
Тот же SOAR или продвинутые когнитивно-символьные архитектуры 10 лет назад выдавали 95%+ точности на 6-часовых тактических симуляциях (DARPA) и безо всяких галлюцинаций и доверительных интервалов от часа до суток. Их горизонт ограничивался не "окном внимания", а сложностью формализации мира. А этот "революционный прогресс" - это просто рост мощности "обогревателя" данных, который научили случайным образом тыкаться в интерфейсы. Прорыв? Скорее, признание, что нейросети без логического скелета - это как шимпанзе с шуруповёртом: может случайно собрать стул, а может и себе по лбу дать. Когда уже начнёте мерить надёжность, а не "горизонт надежды"?
С какой вероятностью?! :О Вы ничего не знаете о современных когнитивно-символьных системах. У "нас" нет вероятностей, все четко и по полочкам разложено и поэтому ответы формируются "моментально" в отличии от LLM
P.S.: О каких минусах Вы говорите?
И я знаю лично несколькими людей, которые во взрослом возрасте выучили несколько языков, хотя в школе "балду гоняли" на уроках иностранного языка
Ваш аргумент про Выготского на самом деле работает против Вашего же тезиса. Давайте разберем по пунктам, почему сведение разума к языковым схемам LLM - это методологическая ошибка.
Выготский ввел понятие опосредования: знак (символ) - это инструмент, которым субъект волевым образом управляет своими психическими функциями. У LLM нет субъектности и воли; она не "владеет" языком как инструментом для достижения внеязыковых целей, она им "одержима". Это не осознанное мышление, а статистический отклик. Как сказал бы Выготский, это возврат к до-человеческой стадии "стимул-реакция", просто раздутой до космических масштабов;
Современные исследования мозга (fMRI) четко показывают: языковой модуль - это лишь "парсер", интерфейс. Мышление (логика, математика, планирование) происходит в других зонах мозга. LLM - это блестящая цифровая копия языкового модуля, но она лишена когнитивного ядра. У нее есть "интерфейс", но нет того, что он должен "обслуживать".
Немного истории:
"Чистый символизм" (типа Cyc) во многом забуксовал, потому что символы были "пустыми" ярлыками без связи с сенсомоторным опытом;
Чистый коннекционизм (LLM) сейчас упирается в тот же потолок: это корреляционная модель без понимания каузальности (причинности) и законов мира.