Информация
- В рейтинге
- 1 215-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust
Мое "понимание доказательства" базируется на вычислительной логике. Если система по определению не способна к композициональности (сборке целого из частей по правилам), то никакое наращивание весов не наделит её этим свойством. Это не вопрос "веры", а вопрос архитектурных пределов.
Можно математически доказать, что статистический вывод не обладает свойством систематичности (Fodor & Pylyshyn), что делает его принципиально отличным от логического вывода.
Давайте я Вам отвечу двумя словами - эффективность вычислений. У LLM - это полное отсутствие эффективности. Для меня, как для символиста, просто впустую расходуются вычислительные ресурсы компьютера, если для решения той же самой задачи можно использовать в разы (от 10 до 1000) меньше ресурсов. Ведь ресурсы нужны для развития ядра системы ("мозга"), что может действительно повлиять на появление Настоящего ИИ
Мне не надо ничего Вам доказывать - берём Гугл и ищем информацию. Информации в наше время океан, ей надо пользоваться. Мне уже неоднократно хватило "таких" людей: "докажите", "покажите", "дайте" - я им в своё время и доказывал, давал ссылки, и многое другое и знаете что? А ничего! Даже спустя какое-то время эти же люди просили в других диалогах то же самое, так как даже не удосужились посмотреть то, что им ранее давали. Ведь "таким" людям не важна правда и информация, им нужно вставить свои "5 копеек" в такой мере: другой человек дурак, а я прав. Я честно устал от таких людей. Вот с момента нашего последнего диалога, только в другом материале, Вы, что-нибудь узнали о когнитивно-символьных системах, хотя бы ради праздного любопытства?! Я думаю что нет и даже не пытались. Вам удобно быть в своей "зоне комфорта", а людям ой как не хочется из неё выходить.
Коннекционисты часто так делают из-за узости кругозора. Чтобы построить когнитивно-символьную архитектуру, нужно знать и понимать: психологию, логику, лингвистику и даже зоопсихологию, так и многое другое, так как без этого невозможно понять, как разум конструирует модель мира.
Когда коннекционисту не хватает знаний о природе мышления, то ему проще всего объявить интеллект "математической абстракцией" и спрятаться за сложными терминами, игнорируя реальную пропасть между статистикой и сознанием.
Аппроксимация функции - это не то же самое, что извлечение смысла. Ваша попытка свести когнитивистику к анализу мер - классическая подмена понятий, которую обсуждали ещё 15 лет назад. Дальнейший спор о терминах ради терминов мне не интересен
Отчасти Ваш собеседник прав, поскольку продукция Apple и Microsoft, в отличие от табака, не вызывает физической зависимости, но формируют психологическую аддикцию (зависимость).Как пример: "связано с социальным статусом или ощущением принадлежности к определенной группе, что мотивирует на совершение повторных покупок". Некоторые люди даже идут на крайние жертвы (все о них слышали, не буду писать под НГ), чтобы владеть последним продуктом этих брендов.
Обоснование в этой статье "«Общий интеллект — полная чушь»: Янн ЛеКун и Демис Хассабис поспорили, что называть AGI" (Хабр)
Первое логическое ядро появилось в логико-символьной системе Logic Theorist 1955-1956 (Ньюэлл, Саймон), дальнейшее его развитие произошло в другой логико-символьной системе General Problem Solver (GPS) 1957-1959 (Ньюэлл, Саймон). А вот современные LLM до сих пор не имеют логического ядра. А "цепочка рассуждений" (Chain-of-Thought) только создает эффект "логического ядра", но по факту не имеет к логике никакого отношения
P.S. Ключевое отличие в прозрачности и управляемости. В когнитивно-символьных системах (от Logic Theorist до современных систем), каждый шаг вывода - это дискретное, понятное человеку логическое действие. Мы видим всю цепочку "от и до" и на каждое звено можно воздействовать в режиме реального времени. В LLM же "рассуждения" - это лишь текстовая обертка, которая может не соответствовать реальным "вычислениям" внутри весов модели.
Спор ЛеКуна и Хассабиса - это не научная дискуссия, а запоздалое признание очевидного. То, что путь, по которому идет DeepMind, тупиковый, было понятно еще 15 лет назад. В 2010 году, когда на форумах вроде LessWrong и других IT-площадках обсуждались Коннекционистские модели (Connectionist Models) и будущие статистические языковые модели (Statistical Language Models), уже тогда было математически доказано: простая аппроксимация функций и наращивание весов без логического ядра никогда не приведет к пониманию смысла
Мы стоим на пороге массового "упрощения сознания". Выдавая лингвистические алгоритмы за полноценный разум, своими руками приучаем общество к "фастфуд-интеллекту": яркому, доступному и вредному. В будущем это обернется катастрофой: люди просто перестанут воспринимать всё, что сложнее и глубже болтливого интерфейса. Мы (всё общество) сознательно растим поколение с атрофированным критическим мышлением, которое сведёт всю глубину человеческого духа к генерации типового контента. "Идиократия" уже на пороге и это печально...
Массовое сознание пало жертвой "эффекта Элизы", приняв беглость речи за наличие разума, а маркетинговый капитал корпораций окончательно закрепил этот "антропоморфный фасад" как новый "стандарт ИИ". В итоге произошла подмена глубокой когнитивной архитектуры на поверхностную имитацию, которая коммерчески выгоднее, так как создает иллюзию понимания здесь и сейчас без необходимости решать сложнейшую проблему целеполагания. Маркетологи у коннекционистов хорошо работают, здесь надо признать их "победу". Но! Если посмотреть правде в глаза, то у символистов за 2024 и 2025 года, в разы больше прорывов в технологиях, что любая, даже топовая LLM уже давно позади.
Подмена понятий произошла преимущественно в лагере современных коннекционистов (сторонников LLM), где под "интеллектом" стали понимать лишь аппроксимацию данных и статистическую генерацию, тогда как классическая школа символьного ИИ сохранила верность первоначальным принципам. Для исследователей, работающих с когнитивно-символьными системами, ИИ по-прежнему заключается в моделировании рассуждений, целенаправленном поведении и манипуляции смыслами, а не в простом поиске закономерностей. Таким образом, "подмена" не тотальна и только отражает разрыв между двумя школами, внутри самой дисциплины, где символисты по-прежнему верны изначальной цели создания систем, способных к осмысленным действиям.
Какого развития?! Быстрого? Немного истории:
Термин "искусственный интеллект" был официально предложен в 1956 году. Его автором стал американский ученый Джон Маккарти, который использовал это название для Дартмутской конференции;
Программа "Логик-Теоретик" (Logic Theorist) была разработана в 1956 году Алленом Ньюэллом, Гербертом Саймоном и Клиффом Шоу. Программа считается первой в истории программой искусственного интеллекта, так как она была способна доказывать математические теоремы, имитируя человеческое мышление.
Итог - 69 лет развития отрасли
Для когнитивно-символьных систем точность ниже 95% - это уже повод для серьезного аудита системы и поиска ошибки входов/выходов данных. В этом контексте, 31% точности выглядит просто катастрофично, бррр...
Прибыльность у КСС в разы выше. Давайте посмотрим на аренду NVidia H100 от 290 000 до 750 000+ рублей, в зависимости от провайдера, конфигурации сервера, объема памяти (80GB) и включенных ресурсов (взял из сети). Стоимость работы КСС в месяц = стоимость эл-ва за месяц от 1500 до 3000 руб в Москве (взято из сети). Ой...
HLE разработан, чтобы вознаграждать логическое понимание, а т.к. у LLM с логикой всё туго, то его проходят когнитивно-символьные и нейро-символьные системы с ядром КСС, а не LLM. Чистые LLM всегда на последних местах А это второй ой...
Нет, не можете - причина не в тексте. Поинтересуйтесь тем, как думают слепо-глухо-немые от рождения. Возьмите за пример жизнь Хелен Келлер
Где и в чем эффективны? Что простая задача, что сложная, требует вычисления на видеокарте - это уже не эффективное расходование вычислительных ресурсов, а расходы растут по экспоненте
Кто сказал? Уже лярды вбуханы в OpenAI, а она до сих пор убыточна. В Soar примерно столько же вбухано, но растянуто по времени, но интегрирована и глубоко во все военные системы США и дает результат. В КАС выгодней вкладывать, что и показывают последние инвестиции в тот же CRAM (робототехника)
Назовите хоть одну интеллектуальную задачу где LLM лидирует, увы но нет таких.
Не только моих, об этом твердят много исследователей и экспертов в области ИИ. Просто ради праздного любопытства, ознакомьтесь со всеми последними достижениями в КСА за 2025 год, Вы будете удивлены. Немного примеров:
Soar - новые механизмы работы с долговременной памятью (LTI), а у LLM на уровне ядра даже простой LTM нет;
ACT-R - моделирование физиологических состояний внутри архитектуры;
CRAM - показали способность к логическому выводу в нестандартных ситуациях;
и т.д. и т.п.
Прошу Вас ответить на один простой вопрос: почему если у LLM все так хорошо и "распрекрасно", то появляются все больше и больше нейро-символьных проектов? Символьные же архитектуры и их гибриды - это же фигня и ничего не могут, они же "устаревшие"?!
Благодарю за Ваше терпение и ответы. Я с командой, обсудили Ваш проект, он заинтересовал, но... увы всегда появляется какое-то но... проект на питоне - это бутылочное горлышко для нас
Вообще то так оно и есть
Вопрос закономерный: "если архитектура настолько крута", то где миллиарды долларов? Давайте попробую ответить:
КСА - это "игра вдолгую". OpenAI и другие, пошли по пути наименьшего сопротивления: закинули в нейросеть колоссальный объем данных и вычислительных мощностей. Это дало быстрый, "магический" результат, на котором легко спекулировать. КСА же требуют глубокой проработки структуры знаний. Обучить КСА - это как воспитать и обучить ребенка, а создать LLM - это как построить гигантскую статистическую таблицу. Инвесторы в 2023-2025 годах предпочитают вкладывать в то, что "просто работает прямо сейчас", даже если оно галлюцинирует и не обладает логикой;
Присутствует инфраструктурный разрыв. Для развития OpenAI нужны только видеокарты и данные. Для развития КСА нужны высококвалифицированные специалисты, понимающие когнитивную психологию, логику и архитектуру систем одновременно. Таких людей в мире в тысячи раз меньше, чем дата-
сатанистовсайентистов;Где же конкуренты? На самом деле, они есть, но они не всегда называют себя "конкурентами OpenAI". Многие военные, космические и промышленные проекты (примеры: в NASA, оборонный сектор США, медицина, обучение людей, юриспруденция) используют именно КСА (включая Soar), потому что там нельзя ошибаться. OpenAI или xAI не может гарантировать, что их ракета не врежется в здание из-за "галлюцинации" модели, а КСА - может, так как она работает на проверяемых выводах. Вспомним случаи "галлюцинаций" и некорректных ответов Grok в середине 2025 года (скандалы с политическими высказываниями), что заставляют инженеров SpaceX быть крайне осторожными с внедрением ИИ в критические системы управления полетом и ITAR уже высказалась в своё время по этому поводу. Маск может в один момент лишится и SpaceX и других своих компаний, если Grok допустит хоть одну ошибку при взаимодействии со SpaceX;
Люди, работающие над КСА, часто стремятся к созданию настоящего и сильного ИИ, а не "продвинутого Т9". Проекты вроде OpenCog Hyperon Бена Гертцеля или новые разработки в Soar и ACT-R как раз нацелены на объединение нейросетей (как глаз и ушей) и КСА (как основного и логического центра);
Экономика и окупаемость - это самый важный момент. Да, разработка и интеграция КСА на старте дороже и сложнее. Но как только система создана и внедрена, её использование с лихвой окупает все расходы:
Во-первых, ей не нужны фермы из тысяч видеокарт - она потребляет в разы меньше энергии. Одна система спокойно работает на любом компьютере, даже со "старенькой" видеокартой;
Во-вторых, она не требует "армии людей" для проверки ошибок;
В-третьих, она легко изменяется в реальном режиме времени, добавлением пары правил, а не переобучением за миллионы долларов.
Мы не видим конкурента OpenAI на базе КСА в каждом смартфоне не потому, что архитектура слабая, а потому что она требует другого уровня инженерной культуры. LLM - это фастфуд: быстро, вкусно, но вредно. КСА - это высокая кухня: долго, дорого, но это единственный путь к созданию интеллекта.
Коллега, мы с Вами не в детском саду и оба умеем пользоваться поисковыми системами. Soar "наистарейшая", а значит наиболее известная система, примеров для неё не просто вагон и маленькая тележка, а океан. Для всех когнитивно-символьных систем есть примеры, полная документация, полностью прописанные этические кодексы и т.д. и т.д.
P.S.: LLM не является агентом по своей сути, в отличии от КСА