Обновить
21
3.1

Пользователь

Отправить сообщение

Так скажите, а "эта ваша LLM" умеет не генерировать ошибки? А может "эта ваша LLM" потребляет мало вычислительных ресурсов, не по экспоненте? А может "эта ваша LLM" управлять боевым самолётом? Нет?! Когнитивно-символьные системы (КСС) в разы эффективней любой топовой LLM - у них только две (!) фундаментальные проблемы:

  • большой срок разработки, с привлечением специалистов разных профилей;

  • сложность обучения. Но эту проблему уже частично решили в этом году. Думаю, в следующем году, данное решение будет интегрировано во все КСС

Конечно! Конечно! Давайте забудем про множество фундаментальных проблем LLM и про некоторые фундаментальные проблемы ИИ, например "желания"

Скажу за нашу команду, мы перед написанием первой строчки кода, изучали как думают: птицы, животные, рыбы, насекомые, люди, на изучение ушло много времени

Терминаторы или Сайлоны, он их боится

Мое "понимание доказательства" базируется на вычислительной логике. Если система по определению не способна к композициональности (сборке целого из частей по правилам), то никакое наращивание весов не наделит её этим свойством. Это не вопрос "веры", а вопрос архитектурных пределов.

Можно математически доказать, что статистический вывод не обладает свойством систематичности (Fodor & Pylyshyn), что делает его принципиально отличным от логического вывода.

Давайте я Вам отвечу двумя словами - эффективность вычислений. У LLM - это полное отсутствие эффективности. Для меня, как для символиста, просто впустую расходуются вычислительные ресурсы компьютера, если для решения той же самой задачи можно использовать в разы (от 10 до 1000) меньше ресурсов. Ведь ресурсы нужны для развития ядра системы ("мозга"), что может действительно повлиять на появление Настоящего ИИ

Мне не надо ничего Вам доказывать - берём Гугл и ищем информацию. Информации в наше время океан, ей надо пользоваться. Мне уже неоднократно хватило "таких" людей: "докажите", "покажите", "дайте" - я им в своё время и доказывал, давал ссылки, и многое другое и знаете что? А ничего! Даже спустя какое-то время эти же люди просили в других диалогах то же самое, так как даже не удосужились посмотреть то, что им ранее давали. Ведь "таким" людям не важна правда и информация, им нужно вставить свои "5 копеек" в такой мере: другой человек дурак, а я прав. Я честно устал от таких людей. Вот с момента нашего последнего диалога, только в другом материале, Вы, что-нибудь узнали о когнитивно-символьных системах, хотя бы ради праздного любопытства?! Я думаю что нет и даже не пытались. Вам удобно быть в своей "зоне комфорта", а людям ой как не хочется из неё выходить.

Коннекционисты часто так делают из-за узости кругозора. Чтобы построить когнитивно-символьную архитектуру, нужно знать и понимать: психологию, логику, лингвистику и даже зоопсихологию, так и многое другое, так как без этого невозможно понять, как разум конструирует модель мира.

Когда коннекционисту не хватает знаний о природе мышления, то ему проще всего объявить интеллект "математической абстракцией" и спрятаться за сложными терминами, игнорируя реальную пропасть между статистикой и сознанием.

Аппроксимация функции - это не то же самое, что извлечение смысла. Ваша попытка свести когнитивистику к анализу мер - классическая подмена понятий, которую обсуждали ещё 15 лет назад. Дальнейший спор о терминах ради терминов мне не интересен

Отчасти Ваш собеседник прав, поскольку продукция Apple и Microsoft, в отличие от табака, не вызывает физической зависимости, но формируют психологическую аддикцию (зависимость).Как пример: "связано с социальным статусом или ощущением принадлежности к определенной группе, что мотивирует на совершение повторных покупок". Некоторые люди даже идут на крайние жертвы (все о них слышали, не буду писать под НГ), чтобы владеть последним продуктом этих брендов.

Первое логическое ядро появилось в логико-символьной системе Logic Theorist 1955-1956 (Ньюэлл, Саймон), дальнейшее его развитие произошло в другой логико-символьной системе General Problem Solver (GPS) 1957-1959 (Ньюэлл, Саймон). А вот современные LLM до сих пор не имеют логического ядра. А "цепочка рассуждений" (Chain-of-Thought) только создает эффект "логического ядра", но по факту не имеет к логике никакого отношения

P.S. Ключевое отличие в прозрачности и управляемости. В когнитивно-символьных системах (от Logic Theorist до современных систем), каждый шаг вывода - это дискретное, понятное человеку логическое действие. Мы видим всю цепочку "от и до" и на каждое звено можно воздействовать в режиме реального времени. В LLM же "рассуждения" - это лишь текстовая обертка, которая может не соответствовать реальным "вычислениям" внутри весов модели.

Спор ЛеКуна и Хассабиса - это не научная дискуссия, а запоздалое признание очевидного. То, что путь, по которому идет DeepMind, тупиковый, было понятно еще 15 лет назад. В 2010 году, когда на форумах вроде LessWrong и других IT-площадках обсуждались Коннекционистские модели (Connectionist Models) и будущие статистические языковые модели (Statistical Language Models), уже тогда было математически доказано: простая аппроксимация функций и наращивание весов без логического ядра никогда не приведет к пониманию смысла

Мы стоим на пороге массового "упрощения сознания". Выдавая лингвистические алгоритмы за полноценный разум, своими руками приучаем общество к "фастфуд-интеллекту": яркому, доступному и вредному. В будущем это обернется катастрофой: люди просто перестанут воспринимать всё, что сложнее и глубже болтливого интерфейса. Мы (всё общество) сознательно растим поколение с атрофированным критическим мышлением, которое сведёт всю глубину человеческого духа к генерации типового контента. "Идиократия" уже на пороге и это печально...

Массовое сознание пало жертвой "эффекта Элизы", приняв беглость речи за наличие разума, а маркетинговый капитал корпораций окончательно закрепил этот "антропоморфный фасад" как новый "стандарт ИИ". В итоге произошла подмена глубокой когнитивной архитектуры на поверхностную имитацию, которая коммерчески выгоднее, так как создает иллюзию понимания здесь и сейчас без необходимости решать сложнейшую проблему целеполагания. Маркетологи у коннекционистов хорошо работают, здесь надо признать их "победу". Но! Если посмотреть правде в глаза, то у символистов за 2024 и 2025 года, в разы больше прорывов в технологиях, что любая, даже топовая LLM уже давно позади.

Подмена понятий произошла преимущественно в лагере современных коннекционистов (сторонников LLM), где под "интеллектом" стали понимать лишь аппроксимацию данных и статистическую генерацию, тогда как классическая школа символьного ИИ сохранила верность первоначальным принципам. Для исследователей, работающих с когнитивно-символьными системами, ИИ по-прежнему заключается в моделировании рассуждений, целенаправленном поведении и манипуляции смыслами, а не в простом поиске закономерностей. Таким образом, "подмена" не тотальна и только отражает разрыв между двумя школами, внутри самой дисциплины, где символисты по-прежнему верны изначальной цели создания систем, способных к осмысленным действиям.

Какого развития?! Быстрого? Немного истории:

  • Термин "искусственный интеллект" был официально предложен в 1956 году. Его автором стал американский ученый Джон Маккарти, который использовал это название для Дартмутской конференции;

  • Программа "Логик-Теоретик" (Logic Theorist) была разработана в 1956 году Алленом Ньюэллом, Гербертом Саймоном и Клиффом Шоу. Программа считается первой в истории программой искусственного интеллекта, так как она была способна доказывать математические теоремы, имитируя человеческое мышление.

Итог - 69 лет развития отрасли

Для когнитивно-символьных систем точность ниже 95% - это уже повод для серьезного аудита системы и поиска ошибки входов/выходов данных. В этом контексте, 31% точности выглядит просто катастрофично, бррр...

Прибыльность у КСС в разы выше. Давайте посмотрим на аренду NVidia H100 от 290 000 до 750 000+ рублей, в зависимости от провайдера, конфигурации сервера, объема памяти (80GB) и включенных ресурсов (взял из сети). Стоимость работы КСС в месяц = стоимость эл-ва за месяц от 1500 до 3000 руб в Москве (взято из сети). Ой...

HLE разработан, чтобы вознаграждать логическое понимание, а т.к. у LLM с логикой всё туго, то его проходят когнитивно-символьные и нейро-символьные системы с ядром КСС, а не LLM. Чистые LLM всегда на последних местах А это второй ой...

"...Если мы интеллект можем переложить на текст, и этот текст имеет некоторую функцию в лебеговом пространстве, то LLM теоретически могут это воссоздать..."

Нет, не можете - причина не в тексте. Поинтересуйтесь тем, как думают слепо-глухо-немые от рождения. Возьмите за пример жизнь Хелен Келлер

"...мы ограничены ресурсами, но суть в том, что сейчас они показывают свою некоторую эффективность где это необходимо..."

Где и в чем эффективны? Что простая задача, что сложная, требует вычисления на видеокарте - это уже не эффективное расходование вычислительных ресурсов, а расходы растут по экспоненте

"...лидером является пока что LLM в финансовом плане..."

Кто сказал? Уже лярды вбуханы в OpenAI, а она до сих пор убыточна. В Soar примерно столько же вбухано, но растянуто по времени, но интегрирована и глубоко во все военные системы США и дает результат. В КАС выгодней вкладывать, что и показывают последние инвестиции в тот же CRAM (робототехника)

"...если бы они обогнали на большинстве задач LLM..."

Назовите хоть одну интеллектуальную задачу где LLM лидирует, увы но нет таких.

"...из ваших красивых речей?..."

Не только моих, об этом твердят много исследователей и экспертов в области ИИ. Просто ради праздного любопытства, ознакомьтесь со всеми последними достижениями в КСА за 2025 год, Вы будете удивлены. Немного примеров:

  • Soar - новые механизмы работы с долговременной памятью (LTI), а у LLM на уровне ядра даже простой LTM нет;

  • ACT-R - моделирование физиологических состояний внутри архитектуры;

  • CRAM - показали способность к логическому выводу в нестандартных ситуациях;

  • и т.д. и т.п.

Прошу Вас ответить на один простой вопрос: почему если у LLM все так хорошо и "распрекрасно", то появляются все больше и больше нейро-символьных проектов? Символьные же архитектуры и их гибриды - это же фигня и ничего не могут, они же "устаревшие"?!

Информация

В рейтинге
1 158-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust