Информация
- В рейтинге
- 1 158-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Разработчик игр, Real AI Developer
Ведущий
От 150 000 ₽
C#
.NET
Проектирование архитектуры приложений
Создание архитектуры проектов
Разработка программного обеспечения
Visual Studio
C++
C
Assembler
Rust
Так скажите, а "эта ваша LLM" умеет не генерировать ошибки? А может "эта ваша LLM" потребляет мало вычислительных ресурсов, не по экспоненте? А может "эта ваша LLM" управлять боевым самолётом? Нет?! Когнитивно-символьные системы (КСС) в разы эффективней любой топовой LLM - у них только две (!) фундаментальные проблемы:
большой срок разработки, с привлечением специалистов разных профилей;
сложность обучения. Но эту проблему уже частично решили в этом году. Думаю, в следующем году, данное решение будет интегрировано во все КСС
Конечно! Конечно! Давайте забудем про множество фундаментальных проблем LLM и про некоторые фундаментальные проблемы ИИ, например "желания"
Скажу за нашу команду, мы перед написанием первой строчки кода, изучали как думают: птицы, животные, рыбы, насекомые, люди, на изучение ушло много времени
Терминаторы или Сайлоны, он их боится
Мое "понимание доказательства" базируется на вычислительной логике. Если система по определению не способна к композициональности (сборке целого из частей по правилам), то никакое наращивание весов не наделит её этим свойством. Это не вопрос "веры", а вопрос архитектурных пределов.
Можно математически доказать, что статистический вывод не обладает свойством систематичности (Fodor & Pylyshyn), что делает его принципиально отличным от логического вывода.
Давайте я Вам отвечу двумя словами - эффективность вычислений. У LLM - это полное отсутствие эффективности. Для меня, как для символиста, просто впустую расходуются вычислительные ресурсы компьютера, если для решения той же самой задачи можно использовать в разы (от 10 до 1000) меньше ресурсов. Ведь ресурсы нужны для развития ядра системы ("мозга"), что может действительно повлиять на появление Настоящего ИИ
Мне не надо ничего Вам доказывать - берём Гугл и ищем информацию. Информации в наше время океан, ей надо пользоваться. Мне уже неоднократно хватило "таких" людей: "докажите", "покажите", "дайте" - я им в своё время и доказывал, давал ссылки, и многое другое и знаете что? А ничего! Даже спустя какое-то время эти же люди просили в других диалогах то же самое, так как даже не удосужились посмотреть то, что им ранее давали. Ведь "таким" людям не важна правда и информация, им нужно вставить свои "5 копеек" в такой мере: другой человек дурак, а я прав. Я честно устал от таких людей. Вот с момента нашего последнего диалога, только в другом материале, Вы, что-нибудь узнали о когнитивно-символьных системах, хотя бы ради праздного любопытства?! Я думаю что нет и даже не пытались. Вам удобно быть в своей "зоне комфорта", а людям ой как не хочется из неё выходить.
Коннекционисты часто так делают из-за узости кругозора. Чтобы построить когнитивно-символьную архитектуру, нужно знать и понимать: психологию, логику, лингвистику и даже зоопсихологию, так и многое другое, так как без этого невозможно понять, как разум конструирует модель мира.
Когда коннекционисту не хватает знаний о природе мышления, то ему проще всего объявить интеллект "математической абстракцией" и спрятаться за сложными терминами, игнорируя реальную пропасть между статистикой и сознанием.
Аппроксимация функции - это не то же самое, что извлечение смысла. Ваша попытка свести когнитивистику к анализу мер - классическая подмена понятий, которую обсуждали ещё 15 лет назад. Дальнейший спор о терминах ради терминов мне не интересен
Отчасти Ваш собеседник прав, поскольку продукция Apple и Microsoft, в отличие от табака, не вызывает физической зависимости, но формируют психологическую аддикцию (зависимость).Как пример: "связано с социальным статусом или ощущением принадлежности к определенной группе, что мотивирует на совершение повторных покупок". Некоторые люди даже идут на крайние жертвы (все о них слышали, не буду писать под НГ), чтобы владеть последним продуктом этих брендов.
Обоснование в этой статье "«Общий интеллект — полная чушь»: Янн ЛеКун и Демис Хассабис поспорили, что называть AGI" (Хабр)
Первое логическое ядро появилось в логико-символьной системе Logic Theorist 1955-1956 (Ньюэлл, Саймон), дальнейшее его развитие произошло в другой логико-символьной системе General Problem Solver (GPS) 1957-1959 (Ньюэлл, Саймон). А вот современные LLM до сих пор не имеют логического ядра. А "цепочка рассуждений" (Chain-of-Thought) только создает эффект "логического ядра", но по факту не имеет к логике никакого отношения
P.S. Ключевое отличие в прозрачности и управляемости. В когнитивно-символьных системах (от Logic Theorist до современных систем), каждый шаг вывода - это дискретное, понятное человеку логическое действие. Мы видим всю цепочку "от и до" и на каждое звено можно воздействовать в режиме реального времени. В LLM же "рассуждения" - это лишь текстовая обертка, которая может не соответствовать реальным "вычислениям" внутри весов модели.
Спор ЛеКуна и Хассабиса - это не научная дискуссия, а запоздалое признание очевидного. То, что путь, по которому идет DeepMind, тупиковый, было понятно еще 15 лет назад. В 2010 году, когда на форумах вроде LessWrong и других IT-площадках обсуждались Коннекционистские модели (Connectionist Models) и будущие статистические языковые модели (Statistical Language Models), уже тогда было математически доказано: простая аппроксимация функций и наращивание весов без логического ядра никогда не приведет к пониманию смысла
Мы стоим на пороге массового "упрощения сознания". Выдавая лингвистические алгоритмы за полноценный разум, своими руками приучаем общество к "фастфуд-интеллекту": яркому, доступному и вредному. В будущем это обернется катастрофой: люди просто перестанут воспринимать всё, что сложнее и глубже болтливого интерфейса. Мы (всё общество) сознательно растим поколение с атрофированным критическим мышлением, которое сведёт всю глубину человеческого духа к генерации типового контента. "Идиократия" уже на пороге и это печально...
Массовое сознание пало жертвой "эффекта Элизы", приняв беглость речи за наличие разума, а маркетинговый капитал корпораций окончательно закрепил этот "антропоморфный фасад" как новый "стандарт ИИ". В итоге произошла подмена глубокой когнитивной архитектуры на поверхностную имитацию, которая коммерчески выгоднее, так как создает иллюзию понимания здесь и сейчас без необходимости решать сложнейшую проблему целеполагания. Маркетологи у коннекционистов хорошо работают, здесь надо признать их "победу". Но! Если посмотреть правде в глаза, то у символистов за 2024 и 2025 года, в разы больше прорывов в технологиях, что любая, даже топовая LLM уже давно позади.
Подмена понятий произошла преимущественно в лагере современных коннекционистов (сторонников LLM), где под "интеллектом" стали понимать лишь аппроксимацию данных и статистическую генерацию, тогда как классическая школа символьного ИИ сохранила верность первоначальным принципам. Для исследователей, работающих с когнитивно-символьными системами, ИИ по-прежнему заключается в моделировании рассуждений, целенаправленном поведении и манипуляции смыслами, а не в простом поиске закономерностей. Таким образом, "подмена" не тотальна и только отражает разрыв между двумя школами, внутри самой дисциплины, где символисты по-прежнему верны изначальной цели создания систем, способных к осмысленным действиям.
Какого развития?! Быстрого? Немного истории:
Термин "искусственный интеллект" был официально предложен в 1956 году. Его автором стал американский ученый Джон Маккарти, который использовал это название для Дартмутской конференции;
Программа "Логик-Теоретик" (Logic Theorist) была разработана в 1956 году Алленом Ньюэллом, Гербертом Саймоном и Клиффом Шоу. Программа считается первой в истории программой искусственного интеллекта, так как она была способна доказывать математические теоремы, имитируя человеческое мышление.
Итог - 69 лет развития отрасли
Для когнитивно-символьных систем точность ниже 95% - это уже повод для серьезного аудита системы и поиска ошибки входов/выходов данных. В этом контексте, 31% точности выглядит просто катастрофично, бррр...
Прибыльность у КСС в разы выше. Давайте посмотрим на аренду NVidia H100 от 290 000 до 750 000+ рублей, в зависимости от провайдера, конфигурации сервера, объема памяти (80GB) и включенных ресурсов (взял из сети). Стоимость работы КСС в месяц = стоимость эл-ва за месяц от 1500 до 3000 руб в Москве (взято из сети). Ой...
HLE разработан, чтобы вознаграждать логическое понимание, а т.к. у LLM с логикой всё туго, то его проходят когнитивно-символьные и нейро-символьные системы с ядром КСС, а не LLM. Чистые LLM всегда на последних местах А это второй ой...
Нет, не можете - причина не в тексте. Поинтересуйтесь тем, как думают слепо-глухо-немые от рождения. Возьмите за пример жизнь Хелен Келлер
Где и в чем эффективны? Что простая задача, что сложная, требует вычисления на видеокарте - это уже не эффективное расходование вычислительных ресурсов, а расходы растут по экспоненте
Кто сказал? Уже лярды вбуханы в OpenAI, а она до сих пор убыточна. В Soar примерно столько же вбухано, но растянуто по времени, но интегрирована и глубоко во все военные системы США и дает результат. В КАС выгодней вкладывать, что и показывают последние инвестиции в тот же CRAM (робототехника)
Назовите хоть одну интеллектуальную задачу где LLM лидирует, увы но нет таких.
Не только моих, об этом твердят много исследователей и экспертов в области ИИ. Просто ради праздного любопытства, ознакомьтесь со всеми последними достижениями в КСА за 2025 год, Вы будете удивлены. Немного примеров:
Soar - новые механизмы работы с долговременной памятью (LTI), а у LLM на уровне ядра даже простой LTM нет;
ACT-R - моделирование физиологических состояний внутри архитектуры;
CRAM - показали способность к логическому выводу в нестандартных ситуациях;
и т.д. и т.п.
Прошу Вас ответить на один простой вопрос: почему если у LLM все так хорошо и "распрекрасно", то появляются все больше и больше нейро-символьных проектов? Символьные же архитектуры и их гибриды - это же фигня и ничего не могут, они же "устаревшие"?!