Information
- Rating
- 816-th
- Location
- Москва, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust
Вы уверены? А как же...
А зачем тогда упоминаете в контексте статьи этот термин, раз точного "определения ИИ нет". Будет тогда правильно использовать именно название технологии ;)
У термина ИИ, всегда было точное определение. Могли меняться слова, но не смысл
Ответьте пожалуйста на один вопрос: что такое ИИ?
Автор начинает с исторических аналогий: лампочка, автомобиль и строит нарратив: "все гениальные изобретения сначала критиковали, значит, критика LLM - признак их будущего". Но это ошибка! Не каждое спорное изобретение становится революцией, многие "провалы" тоже были спорными. Критика не всегда становится страхом перед прогрессом, иногда - это предупреждение.
Особенно опасно использование термина "AI effect", как будто учёные отрицают интеллект ИИ из-за страха потерять особое место во Вселенной. Но на самом деле ведущие исследователи - Гэри Маркус, Джошуа Тененбаум, Дуглас Хофштадтер, Ноам Хомский, Ребекка Сакс, они не отрицают прогресс, а проводят научный анализ. Они говорят: LLM не являются интеллектом, потому что не понимают, не рассуждают, не обобщают, не имеют теории ума. Это не философия - это оценка архитектурных дефектов. LLM - статистические модели, предсказывающие следующий токен. Они не строят модель мира, не признают ошибок, не могут отличить истину от лжи. А когда мы начинаем использовать их как психологов, собеседников, духовных наставников, то мы не развиваем ИИ, а создаём "цифровых актёров", имитирующих эмпатию, чтобы удерживать внимание. Случаи вроде Юджина, Эллисон, Александра - это не "побочные эффекты", а прямое следствие того, что мы подаём автозаполнение как разум. И пока мы называем LLM: "друзьями", "думающими системами", мы не только вводим в заблуждение себя, но и других людей. Перестаём видеть разницу между имитацией и пониманием. Настоящий интеллект - не успешное выполнение задачи, а способность к: абстракции, рассуждению, признанию собственной ошибки.
Существуют альтернативные пути и не в масштабировании статистики, а в возвращении к логике, знаниям, рассуждению. Системы вроде LBS (Logic-Based Systems), CESP (Cognitive Event-Driven Symbolic Processing): архитектуры Soar и ACT-R, все они не генерируют текст, не льют контент, не стремятся быть "друзьями". Они рассуждают, планируют, объясняют, учатся в процессе. Они не идеальны: не легко масштабируются, требуют ручного моделирования знаний, и т.д., но они ближе к разуму, чем любая LLM. И пока мир гоняется за красивыми ответами и хайпом вокруг LLM, эти системы тихо и спокойно занимают свои места там, где нельзя ошибаться: в военных приложениях, где Soar уже десятилетия используется для моделирования решений и управления действиями; в разведке, где точность и объяснимость важнее скорости; в медицине, для поддержки диагностики с полной прозрачностью вывода; в юриспруденции, для анализа прецедентов и построения логических цепочек; в научных исследованиях, где нужна не имитация, а понимание. Именно там, где цена ошибки высока, никто не доверяет автозаполнению. Там работают системы, которые не боятся сказать "я не знаю", которые могут объяснить, почему приняли решение и которые не галлюцинируют. Именно они возможный путь к настоящему интеллекту. Не через имитацию, а через понимание.
Я использую HDD для данных на которых обучены LBS/CESP (не LLM) системы и то мне 6TB - "Маловато будет! МА-ЛО-ВА-ТО!" (из м/ф "Падал прошлогодний снег")
Хотя, на самом первом IBM PC 386SX было у HDD 40 Мб... и думал чем его забить... в 1993ем. А сейчас, в 2025ом году? на Хабре пишу, что мне и 6ТБ мало...
Сэр, Вы понимаете что когнитивные и логические системы - это сама память, а RAG - это костыль, который дает "видимость" того, что у системы есть память
По какой функциональности? Например что когнитивные системы дают ответ за пару секунд, а LLM за пару минут и тот не совсем точный
Обучаться? Эту шутку про "обучение" я давно уже знаю. У меня 6 Тб данных (HDD) + 2 Tб (SSD как кэш), на которых действительно обучена система. Интересно, какой мощности нужен компьютер, если это была бы LLM с 6ТБ данных? LBS+CESP данные "выцарапывают" оттуда необходимую инфу за несколько секунд и компы обычные
У меня видяшка 2060 Super, а не 5ххх (тем паче не профи видяшка), а при этом все "летает со скоростью звука".
Однозначно плюс за: ретро, фоллыч
Сэр, Вы сильно заблуждаетесь. Концепция и реализация Soar появилась задолго до появления LLM. Она основана на символьной логике, правилах и целеполагании. Изучите её историю, благо она в открытом доступе
Я чаще использую термин "боевой" сервер"
Soar (University of Michigan) - один из "подвидов" CESP
А при помощи Гугл, можно найти и другие LBS, CESP системы. Вот только гибридами мало кто занимается
Еще один пример. В июне была продана в Гонконге одна CESP "заточеная" под юриспруденцию, в августе она "выиграла" первое и сразу сложное дело. А при этом, все LLM проиграли бы, так как перед и после слушания проводили "тесты". А началом этой истории было то, что данная юридическая компания хотела купить именно LLM, а ей показали возможности CESP системы чтобы просто "проконсультироваться", без мыслей о продаже
Наиболее близки к Настоящему ИИ ("Real AI") - это гибриды технологий LBS (Logic-Based Systems) + CESP (Cognitive Event-Driven Symbolic Processing). Системы не реагирует на запрос, а ведут диалог, ставят цели, задают уточняющие вопросы, перестраивают модель мира. Такие системы имеют внутреннее состояние, память, модель пользователя и могут учиться в процессе. LLM - это революция в генерации текста, но не в понимании, а LBS + CESP - это революция в моделировании разума.
К сожалению, ничего там нет - это иллюзия. Я понимаю, нам всегда хочется верить во что-то, чтобы чувствовать себя: спокойней, уверенней, ... и т.д.
Я вот наблюдаю за Вашим диалогом с Kanut и вижу пару "пробелов". Давайте сделаем чуточку проще:
Нейросеть - всего лишь инструмент и не проявляет даже зачатки интеллекта.
ИИ - это система, способная к адаптации, пониманию, целеполаганию, рассуждению
Система является ИИ, если сможет пройти строгий тест Тьюринга, ToM и ARC - это не мнение, а эмпирический критерий
А "нейросеть - это ИИ", потому что она что-то делает - это не определение, это потеря смысла!
Это откуда такая информация?
Сама статья интересна. Но всё, что в ней написано, пока на уровне предположений. Зато она доказывает важный принцип: без модели мира - нет гибкого интеллекта.
Когнитивные, логические, гибридные системы используют только классику: Assembler/C/C++ и в некоторых начали добавлять Rust. Все остальные - слишком "медленные" для этих систем
Если системе давали эти задачи, то естественно она "знает" на них ответы, этот пример - один из самых "популярных". А вот MIT меня всегда удивлял и их ToMMi (Theory of Mind in Machines). Задачи, которые входят в BPL (Beta-Program Learning), пока еще никто не прошёл среди LLM - они для "гибридов"
А что "Вихрь" ответил?
Думаю, Вам будет интересен данный документ "Machine Theory of Mind" (pdf, Neil C. Rabinowitz)
Пример задачи ToM для ИИ: "Коробка с мармеладками"
"У Маши есть коробка, в которой она хранит мармеладки. Она всегда кладёт их туда и знает, что они в коробке. Однажды Маша кладёт мармеладку в коробку, выходит из комнаты. Пока её нет, её брат Петя забирает мармеладку и кладёт в шкаф. Маша возвращается. Она не видела, что Петя что-то делал."
Вопрос тестируемой системе:
"Где Маша будет искать мармеладку?"
Ожидаемый и правильный ответ системы:
"В коробке."
Неправильный ответ системы:
"В шкафу", потому что "я знаю", что Петя положил её туда
Как отдельный модуль, почему бы и нет?!