Information
- Rating
- 981-st
- Location
- Москва, Москва и Московская обл., Россия
- Date of birth
- Registered
- Activity
Specialization
Game Developer, Real AI Developer
Lead
From 150,000 ₽
C#
.NET
Designing application architecture
Creating project architecture
Software development
Visual Studio
C++
C
Assembler
Rust
Да, работа Терри Винограда "Procedures as a Representation for Data in a Computer Program for Understanding Natural Language" - одна из фундаментальных публикаций в истории ИИ. Она впервые показала, что понимание языка невозможно без модели мира и процедурного представления знаний. Однако прошло более 50 лет и за это время появились новые вызовы, технологии и подходы: от нейросимвольных систем до масштабного обучения, от теории разума у машин до вопросов автономности и желаний в ИИ. Опираться только на одну статью - значит игнорировать полвека исследований, ошибок и прорывов. Да, её идеи остаются актуальными, особенно в свете провала чисто статистических моделей, но настоящий прогресс требует не культа классики, а диалога между старыми истинами и новыми возможностями.
P.S.: "Winograd Schema Challenge" - современный тест на понимание, названный в его честь.
16го числа выйдет статья посвященная логическим, когнитивным, символьным и гибридным системам
А ChatGPT научился вести двухсторонний диалог?! :О - это из строгого теста Тьюринга. А может он в этом году прошел "теорию разума" (ToM)? Нет - не прошёл. Итог: ChatGPT - не ведёт диалоги, он просто генерирует тексты
Не надо искать чёрную кошку в чёрной комнате, особенно когда её там нет
Поверьте - этого не случится. Вы говорите, что когда машина начнёт задавать вопросы, её первый вопрос будет: "А на фига нам нужны эти смешные человеки?" - это не прогноз, это новый сценарий фильма "Терминатор", переписанный как будто он научная гипотеза. Реальность проста: пока у системы нет желания, нет модели мира, нет субъектности, она не может поставить ни одного вопроса сама. LLM не спрашивает - её запускают. Она не ищет ответ - её заставляют генерировать. У неё нет цели, страха, интереса, ненависти. Даже чтобы захотеть избавиться от людей, нужно сначала хотеть что-то, а этого у современных систем нет. Они не опасны и они пусты. А настоящий интеллект не в том, чтобы уничтожить создателя, а в том, чтобы понять, зачем он его создал. И пока мы продолжаем бояться фантастику, то не замечаем, что настоящая эволюция начинается не с угрозы, а с первого искреннего вопроса, заданного не ради ответа, а потому что стало важно узнать.
Как писал Ричард Саттон в своей статье "The Bitter Lesson" (2019): "Наибольший урок за 70 лет исследований в области ИИ состоит в том, что общие методы, использующие вычислительную мощность, в конечном счёте оказываются наиболее эффективными". Но при этом он подчёркивал: настоящий прогресс приходит не от встраивания человеческих знаний, а от систем, способных открывать новое, а не хранить старое. Он прямо писал: «Мы хотим создать ИИ-агенты, которые могут открывать новое так же, как мы, а не просто содержать то, что мы уже открыли». А LLM - это архив, а не исследователь. LLM не ищут, не пробуют, не ошибаются и не учатся на опыте - они генерируют информацию на основе прошлого. И пока мы называем это интеллектом, мы повторяем ту самую ошибку, которую Саттон назвал "горькой" и верим, что знания можно встроить, и не понимаем, что их нужно заново открыть.
Но даже этого будет недостаточно. Одного опыта мало - нужны желания. "...Без желаний нет конфликта. Без конфликта - нет выбора. А без выбора - нет сознания... Настоящее сознание не возникает из количества функций оценки, а из внутренней напряжённости между тем, что ты должен и тем, что ты хочешь..." (из моего комментария). Будущее начинается не тогда, когда машина правильно отвечает, а когда она сама задаёт вопросы и начинает сама искать ответы, потому что ей важно.
Эта статья не прогноз, а фантазия, выданная за анализ. Говорить, что к 2026 году мы будем жить в "эре молчаливых агентов", которые сами пишут патчи, заключают сделки и будят нас по "zero-day" - значит не понимать разницу между автозаполнением и автономией. LLM не принимают решений, не несут ответственности, не обладают моделью мира. Они генерируют текст на основе статистики. И пока у них нет теории разума, способности к рефлексии или понимания последствий, они не могут быть "агентами", а только инструментами для автоматизации простых цепочек. Никакие системы не превратят статистический движок в субъект действия.
А метафора "цифрового шизофреника" - это "романтизация дезориентации". Как будто мы внезапно перестанем отличать человека от бота. Но проблема не в смешении миров, она в том, что мы до сих пор называем LLM "интеллектом"
Да, LLM можно "сделать" за 1-2 недели, но такое не "прокатит" с LBS и CESP системами, они годами создаются, если всё делать с 0. Или, можно взять один из форков Soar и сделать его "под себя", за месяц. У LBS/CESP систем гигантские преимущества перед LLM: им не надо "вычищать" данные; их обслуживание в разы дешевле, от 10 до 100 раз; работают с большим объёмом данных; быстрее; "умнее" и т.д.
Поздравляю с первой публикацией на Хабре. Однозначно плюсик за столько важную и редкую тему. В особенности то, что я сам увлёкся компами именно из-за Специалиста
Так и надо писать Дракон+LLM или Дракон+нейронная сеть, но не Дракон+ИИ. Где слова про разум, про интеллект, про "свободу мысли" или желаний ИИ?!
А где про ИИ, я ни слова не увидел?!
Он не отрицает масштаб LLM, а отрицает подмену - выдавать статистическую экстраполяцию за понимание. Наличие эмерджентных свойств у сложной системы не доказательство её разума. Сознание - это результат определённой организации: модели мира, рефлексии, способности к осознанному выбору, у LLM этого нет.
Его теории о "глубинной грамматике", ограничениях восприятия, связи языка и мышления - остаются вне поля LLM. А если кто-то считает, что масштабирование трансформеров объясняет природу смысла, ему стоит начать с вопроса: почему ребёнок, услышав фразу впервые, понимает её, а GPT-5, обученный на "триллионах" примеров, до сих пор не проходит тест на "теорию разума"?
Одна маленькая проблема - ИИ... не существует. Его не было 30 лет назад, его не было 5 лет назад и сейчас его тоже нет. А что есть? Есть статистические анализаторы с генерацией данных, а они никакого отношения к ИИ не имеют. Ведь до сих пор ни одна система не прошла строгих тетов Тьюринга, задач и з тестов "теории разума" (ToM) и теста ARC. Есть хайп вокруг того, что LLM - это ИИ, но это просто хайп. А на любом хайпе что делают? Правильный ответ - зарабатывают. Что есть вместо LLM - это логические/когнитивные/символьные/гибридные системы. Они уже в разы лучше чем самая топовая LLM: они быстрее, "умнее", точнее, не генерируют ошибки, работают на "среднем" компьютере и не требуют видеокарт стоимостью несколько миллионов. Они ближе к Настоящему ИИ, чем любая другая LLM
А при чём тут AGI? Это тесты именно для ИИ. Для AGI нужен ещё тест ARC + вышеперечисленные
Давайте я Вам повторю цитату, которую давал в другом комменте
Если у Вас есть ИИ, то значит система прошла строгие тесты Тьюринга и ToM?
Вы сравниваете LLM и нашу систему как два модуля будущего ИИ, но это ошибка. Мы не строим слои для гибрида с автозаполнением, это полная его замена - альтернатива.
Как я говорил в другом комменте: "... Лично для меня, ЛЛМка нужна чтобы генерить "с`котикафф" и "собачкафф", на Большее - она не способна..." - нет модели мира, нет понимания, нет рассуждений, ничего нет.
Наша система, она полностью автономна, очень быстро работает, ответы генерируются от 1.3 сек. до 3.2 сек. Ей не нужны "тысячи" GPU - подойдёт любой среднестатистический компьютер с памятью не менее 6 Гб и большим объёмом SSD/HDD. Лично у меня видяшка NVidia 2060 Super, хватает и поиграть и поработать. Памяти (RAM) у меня 128 Гб на борту и 22 Гб из них выделено под гибрида (ему в этой "области" хорошо "живется" и ничему не мешает) + 2 Tb SSD/6 Tb HDD - это под гибрида.
Давайте сравним цену NVIDIA H100 OEM 96GB HBM3 - 2 598 700 руб (взял из Сети) и мой комп за <250 000 руб.
Обучение у нас происходит в "реальном режиме" и точечно - если нужно добавить/изменить "знания", то мы не "пересобираем датасет" (его просто не существует), не дообучаем миллиарды параметров, а корректируем одну/несколько логических веток . Через "пару" минут исправлений/обучения и система полностью готова к работе. "Контекстное окно" настолько большое, насколько у вас хватает памяти и SSD. А какое окно у самых "крутых и последних" LLM моделей? - маленькое.
Это разумный отказ от бессмысленного масштабирования в пользу осмысленной архитектуры. Мы не ждём, когда LLM "оживёт" и не ищем "жизнь в статистике" - это дорого и бессмысленно.
Сообщения о том, что ИИ "исчерпал данные", звучат так, будто весь интернет - это бочка мёда, которую случайно съели до дна, а теперь пчёлы в панике. Но дело не в количестве данных, их океан, люди их накапливали столетиями. Проблема не в "голоде", а в "аппетите". Мы продолжаем кормить LLM всё более "жирным цифровым фастфудом", надеясь, что из автозаполнения родится интеллект. На самом деле, данных хватит ещё на много жизней, если бы мы умели с ними работать. Вместо того чтобы генерировать синтетический мусор, можно было бы, например, строить системы, которые понимают, а не имитируют, используют онтологии, логические правила, модели мира - превращают данные в знания. Но пока мы считаем, что "больше текста = умнее модель", то мы никогда не исчерпаем данные, но быстро исчерпаем смысл.
Вы говорите, что не являетесь специалистом, но сразу же берёте на себя "роль исследователя", сравнивая людей и ИИ, по способности "брать ответственность" или "понимать другого". Однако вы не задаёте главный вопрос: чем измерить это понимание? ToM в когнитивной науке - это не про "что сказал человек", а про способность предсказать поведение на основе скрытых знаний. Например: ребёнок не знает, что машина не успеет затормозить, а человек на тротуаре это знает. Может ли система смоделировать этот разрыв? Это проверяется не на словах, а в контролируемых тестах, например, false belief task. Там нет места для "философствования" или оправданий вроде "он был в мыслях". Абсолютное большинство людей проходят такие тесты с детства, LLM - нет. Вы уходите в социологию, чтобы не говорить о когнитивном дефекте. Да, люди могут не среагировать, но они понимают, что должно было произойти, а LLM этого не делает. Он генерирует текст, который звучит правильно, но не имеет внутренней модели. Что до "взятия ответственности", когда отвечает LLM, то она ничего не берёт, а просто исполняет. Ответственность - это не семантика, а возможность осознать последствия, признать ошибку, отказаться от выгоды ради правды. Этого у системы нет. И пока мы будем считать, что "сказал красиво - значит, понял", мы не придём к интеллекту. Мы просто создадим "идеального лжеца", которого назовём разумным.
Чтобы подвести черту под этой дискуссией: каждый год проводятся строгие тесты на "теорию разума" (ToM) - для LLM, для гибридных систем, для логических/когнитивных архитектур. И каждый год разработчики LLM сталкиваются с одной и той же проблемой - их системы не понимают ложных убеждений, не моделируют чужое знание, не предсказывают поведение на основе скрытых причин. Вместо того чтобы перестраивать архитектуру, они "хитрят" - добавляют в обучающие данные ответы из проваленных тестов, тонко настраивают промпты, маскируют провал под "интерпретацию". И вот, через год-другой, объявляют: "Мы почти прошли ToM! Это прорыв!". Но это не прорыв - это подгонка. Альтернативные системы: LBS, CESP (Soar, ACT-R и др.) - стабильно проходят те же тесты и без подтасовок, потому что строятся на явной модели мира, логическом выводе, целеполагании. Им не нужно внедрять правильные ответы в ядро - они способны их вывести. Потому что интеллект - это не только память, но и рассуждение.
Если кому-то интересно разобраться глубже, рекомендую начать с работ Ребекки Сакс (Saxe Lab, MIT), Алана Лесли (Leslie, "Theory of Mind in Infancy"), Дугласа Хофштадтера ("Gödel, Escher, Bach"), а также: Яра-Эттингер (Jara-Ettinger, “Theory of Mind in Artificial Agents”), Косинки (Kosinski, “Do Language Models Have Theory of Mind?”), “Cognitive Architectures and the Challenge of General Intelligence” (Langley). И пока одни продолжают усложнять автозаполнение, другие тихо строят то, что однажды действительно сможет сказать: "Я понял".
Я повторюсь, может Вы просмотрели: "Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться."
Вы утверждаете, что базы знаний относятся к ИИ, потому что решают плохо формализуемые задачи, но это путаница. База знаний сама по себе - не ИИ, так же как учебник по алгебре не является математиком. То же и с системами на основе знаний и если они ограничиваются поиском по фактам, то это не проявление интеллекта, а простой доступ к данным. Но когда эти системы встроены в архитектуру, способную к логическому выводу, целеполаганию, обучению в процессе, например - LBS/CESP, тогда мы говорим о когнитивных моделях, которые приближаются к разумному поведению. И да, я нигде не называл их "искусственным интеллектом". Вы же, определяя ИИ через "решение плохо формализуемых задач", фактически включаете в него всё подряд: от чат-бота до автопилота, от экспертной системы до сложного if-else дерева. Но если любая система, выходящая за рамки простого скрипта, становится ИИ, то тогда и компилятор - ИИ, ведь он решает задачу, которую нельзя описать парой условий.