Границы моего промпта: почему Витгенштейн «отменил» AGI
Вера в то, что еще пара триллионов параметров в трансформерах — и мы получим AGI, строится на фатальной ошибке. Эту ошибку сто лет назад совершил, а потом сам же исправил Людвиг Витгенштейн. Мы наступаем на те же грабли, но в масштабе огромных дата-центров.
Витгенштейн 1.0: Язык как API к реальности
Молодой Витгенштейн, инженер по образованию, написал «Логико-философский трактат». Его идея была понятна любому программисту: мир состоит из фактов, а язык — это логическая картина этих фактов. Опишем структуру языка — получим карту реальности.
«Границы моего языка означают границы моего мира» — эта цитата стала ТЗ для создателей LLM. Логика Кремниевой долины: если скормить нейросети все тексты человечества, она выучит структуру мира. Мы поверили, что синтаксис порождает семантику. Что если модель идеально предсказывает следующее слово, она понимает суть. Но это мираж: вера в то, что мир упакован в язык.
Почему текущий стек — это тупик? 3 аргумента
Позже Витгенштейн осознал, что его первая теория — мертвая абстракция. В «Философских исследованиях» он выделил три барьера, которые современные LLM не перешагнут.
1. Парадокс следования правилу (Имитация vs Понимание) Витгенштейн спрашивал: что значит «следовать правилу»? Для ИИ это статистический паттерн. Если модель видит «2, 4, 6...», она продолжит «8». Но она делает это не потому, что поняла принцип прогрессии, а потому что этот паттерн наиболее вероятен в обучающей выборке. Разница в том, что человек может применить правило в принципиально новой, никогда не встречавшейся ситуации, опираясь на смысл. Модель же всегда остается в рамках интерполяции прошлого опыта. Она не «взламывает» правила, она им подчиняется.
2. Отсутствие интенциональности (Нет воли — нет смысла) Язык — это не просто генерация знаков, это действие. Витгенштейн называл это «языковыми играми». Когда я говорю «дай ключ», у меня есть воля, цель и ожидаемый результат в реальности. У LLM нет интенциональности. У неё нет желаний, страхов или потребности в коммуникации. Модель генерирует токены, чтобы минимизировать функцию потерь. Это «зомби-язык»: внешне неотличим от человеческого, но внутри — абсолютная пустота. Смысл сообщения рождается только в голове читателя, сама модель не «хочет» ничего сказать. А без воли не бывает субъекта, без субъекта нет AGI.
3. Проблема «заземления» (The Grounding Problem) Это аргумент о теле, но глубже. Слово «больно» имеет смысл не потому, что оно часто стоит рядом со словом «плакать», а потому что оно связано с биологическим опытом. Для ИИ «огонь» — это вектор №4521. Для нас — это тепло, опасность и свет. Язык — это интерфейс к реальности, но LLM подключена к интерфейсу, а не к реальности. Пытаться вырастить интеллект из чистого текста — это как пытаться воссоздать Windows, изучая только трафик в сетевом кабеле. Вы поймете структуру пакетов, но никогда не узнаете, как работает ядро ОС.
Итог: Корпус текста — это кладбище смыслов
Мы путаем языковую компетенцию с мышлением. Язык — это способ архивации опыта, а не сам движок интеллекта. Пытаясь построить AGI на трансформерах, мы строим «карго-культ»: самолет из соломы (токенов), который никогда не взлетит, потому что в нем нет «двигателя» — воли и живого опыта.
AGI на текущем стеке недостижим, потому что мы пытаемся построить «понимание» на фундаменте из чистых знаков. Пока машина не сможет «выйти на улицу и намокнуть под дождем», пока у неё не появятся свои цели и хрупкое существование, она останется лишь великолепным зеркалом.
Границы языка нейросетей — это действительно границы их мира. Но этот мир ограничен текстовым дампом интернета. Там много информации, но нет жизни. Корпорации продают нам «бога в машине», но на самом деле это просто очень сложная и дорогая автозамена.
Как считаете, можно ли эмулировать «волю» через систему вознаграждений (RL), или это будет лишь очередная имитация?
