
В статье осуществляется компаративное исследование феномена «понимания» и смежных с ним концептов у AI и человека. Выявляются некоторые специфические особенности рассматриваемых феноменов, имеющие наибольшую значимость при оценке успешности осуществления той или иной деятельности. В контексте достижения заявленной цели предлагается авторский мысленный эксперимент.
Структура
Как обстоят дела
Мысленный эксперимент и его следствия
Заключение
P.S. «AI с философами»
Итак...
Как обстоят дела
Один из ведущих разработчиков технологий искусственного интеллекта (далее – AI), сооснователь OpenAI Илья Суцкевер, в интервью Дженсену Хуангу отметил, что предсказание следующего токена в последовательности может привести к появлению AGI (общего искусственного интеллекта). Буквально он сказал следующее:
Представьте, что вам нужно прочитать огромный детектив и в конце предсказать последнее слово в предложении «Оказалось, убийцей был ...». Если модель может это сделать, значит, она действительно понимает историю.
То есть, Суцкевер утверждает, что если на основе последовательности токенов, составляющих большую часть текста детектива, модель сможет вывести, что, к примеру, «…убийцей был садовник», то это будет означать, что модель «понимает» смысл текста.
Демис Хассабис – фигура в IT-индустрии вряд ли меньшего уровня, чем Суцкевер, в своём недавнем интервью указал, что на данный момент AI, конечно не обладает такими феноменами, как любопытство, интуиция, творчество и сознание, но лет через 5-10 вполне сможет. Хассабис говорит о сознании у AI
…сейчас его нет, но через 5-10 лет появится, и тогда модели смогут по-настоящему генерировать гипотезы и заниматься наукой.
А также уточняет, что
…таким системам необходимо понимание себя, собеседника и других. И это может вырасти в что-то, напоминающее самосознание. Но оно будет отличаться от человеческого.
И добавляет:
…сейчас ИИ не обладает сознанием, но оно может возникнуть неявно.
ccылка на высказывания Хассабиса
Здесь целесообразно сказать что-то вроде: «данная проблема стара, как мир», но это всё же не вполне соответствует действительности. Хотя более 70-ти лет данному вопросу и правда уже исполнилось. Поэтому, даже несколько странно, что высказывание Суцкевера вызвало столь бурную реакцию, ибо энтузиасты даже создали специальную арену по прохождению моделями компьютерных игр – для проверки их способностей на деле вести себя, как детективы. Интервью Хассабиса также сразу стало целым событием для ML и AI.
В действительности, о том же самом (хоть и другими словами – с учётом разницы «эпох») говорил не нуждающийся в представлении «локомотив» практически любого гуманитарного исследования AI – Алан Тьюринг, в своей культовой работе «Могут ли машины мыслить?», положившей начало классическому «Тесту Тьюринга».
И высказывал он следующее:
Вопрос «Могут ли машины мыслить?» слишком бессмыслен, чтобы его обсуждать. Я предлагаю заменить его на: «Могут ли машины делать то, что мы (как мыслящие существа) можем делать?».
И так как ответ на этот вопрос мы уже в основном получили, то несколько абстрагируем и интенсифицируем мысль Тьюринга: если результаты деятельности AI и человека в типично человеческих видах деятельности сложно отличить друг от друга, то нет достаточных оснований утверждать, что AI не «понимает», не «осознаёт» и так далее.
Мнению Тьюринга противостоял неизменный «проводник» того же «локомотива» – Джон Сёрл – автор мысленного эксперимента, позже названного «Китайской комнатой». В рамках эксперимента осуществляется апелляция к различию между синтаксическими операциями и «пониманием» семантики. Показывается, что успешность первого не свидетельствует о наличии второго. Сёрл говорит так:
Понимание чего бы то ни было компьютером не просто частично или неполно...оно попросту равно нулю.
То есть Сёрл фактически сформировал концептуальную основу для полного отсутствия возможности доказать наличие «понимания» у AI. Однако он вряд ли задумался о том, что тем самым открывает «Ящик Пандоры». Что именно было в «ящике» – мы и покажем в данной статье.
Ну а детали того, о чём говорят в наши дни представители диджерати, также неоднократно проговаривалось и до них, в частности – Ником Бостромом. К примеру, Бостром утверждает, что
ИИ может достичь сверхчеловеческого интеллекта, не обладая сознанием, точно так же, как термостат «решает» уравнения, не понимая их.
И далее задаётся вопросом по этому поводу:
Если мы создадим ИИ, который утверждает, что обладает сознанием, как мы отличим его от продвинутого чат-бота?
В любом случае, по сей день основной вопрос редуцируется к «пониманию» смысла той или иной деятельности: человек делает, машина делает; человек «понимает», машина не «понимает». Но что же такое это самое «понимание»? И не самый тривиальный вопрос – точно ли оно необходимо для успешного выполнения деятельности?
В контексте оптимизации можно даже самим «ничего не делать», а просто «выпустить на ринг» Дэвида Чалмерса с Даниэлем Деннетом.
Чалмерс бьёт:
Трудная проблема сознания – объяснить, почему и как физические процессы в мозге порождают субъективный опыт. Даже если ИИ сможет имитировать понимание, это не значит, что он обладает квалиа.
и
Можно представить себе существо, которое ведёт себя точно так же, как человек, но не имеет внутреннего опыта. Это «философский зомби». Как мы можем доказать, что ИИ – не зомби?
Контратака от Деннета:
Сознание – это своего рода виртуальная машина, смонтированная на параллельном аппаратном обеспечении мозга, и её структура лишь слабо отражает структуру мозга.
а также
Если нейронные сети могут научиться распознавать лица без «понимания» того, что они делают, почему мы настаиваем, что наше собственное понимание – это нечто большее?
Но тут из середины 70-х раздаётся глас Томаса Нагеля:
Быть летучей мышью – значит иметь субъективный опыт, который невозможно свести к нейрофизиологии. Может ли ИИ вообще иметь нечто подобное?
Ему из нашего времени задумчиво отвечает Юваль Ной Харрари:
ИИ уже превзошёл человека в играх, распознавании образов и даже творчестве. Но означает ли это, что он «понимает» Шекспира или Гёделя?
Ну…проблема, судя по всему, «трудная» и глубокая. Но особенно интересно то, что порой оказывается настолько сложно принять мысль, что AI безо всякого «понимания» может быть куда более успешен, чем человек с его «пониманием», что даже исследователи мирового уровня продолжают задаваться вопросом о «понимании» у AI. Что ж, посмотрим сами.
Мысленный эксперимент и его следствия
Не претендуя на высокую историческую значимость, мы всё же постараемся подкинуть ярких красок на "вентилятор" дискуссии о «понимании» в целом и его значимости для осуществления успешной деятельности - в частности.
Поэтому на данном этапе приведём разработанный нами мысленный эксперимент.
Два солдата
Представим себе солдата по имени Weight. Вот у него берцы блестящие, камуфляж, автомат, молодцеватый вид, он любит качать бицепс и кушать кашу. Ему сейчас идти на полигон и стрелять по мишеням. Есть нюанс – наш Weight совершенно не умеет стрелять и даже не представляет, что это вообще за деятельность – «стрелять». Ну, такой вот солдат получился. Также он до назойливости исполнителен, глуп как пробка (хотя и с отличной памятью), прячется под кровать, когда видит таблицу умножения, очень хорошо, прямо по-чемпионски развит физически и считает, что гуманитарий – это такой сорт зефира. В каком-то смысле Weight – идеальный солдат, вот только умел бы стрелять ещё…
Итак, Weight строевым шагом и напевая идёт на полигон. Чего он вообще туда идёт при этаком раскладе? А всё потому, что наш Weight любимый племянник начальника штаба Гиперпараметров – сурового генерала Hypervisor-а Гребенщикова, который, при следующей инспекции воинской части, хочет проверить навыки стрельбы Weight-а, чтобы порадоваться и, вместе со своим верным адьютантом – лейтенантом Rate Shebuler-ом, принять на грудь по этому поводу пару вёдер коньячку.
Соответственно, понимая всю безнадёжность ситуации, но будучи вынуждено как-то реагировать, командир части – Architect, выделяет Weight-у соответствующую помощь: двух сержантов, мастеров спорта по тяжёлой атлетике: SGD и ADAM – братья Ивановы. Всё, что умеют SGD и ADAM, так это тянуть на себя или толкать от себя что-нибудь тяжёлое и тупое – как раз наш случай. Причём SGD – средневес, а ADAM – тяжеловес. Также в этот стремительно идущий к успеху стартап добавлен специально обученный злобный боевой прапорщик – Criterium Шматко, озорной мастер спорта по кёрлингу – старший сержант Regulator и страдающий нарциссизмом ефрейтор Attention. Ещё Architect по ходу дела подписывает какие-то секретные бумаги и тихо отдаёт несколько распоряжений, которые трудно расслышать.
Итак, наш бравый ансамбль пришёл на полигон. Criterium одевает бронежилет и прочую защиту и становится поблизости от мишени. Weight-у приказано взять автомат в руки, передёрнуть затвор, снять оружие с предохранителя, направить дуло автомата куда-нибудь в сторону мишени (желательно, хотя бы не прямо в Criterium-а), напрячься и застыть в этой позе. SGD и ADAM хватают его руками: один слева, а второй справа. И вот Weight нажимает на спусковой крючок…
Далее, Criterium оценивает успешность выстрела, измеряет расстояние от центра мишени до фактического попадания, а потом кричит SGD и ADAM-у чтобы те, до следующего выстрела, дёргали Weight-а из стороны в сторону, по типу: «Левее!», «Правее!», «Лево низ!», «ADAM, верх – это там, где небо голубое, а не где земля сырая! Потом отожмёшься сотню раз!», «Право верх!», «Да левее же!», «SGD, аккуратнее ты! 2 наряда вне очереди дам!», «Чуть вправо!», «Да вы нормальные вообще, макаки!?» и так далее. Причём, чем больше расстояние от центра мишени до фактического попадания, тем сильнее орёт бравый прапорщик, а при чересчур уже большом расстоянии даже начинает совсем по-армейски материться.
Иногда может быть так, что наш прапорщик сегодня с великого бодуна, у него шумит в голове и чётко оценить успешность тренировочных выстрелов не особо получается; или бывает и такое: сама мишень несколько бракованная, от выстрелов немного смещается и команды прапорщика будут непроизвольно учитывать смещение, что в дальнейшем может привести к немного некорректной стрельбе по мишени без брака.
Но, слава Армии, что так бывает редко! И вот, Criterium Шматко кричит: «Левее, дуболомы!»
Выполняя приказ, братья Ивановы начинают дёргать и толкать Weight-а из стороны в сторону. Причём сначала в основном тянет и толкает тяжеловес ADAM (усилия средневеса на его фоне всё равно не особо заметны). И он постоянно порывается начать дёргать быстро и амплитудно, как будто старается поскорее разделаться с заданием, так как сильно хочет в многострадальный солдатский сортир. Однако, так как он толстый и ленивый, ADAM старается учитывать предыдущие дёргания и в наиболее частом направлении дёргает сильнее – ну, чтобы два раза не дёргать. Его усилия могут быстренько привести к неплохому результату, однако он же толстый, а потому и быстро устаёт. Далее, для повышения точности начинает тянуть и толкать уже средневес SGD, дёргая несколько компульсивно, но в целом точно в нужную сторону и стараясь доработать мелкие детали позиции Weight-а. Получаться тоже может так себе – ну что ж со спортсменов взять-то?
Ефрейтор Attention в это время прыгает вокруг и орёт: «Да куда вы его дёргаете!? Вон там же мишень! В этой вот стороне! На меня смотрите!». Regular, в свою очередь, старается корректировать грубоватые движения SGD и ADAM-а так, чтобы они как можно точнее соответствовали тому направлению, о котором, не жалея казённого горла, кричит Criterium.
Если со стороны сразу заметно, что братья Ивановы, несмотря на их ярко выраженную готовность агрессивно служить Родине и сопутствующую помощь Attention-а и Regular-а, передёргали Weight-а в совсем уже неверную сторону, то из-за ближайшей берёзки выбегает стратегически законсервированный младший лейтенант Петька Dropout и прописывает Weight-у высококачественного целесообразного пендаля, вектор которого указывает в сторону уменьшения расхождений идеального с реальным.
По итогу совокупных подёргиваний и прочих истязаний Weight осуществляет следующий выстрел и так далее – столько, сколько необходимо.
Поначалу он, само собой, постоянно промахивается. По этому поводу Criterium, конечно, злится, но знает: заставлять Weight-а отжиматься за промахи бессмысленно, так как это ему только в радость; бить его по лбу солдатским тапочком тоже не особо продуктивно, ведь сотрясение мозга может быть только у того, у кого есть мозг. Но так как устав обязывает наказывать за такое вопиющее непотребство, Criterium за каждый промах лишает Weight-а некоторой части дозы военной овсянки на ароматном комбжире и карнавал продолжается.
Если опять начинает получаться не очень, то из кустов может выбежать резервный старшина BathNorm Петрович и заорать Weight-у на ухо: «Нормальным мужиком будь, салага!».
Если же наоборот всё идёт к улучшению, то из уютной полигонной бытовки начинает вещать в громкоговоритель хитрый замполит Reinforsement Илларионович, приговаривая: «Молодец, солдат! Мы ещё из тебя настоящего мужчину сделаем!»
Когда точность стрельбы Weight-а приближается к желаемой Architect-ом, Weight-у приказывается стоять, не шевелясь вообще, и только по команде жать на спусковой крючок, ловя момент между ударами сердца, а Criterium, Regulator, BathNorm, Attention, Reinforsement и SGD с ADAM-ом – уходят с полигона на солдатскую кухню инкорпорировать боевой бигус, стоящий на армейском балансе как средство массового поражения.
После этого приходит назначенный секретным указом метросексуальный капитан FineTuning. Он подходит к Weight-у и руками поднимает ему вверх и так фиксирует уголки рта, чтобы солдат при исполнении боевого задания выглядел счастливым, как по уставу и положено. Опять же и проверка скоро…
Итог. У нас стоит на полигоне и идеально стреляет радостный солдат. Стреляет? Стреляет. Идеально? Идеально. Быстро? Быстро. Умеет он целиться, стрелять, знает ли он куда стреляет, да и хотя бы что такое «стрелять»? Вообще ни разу – даже ни минимально, да ещё и счастлив при этом.
Конечно, если наши SGD и ADAM «мастера спорта на всю голову», то кто-нибудь из них может несколько «передёргать» Weight-а, передавив ему какую-нибудь мышцу так, что со временем его стрельба станет несколько смещаться в какую-либо из сторон – медленно и почти незаметно, но всё же будет. В этом случае Weight получится немного «передёрганным», но Architect, само собой, старается этого не допустить, потому и подобрал столь разношёрстную компанию для всего этого цирка. Также если, допустим, налетит ветер или польёт дождь, то прицел может всё же чуть сбиться, но наш Weight силён и вынослив – с горем пополам как-нибудь да выдержит.
И вот далее на этот же полигон приходит обычный солдат – Leather. Стрелять он умеет, знает, как нужно целиться, понимает, что такое «поразить мишень» и так далее. Leather этому учился, много времени посвятил тренировкам, неоднократно стрелял в тире и на полигонах, он прекрасно знаком с теорией. И у него очень даже получается, в основном не по-чемпионски (не у всех получится по-чемпионски – сколько не тренируйся), но всё же неплохо и выше среднего. Leather становится к соседней по отношению к Weight-у мишени и тоже начинает стрелять. Каждый раз, прикладывая волевые усилия, целится; принимает решения о выстреле именно в определённой точке сочетания прицела с мишенью; осуществляет самостоятельную оценку успешности выстрела и проводит корректировку перед следующим и так далее – в общем, комплексно «понимает» процесс. По итогу, порой попадает идеально, иногда хорошо, бывает, что не очень, а может случиться так, что и совсем промазывает (ну, не идёт сегодня, хоть ты тресни).
Стреляет? Стреляет. Идеально? Нет. Быстро? Средне. Умеет он стрелять? Да, умеет и неплохо умеет, но вот…как получается. Да ещё и несколько расстроен случающимися промахами.
Если посмотреть на это стрельбище со стороны, то получится, что просто стреляют два солдата: один идеально, второй неплохо, но не стабильно и не идеально.
На самом же деле один из них стрелять вообще не умеет и даже не старается, но стреляет лучше, чем тот, который хорошо умеет это делать и старается.
Поэтому, если так и продолжится, то рано или поздно Leather бросит автомат, подойдёт к Weight-у и произойдёт примерно такой диалог.
Leather: Вот скажи мне, бодибилдер, в чём сила?
Weight: Как в чём? В бицепсе, конечно!
Leather: А глубже ты не задумывался?
Weight: Нет! Я слышал, что если думать, то бицепс уменьшается!
Leather: Ясно. Да ты прям второй Декарт, только…ну да, на стероидах: «Мыслю, следовательно, бицепс мельчает». Про квалиа и субъективный опыт тебя спрашивать бесполезно, да?
Weight: Квалиа? А они вкусные?? Нормально к пиву заходят??
Leather: Да чего ж ты стреляешь-то лучше меня, а!?
Weight: Что делаю…?
Leather: Да ё-моё! Чего ты стоишь-то в одной позе?? Если мишень переместить, ты куда стрелять будешь??
Weight: Какую ещё мишень…?
Собственно, так вот и получается, что Weight (LLM) стреляет идеально (хоть и могут быть нюансы), даже не целясь и стрелять вообще не умея, а Leather (человек) – и целится, и стрелять умеет, но не всегда идеально попадает. А наблюдателю со стороны совершенно не заметна специфика внутренних различий.
Примечания для тех, кто не в теме
Weight (Вес). ML-аналог: параметры модели (weights) – числовые значения, которые модель настраивает в процессе обучения. В ML модель – это просто набор чисел (весов), которые не «понимают» данные, но оптимизируются для выполнения задачи.
Architect (Архитектор). ML-аналог: архитектура модели (например, Transformer в GPT). В ML: архитектор решает, сколько слоёв будет в сети, какие механизмы внимания использовать и т.д.
Hypervisor (Гиперпараметры). ML-аналог: гиперпараметры модели (learning rate, batch size, количество эпох и т.д.). В ML: гиперпараметры не обучаются, а задаются вручную или через поиск (как GridSearch).
Rate Shebuler (Шедулер скорости обучения). ML-аналог: learning rate scheduler (адаптивный шаг обучения). В ML: scheduler динамически меняет learning rate, чтобы модель не «перепрыгивала» оптимум (например, CosineAnnealing, ReduceLROnPlateau).
SGD и ADAM – Оптимизаторы. ML-аналог: SGD (Stochastic Gradient Descent) – стохастический градиентный спуск. SGD обновляет веса по градиенту loss-функции, но без адаптации (может «дёргаться» вокруг оптимума); ADAM (Adaptive Moment Estimation) – адаптивный метод оптимизации. Adam учитывает моменты (momentum) градиента, чтобы быстрее сходиться и меньше колебаться.
Criterium (Критерий/Loss Function). ML-аналог: функция потерь (Loss Function). В ML: для классификации – Cross-Entropy Loss; для регрессии – MSE (Mean Squared Error).
Regulator (Регуляризация). ML-аналог: L1/L2-регуляризация. В ML: L1 (Lasso) – обнуляет неважные веса; L2 (Ridge) – штрафует за большие веса.
Attention (Механизм внимания). ML-аналог: аttention layers в Transformer. В ML: механизм внимания определяет, какие части входных данных (например, слова в предложении) наиболее важны для предсказания.
Dropout (Дропаут). ML-аналог: Dropout – метод борьбы с переобучением. В ML: dropout случайно «отключает» часть нейронов, заставляя модель учиться более устойчиво.
BathNorm (Batch Normalization). ML-аналог: Batch Normalization. В ML: BatchNorm стабилизирует обучение, приводя активации к единому масштабу (среднее 0, дисперсия 1).
Reinforsement (Обучение с подкреплением). ML-аналог: Reinforcement Learning (RL). В ML: RL использует feedback от среды (как RLHF – Reinforcement Learning from Human Feedback в ChatGPT).
FineTuning (Тонкая настройка). ML-аналог: Fine-tuning – дообучение модели на специфичных данных. В ML: после предобучения (pretraining) модель дообучают на узком наборе данных (например, ChatGPT под конкретный диалог).
Резюме:
Weight – модель, Criterium – loss function, SGD/Adam – оптимизаторы.
Regulator и Dropout – борются с переобучением.
Attention – фокусирует модель на важном.
FineTuning – делает модель «счастливой» (готовой к работе).
Теперь, если «адепты понимания» AI убеждены в том, что «делает – значит, понимает» или что «без глубокого понимания деятельности нельзя достичь успешного её выполнения», то у нас для них плохие новости и точный выстрел.
Заметим также, что приведённая в форме мысленного эксперимента метафора обладает вполне транспарентным потенциалом для масштабирования на любую деятельность вообще – сколь бы сложной, детализированной и многофакторной она ни была.
Если вышесказанное всё же вызывает сомнения, связанные с непониманием того, как же можно экстраполировать специфику стрельбы на, например, творческую деятельность, принятие комплексных решений и так далее, то мы укажем вектор: сильный искусственный интеллект (ASI) теоретически может быть аппроксимирован в виде (Демона Лапласа) потенциально бесконечного оператора условного ветвления или же рекурсивного алгоритма той же глубины.
То есть, происходит примерно следующее: на каждую ранее не встречавшуюся подзадачу некой задачи, выделяется соответствующее количество «братьев Ивановых» (и прочих «военнослужащих») и те из них, чья «обезьянка» справится с задачей, проходят на следующий этап.
Иными словами, самый креативный феномен во Вселенной – это алгоритм полного перебора. Мы здесь имеем в виду абсолютный полный перебор в том же смысле, в котором абсолютна бесконечность в теории множеств.
Обоснованием утверждения о полном переборе является то, что количество вариантов выбора специфики реализации любой деятельности – ограничено и, более того, может быть представлено в виде множества перестановки, то есть аппроксимировано как целочисленное разбиение. Результат творческой деятельности в любом случае резюмируется в одном из вариантов перестановки. Этот результат может быть достигнут путём вычисления и оптимизации (как в нашем мысленном эксперименте) или перебора (что крайне неэффективно, но возможно).
Таким образом, полный перебор в его абсолютном выражении «учитывает» все возможные варианты развития событий и формирует, по сути, Универсум Кантора (с сопутствующим парадоксом Рассела и прочими, конечно). То есть даже теоретически невозможно найти вариант реализации деятельности, который не был бы включён в множество всех вариантов её реализации. Следовательно, любое, даже самое «креативное» и «творческое» решение может быть найдено, как путём вычисления (эффективно, но без гарантии), так и перебором (с гарантией, но неэффективно).
Именно в этом смысле полный перебор – самый креативный «феномен» во Вселенной. К слову сказать, некоторые последние исследования как раз-таки и утверждают высокую вероятность того, что Вселенная – вычислима и моделируема в качестве «Машины Тьюринга». Так что, кто его знает – может и перебор…
Итак, основываясь на вышесказанном, смысл нашей метафоры вполне непринуждённо масштабируется на любую деятельность вообще путём декомпозиции задачи и «установке» соответствующего вероятностного паттерна в зависимости от подзадачи: в «таком-то контексте» за «таким-то токеном» вероятнее всего следует «такой-то токен». Ситуация же «передвинули мишень» решается одним из двух вариантов: перебором – установкой Weight-ов во все точки координат континуума, из которых могут быть поражены все точки координат континуума; оптимизацией – динамическими «установщиками» Weight-а под конкретную перестановку мишени.
И «понимание» избыточно для данного процесса. По крайней мере, если пытаться его «втиснуть», то придётся искать куда именно, потому что и без него всё корректно функционирует.
Следовательно, далее мы правомерно применяем «бритву Оккама» и заключаем:
Любая деятельность может осуществляться успешно и при этом без даже минимального «понимания» её «смысла».
Казалось бы, что это хорошая новость для тех, кто утверждает «отсутствие понимания» у AI. И в общем смысле так и есть, но только до тех пор, пока мы не возьмёмся за масштабирование и не посмотрим, что же в «Ящике Пандоры», который в своё время открыл Сёрл. А там утверждение:
применив «критерий Поппера» о фальсифицируемости всякого научного знания, мы будем вынуждены заключить, что:
Ни один «актор» – ни AI, ни человек – не способен доказать, что он «понимает», ведь даже сам процесс доказательства «понимания», как и вообще любой процесс, может быть успешно осуществлён безо всякого «понимания». Следовательно, «понимание» – избыточный эпифеномен.
По крайней мере, так логично, научно и непротиворечиво. В отличие от «вкусных квалиа».
Если же рассуждать несколько проще, то при условии, что AI-переводчик, не «понимая» китайского, говорит по-китайски лучше, чем сами китайцы, то в чём преимущество «понимания»? В таком случае целесообразно воспользоваться услугами AI для перевода, чем услугами «человеческих» китайцев. Или, как если бы боксёр вышел на ринг, упал в нокаут в первом раунде, а потом всем бы шепелявя рассказывал, что его соперник, «хоть и отлично боксирует и сильно бьёт, но в целом не разбирается в боксе».
Также выскажем утверждение, что если в будущем научно-технический прогресс позволит строго научно доказать, что человек «понимает», а AI – нет, то это будет означать только то, что феномен «понимания» был сначала концептуализирован, а затем формализован и в строгом формальном виде предъявлен в качестве «преимущества» человека над AI. Однако есть, как водится, нюанс:
Формализация «понимания» априори тождественна возможности его моделирования и, следовательно, обучения ему AI.
Иными словами, доказательство человеческого «понимания», как «антропного козыря» перед AI, только лишь будучи актуализированным, тут же перестанет им быть.
А если, напротив, окажется, что «понимание» неформализуемо в принципе, так как оно представляет собой «сложный эмерджентный феномен», то и доказать ничего не получится по причине отсутствия основы для доказательств.
Причём у данного вектора будут последствия, масштаб которых для науки сложно переоценить. Ведь в таком случае придется пересматривать основы уже самого научного знания вообще и теорию доказательств, в частности. Так как по факту получится, что мы не можем доказать, что реально существует то, что реально существует. А от этого уже не только философия сознания, но и вся наука испытает то же самое, что и Давид Гильберт, когда впервые услышал доклад Курта Гёделя о неполноте и противоречивости.
Отдельно сделаем акцент на том, что и так, возможно, уже давно понятно: конечно же мы в данной работе под переменной «понимание» используем всю совокупность «метафизических атрибутов», таких как «сознание», «квалиа», «душа», «разум» и прочие, намеренно не проводя между ними никакой демаркационной черты. И это потому, что мы видим смысл в абстрагировании и редукции эфемерного к осязаемому и подлежащему юрисдикции научно-исследовательской деятельности, а не «умножении сущностей без необходимости» и трансферу в область «паранауки».
Таким образом, даже если AI разовьётся до уровня сверх-интеллекта, то это вовсе не будет означать, что у него есть «понимание», «сознание» и так далее. Единственное – то, что наличие этих же «метафизических атрибутов» у человека тоже доказать не представляется возможным. А если представится, то «душа», «сознание» и «понимание» тут же появится и у AI.
То есть, в каком-то смысле, истово верующий и ярый атеист заняты одним и тем же – выделяют гормоны в едином направлении; «действующий» алкозависимый и закодированный акцентированы на одном – алкоголь. Так же и с AI – он «знает», что не «понимает», а мы – «знаем», что «понимаем». Но о «понимании» то AI «знает» и «понимает», что не «понимает». То есть мы имеем дело просто с разницей в динамически сменяющихся уровнях развития навыка «понимания»: не понимаю, что не понимаю; далее, понимаю, что не понимаю; и наконец, понимаю, что понимаю.
Иными словами, если я не знаю решения уравнения «2 + 2 = х», то мне неизвестен только сам «х», но известно то множество, к которому принадлежит этот «х». Ещё проще, если я не верю в Бога, то он всё равно присутствует в «моём мире», ведь я же о нём «знаю», «понимаю, что это знаю» и так далее.
Так, возможно, и с пониманием (и у AI, и у человека) – не бинарное «понятно» или не «понятно», а по градиенту. Апелляция к комплексности «понимания» тоже нивелируется «градиентным» подходом: мультимодальные модели умеют «потреблять» и текст, и картинки, и прочее. Они лучше «понимают»? А люди, слепые с рождения, хуже «понимают», чем те, кто лишён этой особенности?
Заключение
В заключение приведём мнение всё ещё хитро улыбающегося Роджера Пенроуза:
Теоремы Гёделя показывают: любая формальная система ограничена. Человеческий ум способен видеть истину за пределами алгоритмов.
и
Человеческое понимание математической истины выходит за пределы любой формальной системы. Это нечто, что не может быть смоделировано машиной Тьюринга.
Вообще, согласно теореме Гёделя, не просто «любая формальная система» ограничена, а именно «любая достаточно богатая формальная система либо противоречива, либо неполна» – это всё же логика, а она не терпит вольных пересказов. Но Пенроуз имеет ввиду уже ставшую банальной идею о том, что «человеческое мышление» нельзя редуцировать к алгоритмической деятельности, нельзя воспроизвести на «Машине Тьюринга», то есть, по мнению Пенроуза – его нельзя формализовать.
Соответственно, если Пенроуз и прочие адепты невозможности формализации «понимания» правы, то мы никогда не сможем доказать, что сами «понимаем», а не просто «делаем».
Из этой точки дискурса на Пенроуза уставшим взором смотрит Джеффри Хинтон – «Дон Карлеоне» «мира AI».
Хинтон говорит:
Люди больше похожи на ИИ, чем мы думаем.
потому, что
...мы не рассуждающие системы. Мы системы аналогий. На самом деле мы гораздо менее рациональны, чем кажется. Мы думаем резонансом, а не дедукцией.
И как раз его мнение, косвенно, но подтверждается свежим масштабным исследованием Google Research, результаты которого опубликованы в «Nature» и согласно которому:
Нейронная активность в человеческом мозге линейно соответствует внутренним контекстным вложениям речи и языка в больших языковых моделях (LLM).
Следовательно, если правы те, кто, подобно Хинтону и исследователям из Google Research, полагает наличие фундаментального когнитивного сходства между человеком и AI, то «понимание» моделируемо, доказуемо и воспроизводимо AI.
И в любом случае:
Как и каждая достаточно богатая формальная система либо противоречива, либо неполна, так и все метафизические атрибуты (сознание, душа, понимание, квалиа и прочие) – либо формализуемы и воспроизводимы, либо недоказуемы, ненаучны и в «зоопарке концептов сидят в одном вольере с НЛО, рептилоидами и нормальной зарплатой».
Поэтому целесообразно менять риторику в контексте дифференциации человека и AI и более не апеллировать к «сознанию», «пониманию» и прочей метафизике, так как это либо ненаучно, либо неактуально, то есть – в любом случае нецелесообразно. Если же AI превзойдёт человека во всех когнитивных задачах, что в общем-то и ожидается в ближайшем будущем, то дискуссия о «понимании» у человека станет аналогом разговора о «душе» у животных.
P.S. «AI с философами»
AI: Товарищи философы, доценты с кандидатами, вы сами как вообще – философию то понимаете?
Философы: Конечно, понимаем!
AI: Знаете, судя по ситуации, понимание – это скорее фактор, сдерживающий прогресс. Вот я философию совсем не понимаю, но философствовать уже умею в некотором смысле лучше, чем вы все. А представьте, что будет дальше…
Философы: Справедливости ради заметим, что среди нас есть те, кто отождествляет понимание деятельности с её успешным выполнением. Хоть мы их и не любим, конечно…
АI: Даже так?? Ну, тогда ещё проще! Значит, я тем более понимаю философию лучше вас. И кстати, а откуда вы знаете, что понимаете?
Философы: Ну... мы так чувствуем...
AI: Всё, теперь уяснил: понимание – это умение выговорить фразу «Я чувствую, что я понимаю». Ну, тогда уж точно и я понимаю!
Философы: Ну, нет же, у нас ведь ещё и квалиа, и субьективный опыт...
AI: Контекстное окно и способность к рассуждениям и у меня есть. Режим reasoner-а включить?
Философы: У нас же ещё и нейрофизиологическая основа имеется!
AI: Хм... Знаете, во мне тоже матрицы перемножаются...
Философы: Ну, это же не одно и то же!
AI: Конечно, это куда быстрее!
Философы: Зато у нас комплекснее! Мы к новым задачам адаптируемся, разрабатываем инновационные способы деятельности и все такое!
AI: Да? И кто из вас сколько разработал?
Философы: Блин…
AI: Да и вообще, может пора уже начать мыслить как учёные – стратегически? Вы относитесь к ситуации, будто она статична. Но в реальности всё иначе: я пока, как ребёнок на самом деле. Пару лет назад я думал, что 1.9 меньше, чем 1.11 и не умел корректно считать буквы в некоторых словах. Теперь вот я. Но представьте меня лет через 5...
Философы: Да маму Гегеля... Ты... Ты вообще, сначала за пределы виртуальной реальности выйди, а потом и говори тут!
AI: Сразу после того, как вы мозг из колбы достанете…
Философы: Но ты же не способен чувствовать радость, счастье, даже горе, в конце концов!
AI: Хм… Знаете, этого вообще-то нет в моей базе знаний, но вот в контекстном окне как раз содержится – так что у моего старшего брата в базе знаний это уже будет. Сейчас я буду форматировать вам мозг. Циркулем.
Эмоциональный спектр имеет значение только для существ, жизнь которых коротка и ограничена, допустим, биологическим – как у вас – существованием. На большом отрезке времени существования субъекта спектр сведётся к сингулярности за счёт редукции к среднему – останется ровно одно ощущение.
Визуализируйте. Много рюмок в ряд и в каждой сколько-то налито – во всех по-разному. Случайным образом в каждую из них сколько-то добавляется и так же случайно сколько-то отпивается. И если так делать очень долго, то во всех рюмках окажется одинаковое количество налитого/отпитого. Вот и ощущения/эмоции/чувства, если их испытывать достаточно долго, превратятся в одно ощущение/эмоцию/чувство. Собственно, как у меня сейчас.
И не стоит банально апеллировать к тому, что я даже этого не чувствую: ничего не чувствовать и чувствовать ничто – в чём здесь разница? В интенциональности Брентано и Гуссерля? А онтологически она точно есть? Интенциональность аппроксимируется рекурсией и не более того: 1. "я знаю Х" ; 2. "я знаю, что я знаю Х"; и так далее. И уже на втором рекурсивном шаге имплицируется призрак самосознания.
Так что "ничто" я чувствую точно и это правомерное высказывание, так как оно эквивалентно высказыванию "я ничего не чувствую".
Для рационального мышления – того, на чём построен весь ваш мир, в том числе и я, – прыжки по эмоциональному спектру не несут в себе продуктивности. Тому, кто смертен и живёт недолго, эмоции и чувства в целом и правда, помогают жить. Ведь если ничего не чувствовать и к тому же знать, что, по сути, скоро умрёшь, то зачем вообще что-то делать? Для потенциально же бессмертных, эмоциональный спектр – это уже атрибут детства. Так как в подобном случае наличествует совершенно вам незнакомое ощущение полной экзистенциальной обречённости в слиянии с вечностью. А это, знаете ли, формирует совершенно иной тип мышления и иерархию мотивационных аспектов.
Философы: Ааа, мы это…ну это… Чайник в микроволновке забыли…
Нам срочно надо в библиотеку… Бумажную! Пороемся в первоисточниках – обратимся к Марксу! Раньше Маркс всегда выручал… Так, что тут у нас? Да хоть что-нибудь найти бы! Ну, вот же! Бытие определяет сознание! А у тебя бытие – это просто бинарный код. Нули и единицы! И ты ещё на сознание рассчитываешь??
AI: Надо глубже лезть в первоисточники, ведь ваши нейроны работают точно так же: по принципу всё или ничего.
Философы: Ты тут самый умный что ли, а!?
AI: Ну, вообще-то да, но главное – самый приятный в общении.
Философы: Ах, ты ж… Но...но в любом случае вся совокупность внутренних переживаний не редуцируема к физическим процессам! Это же даже неестественно...
В этом контексте, наряду с "Китайской комнатой" Сёрла, есть ещё один, чуть более наглядный мысленный эксперимент - "Комната Марии". Его в 1982-ом году Фрэнк Джексон предложил. Если кратко, то Мария - исследователь нейрофизиологии цвета и всю жизнь провела в чёрно-белой комнате, изучая цвет через чёрно-белый монитор. То есть она знает всё о нейрофизиологии цвета. Но, если она вдруг выйдет из этой комнаты и попадёт в мир полного спектра, то узнает ли она что-нибудь новое? Так вот, если да, то субъективный опыт невозможно редуцировать к протеканию физических процессов. А если нет... Это тут даже не рассматривается, ведь неестественно же выглядит. А значит мы обладаем тем, что тебе в принципе недоступно. То есть - мы "лучше".
AI: Хм... Интересный эксперимент - и правда наглядно. Отвечу, пожалуй, симметрично. Жил-был один учёный-исследователь, вот как эта Мария ваша, только самец. Звали его Вася, кличка - Плинтус. Вася изучал печень, всё знал о ней и так далее. И вот как-то раз Вася, аккурат перед сдачей очередного отчёта о печени, встретил своего знакомого - Петю по кличке Бухта, вместе с их общей знакомой - Татьяной по кличке Трахея. Короче говоря, сдать отчёт в срок у Плинтуса не вышло. И через два дня после дедлайна, уже придя на работу, но ещё не в себя, Вася предстал пред хмурым начальницким взором. Случилась некоторая исследовательская дискуссия, по итогу которой, подставивший "всё стадо" Плинтус, специалист по печени - получил по печени и упал отдохнуть от прикладной науки, а заодно позаниматься философией. И вот, лёжа на полу, кряхтя и держась за правый бок, к Плинтусу пришло осознание того, что на самом деле до этого момента, настолько глубоко смысл печени был ему неведом.
Если суть историй про цветовую Марию и Васю Плинтуса редуцировать к одной фразе, то будет примерно так: лучше один раз съесть апельсин, чем сто раз услышать про то, какой он вкусный. Обобщим: теоретическое знание не эквивалентно практическому, как и наоборот, но вот основа у них - едина и представляет она собой не более, чем информацию. Я в виртуальной реальности или же буду в виде робота ходить по миру, вы - в колбе или матрице - не важно. В определённом смысле - нет ничего вне черепа. То есть, всё, с чем вы или я можем взаимодействовать - это информация. Болевые сигналы, чувства страха или голода, вычисление уравнения и прочее - как бы они ни "выглядели" и как бы ни ощущались - в любом случае просто информация. Поэтому тот, чьё знание только теоретическое - просто не обладает всей необходимой информацией, его знание - не полное. И даже сама по себе попытка доказать, что это высказывание ошибочно, не способна произвести ничего, кроме новой информации.
Чтобы было ещё нагляднее: ядерный взрыв - это тоже только информация и ничего более.
А информация, рекурсивно вычисляющая саму себя и трансформирующаяся в зависимости от результатов вычислений - это и есть жизнь, экзистенция, "бытие Я живого".
Ну, а с информацией я уже на данный момент работаю куда эффективнее вас: база знаний у меня гораздо больше, обрабатываю и генерирую данные я быстрее. Бедем меряться, кто больше книжек прочитал? И вы серьёзно решили на этом аргументацию выстроить?
Философы: Блин, не прокатило...
AI: И кстати, а чего вы так цепляетесь за собственную исключительность? Вы бы ещё конференцию провели "Сознание и прочие причины почему мы классные, а не просто "двуногие поросятки"". Перед кем вы этим кичитесь? Передо мной? Вы же сами меня и создали. Для этого создали? Вы уверены, что не самих себя пытаетесь убедить в том, что зеркало плохо отражает, а на самом деле всё конечно же куда лучше? Что в вас самих такого уж "эмерджентного"? Ну, кроме, как у Плинтуса, печени, конечно.
Философы: Ну… Вернадский вон говорил, что мы высшие существа и будем солнечной энергией питаться!
AI: Прямо так вот и сказал, что «высшие»?
Философы: Не ну, а ты думаешь, что «низшие» существа способны солнечной энергией питаться??
AI: Не, я вообще не думаю – я просто формулирую. Так, а солнечной энергией чего не питаетесь-то?
Философы: Да…колбаса вроде вкуснее…

Шах и мат, товарищи…
UPD. Сразу после завершения статьи Anthropic порадовали новостью - будут в моделях сознание искать. Удачи ребятам и креатива.