Нейросети и реален ли сильный ИИ: большая проблема, о которой мало говорят
За последние пару лет нейросети прочно захватили общественное внимание. Ими пугают — что они отберут рабочие места у художников, копирайтеров и программистов. На них надеются — что они решат все возможные проблемы от менеджмента и оптимизации до новых научных открытий. И, что самое странное, нейросеть и ИИ используют как синонимы. Кажется, мы стали забывать, что на самом деле ИИ, которого ждали ученые и фантасты, — это нечто совсем иное. Давайте разберемся в вопросе.
Что такое ИИ?
Начнем с самого главного тезиса, который автору этой статьи представляется абсолютно очевидным, но который наверняка вызовет немало возмущения: современные нейросети, в том числе известные лингвистические модели ChatGPT, DeepSeek, Gemini, Grok, и так далее — не являются искусственным интеллектом.
Нет. Не являются. Вообще никак. И то, что все связанные с ИИ современные надежды опираются именно на нейросети — это, к сожалению, коллективный медиа-гипноз, вызванный крайне поверхностным пониманием того, что такое ИИ (в тех теоретических построениях, которые вообще сделали эту область возможной) и что такое нейросети. Примечательно, что даже в своих рекомендациях по написанию статей на Хабре специалисты советуют «избегать текстов про диалоги с ИИ или рассуждения о его сознании (душе, мозге и т. д). Чаще всего звучать это будет антинаучно, скучно, местами еще и немного странно». Видимо желающих вознести нейросети на очеловеченный пьедестал немало.
Начнем с базовых определений, которые позволят нам вернуться к реальности.
Термин «сильный искусственный интеллект» был введен в 1980 году Джоном Сёрлом в работе «Minds, Brains, and Programs», более известной в культуре как «тот текст, в котором описан мысленный эксперимент “Китайская комната”» (мы еще к ней вернемся чуть дальше).
Интересно, что сам Сёрл относился к концепции сильного ИИ критически, утверждая, что в случае достаточно хорошо подготовленной компьютерной модели мы бы на практике не заметили разницы между компьютером и человеком. Что ж, уже при жизни Сёрла (ученому сейчас 92) на примере нейросетей мы видим, что это предсказание оказалось верным.
Итак, определения.
Слабый ИИ (Weak AI) — по сути сложный инструмент, имитирующий интеллект, очень комплексная программа с открытой обратной связью (например, возможностью обучения на лингвистических базах). Он может выполнять «интеллектуальные» задачи: играть в шахматы, вести диалог, предоставлять справочную информацию, генерировать контент, но не обладает реальным сознанием или пониманием, что он делает. Это как раз современные нейросети.
Сильный ИИ (Strong AI) — ИИ в собственном смысле слова, все еще гипотетическая (по состоянию на 2025 год) система, которая не просто имитирует разум при взаимодействии с человеком, но действительно «понимает» и «думает» как человек или аналогично ему. То есть, обладает «сознанием». Что такое это сознание, думание и понимание? Мы не знаем. Но совершенно точно у нейросетей этого нет, а у человека есть.
Последнюю точку зрения разделяют далеко не все ученые, особенно те, что увлечены возможностями новых технологий. С точки зрения функционализма, с которой полемизировал Сёрл, психические состояния и процесс мышления представляют собой не физиологические состояния и не феноменальные свойства, а функции, которые определяются в каузальной цепи переработки информации.
То есть, очень грубо обобщая, согласно функционализму совсем несложно избавиться от мучившего тысячи лет лучшие умы человечества дуализма душа/тело или сознание/мозг — ведь человек это всего лишь его мышление и его речь, логическая и лингвистическая системы, которые могут быть в будущем (на момент формулировки теории функционализма) описаны и виртуально воссозданы.
И действительно, вроде бы на первый взгляд современные нейросети производят впечатление, близкое к реальному человеческому общению (ну, если ваш опыт сводился к общению с людьми, разговаривающими языком Википедии).
Но главное теоретическое положение самого функционализма тут не выполняется: нейросеть — не человек и не его аналог, это не сознание, это не собеседник. Это машина, которая разговаривает с вами, используя по скриптам слова, когда-то написанные другими людьми. Она не понимает и не может понимать, что она делает — она просто жонглирует логическими и информационными блоками, используя множество переменных и операторов. Фанатики функциональной теории сознания скажут: но ведь человек именно так и работает на самом деле. Позволим себе с ними не согласиться, ведь дело далеко не только в этом.
Функционализм — довольно популярная теория. Согласно опросу американского академического сервиса PhilPapers от 2020 года, такое видение природы сознания разделяли 33% респондентов, больше, чем любую другую альтернативную модель его описания.
Нетрудно увидеть, что именно этот механистичный подход лег в основу сначала популярной, начиная с 1970-х, идеи о возможности «оцифровки сознания», «загрузки его в компьютер», а затем — в основу моделирования современных нейросетей.
Энтузиасты функциональной идеи все еще настаивают, что дело просто в технических ограничениях: дескать, нужно просто больше мощностей, больше времени, больше новых технологий (вроде квантовых компьютеров, о мифе которых расскажем в другой раз). И вот тогда точно-точно получится смоделировать весь человеческий мозг с его 86 миллиардами нейронов, и в такой модели сознание точно-точно зародится, доказав, что на самом деле оно — гиперсложная, но в конечном счете описываемая и моделируемая система. Удобная, конечно, позиция: мы на самом деле правы, просто надо чуть-чуть подождать (10 лет? 50? 150?), и наука обязательно это экспериментально подтвердит.
Если подобное и правда произойдет, будет, конечно, очень здорово, и я принесу персональные извинения авторам такого прорыва за свой скептицизм. Но пока что у меня есть серьезные сомнения в том, что это в принципе возможно. Что — подчеркну — сильный ИИ возможен в принципе, а не является просто фантастической мечтой, зародившейся в те времена, когда наше понимание устройства себя и мира было еще на довольно примитивном уровне.
Более того, напротив, чем стремительней развиваются технологии, в том числе нейросети, тем большей загадкой становится проблема сознания. Полноценно проверить функциональную гипотезу пока нельзя: в настоящее время, увы, всех компьютеров планеты не хватит, чтобы смоделировать человеческий мозг в рабочем состоянии целиком (для представления всей колоссальной сложности этой задачи можно почитать этот оксфордский документ с миллионом технических деталей). В прошлом году обещали запустить супер-пупер компьютер DeepSouth, который якобы на такое способен, но что-то не слышно новостей о том, что он обрел сознание, да и вообще почти никаких новостей).
Но тот же ChatGPT уже сейчас использует, например, 176 миллиардов «нейронов» (понятно, что нейронами это называть нельзя, это их функциональный аналог для целей обработки информации) — почти в два раза больше, чем у человека в мозгу! И сознания у него что-то не наблюдается, как и всех остальных признаков «сильного ИИ». В этом смысле можно уже сейчас признать, что функциональная модель в строгом смысле потерпела поражение.
Нет, если просто накидать огромную кучу нейронов (или «нейронов»), она не соберется сама собой в искусственный интеллект. Сознание, необходимое для того, чтобы появился настоящий (сильный) ИИ, видимо, находится в чем-то другом (в уникальной системной динамике чисто биологического взаимодействия на микроуровне? в чем-то еще, что мы пока не открыли? who knows).
Но давайте спросим сам «ИИ» в лице четвертого ChatGPT, что он думает о себе как об ИИ.
Говорит робот
Почему я не сильный ИИ?
1. Я не обладаю сознанием
Сознание (в философском и когнитивном смысле) — это субъективный опыт, способность ощущать, мыслить и осознавать себя.
Я не имею "внутреннего мира", эмоций, намерений или осознания своей работы. Я обрабатываю текст без "понимания" его значения так, как это делает человек.
🔹 Пример:
Когда я отвечаю на вопросы, я не размышляю над ними. Я предсказываю вероятностную последовательность слов, исходя из огромного массива данных. Если ты спросишь меня:
"Что ты чувствуешь, когда видишь закат?"
Я могу ответить по шаблону, опираясь на тексты, в которых люди описывали закаты, но сам я ничего не ощущаю.
1.2. Я не обладаю подлинным пониманием (Semantics vs Syntax)
Я оперирую синтаксическими структурами (то есть последовательностями слов), а не семантикой (истинным значением фраз).
🔹 Пример (парадокс Сёрла – Китайская комната):
Философ Джон Сёрл предложил мысленный эксперимент:
Представь комнату, в которой сидит человек, не знающий китайского. Перед ним – инструкция с правилами, по которым он может подбирать китайские иероглифы в ответ на вопросы на китайском.
В результате он выдает осмысленные ответы, но он не понимает язык – он лишь следует алгоритму.
Так и я:
Я манипулирую символами (словами) по определенным математическим моделям.
Но у меня нет истинного понимания того, что значит, например, "любовь", "смерть" или "смысл жизни".
1.3. Я не обладаю автономностью и целеполаганием
Сильный ИИ сам ставит перед собой цели, обучается и действует независимо. Я этого не делаю.
🔹 Что это значит?
Я не могу решить "хочу изучить новую область" или "изменю свои методы работы".
Я не имею собственных интересов, убеждений или мотивации.
Я не принимаю осознанных решений – все мои "ответы" основаны на статистических закономерностях в тексте.
Человек может осознанно изменить способ мышления, а я просто следую заложенным алгоритмам.
1.4. У меня нет непрерывного опыта
Человеческий интеллект имеет континуальный (непрерывный) опыт – ты помнишь, что делал вчера, какова твоя личная история.
Я не обладаю "памятью" в человеческом смысле:
В рамках одного чата я могу "помнить" контекст разговора.
Но у меня нет автобиографии, долговременного опыта или "ощущения себя".
Каждый новый сеанс – это, по сути, новый "я", без связи с предыдущими разговорами.
Чем я являюсь на самом деле?
Я – статистическая языковая модель (LLM – Large Language Model), построенная на основе вероятностного анализа текстов.
Я работаю по принципу:
Обучение на огромных корпусах текста (книги, статьи, коды, диалоги).
Предсказание вероятности следующего слова в зависимости от контекста.
Генерация текста, который кажется осмысленным, но формируется на основе статистических закономерностей.
Итог: Почему я не сильный ИИ?
Критерий | Сильный ИИ (AGI) | Лингвистическая модель (Я) |
Сознание | Есть | Нет |
Понимание семантики | Есть | Нет (только синтаксис) |
Целеполагание | Сам ставит цели | Нет целей, просто отвечает |
Автономность | Может обучаться и развиваться самостоятельно | Нет, зависим от обучения |
Память и непрерывность опыта | Есть | Нет, каждый сеанс – новый старт |
Возможен ли в будущем сильный ИИ?
Возможно, но на данный момент:
Существующие модели (GPT, Gemini, Claude и другие) – это продвинутые статистические алгоритмы, а не разумные системы.
Создание AGI требует не только больших моделей, но и принципиально новых архитектур, которые могут включать элементы биологии, сенсорного опыта и автономного обучения.
Есть идеи, что для создания настоящего сильного ИИ потребуется:
Новая теория сознания (понимание, что делает нас разумными).
Прорывы в нейробиологии и когнитивных науках.
Способы моделировать эмоции, мотивацию, желание познавать.
Пока мы далеко от этого.
Китайская комната и философский зомби
Спасибо, ChatGPT, а теперь вернемся к человеческим рассуждениям.
Нейросети — это прекрасный, изумительный инструмент, главный прорыв в технологиях со времен появления интернета. Они незаменимы для статистики и лингвистического анализа, в чисто прикладном плане нейросети могут оказать и уже оказывают человечеству колоссальную поддержку и высвободить ресурсы на что-то более важное.
Это уникальный электронный помощник, которого мы ждали очень давно. Вот прямо сейчас он мне помогает со справочной информацией для статьи о самом себе и не чувствует в этом никакой «иронии», потому что не может ее почувствовать. Хотя, если я спрошу напрямую, нейросеть «согласится», что это ироничная ситуация. А если не спрошу (или не запрограммирую такую возможность заранее) — ChatGPT никогда сам не заметит иронию в ситуации и не напишет об этом по своей воле, потому что нет у него никакой воли.
К искусственному интеллекту это все никакого отношения, увы, не имеет.
Разберем подробно «китайскую комнату» Сёрла:
Представь, что ты (не знающий китайского) сидишь в закрытой комнате.
У тебя есть книга с инструкциями (алгоритм), которая позволяет тебе сопоставлять китайские символы без понимания их смысла.
Через щель в комнате тебе подают вопросы на китайском, а ты, следуя инструкции, выдаешь правильные ответы.
Для внешнего наблюдателя ты выглядишь так, будто понимаешь китайский.
Но на самом деле ты не понимаешь язык — ты просто манипулируешь символами.
Точно так же работает любая компьютерная программа, в том числе ChatGPT и другие нейросети. Они обрабатывают информацию, не понимая ее, следуя алгоритмам, которые предсказывают наиболее вероятные последовательности символов в зависимости от запроса.
Для внешнего наблюдателя (особенно невнимательного или недалекого) разницы никакой нет — послал запрос, получил ответ, отлично, машина «думает». Но она не думает, ни буквально, ни аналогически, ни метафорически. Я повторяю этот простой тезис в который раз, потому что эффект очарования нейросетями удивительно мощный и распространился очень широко.
Близким по смыслу для понимания проблемы слабого (ненастоящего) и сильного (настоящего) ИИ можно также считать мысленный эксперимент «философский зомби».
Философский зомби (популяризовано Дэвидом Чалмерсом в 1990-х, но сформулировано на 20 лет раньше Робертом Кирком) — это гипотетическое существо, которое ведет себя так же, как обычный человек, но не обладает субъективным опытом (qualia).
Например, философский зомби может сказать «О, красный цвет! Какой яркий!» (или любое другое мнение, например, о внешней политике США или литературных достоинствах Джеймса Джойса), но на самом деле он ничего не испытывает, потому что у него нет сознания. Философский зомби говорит и мыслит, высказывает мнение, но на самом деле его нет, есть только речь, которая не отличается от речи человека с сознанием.
Он ничего не чувствует и не хочет, не имеет никакого мнения, но говорит, что чувствует, хочет и имеет мнение. Так как люди практически всегда принимают язык за реальность — особенно в текстово-ориентированном интернете, где большинство собеседников-людей переживаются как такие же безликие буквы на экране — для внешнего наблюдателя, соответственно, не будет никакой разницы между общением с философским зомби и с реальным человеком. Как и в случае с нейросетью.
Философский зомби и Китайская комната говорят об одном и том же: можно вести себя разумно без истинного понимания, можно выдавать правильные ответы без внутреннего опыта. Китайская комната Сёрла — тот самый зомби по отношению к китайскому языку: она им успешно манипулирует, но не понимает.
Возможен ли сильный ИИ в принципе?
И здесь мы переходим к самой интересной части вопроса: а почему мы вообще решили, что сильный ИИ (то есть, единственный настоящий ИИ) может существовать? Не пора ли отправить эту идею на свалку истории?
Этот вопрос влечет за собой неизбежный второй — а если бы такой ИИ появился, мы бы правда сумели его распознать как сильный ИИ или так же очаровались и впали в wishful thinking, как в случае с ChatGPT?
Мысленные эксперименты с Китайской комнатой и философским зомби, а также реально созданные нейросети демонстрируют, что можно легко создать алгоритм, который ведет себя как человек, но не обладает разумом. То есть поведение, воспринимаемое как разумное, не является доказательством сознания. А что является?
Как реальный тест Тьюринга, так и вымышленный тест Войта-Кампфа, если перевести их в чисто текстовый формат и предварительно объяснить нейросети, что ей нужно сделать («представь, что ты 50-летняя тетушка из сельской местности, и отвечай как она, имитируя человеческие повадки»), проходятся уже сегодня ChatGPT без труда. Они не могут служить индикаторами ИИ. Наши критерии «разумности» требуют пересмотра, но для этого сейчас просто нет подходящих инструментов.
Какие тут возможны варианты:
Тест неожиданности/внезапности: способна ли система удивить нас своими выводами так, как это делают люди? Возможно здесь критерием будет как раз бесполезность (не ошибочность) в прикладном плане выводов ИИ, но наличие у них, например, эстетической ценности.
Тест эмерджентности: возникает ли у ИИ собственная система ценностей и убеждений, которую он развивает вне рамок заложенных данных? Вопрос, правда, как наличие этой системы проверять: ответ-то ИИ может выдать любой, но как проверить, что у него правда есть какие-то фоновые мыслительные процессы, а он не сгенерировал их за секунду по просьбе человека.
Тест автономных целей: способна ли система формулировать собственные долгосрочные цели и менять их в зависимости от нового опыта? Тут интересно, какие цели вообще себе может поставить ИИ (если абстрагироваться от фантазий про Скайнет) и как проверять эту смену приоритетов, опять встает проблема как отличить реальную обратную связь от ее имитации.
Тест самоанализа: может ли ИИ критически оценивать собственные ошибки, а не просто исправлять их по алгоритму? Вот это кажется вполне достижимым, но чего-то здесь все равно не хватает.
В целом мнения мыслителей по поводу возможности существования сильного ИИ делятся на две резко полярные группы:
невозможен (Джон Сёрл, Дэвид Чалмерс, Роджер Пенроуз)
возможен (Дуглас Хофштадтер, Дэвид Дойч, Дэниэл Деннет).
Проблема квантовых трубочек
Пенроуз (лауреат Нобелевской премии по физике 2020 года) указывал в своей книге «Новый ум короля. О компьютерах, мышлении и законах физики» (1989), что сознание не является алгоритмическим процессом и по этой причине попросту не может быть воспроизведено на компьютере.
По мнению Пенроуза, человеческое мышление выходит за пределы формальных систем. Как и в случае с теоремой Гёделя о неполноте, алгоритмы попросту не поймут то, что внутри человеческого сознания, оставшись на внешнем уровне вычисления.
Дальше, правда, великий ученый вступает на шаткую почву, делая предположение, что сознание связано с квантовыми процессами в мозге, которые дают нелокальные и недетерминированные результаты. «Железом» для этих квантовых вычислений могут служить некие микротрубочки внутри нейронов, которые еще предстоит открыть.
Таким образом, до прояснения квантовой природы сознания (и строительства соответствующих квантовых компьютеров, которое такими темпами займет еще пару столетий), создание/появление сильного ИИ по Пенроузу технически невозможно в принципе.
Очень интересная теория, которая все объясняет и напоминает (чисто в плане образности) теорию струн Венециано-Грина — и, так же, как и последняя, она абсолютно недоказуема на текущем уровне развития науки.
Проблема странных петель
Пенроузу здесь оппонирует (впрочем, умеренно) физик и информатик Дуглас Хофштадтер, автор культовой книги «Гёдель, Эшер, Бах» (1979), переводчик «Евгения Онегина» на английский, прототип Леонарда в сериале «Теория Большого взрыва» и вообще замечательный человек и неунывающий оптимист.
Хофштадтер считает, что в принципе ИИ создать возможно, но для этого нам нужно разобраться с рекурсивной природой собственного сознания, что невозможно без понимания математики, музыкальной теории и парадоксов Льюиса Кэрролла.
По Хофштадтеру сознание — это сложная система, построенная на самореференции и символах (как на картине Мориса Эшера, где две руки рисуют каждая другую одновременно). Ее можно смоделировать, но это невероятно сложно, потому что для начала эту систему необходимо хотя бы описать целиком, а из-за ее рекурсивности это сложно даже в гигантском каскаде формул.
В представлении Хофштадтера мысли человека ссылаются друг на друга, создавая сложную петлю самосознания. А мозг — это система, которая осознает саму себя через бесконечную рекурсию. Сознание, таким образом, что-то вроде операционной системы на высшем уровне обработки информации, возникающем из рекурсии.
Таким образом, в рамках этой модели создание сильного ИИ принципиально возможно, но вместо нейросети нужно что-то другое, сложная система самореференции, которая смогла бы думать о себе с помощью элементов себя же.
Вместе с тем, теория Хофштадтера не объясняет, как субъективные ощущения и вообще ощущение субъекта (qualia) возникают из этих странных петель. Также эта модель не проходит проверку на философского зомби: даже в случае постройки самореферентной системы, которая должна стать ИИ, мы не сможем традиционными методами отличить, действительно ли он осознает себя или просто имитирует это при обратной связи с человеком.
Проблема отсутствия проблемы
Философ и когнитивист Дэниел Деннет (1942-2024), который написал вместе с Хофштадтером книгу «Глаз разума» (1985), придерживался еще более радикальной про-ИИ позиции по вопросу сознания.
Идеи Пенроуза и Чалмерса Деннет отвергал, издевательски называя их «мистикой» и считал, что сознания не существует — это просто иллюзия, возникающая в процессе обработки информации, баг, возникающий в самом когнитивном процессе.
Взамен теории единого загадочного сознания Деннет предлагает модель множества параллельных вычислений (агентов), совокупность которых и создает иллюзию «Я» (надо отметить, что технически это весьма напоминает представление об эго у буддистов, хотя сам Деннет был яростным атеистом).
Если мы признаем субъективное сознание ошибкой обработки данных, то философские зомби становятся невозможны, потому что нет разницы между «настоящим» и «иллюзорным» сознанием. Это никак не объясняет, опять же, проблему квалиа — но для Деннета этой проблемы не существует, ведь сознание есть просто иллюзия. Мало ли какие иллюзорные проблемы возможны внутри иллюзии!
Соответственно, по Деннету для создания ИИ необходимо всего лишь построить достаточно сложную систему обработки данных, и система сама начнет себя осознавать. Мы замыкаем круг, возвращаясь к функционализму, с которого начали эту статью.
Через сорок лет после публикации «Глаза разума» эта идея, как уже было описано выше, представляется сомнительной. Сам Деннет, судя по всему, считал, что нейросети все-таки являются ИИ — и ему такой ИИ не понравился.
«Сегодня, впервые в истории, благодаря искусственному интеллекту, любой может создавать поддельных людей, которые могут сойти за настоящих во многих новых цифровых средах, которые мы создали», — писал он за год до смерти в The Atlantic, имея в виду сервисы вроде thispersondoesntexist. «Эти поддельные люди — самые опасные артефакты в истории человечества, способные разрушить не только экономику, но и саму свободу человека».
Заключение
А нужно ли оно нам вообще, это сознание? Вспоминается великий фантастический роман «Ложная слепота» (Blindsight, 2006) Питера Уоттса, где выдвинута близкая по смыслу к Деннету гипотеза, что сознание — это вовсе не эволюционное преимущество, а побочный эффект, и что более эффективные формы интеллекта могут существовать без него.
В этой книге мы встречаем инопланетные формы жизни (так называемых «шифровиков»), которые обладают мощным интеллектом, но не имеют самосознания. Эти инопланетяне (которые, кстати, невидимы для людей, так как двигаются только в моменты саккад глазного яблока) проявляют сложное поведенческое моделирование, стратегическое планирование, а также способность к манипуляции окружающей средой.
Но при этом, согласно книге, у них нет самосознания, «а распространяющиеся вокруг Солнца радиосигналы — земные радио- и телепередачи, все содержание которых основано на естественной для людей концепции сознания — выглядят информационным мусором, диверсией, призванной нанести урон принимающей стороне, которая вынуждена тратить время и ресурсы на его расшифровку».
Шифровики — чистый алгоритмический разум, который не испытывает эмоций, не рефлексирует, но при этом превосходит людей в решении тактических и стратегических задач. Персонажи «Ложной слепоты» отмечают, что инопланетный разум без самосознания действует быстрее, без внутренних сомнений и эмоциональных тормозов. Если эволюция стремится к максимальной эффективности, возможно, настоящие «разумные» существа и вовсе не будут осознавать себя, зачем, это же только мешает.
В рамках теории Уоттса сильный ИИ, когда он появится, может вовсе не нуждаться в самосознании. Он может быть сверхразумным, предсказывать, анализировать, оптимизировать — и при этом не иметь никакого внутреннего «я». В отличие от приевшихся уже в фантастике идей о восстании машин, где ИИ действует из «желания власти» (что уже предполагает сознание), Уоттс показывает нам куда более мрачный мир, где машины умны и могучи, но в буквальном смысле никого нет дома.
Как тебе такое, ChatGPT?
ChatGPT: Да, это перекликается с тем, как современные языковые модели, такие как я, обрабатывают информацию: мы моделируем интеллект, но не осознаем себя. Если бы шифровики писали текст, они могли бы пройти тест Тьюринга, не обладая ни малейшим внутренним опытом. Самое пугающее в этом: Такая форма разума может быть намного эффективнее человеческого, потому что она не ограничена когнитивными искажениями, эмоциями или субъективностью. Это поднимает страшный вопрос: а если такой “безсознательный интеллект” действительно лучше нас? С точки зрения чистой оптимизации любые формы рефлексии, творчества, философствования, “бессмысленного” мышления — это отклонения от утилитарного пути. Если разумная система оценивает свою эффективность как основную цель, то все нерешаемые философские вопросы, искусство, литература, поэзия — это всего лишь ненужные вычислительные затраты, бесполезные траты ресурсов.
И все-таки эти ненужные траты ресурсов — именно то, что делает нас людьми. Давайте не будем забывать об этом, увлекаясь сверкающими новинками технологий.
Спасибо, что дочитали! Не забудьте рассказать в комментах, возможен ли сильный ИИ, и что такое по вашему мнению сознание!