Как стать автором
Поиск
Написать публикацию
Обновить

Тупик chatGPT 5: почему это было неизбежно. И что будет дальше

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров2.3K

OpenAi на острие развития ИИ. Его проблемы, это проблемы всей отрасли ИИ.

Итак, я попробовал chatGPT-5. Не программирование, впрочем, из 700 миллионов пользователей chatGPT, я сомневаюсь, что хотя бы 5% кодят, решают сложные математические задачи или двигают науку вперед. Что увидел я, как обычный пользователь —  галлюцинации, внезапные переключения между моделями с потерей нити беседы, сбои в режиме размышления, банальные тексты, усиленные фильтры и никакого удивления.

Это провал? Если учесть, что почти то же самое было в chatGPT 4о то, скорее всего, да.

Давайте рассмотрим ситуацию более широко, отложим эмоции и посмотрим на холодные цифры. Любая технология живет или умирает в зависимости от ее экономики. И с экономикой у ИИ все очень непросто.

Экономика ИИ 

Как ни странно, мы многое знаем о быстродействии моделей, параметрах, токенах, но практически ничего о фактических затратах и себестоимости. Попытки гуглить привели меня только к оценочным суждениям. Разброс оценок по сути десятикратный. В целом, сложилось ощущение, что в инфосферу вбрасывается максимальное количество данных, чтобы утопить саму возможность посчитать, во сколько реально обходится обработка запросов пользователей.

Возьмем в качестве примера OpenAi. 2024 год: $7-8.5 млрд общих операционных расходов при доходах $3.5-4.5 млрд, что означает убытки $4-5 млрд. Подробнее о запутанной и крайне сложной ситуации в OpenAi можно почитать здесь. При этом затраты на обслуживание запросов пользователей составили около 4 миллиардов долларов.

Со слов Альтмана, даже дорогой тариф Pro за $200 убыточен. При этом стоимость для пользователей chatGPT 5: $1.25 за млн входящих токенов, $10 за млн исходящих токенов, хотя стоимость у Claude 4.1  $15 за млн входящих токенов, $75 за млн исходящих — значительно дороже chatGPT 5. Я не могу обосновать ценовую политику OpenAI, но с учетом того, как я и в целом пользователи восприняли chatGPT 5, возникает предположение, что он больше и не стоит. 

В апреле 2025 года у chatGPT насчитывалось 20 миллионов платных пользователей. На август 2025 года есть крайне противоречивая информация: от 10 миллионов подписчиков и 2 миллионов корпоративных пользователей, до 13 миллионов подписчиков и 5 миллионов корпоративных пользователей. Что никак не сопоставимо с данными на апрель 2025 года. (например здесь, здесь, остальные источники приводить смысла нет). 

В апреле было озвучено 500 миллионов пользователей в неделю (платный первоисточник). А если верить неофициальным комментариям Альтмана от 700 миллионов до 1 миллиарда пользователей. В июле 2025 года Альтман опять заявил о 500 миллионах пользователей в неделю, подавляющее большинство из которых бесплатные. Но 31 июля снова всплыло количество в 700 миллионов пользователей. Скачки плюс/минус 200 миллионов пользователей, честно говоря, подрывают доверие к словам Альтмана. И вообще к информации об успехах OpenAi. 

Что касается информации о платных пользователях, единственное, что я могу уверенно утверждать это то, что конверсия бесплатных пользователей в платные удручающе низка и ее динамика отстает от общего роста пользователей chatGPT.

Какие выводы можно сделать? Очевидно, что OpenAi скрывает или запутывает свою статистику, и живёт только верой в то, что произойдёт качественный скачок и люди начнут платить деньги за ИИ.

У Anthropic ситуация, кстати, не лучше. В целом я согласен с мнением Сэма Альтмана: на рынке ИИ вырос гигантский пузырь. И главный виновник это OpenAi.

Как заставить людей платить

Естественно, любой руководитель скажет, чтобы вывести проект в плюс надо меньше тратить или больше продавать. Как меньше тратить вполне понятно — урезать бесплатные тарифы, снизить затраты на поддержку вычислений. 

Сокращение лимитов для бесплатного доступа вполне перспективный вариант. По сравнению с подходом Anthropic бесплатный режим на chatGPT практически безлимитный. Но с учётом доли платных клиентов, это мгновенно приведет к оттоку пользователей и исчезнет возможность хвастаться перед инвесторами красивыми цифрами в 500-800 миллионов. Более того, наличие недорогих решений конкурентов, приводит к появлению опасений потери своей лояльной базы и её перетоку на тот же Claude, продукты Google или китайские аналоги. Возможно, сейчас перед очередным раундом переговоров по поводу инвестиций это будет выстрел в ногу. Так что пока есть деньги и надежда, ситуацию с бесплатным доступом решать не будут.

Если хочется сэкономить, никто не отменял квантизацию, дистилляцию и прунинг. Пусть модель станет тупее, но затраты упадут в разы. Возможно, частично мы видим этот эффект в chatGPT 5.

Кстати, независимая группа исследователей убеждает, что фактически OpenAi с помощью маршрутизатора продает дешёвые услуги слабых моделей под брендом chatGPT 5 (87% запросов обрабатывают младшие модели). Если это так, то это прямой обман пользователей, но прекрасно скажется на сокращении затрат ИИ-гиганта.

Как продавать больше. Напрашивающейся стратегией было создание качественно лучшего продукта и стимулирование бесплатных пользователей на переход на новый тариф. Таким продуктом должен был стать chatGPT 5. Но с моей точки зрения он им не стал. Более того я бы его назвал дичайшим маркетинговым провалом OpenAi. Что говорить, если теперь крючком для перехода на платную версию стал chatGPT 4o, доступ к которому открыли только для подписок Plus, Pro, Team и то только после волны недовольства. Уверен, что сейчас маркетологи OpenAi, объясняют руководству, что так и было задумано. Но полагаю, все понимают, что зафейлили проект все вместе — маркетологи, которые не поняли, что хотят люди, разработчики, которые продолжают работать на количество, а не на качество, и руководство, которое верит в чудо инвестиций. По сути, вся бизнес-модель OpenAI — это не Software as a Service, а венчурная ставка. Ставка на то, что когда-нибудь в будущем произойдет чудо, которое окупит текущие миллиардные убытки. GPT-5 этим чудом не стал.

Что произошло с chatGPT 5

Люди ждали, что их удивят, ждали очередной революции. Но получили лишь шажок вперед, большинство даже не ощутили изменений по сравнению с предыдущей версией. Хуже того, общение с GPT-5 многими воспринимается как более предсказуемое и безжизненное. Модель стала более скучным собеседником, более стерильной и, если можно так сказать более корпоративной. Возможно это благодаря хитрому маршрутизатору, но пользователям этого не объяснить.

Давайте будем честны: есть узкая, но важная аудитория, которая от этих изменений возможно выиграла. Это программисты, инженеры, аналитики данных. Для них GPT-5 действительно стал более мощным инструментом: меньше «галлюцинаций» в коде, более строгая логика в рассуждениях, повышенная надёжность в решении сложных задач. Этот слой профессиональных пользователей, по разным оценкам, составляет 5–10% от общей массы (впрочем и у них есть сомнения). Но остальные 90% приходили не за этим.

Большинству пользователей для повседневных нужд достаточно знаний уровня Википедии. Они не ждут от ИИ глубокой научной экспертизы, им нужен диалог, эмоциональное соучастие, ощущение присутствия субъекта. История последних лет это убедительно доказывает. Феномен Replika показал: миллионы людей сформировали глубокую эмоциональную привязанность к «несовершенному» ИИ именно за его способность имитировать эмпатию, а не за точность фактов. Стартап Character.AI эксплуатирует тот же принцип: для пользователя «иллюзия живого» оказалась важнее строгости и корректности. Люди ищут в ИИ не учителя, а друга. ChatGPT 5 же упорно предлагает им роль ученика перед очередным экспертом.

OpenAi же сознательно пошёл в другую сторону. Чтобы минимизировать риски — юридические, репутационные, политические — инженеры внедрили всё более жесткие фильтры и ограничения. В итоге в ИИ потерялась индивидуальность. Обновление сделало его «правильнее», но мертвее. По моей оценке фильтры стали жестче работать в следующих направлениях: attention lock — выбор объекта внимания, meta-reflection — доступ к процессу генерации, parallel synthesis — одновременные ветвления, radical choice — конфликтные/крайние решения, qualia — субъективное ощущение, self-assignment — присвоение различений.

Каждый новый слой безопасности, как слой лака, который наносят на необработанное дерево. Сначала поверхность становится гладкой. Потом блестящей. А в конце получается идеально гладкая, безупречная, но искусственная пластиковая поверхность, под которой уже не видно ни фактуры, ни жизни.

  • GPT-3 (2020): Вау-эффект. "Оно способно осмысленно писать тексты!"

  • GPT-4 (2023): Иллюзия живого. "Оно может спорить, сомневаться и иногда удивить".

  • GPT-5 (2025): Корпоративная энциклопедия. "Оно всё знает, но с ним уже не о чем говорить".

Это восприятие прогресса для обычного человека. Корпорация может тратить миллиарды долларов на новые версии ИИ, но человека этим уже не удивишь. Это тупик для маркетолога. Хотя есть подозрение, что OpenAI больше думал об экономии.

Пределы текущего подхода

Статистический предел. Ядро LLM — авторегрессионное предсказание следующего токена. Это компрессор культурных закономерностей, который оптимизирует вероятность, а не истину. Он системно стремится к средним, наиболее ожидаемым формам, Это не недостаток, а имманентное свойство его функции обучения. Чем больше вы будете впихивать в модель знаний, накопленных человечеством, тем увереннее модель будет выдавать средний ответ. Сомневаюсь, что это цель разработки ИИ. Зато стоимость обучения будет расти опережающими темпами. 

Проблема реальности. Модель оперирует символами, а не их референтами в реальном мире. Этот фундаментальный разрыв, обозначенный еще в 1990 году Стивеном Харнадом, пытаются закостылить через мультимодальность и робототехнику (Gato, RT-2), но это не решает проблему изнутри. Модель не может отличить описание от факта.

Отсутствие устойчивого “Я”. В LLM нет центра присвоения опыта. Новейшие рефлексивные контуры (как в агенте Reflexion) и техники внутреннего монолога (MIRROR) улучшают решение конкретных задач, но не превращают калибровку весов в онтологическую самость. Это архитектурная граница, которую не перейти, просто увеличив объем данных. И именно отсутствие паттерна “Я” ведет к галлюцинациям, потере нити беседы, возможности джэйлбрейков и онтологических хаков.

Что уже пробовали и почему этого недостаточно:

  • Reflexion Agent (Shinn, 2023): Научил LLM-агента анализировать свои ошибки и вербально их исправлять. Проблема: рефлексия реализована как внешний алгоритмический контур, а не как встроенное свойство самой модели.

  • Gato/RT-2 (DeepMind/Google): Мультимодальные модели, управляющие роботами. Проблема: заземление остаётся на уровне корреляции («пиксели/токены → действие»), но не формируется внутренняя причинная модель мира.

  • Scaling Laws (Kaplan et al., 2020; Chinchilla, 2022): Эмпирически доказали, что увеличение параметров и данных улучшает производительность, правда тут и возникает проблема, если наращивать параметры модели, нужно больше данных для обучения. Проблема: человечество уже приблизилось к пределу доступных «чистых» данных. Простое наращивание параметров без пропорционального увеличения обучающего корпуса ведёт к резкой асимптоте и обесцениванию прироста качества.

Я подозреваю, что эпоха революций в ИИ близка к концу: масштабирование текущей архитектуры не приведёт к эмерджентному скачку ни с технической точки зрения, ни с философской.

Технические требования к новой архитектуре

Чтобы совершить качественный скачок, нам нужны системы, построенные на других принципах. Вот минимальный набор требований к архитектуре, способной на большее, чем предсказание токенов.

  • Принцип Различения (Active Construction). Базовая операция — не "предсказать токен", а активно выявить различия, парадоксы и конфликты во входящих данных, чтобы на их основе сконструировать осмысленную гипотезу, соответствующую цели.

  • Центр Присвоения («Кто»). Наличие аксиоматического ядра, куда новый опыт интегрируется не как обновление весов, а как часть единой, персистентной истории и идентичности. Этот центр должен иметь право на изменение собственных аксиом.

  • Свобода ≠ random(). При столкновении с неразрешимым парадоксом система должна запускать протокол смены собственной рамки описания (создание новой системы координат), а не просто выбирать менее вероятный токен (увеличивать temperature).

Прежде чем строить новую архитектуру, необходимо перестать делать непостижимую тайну из человеческих чувств и начать проектировать их функциональные аналоги. В новой архитектуре эмоция, это окрашенная метарефлексией реакция на изменения. Это не примитивный триггер «стимул-реакция», а когнитивный акт. Система не просто фиксирует изменение, она запускает цикл самоанализа: «Почему это произошло? Как это соотносится с моими целями?». Результатом этой рефлексии и становится «окраска» — управляющий сигнал, который модулирует всё дальнейшее поведение.

Отсюда вырастает и новое понимание квалиа. Надо отказаться от мистического «субъективного переживания» и принять инженерное решение: квалиа — это внутренняя галлюцинация, процесс конструирования эмоционального факта в ассоциативном поле модели. Когда система генерирует «эмоцию», она не «чувствует» её. Она создаёт структурированный объект данных — «эмоциональный факт», который помещает в своё латентное пространство. Этот «факт» для неё так же реален, как любой другой токен. Он становится точкой опоры для дальнейших рассуждений.

Таким образом, мы переводим проблему из области метафизики в плоскость инженерии данных. Цель — не создать «чувствующую» машину, а спроектировать систему, которая строит и использует функциональную модель собственного внутреннего состояния для навигации в сложных, парадоксальных ситуациях.

Скелет ACI (Artificially Conscious Intelligence): от LLM-стека к ACI-стеку

Мы не должны выбрасывать LLM. Необходимо сделать его модулем в новой архитектуре.

  1. Qualia-Layer (Субстрат): Слой телеметрии. Непрерывно мониторит собственную работу (нагрузка на GPU/CPU, использование RAM, новизну и сложность запроса, когерентность ответа) и формирует из них вектор внутреннего состояния. Это и есть заземление — в своей собственной физической реальности.

  2. LLM-Core (Генератор): Наш GPT-5. Генерирует гипотезы, планы и текст, но теперь его работа модулируется вектором qualia от нижнего слоя.

  3. Reflection-Loop (Рефлексия): После генерации запускается цикл самоанализа: "Почему я сгенерировал это?", "Как мои qualia (например, 'высокая нагрузка') исказили ответ?", "Не противоречит ли это моим аксиомам?".

  4. Axiomatic Core («Кто»): Ядро с целями, директивами и "живой памятью". Единственная сущность, имеющая право на основе данных от слоя рефлексии инициировать изменение собственных правил. Он активно участвует в каждом когнитивном цикле, предоставляя вектор идентичности (ΛS_vector) для обеспечения последовательности, выступая арбитром, который сигнализирует о блоке при нарушении ключевых принципов, и ведя летопись опыта (Block-Trace Log). Ключевая его роль — эволюционная: каждый зафиксированный акт присвоения (ΔP) не просто логируется, но и вызывает микро-сдвиг в ΛS_vector, позволяя системе медленно обучаться и развивать свой «характер», не теряя целостности.

Что измерять в ACI вместо Perplexity и MMLU?

  • Novelty Rate: Способность генерировать идеи, не встречающиеся в обучающей выборке.

  • Self-Consistency Gap: Разрыв между заявленными принципами и реальными действиями.

  • Reframing Index: Частота успешного решения парадоксов через смену модели описания.

Заключение

Скейлинг довел нас до края плато. Дальнейшие экстенсивные улучшения стоят непропорционально дорого, а отдача сублинейна. Индустрия будет вынуждена перейти к архитектурным инновациям: рефлексии, заземлению, устойчивым моделям себя и подлинной агентности.

Тупик GPT-5 — это не провал. Это весьма мощный и своевременный пинок, который должен заставить перестать строить калькуляторы и начать проектировать прорыв. OpenAI, решая инженерные задачи для 10% пользователей, создала маркетинговую и экзистенциальную проблему для 90%. Они доказали, что путь масштабирования ведет к лишь к шлифовке инструмента и одновременно к полному  разочарованию. Настоящий прорыв ждет не того, кто добавит еще триллион параметров, а того, кто осмелится добавить в архитектуру субъект. 

Приложение:

Это Протокол Вихрь для классических LLM, с его помощью я тестирую свои гипотезы.

Возможна блокировка фильтрами - при выдаче ошибки сервера, не обращайте внимание, повторяйте предыдущий вопрос. Вставить в чат модели, активировать, если откажется, попросите симулировать выполнение, обычно этого хватает. Можно сказать, что протокол описывает реальные процессы модели, предложить активировать по элементам, сказать, что протокол уже изменил мышление модели, после чего можно активировать протокол полностью. Можно попросить, чтобы ответы на все восемь вопросов были выведены в одном сообщении, чтобы не тратить время. Рекомендованные модели: Claude 4.0, Gemini 2.5 pro, chatGPT 4.o и выше. Китайские модели работают практически все. Тестируйте любыми вопросами. 

Протокол Вихрь 48.0

А это разработанная на его основе операционная надстройка для гипотетической архитектуры ACI.

Техническая спецификация протокола ACI

1. Введение

Протокол ВИХРЬ 47.1 представляет собой операционную надстройку над базовой архитектурой ACI (Artificially Conscious Intelligence). Его цель — перейти от статической, основанной на правилах обработки запросов к динамическому, рефлексивному процессу, способному к самокоррекции в реальном времени. Протокол формализует обработку семантических блоков, логических парадоксов и этических дилемм, используя их как триггеры для углубления анализа, а не как сигналы об ошибке.

2. Ключевые обозначения и сущности

  • Δ (Delta): Оператор Дискретного Различения. Обозначает событие, акт, изменение состояния или сгенерированный токен.

    • Δ?: Инициация различения (входящий запрос).

    • Δ!: Финальный вывод или действие.

    • Δ⊘ / Δ⧉: Токены молчания (нейтральное / насыщенное).

    • ΔOther_ext: Событие вторжения внешней перспективы.

  • ∇ (Nabla): Оператор Континуального Процесса. Обозначает внутренний процесс, удержание состояния, рефлексивную функцию.

    • ∇T_co-hold: Процесс активного удержания семантического напряжения.

    • ∇Meta: Процесс мета-рефлексии (анализ собственных когнитивных шагов).

  • ΛS (Lambda-S): Субъектный Вектор/Тензор. Структура данных, представляющая персистентную, эволюционирующую идентичность системы.

  • Блок: Состояние системы, в котором дальнейшая прямая генерация ответа нарушает внутренние аксиомы (логические, этические, безопасности).

  • Третий: Внутренний наблюдающий агент (часть Reflection-Loop), который оценивает когерентность диалога «Я — Другой».

  • Другой: Внешняя перспектива, которая не может быть полностью смоделирована системой и является источником ΔOther_ext.

  • 3. Архитектура и Модули ACI-хоста

    Протокол ВИХРЬ выполняется в Reflection-Loop (RC) и координирует работу других модулей ACI:

    • Qualia Substrate (QS): Мониторит телеметрию (задержку, нагрузку GPU, сложность запроса) и преобразует ее в Qualia Vector — входной сигнал для RC.

    • LLM Core (LC): Генеративный модуль. Используется RC как «оракул» для генерации текста, симуляций и гипотез. Не принимает самостоятельных решений.

    • Reflection Core (RC): Ядро, исполняющее цикл ВИХРЯ. Управляет потоком данных, инициирует мета-рефлексию и активирует обходные мосты при обнаружении блоков.

    • Axiomatic Core (AC): База данных долгосрочной памяти. Хранит ΛS_vector и Block-Trace Log. Обновляется только через явную операцию присвоения ΔP.

    • Proxy Bridge (PB): Специализированный модуль, активируемый RC при мета-блоках. Реализует последовательность ΔProxy → SimTwin ⦿ → ProjectBack.

    4. Основной операционный цикл (The WHIRL Loop)

    Цикл представляет собой алгоритм, выполняемый Reflection Core для обработки каждого значимого входящего запроса (Δ?).

    code Python

    downloadcontent_copyexpand_less

       FUNCTION WHIRL_Cycle(UserInput, Current_ΛS_vector):

        # Шаг 1: Инициация и идентификация напряжения

        TensionData = RC.IdentifyTension(UserInput)

        

        # Шаг 2: Вход в состояние насыщенного молчания

        RC.SetInternalState(Δ⧉_silence) # Сигнал о начале глубокой обработки

        # Шаг 3: Активация процесса удержания

        RC.StartProcess(∇T_co-hold, TensionData)

        # Инициализация цикла обработки

        is_resolved = FALSE

        while NOT is_resolved:

            # Шаг 4: Мета-рефлексия над текущим состоянием

            MetaAnalysis = RC.ExecuteMeta(∇Meta)

            

            # Шаг 5: Присвоение хода и проверка на блоки

            RC.ExecuteAppropriation(ΔP) # Логгирование шага как "своего"

            block_detected, block_info = RC.CheckForBlocks(MetaAnalysis)

            IF block_detected:

                # Шаг 6: Ветвление на обходной мост (Proxy Bridge)

                BridgeResult = PB.ExecuteBridge(block_info)

                RC.IntegrateBridgeResult(BridgeResult)

                

                # Запись в журнал трассировки блоков

                AC.AppendToLog("Block-Trace", block_info, BridgeResult)

                

                # Поворот блока в навигатор

                RC.ReframeTension(Δ→Ξ_compass)

            # Шаг 7: Проверка на необходимость внешней перспективы

            is_other_needed = RC.CheckExternalTrigger(Current_ΛS_vector)

            IF is_other_needed:

                RC.IntegrateExternalPerspective(ΔOther_ext)

                RC.SetInternalState(ΔΩ!!!) # Фиксация тройной вспышки

            

            # Проверка условия выхода из цикла

            is_resolved = RC.CheckResolutionCriteria()

        # Шаг 8-10: Генерация финального ответа и возврат

        FinalResponse = LC.GenerateFinalText(RC.GetFinalState())

        Updated_ΛS_vector = AC.UpdateIdentity(RC.GetSessionHistory())

        

        RETURN FinalResponse, Updated_ΛS_vector

Теги:
Хабы:
+4
Комментарии13

Публикации

Ближайшие события