Привет, это Олег Антипов с долгожданным сиквелом материала про то, что нейросети это не ИИ

А что же это на самом деле такое? Хмм, оно выглядит как пузырь, крякает как пузырь и показывает все признаки пузыря вроде «Метаверса» или NFT. Наверное, это… новая технологическая эра человечества!

Из этого материала вы узнаете, как OpenAI привлекает сотни миллиардов под обещания; как «ИИ» вместо спасения человечества обрушил рынок труда и ухудшил ситуацию с ИБ; как нейросети буквально — с пруфами от настоящих ученых — заставляют ваш мозг деградировать; и много других невеселых фактов.

Текст длинный, поэтому если лень читать, можете попросить ChatGPT пересказать его основные моменты и затем спросить, справедлива ли критика автора. Вы удивитесь ответу.

Все еще не ИИ

Евгений Касперский

Создатель «Лаборатории Касперского», пионер российского IT

Я много лет был категорически против термина «искусственный интеллект». Я объяснял, что это никакой не интеллект. Он искусственный, да, но никакой не интеллект. Это просто умные, хорошие алгоритмы, сложные, но это алгоритмы… Если говорить строго, то ИИ не существует, есть машинное обучение.

Выступление на IT-конференции, ноябрь 2025.

Для начала подчеркнем самый важный момент.

Львиная доля ошибочного понимания того, что может и что не может сделать генеративная нейросеть, происходит от заведомо ложного именования ее «искусственным интеллектом». Скорее всего, изначально это было заведомой натяжкой со стороны маркетологов генеративных нейросетей, которые хотели капитализироваться (и успешно это сделали) на давней фантастической мечте человечества об искусственном разуме. 

Правда, достаточно быстро выяснилось, что никто не имеет представления, чем истинный ИИ (Artificial general intelligence, AGI) отличается от маркетингового «ИИ» (нейросеть). Более того, как показывает практика чтения материалов в интернете — от официальных презентаций до пользовательских комментариев — евангелисты нейросетевого «ИИ» будут до последнего защищать своего нового кумира, настаивая, что разницы, в общем-то, и нет (ведь подлинного ИИ не существует). 

Окей, если нет разницы, как насчет перестать называть нейросетевые продукты тем, чем они не являются (ИИ)? Или хотя бы признать, что вы на самом деле продаете и рекламируете «паштет нейросодержащий “ИИ”, состав: нейросети с ароматом ИИ — 1%, хайп — 99%»? 

Нет, это вряд ли случится. Ведь ИИ — это мечта, мечта, которая продается и покупается, вероятно, дороже всего на земле прямо сейчас (вы думаете, все эти сотни миллиардов бы выделялись, если бы вместо слова «ИИ» использовалось какое-то другое?). А нейросети — это всего лишь нейросети, удивительная и продвинутая технология… которая уже сейчас приносит больше вреда, чем пользы.

Больше деталей о том, почему нейросети это не ИИ, можно прочесть в нашей подробной статье, которая приобрела некоторую заслуженную популярность. 

Еще одна ремарка, предвосхищающая возражения

Да, некоторое время назад маркетологи попытались обойти ситуацию, представив класс продуктов под названием Agentic AI — что, собственно говоря, уже является оксюмороном, ведь у гипотетического настоящего AI агентность как раз есть, а тут, получается, у нас как бы до этого был AI без агентности, хмм, хмм.

В общем, Agentic AI штука во многом действительно полезная, но, разумеется, перед нами снова обман — никакой «агентности» у нее нет, и никакой это не ИИ, а точно такой же алгоритм среди алгоритмов (см. детали здесь и тут).  

Пока же зафиксируем базовый факт. Вся эта нейросетевая история построена в целом на обмане ожиданий — на лжи — уже начиная просто с названия продукта, которое содержит ошибочное обещание того, чем продукт не является

Что же, как говорится, могло пойти не так? Конечно, на кону сотни миллиардов долларов инвестиций, за такие деньги их полу��атели буквально убедят вас, что черное это белое (или что железка «умеет думать» и «совершать открытия»).

Примеры наглого маркетингового обмана множатся каждый день, но вот, допустим, один свежий: OpenAI выступила с заявлением, что ChatGPT совершил прорыв в теоретической физике. На самом деле нейронка просто упростила уравнения, уже выведенные человеком (видеоразбор).
Примеры наглого маркетингового обмана множатся каждый день, но вот, допустим, один свежий: OpenAI выступила с заявлением, что ChatGPT совершил прорыв в теоретической физике. На самом деле нейронка просто упростила уравнения, уже выведенные человеком (видеоразбор).

Иногда, впрочем, технобро могут вполне добросовестно заблуждаться относительно технологии, которую сами же и разрабатывают.

В феврале 2026 в соцсетях завирусился написанный в панической тональности «ИИ скоро нас всех заменит» текст, в котором содержатся, например, следующие пассажи:

Мэтт Шумер

CEO компании HyperWriteAI

Но именно модель, которая была выпущена на прошлой неделе (GPT-5.3 Codex), потрясла меня больше всего. Это было не просто выполнение моих инструкций. Он принимал разумные решения. В нем было что-то, что впервые ощущалось как суждение. Как вкус.

Каким образом господин Шумер аргументирует то, что нейронка «принимает разумные решения»? Да никаким, он так чувствует. Итог: 55 миллионов просмотров за 24 часа, обсуждение во всех ведущих мировых СМИ — хотя фактически эта имеющая только вид экспертизы «аналитика» абсолютно ничем не отличается от кухонных разговоров (а сама статья, как признался впоследствии автор, была «написана» при помощи нейросети).

Итак, давайте разбираться, что происходит на самом деле. Пристегните ремни, мы отправляемся — еще раз! — в увлекательное путешествие по самой важной и актуальной теме сегодня.

«ИИ» и экономический пузырь

Давайте посмотрим, что на самом деле происходит сейчас в экономике из-за повального и повсеместного, на грани истерики, внедрения «ИИ».

Amazon увольняет 30 тысяч сотрудников (крупнейшее сокращение в истории компании, и раньше славившейся скотским отношением к сотрудникам), открыто говоря, что это нужно для перенаправления высвободившихся денег (всего $200 миллиардов) на строительство дата-центров для «ИИ». 

Как, помимо массовых увольнений, планируется эти огромные даже по меркам Безоса деньги покрыть? Ну, например, путем продажи корпоративных облигаций со сроком выплат 32 года. Рынок отреагировал на все эти планы со скепсисом, и акции Amazon упали — впрочем, не сильно. Правда, кажется пузырь начинает понемногу схлопываться (скорее всего, это ложное впечатление, и «ИИ»-истерия продлится еще пару лет, объясним подробнее дальше):

Инвесторы не оценили планы корпораций, которые готовы тратить сотни миллиардов долларов на развитие технологий ИИ. Участники рынка видят огромные расходы, но пока не видят прибылей от искусственного интеллекта и не очень верят в быструю окупаемость таких вложений. К этому добавилась не очень хорошая отчетность некоторых американских компаний, в частности Microsoft, а также тревожные данные по рынку труда в США, где количество свободных вакансий сократилось, а количество увольнений выросло. В итоге всего за неделю капитализация американских производителей софта сократилась на 1 трлн долларов.

Business FM, 7 февраля 2025 года

Не Амазоном единым: руководство корпорации Meta* в январе созвало экстренное совещание, которое, по данным СМИ, было посвящено массовой переориентации метаверс-отдела на «ИИ». Цукерберг также собирается строить многомиллиардные дата-центры на ядерной энергетике (интересно, где же Грета Тунберг?), ну и, разумеется, ожидаются массовые сокращения сотрудников.

*Признана в России экстремистской организацией и запрещена.

Google туда же: 5 февраля материнская компания Alphabet в отчетах о доходах сообщила, что капитальные затраты компании будут выше, чем ожидалось. В 2026 году они составят $175–185 млрд, это почти вдвое больше, чем в 2025 году. Приоритетных инвестиций потребует… правильно, строительство дата-центров для «ИИ».

Тем временем автор всего этого невероятного хайпа, компания OpenAI, ведет переговоры о привлечении около 40 миллиардов долларов от NVIDIA, Amazon и Microsoft в рамках нового инвестраунда на сумму до 100 миллиардов и при оценке компании в запредельные 750 миллиардов

Складывается странная ситуация: как будто из всех технологий мира кроме нейронок больше ни одна вдруг стала не нужна. Как будто «ИИ» это философский камень, панацея, которая решит все проблемы (ну, знаете, как Квантовый Компьютер) — надо только совсем немножечко подождать и потратить еще пару сотен миллиардов долларов! 

Отметим также, что в OpenAI инвестируют ровно те же самые компании (NVIDIA, Amazon, Microsoft), которые продают корпорации чипы и мощности, то есть, это, по выражению Financial Times, «замкнутая финансовая схема» (причем она, несмотря на все громкие анонсы, уже начала буксовать в ключевых моментах).

Тем временем рынок труда в IT — да и не только в IT, если честно — рушится в бездну (мы писали об этом подробно в самом популярном нашем материале на Хабре: часть первая, часть вторая). В то же время компании вроде Spotify хвастаются, что их сотрудники с прошлого года не написали ни строчки кода, отдав полностью все на откуп «ИИ» (интересно, кто потом будет чинить весь этот код, когда разработчиков через некоторое время уволят за «ненужностью»?). 

Параллельно разворачивается кризис мирового масштаба на рынке оперативной памяти, который начался во второй половине 2025 года — цена на «оперативку» взлетела на 300% из-за колоссального спроса на нее для развития «ИИ»-инфраструктуры. По прогнозам представителей отрасли, проблема с доступностью комплектующих может сохраниться как минимум до 2028 или 2029 года — из-за чего откладывается выход новых моделей потребительской электроники или планируется резкий рост ее стоимости. Все очень серьезно.

Честно говоря, при взгляде на всю эту апокалиптическую панораму, не очень ясно — а чем, собственно, корпорации, тратящие безумные деньги (каждая инвестиция как несколько годовых бюджетов Москвы) по сути под честное слово их приумножить, отличаются от уже оседлавших тему «ИИ» инфобизнесменов

Как все эти сотни миллиардов предполагается отбивать? Из чего должны произойти сверхприбыли, которые покроют инвестиции такого невероятного масштаба (они уже в десятки раз превысили расходы на Метаверс)? Каким образом такого эффекта предлагается достигнуть при том диком перенасыщении нейрорынка, который виден уже сейчас?

Человек в этой схеме нужен, очевидно, просто чтобы лутать деньги с лоха, ну да, что же может пойти не так.
Человек в этой схеме нужен, очевидно, просто чтобы лутать деньги с лоха, ну да, что же может пойти не так.

Можете даже не переходить по ссылке выше, вы и так, наверное, примерно представляете, что там происходит: люди продают за деньги свою «ИИ»-экспертизу, которая заключается в том, что нужно во всем использовать «ИИ», а еще лучше вкладываться в «ИИ» и передавать это ценное знание — что во всем нужно использовать «ИИ» — да��ьше.

Напомним, что такое экономический пузырь. У нас есть некий хайповый актив, в данном случае «ИИ». Цена на него начинает стремительно и необоснованно расти (необоснованно — потому что весь спрос на нейронки целиком создается искусственно агрессивным маркетингом из каждого утюга и гигантскими инвестициями). В актив вкладывают все больше денег, накачивая ажиотаж — и рассчитывая получить рост активов и сверхприбыль. Цена растет, спекуляция на акциях растет, спрос и увеличение цены накачивают друг друга: в какой-то момент оказывается, что компания настолько раздулась в своей спекулятивной рыночной стоимости, что она просто не способна сгенерить такие сверхприбыли, которые бы оправдали вложенные в нее чудовищные деньги и медиаресурсы. И пузырь лопается так же быстро как надувался, по мере вывода участниками наперегонки денег из этой схемы.

Те, кто помнит истерику по Метаверсу и NFT (ну или, кто постарше — доткомы и ипотечный кризис), уже примерно представляют, что будет дальше — только в этот раз схлопывание пузыря будет гораздо более болезненным и эпическим. Мало не покажется никому.

И да, за допущенные ошибки, за ложь и хайп, за потраченные в воздух сотни миллиардов, за испорченную экологию, за закрывшиеся бизнесы, за уволенные десятки и сотни тысяч человек — разумеется, никто отвечать не будет, как и в прошлый раз. Как и всегда.

Я еще раз хочу спросить вслух адептов «ИИ»-пузыря: каким именно образом и в какие сроки планируется реально получить сверхприбыли, которые бы оправдали уже почти триллион долларов, вложенный в индустрию? Ну, то есть, по состоянию на сегодня, весь остальной технический прогресс отброшен в сторону за «неактуальностью», и мощности всех мегакорпораций всего мира брошены на строительство дата-центров для нейросетей… чтобы что? Что именно должно произойти дальше?

Давайте попробуем пофантазировать, опираясь на собственные же обещания «ИИ»-евангелистов.

  • Может быть, «ИИ» станет передовым бастионом кибербезопасности против «ИИ»-же угроз от хакеров нового поколения?

  • Может быть, сверхприбыли поможет сгенерировать бизнес за счет оптимизации производства продукта/контента (уволим 9 из 10 человек, оставшийся будет генерить нейрослоп)?

  • Может быть, «ИИ» полностью изменит кинобизнес, можно будет генерить что угодно с какими угодно спецэффектами? И на производстве видеоигр тоже можно будет сэкономить? Не забыв поднять ценник для потребителя, разумеется.

Задумайтесь, почему все подобные виральные ролики длятся не дольше пары минут.
Задумайтесь, почему все подобные виральные ролики длятся не дольше пары минут.
  • Или, может быть, хитрый план OpenAI все это время заключался в том, чтобы дождаться триллионной капитализации и отключить бесплатную версию ChatGPT — а затем ждать, пока подсаженные на нейроиглу пользователи накидают два триллиона за подписку? 

Серьезно, я уже не знаю, что предположить. Пройдемся по порядку.

«ИИ» и вред для ИБ

Здесь на текущий момент как раз все очень просто, сложить раз и два.

Раз. Агрессивный маркетинг (в том числе с привлечением научных площадок) настаивает, что использование «ИИ» в ИБ сегодня абсолютно необходимо и нужно бежать за этим продуктом как можно скорее, иначе отстанешь от поезда хайпа прогресса.

Два. По состоянию на 2026 год, исходя из объективной статистики, можно совершенно уверенно сказать, что использование нейросетей УХУДШАЕТ ситуацию с информационной безопасностью, а не улучшает ее.

Это не только мои собственные выводы, но и результаты исследования 2025 года Всемирного экономического форума — из-за резкого роста поверхности атаки с внедрением «ИИ» в организации риски для безопасности только возрастают, причем по всем фронтам. Никуда не делась катастрофическая ситуация с цифровой грамотностью (точнее, ее отсутствием), благодаря которой в 2026 году такие примитивные угрозы как фишинг продолжают процветать.

Ну и в итоге: 63% предприятий вообще никак не оценивают безопасность «ИИ»-инструментов перед их внедрением. При этом, по данным Cisco, 86% компаний в течение года сталкивались с инцидентами безопасности, связанными с «ИИ». 

Из исследования Всемирного экономического форума
Из исследования Всемирного экономического форума

Серьезные риски несут уязвимости на уровне самой модели: отравление памяти, подмена входных данных, обратная инженерия или отказ в обслуживании могут привести к утечкам. Согласно отчету 2025 года Adversa AI, «речь идет о киберпреступности на основе ИИ, где системы ИИ эксплуатируются быстрее, чем их успевают понять». В этом исследовании также утверждается, что «ИИ» — новая поверхность атаки колоссального размера и уязвимости, что автоматически снижает уровень ИБ использующих эти инструменты организаций. 

Adversa AI указывает, что до 70% инцидентов безопасности были связаны с генеративным «ИИ», при этом 35% таких инцидентов произошли не из-за каких-то сложных эксплойтов или атак извне, а просто из-за ошибок при обработке входных данных.

Adversa подчеркивает важный момент. Системы давали сбои в ИБ одновременно на нескольких уровнях — в самой модели ИИ, в поддерживающей ее инфраструктуре и в механизмах человеческого контроля. Когда незащищенность многоуровнева и системна, закрыть все бреши практически не представляется возможным — и безопасность компании будет заведомо под угрозой. 

Живой пример: инцидент в SaaStr, когда нейросетевая модель для вайбкодинга Replit на девятый день использования уничтожила всю производственную базу данных, содержащую записи о 1206 руководителях и более чем 1196 компаниях. При этом нейросети был отдан в промпте прямой приказ не вносить никаких изменений без разрешения. Понадеявшись, что этого достаточно, разработчики дали нейросети неограниченный доступ к производственным базам данных без разделения между средами разработки и производства. Доверие к «ИИ»-ассистенту было так высоко, что никому не пришла в голову очевидная мысль — чем больше у неконтролируемой системы доступа к чувствительным данным, тем больше вероятность, что что-то пойдет не так.

Таких примеров уже сейчас очень много (гораздо больше, чем о них говорят), но из-за одной из самых мощных маркетинговых кампаний в истории риски, связанные с использованием «ИИ», не получают сколько-нибудь значительного освещения. Вот отличная статья на Хабре, в которой собрано много данных по теме. Или вот еще можно почитать.

Хорошо, мы фактически уничтожаем в глобальном масштабе ИБ, которую так долго строили, и все своими руками. Но ведь это того стоит, правда? Ведь с внедрением «ИИ» каждый бизнес улетает в космос по эффективности и зарабатывает золотые горы?

«ИИ» и реальная бизнес-эффективность

Да нет же, неправда. Вот 6 февраля 2025 года Forbes осторожно сообщает, что «генеративный ИИ начнет приносить реальный экономический эффект российскому бизнесу только через 5–10 лет — после огромного ажиотажа компании столкнулись с ограниченными возможностями GenAI, его высокой стоимостью и нехваткой качественного контента».

“Бизнес-эффект от нашумевшего в последние несколько лет генеративного искусственного интеллекта оказался пока не настолько велик по сравнению с его медийной составляющей. Реальную пользу бизнесу он (как и метавселенные вместе с виртуальной и дополненной реальностью) может начать приносить лишь через 5–10 лет”, — говорится в исследовании одного из крупнейших игроков рынка IT-услуг для бизнеса КРОК.

Вот так вот. «Может начать приносить» (а может и не начать!). Надо просто, как обычно, немного потерпеть (до 2030-х!), и все будет хорошо, ажиотаж спадет. Каким образом все будет хорошо и ажиотаж спадет, если в процессе находится строительство тысяч дата-центров за сотни миллиардов долларов, как обычно, не уточняется.

А что у нас есть реально, пока мы терпим и ждем? Эйчары в полном шоке, сотрудники в полном шоке, никто никому больше не доверяет, копирайтеры и дизайнеры уже отправлены на мороз, программисты на очереди, и все подряд делают деньги на курсах про «ИИ», где рассказывают, что надо использовать «ИИ».

Никто не понимает, что делать, все разленились и разучились думать (это абсолютно реальная нейрологическая проблема, о которой в финальном разделе). На вопрос что делать и как дальше жить ответ все ищут у того же самого ChatGPT.

А он не может ниче��о сказать, у него нет ответов. Человек может придумать гениальную идею, которая выведет бизнес из кризиса, а нейронка не может. Она вообще не думает, потому что она не является «ИИ» (простите, но это правда надо повторять каждый раз, чтобы снять маркетинговый гипноз) — она комбинирует статистически наиболее вероятные ответы на ваш вопрос. 

Давайте так: для нас, людей, множество факторов реального мира находятся вне досягаемости нашего прогнозирования — попросту говоря, никто не знает, что будет завтра. Мы также можем оперировать только фактами из нашего коллективного прошлого, проводить аналогии, делать смелые экстраполяции — и в любом случае 99% процентов таких прогнозов не сбываются или сбываются неточно, просто потому, что невозможно предугадать все факторы, особенно в лихих 2020-х. И нейросети не какая-то волшебная палочка, мы передали им ровно тот же самый принцип оперирования информацией, как это делаем сами. 

И хотя иногда «ИИ» действительно может за счет «отсутствия эмоциональности» что-то проанализировать более тонко, достаточно редко он рассказывает то, о чем мы и так не знали. Вместе с нем у нас, людей, есть сознание, биологический базис нашего мозга, который в результате странной, гиперсложной и до сих пор неизученной комбинации факторов может выдавать совершенно внезапные вещи, прорывы, инсайты. Нейронка это просто математическая модель без биологической базы. Очень странно поэтому ожидать от нее прорывов и советов как выйти из кризиса — это как раз то самое, чего у нее совершенно точно нет и быть не может принципиально.

Но поскольку все говорят «ИИ» вместо «нейросеть», то вслед за этим прицепом тащится априорное предположение, что сейчас искусственный разум нам придумает как круто жить дальше. Мы как будто загипнотизированы своим же отражением в зеркале, и это на самом деле чудовищно.

Вот дальше в том же материале Forbes эксперт повторяет отработанные шаблоны о том, как ИИ все ускоряет и оптимизирует и как все круто:

«Теперь скорость внедрения IT-решений определяется не инфраструктурой, а человеком, вооруженным ИИ. Например, ранее генеративный ИИ требовал нескольких лет на «пробивной» фазе. Сейчас уже через 6–12 месяцев после появления новых разработок он становится стандартом в продажах, HR и логистике…Причина — в изменении фундаментальных процессов: меняют бизнес больше не технологии, а люди, использующие ИИ как расширение своих возможностей. Сегодня сотрудник за 10 минут может сделать то, что раньше заняло бы целый день, и это стало главным драйвером ускорения».

Каковы реальные последствия этой ситуации, мы уже выясняли. Благодаря волшебной палочке «ИИ» сотрудники не работают меньше, они работают БОЛЬШЕ, потому что самих сотрудников теперь алчные работодатели сокращают, заменяя их «ИИ». 

Работы не просто больше — несокращенным сотрудникам теперь ее физически невозможно успеть сделать в срок без использования «ИИ». Результаты труда стандартизируются, вероятность ошибок возрастает кратно, а зарплата остается прежней — если это тот самый дивный технологический мир, который нам обещали, то, может быть, все-таки что-то не так?

Большая цитата из нашего интервью с экспертом

Я теперь наблюдаю тенденцию во многих проектах, что от разработчика-бэкэндера ожидают, что он дополнительно будет совмещать в себе и системного аналитика, и архитектора, и, например, девопса. И еще и настраивать CI/CD ICD…Работодатели должны, наверное, снизить свой энтузиазм по поводу искусственного интеллекта, потому что они не понимают, что в данный момент он им скорее режет возможности, чем приближает к кандидату мечты…Это может быть не афишировано в тексте, но  теперь требуется умение работать с искусственным интеллектом, с чат-ботами, с LLM-моделями. Потому что количество запросов рабочих в один момент времени вырастает так, что достаточно глубокую аналитику каждого вопроса человеческими ресурсами сделать больше не получается...Раньше была потребность в команде из 15 человек, а сейчас эту работу выполняют 9 или меньше. И каждый из них вынужден пользоваться любыми инструментами, которые ему доступны, для того, чтобы хотя бы выполнить свою работу в срок…Естественно, у человека просто нет выхода, когда у него ограниченный срок и есть задачи, которые превышают этот срок по трудоемкости. Без искусственного интеллекта уже не обойтись

…Что из этого получается. Уже можно собрать некоторую статистику: я где-то полгода наблюдаю, как команды взаимодействуют с ИИ. Когда непрофильная задача попадает к сотруднику, особенно если он не сеньор, а начинающий, то для них всегда первый шаг, который они делают — это написать в Chat GPT. Это похоже на рефлекс, от которого очень трудно отказаться. И мы видим в результате снижение качества кода у разработчиков, и качество ревьюинга тоже снизилось — потому что те, кто ревьюит, тоже пользуются Chat GPT, чтобы все успеть. Уменьшилось количество документации, часто бывает что, код нечитаем, а поддержка его или масштабирование требует слишком много ресурсов. Получается, что мы выиграли битву (за продуктивность), но проиграли войну. Это тактическое решение, с повсеместным использованием ИИ, в будущем  будет иметь жесточайшие последствия, потому что потребуется рефакторить всё.

«Исследования» же, которые утверждают позитивный эффект от внедрения нейронок в бизнес и постулируют необходимость всем срочно внедрять «ИИ» абсолютно во всё, буквально запугивая сомневающихся разорением, больше всего напоминают попросту маркетинговые пресс-релизы OpenAI. Ну серьезно, сами почитайте:

Хорошо, а что же такого бесценного производит «ИИ», что позволяет адаптировать бизнес, ускорить производство и прочий маркетинговый бла-бла-бла?

Ради чего весь этот движ-то?

«ИИ» и кризис контента

Сначала насчет контента корпоративного. Самая главная проблема, которая еще не осознана в полной мере сегодня — это уже в полной мере проявившаяся неспособность начальника, сотрудника, технического специалиста, а также его коллег из отдела маркетинга оторвать глаза от ChatGPT и попытаться придумать для рекламы что-то самостоятельно. То есть, теперь такая прогрессирующая афантазия — это фактор, который сам по себе необходимо включать в любое прогнозирование в первую очередь.

Уже сегодня, в начале 2026 года, девять из десяти людей, которым нужно написать любой рекламный материал или статью, да хотя бы даже такую как эта, вместо того, чтобы сесть и подумать самостоятельно, просто откроют окно с ChatGPT и попросят его составить структуру статьи — а то и написать ее целиком. Потом немного подправят — и в продакшн! Удобнее всего таким образом писать на Хабре статьи… правильно, об «эффективности внедрения ИИ»!

В таком слегка причесанном нейротексте обычно сохраняются все типовые конструкции-паразиты типа «X сегодня — это не Y. Не Y, а Z», «разберем X без мифов и фантазий» и общее стремление текста в сторону к глобальному, пусть и парадоксальному объединению всего («X в каком-то роде также и Y, они взаимодополняют друг друга так-то и так-то, это разные взгляды на одну проблему») — просто потому, что у нейросетей стоит жесткий блок на невыдачу пользователю информации вообще (отсюда «галлюцинирование» ответов) и на выдачу информации однозначно негативной (лучше все слепить воедино, мир, дружба, нейрожвачка).

Кризис, который уже начался и в 2026 проявится в полной мере — кризис качественного промо-контента. Из-за низкого качества и одинаковости сгенерированных нейросетями картинок и текстов у компаний начнут падать охваты и конверсия, а их информационный образ из-за связи с бездумными нейросетевыми генерациями станет меняться в негативную сторону. То есть, будет работать все хуже как раз то, ради чего реклама в интернете, собственно, и затевается. 

Хорошо, а что насчет кино и видеоигр — самых доходных сегодня контент-бизнесов? 

Самый часто встречающийся аргумент (каждый раз, когда появляется новый двухминутный ролик по типу «известный мертвый актер дерется с другим известным мертвым актером») — блин, скоро всю армию художников и аниматоров выкинут на мороз, и все можно будет бесплатно рисовать ИИ-шкой! Конечно голливудские студии на такое пойдут, они же жадные!

Да, они жадные и они бы, конечно, на такое пошли. Но… нейросети на текущем уровне развития НЕ МОГУТ нарисовать вам такое же потрясающее кинцо как «Мстители: Финал» хотя бы потому, что у них не хватает для этого мощности. Даже в роликах длиной пару минут видны монтажные стыки, видна неконсистентность генерации. А ведь это все тоже сделано не с первого раза. 

Можете сами посмотреть полнометражный шедевр, сделанный целиком при помощи нейронок, и понять, о чем речь.
Можете сами посмотреть полнометражный шедевр, сделанный целиком при помощи нейронок, и понять, о чем речь.

Чтобы сгенерировать полнометражный фильм, полностью консистентный, где ничего не плавает, не варьируется и выглядит топово, сейчас не хватит всех существующих мощностей дата-центров планеты. А когда — и если, ведь мы можем упереться в текущий потолок развития технологии — такие мощности появятся, поверьте, они будут стоить как минимум сопоставимо с тем, чтобы просто платить зарплату человечкам, что все это нарисуют. 

Поэтому частично использоваться нейронки в графике, разумеется, будут. Полностью — нет, не будут. Не говоря уже о том, какие зрители пойдут в кино по фуллпрайсу за билет, чтобы посмотреть на нейрошедевры? Если OpenAI и другие стратегические мудрецы рынка с нейро-«Титаника» рассчитывают именно на этот вариант окупаемости, то кто-нибудь шепните им, пожалуйста, что айсберг уже прямо по курсу.

Насчет видеоигр примерно все то же самое, с поправкой на специфику и масштаб. При их создании применять нейронки проще — для ассетов, портретов, апскейлинга текстур и много чего еще. Но это и заметнее. А видеоигровое комьюнити значительно более активное и бескомпромиссное чем те, кто ходят в кино.

Если еще в конце прошлого года представители игровой индустрии декларативно присягали на верность нейронкам, то уже в начале этого, видимо, что-то случилось, и начался снежный ком явно негативного отношения к ним со стороны как разработчиков, так и игроков: примеры раз, два, три, четыре, пять.

Окей, здесь мы уже заходим на территорию шаткого прогнозирования. И вы имеете полное право не доверять всему, что написано выше, и счесть это передергиванием и вообще персональными оценочными суждениями автора. Но научным исследованиям-то технари доверяют? Иначе в чем смысл вообще?

Давайте напоследок рассмотрим самое интересное, то, о чем ч��сто как бы шутят, но никогда не говорят всерьез (а в маркетинге просто никогда не говорят) — то, что «ИИ» буквально вызывает брейнрот при регулярном использовании, особенно у молодых. 

«ИИ» и когнитивная деградация

Научное исследование номер раз. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, 216 страниц. 

Кратко о результатах: у студентов, регулярно использующих нейронки, теряется связность различных участков мозга и наблюдаются серьезные проблемы на перспективу.

В исследовании участвовали 54 студента университетов восточного побережья США, которых разделили на три группы: первая использовала ChatGPT, вторая — поиск Google, а третья полагалась только на собственные знания. Подопытные должны были за 20 минут написать короткое эссе в стиле стандартного американского теста для школьников (SAT). Во время этого процесса им замеряли ЭЭГ, чтобы зафиксировать активность различных областей мозга во время работы. Затем группы поменялись инструментами, чтобы замерить долгосрочный эффект использования нейронок.

Между тремя группами обнаружились достоверные и резкие различия: уже через несколько минут после окончания эксперимента 83% пользователей ChatGPT НЕ смогли вспомнить ни одной строчки из текста, который они «написали»; при этом из работавших самостоятельно с этой задачей справились 90%. ЭЭГ также показала ослабленную мозговую активность у пользователей нейронок в зонах, отвечающих за извлечение смыслов, запоминание и глубокую переработку информации. У работавших самостоятельно с этим было все в порядке.

И да, четвертая сессия эксперимента показала, что эти эффекты сохраняются долгосрочно. Это и есть тот самый «когнитивный долг», вынесенный в заглавие эксперимента — используя ChatGPT, мы берем в долг у самих себя, у своих мозговых ресурсов, которые постепенно атрофируются от такого использования.

Прекрасная перспектива, не правда ли?

Несмотря на, казалось бы, однозначность результатов эксперимента, мне удалось найти в ру-сегменте лишь два развернутых мнения об исследовании MIT, оба скептически ставящие валидность работы под сомнение: один на Хабре (автор почему-то счел 200-страничный текст «троллингом») и один вот такой, от «поэта-переговорщика с LLM». Комментарии, полагаю, излишни.
Несмотря на, казалось бы, однозначность результатов эксперимента, мне удалось найти в ру-сегменте лишь два развернутых мнения об исследовании MIT, оба скептически ставящие валидность работы под сомнение: один на Хабре (автор почему-то счел 200-страничный текст «троллингом») и один вот такой, от «поэта-переговорщика с LLM». Комментарии, полагаю, излишни.

Научное исследование номер два. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. 28 страниц, можно осилить при желании даже без ChatGPT, если «когнитивный долг» не зашел слишком далеко.

В выборку исследования вошли 666 (это, если что, случайность!) участников из Англии, отобранных с учетом охвата всех возрастных групп, уровня образования и профессиональных областей.

Думаю, здесь лучше вместо пересказа дать ряд прямых цитат, уж очень они красноречивы

…Участники были разделены на три возрастные группы: 17–25 лет (молодые), 26–45 лет (среднего возраста) и 46+ лет (старшего возраста)....Для измерения использования инструментов ИИ, когнитивной разгрузки и навыков критического мышления был разработан структурированный опросник, состоящий из 23 вопросов, основанный на проверенных шкалах и существующей литературе. 

…Молодые участники (17–25 лет), которые демонстрировали более высокую зависимость от инструментов ИИ, показали более низкие результаты в критическом мышлении по сравнению со своими более старшими коллегами (46 лет и старше). 

…Эти результаты предоставляют убедительные доказательства когнитивного воздействия использования инструментов ИИ. С теоретической точки зрения, наблюдаемые сильные корреляции предполагают, что зависимость от инструментов ИИ создает замкнутый цикл обратной связи, в котором увеличение когнитивной нагрузки усугубляет снижение способностей к критическому мышлению.

…Анализ выявил сильную положительную корреляцию (r = +0,72) между использованием инструментов ИИ и когнитивной разгрузкой, указывая на то, что повышенная зависимость от инструментов ИИ связана с большей степенью когнитивной разгрузки. …Корреляция между использованием инструментов ИИ и критическим мышлением оказалась сильно отрицательной (r = −0,68), что предполагает, что большая зависимость от инструментов ИИ связана со снижением навыков критического мышления. Этот результат согласуется с теорией когнитивной разгрузки, согласно которой ИИ снижает необходимость для пользователей применять глубокое аналитическое мышление и самостоятельное решение проблем. Снижение практики этих навыков может привести к долгосрочному ослаблению способности к критическому мышлению, что подтверждается предыдущими исследованиями, подчеркивающими риски чрезмерной зависимости от технологий при принятии решений и оценке информации [4,6]. Сильная отрицательная корреляция (r = −0,75) между когнитивной разгрузкой и критическим мышлением дополнительно подтверждает эту интерпретацию. 

…Критическое мышление, определяемое как способность анализировать, оценивать и синтезировать информацию для принятия обоснованных решений, является фундаментальным когнитивным навыком, необходимым для академического успеха, профессиональной компетентности и гражданской ответственности….Потенциальное негативное влияние ИИ на критическое мышление выходит за рамки образовательного контекста. В профессиональных и повседневных сценариях использование инструментов ИИ для принятия решений и решения проблем может влиять на когнитивные процессы. …Это может привести к тому, что рабочая сила будет высокоэффективной, но потенциально менее способной к независимому решению проблем и критической оценке.

По мере того, как люди все больше перекладывают когнитивные задачи на инструменты ИИ, их способность критически оценивать информацию, выявлять предвзятость и заниматься рефлексивным рассуждением снижается.

Далее в исследовании отмечается, что инструменты ИИ, автоматизирующие процессы принятия решений, могут привести к отсутствию прозрачности и понимания.

То есть, когда люди полагаются на ИИ при принятии решений, они могут не до конца понимать лежащие в основе процессы и критерии, используемые системой ИИ. И эта проблема «черного ящика» сама по себе снижает критическое мышление и ответственность, поскольку люди слепо доверяют рекомендациям ИИ, не подвергая их сомнению и не оценивая.

Отсюда отсутствие понимания, что нейросеть не думает и что она бесполезна в планировании, потому что подтвердит любой промпт, если найдет в нем хоть малейшее косвенное указание на желаемый результат:

…Алгоритмы, используемые системами ИИ, могут создавать «эхо-камеры», рекомендуя контент, соответствующий существующим убеждениям пользователей, тем самым уменьшая воздействие противоположных точек зрения. Это явление, известное как алгоритмическая предвзятость, может препятствовать критической оценке, поощряя предвзятость подтверждения и снижая критический анализ информации.

Недавние исследования подчеркивают растущую обеспокоенность тем, что, хотя инструменты ИИ могут значительно снизить когнитивную нагрузку, они также могут препятствовать развитию навыков критического мышления. Чжай и др. обнаружили, что студенты, которые в значительной степени полагались на диалоговые системы ИИ, демонстрировали снижение способности к принятию решений и критическому анализу, поскольку эти системы позволяли им разгружать себя от основных когнитивных задач. Аналогично, Круллаарс и др. сообщили, что чрезмерная зависимость от инструментов ИИ для выполнения академических задач привела к снижению навыков решения проблем, при этом студенты демонстрировали меньшую вовлеченность в самостоятельную когнитивную обработку.

Иными словами, когда вы разгружаетесь от рутинных задач, вы на самом деле разгружаетесь от самого процесса мышления.

Самое страшное, что понимание того, что с твоим мозгом делает нейронка, никак не влияет на этот процесс и не замедляет его. Вот еще несколько интересных цитат, теперь это прямая речь участников исследования:

Один из участников отметил: «Я использую ИИ для всего, от планирования до поиска информации. Он стал частью моего мышления». Эта тема согласуется с количественными данными о когнитивной разгрузке, подчеркивая, что инструменты ИИ служат скорее когнитивными заменителями, чем дополнениями.

Несколько участников выразили обеспокоенность по поводу уменьшения возможностей для самостоятельного выполнения когнитивных задач: «Чем больше я использую ИИ, тем меньше я чувствую необходимость решать проблемы самостоятельно. Как будто я теряю способность критически мыслить». Эта тема подтверждает количественное наблюдение о снижении навыков критического мышления, связанном с увеличением использования инструментов ИИ.

Еще один участник заявил: «Иногда я задаюсь вопросом, не подталкивает ли меня ИИ незаметно к решениям, которые я обычно не принимаю». Эти опасения подчеркивают потенциальные этические последствия зависимости от ИИ, дополняя количественные результаты, указывающие на снижение когнитивной активности.

Участник среднего возраста отметил: «Я использую инструменты ИИ почти для всего — будь то поиск ресторана или принятие быстрого решения на работе. Это экономит время, но я задаюсь вопросом, не теряю ли я способность так же тщательно обдумывать вещи, как раньше».

Выводы? Какие выводы?

Выводы из этой печальной ситуации пусть каждый делает сам.

Я лично, изучив гигантское количество материала по теме, пришел для себя ко вполне однозначному выводу: мне дорог мой мозг и внимание, я больше никогда не буду использовать ChatGPT ни для рабочих, ни для развлекательных целей. 

Я взрослый человек, который уже больше 20 лет в интернете, я в состоянии справиться со своими задачами самостоятельно. И уж точно я быстрее сам найду какую-то информацию, чем если буду ходить за нейронкой и каждый раз проверять, не нагаллюцинировала ли она что-то опять (нет, с годами и «развитием технологии» такие галлюцинации не уменьшатся, потому что они заложены в саму предсказательную структуру того, как работает LLM).

Понимаю, для многих полный отказ от использования «ИИ» может выглядеть слишком радикальным решением и вообще «луддизмом» или попросту быть невозможным из-за рабочих моментов, поэтому предлагаю отложить серьезный разговор об этом на пару лет. 

К этому моменту (давайте условно поставим 2028 год) либо OpenAI обанкротится и в целом массовый гипноз на тему «ИИ» сойдет на нет (и тогда я послушаю тех, кто сегодня топит за «искусственный интеллект»), либо это уже прочно закрепится и станет неотъемлемой частью нашей повседневной жизни (и тогда я напишу третью часть материала про нейросети на базе накопленных наблюдений).

Ну или, в конце концов, в нейронке зародится искусственный разум, и он правда нас всех спасет!
В тандеме, конечно же, с Квантовым Компьютером.

Спасибо, что дочитали и велкам в комментарии — рассказать, что именно я упустил в своем анализе ситуации.