Умные машины — неумелые пользователи?

Мы все слышали о «ИИ-деградации мозга», «ИИ-психозе» и «ИИ-помоях». Если вы проводите время онлайн, совершенно очевидно, что сочетание соцсетей и ИИ не особо полезно для нейронов. О чём говорят гораздо реже — это влияние использования ИИ на работе, хотя оно потенциально ещё более значимо.
К счастью, эта тема начинает попадать в заголовки. Но большинство публикаций не объясняют почему использование ИИ на работе может быть проблематичным и совершенно упускают тот факт, что нас предупреждали об этих рисках с самого начала.
Добро пожаловать в мир деквалификации через ИИ.
История из практики: опыт Джоша Андерсона
Business Insider недавно опубликовала показательную статью. В ней рассказывается история Джоша Андерсона, опытного софтверного консультанта, который поделился своим опытом разработки приложения Road Trip Ninja.
Он провёл небольшой эксперимент: попытался заставить ИИ написать весь код целиком. Поначалу всё шло отлично. Но когда код разросся до более чем 100 000 строк, а взаимодействие с чат-ботом из минут превратилось в часы, Андерсон всё больше разочаровывался — прогресс застопорился.
Конечно, это был эксперимент. Андерсон мог в любой момент вмешаться и закодить приложение сам — хотя разбирать огромный блок ИИ-генерированного кода почти без комментариев крайне сложно.
Но опыт Андерсона высветил серьёзную проблему. Даже Anthropic обнаружила, что использование генеративных ИИ-инструментов для кодирования заметно снижает навыки программиста в отладке и понимании кода.
Так вот вопрос, учитывая тенденции в софтверной индустрии: а смог бы программист реально вмешаться и закончить то, с чем не справился ИИ?
Статья объясняет, что опыт Андерсона «поднял вопросы о реальном влиянии ИИ на сохранение и развитие навыков» и «подчёркивает более широкую озабоченность среди исследователей рабочей среды: риск деквалификации в условиях растущей зависимости от ИИ».
Не только один случай
Учитывая, что это проблема всей отрасли, статья не ограничилась экспериментом Джоша. Она также отметила, что разработчики признавали: задачи становились значительно сложнее во время недавнего сбоя Claude, когда их ИИ-ассистент оказался недоступен. Это указывает на опасную зависимость.
У этой проблемы есть несколько названий и схожих объяснений, которые статья кратко упоминает.
Кстати, об инструментах. Пока одни обсуждают, как ИИ влияет на навыки, другие просто используют технологии как инструменты усиления. Если вам нужен доступ ко всем ключевым моделям — Claude, GPT, Gemini — загляните на BotHub.

Для доступа не требуется VPN, можно использовать российскую карту.
По ссылке вы можете получить 300 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
«Эффект отскока ИИ»
Например, Джош Носта называет это «эффектом отскока ИИ». Он описывает ситуацию, когда рост производительности, обеспеченный ИИ, скрывает снижение уровня навыков.
Как он выразился:
«Когда автоматизация берёт на себя детали, ситуационная осведомлённость притупляется. В таком контексте мы меньше сканируем, меньше предвидим и делаем меньше микрокорректировок. Проще говоря: ментальные модели, на которые мы полагаемся для навигации в сложных ситуациях, сжимаются — потому что система делает то, что раньше делали мы сами. Со временем это не просто приостановка навыка. Это может быть скорее эрозия. И когда технология отступает, навык не просто возвращается к базовому уровню. Он может вернуться ниже».
Иными словами, навык и экспертиза — это мышцы, требующие тренировки, иначе они атрофируются. Автоматизация этих решений с помощью ИИ может привести к утрате критических навыков.
«Когнитивный долг»
Доктор Ребекка Хиндс называет это «когнитивным долгом». Как я писал в предыдущей статье, доктор Хиндс тоже обеспокоена атрофией критических навыков.
Она обнаружила: если ИИ используется как ярлык для автоматизации задач, расширения объёма работы или сокращения персонала, работники теряют критическую экспертизу, потому что она больше не тренируется. При этом у них развивается опасная ложная уверенность, увеличивающая вероятность пропуска ошибок.
Доктор Хиндс предлагает использовать ИИ в связке с экспертами: предоставлять варианты, но оставлять принятие решений за человеком. К сожалению, именно так ИИ не используется. И действительно ли такое использование повышает производительность — для многих всё ещё под вопросом.
ИИ-деквалификация: не гипотеза, а реальность
В широком понимании эта проблема известна как ИИ-деквалификация (AI deskilling). Обычно её определяют так: ИИ используется для автоматизации или усиления работников и берёт на себя большую часть их когнитивной нагрузки. Но именно эта нагрузка создаёт и поддерживает критические навыки работников. Следовательно, развёртывание ИИ таким образом неизбежно размывает критические навыки рабочей силы.
И это не гипотеза. Мы знаем об этом уже довольно давно.
Например:
Исследование 2023 года от JYX проанализировало, как автоматизация в бухгалтерской фирме напрямую привела к эрозии навыков и заметному снижению критического мышления (самоуспокоенности), что негативно влияло на бизнес.
Исследование начала 2025 года от Carnegie Mellon (при поддержке Microsoft) опросило 319 «работников умственного труда» и обнаружило: генеративная ИИ-автоматизация и усиление вызывают серьёзную потерю критических навыков и критического мышления.
Более свежее исследование показало: генеративное ИИ-усиление в медицине размывает критические навыки врачей, а значит, если ИИ убрать, их производительность упадёт ниже прежнего уровня без ИИ.
Если вы думаете, что это значит, будто ИИ всё-таки можно использовать для автоматизации низкоквалифицированных задач — почитайте мою предыдущую статью, чтобы понять, почему это не так.
Почему это важно?
Хорошо, но почему это имеет значение, что работники теряют навыки и экспертизу? Возьмём пример с врачами. Исследование показало: генеративное ИИ-усиление действительно повышает эффективность врачей. Так важно ли, что навыки уходят, если они больше не нужны?
Ответ: да, важно. Потому что эта экспертиза и эти навыки всё ещё нужны и не были по-настоящему заменены.
Во-первых: нельзя полагаться на ИИ
Возьмём пример с Claude. Эти системы иногда испытывают сбои. Заметное снижение производительности или способностей в такие моменты может быть неприемлемо. Представьте, что врач не может поставить диагноз, потому что ChatGPT офлайн!
Также эти ИИ регулярно обновляются или их функционал корректируется, что может нарушить то, как они интегрированы в рабочую среду, заставляя работников применять критические навыки для решения ситуации.
Во-вторых: откуда брать данные для обучения?
Чтобы работать в этих областях, ИИ нужно постоянно обучать на огромных объёмах детальных данных, чтобы модели были максимально точными и актуальными. Эти данные предоставляют квалифицированные эксперты. Но если они деквалифицируются — откуда взяться этим данным? Есть вероятность, что деквалификация рабочей силы может сделать эти ИИ заметно хуже.
В-третьих: ИИ-компании могут исчезнуть
Не забывайте: эти ИИ-компании не прибыльны и могут обанкротиться и исчезнуть в не столь отдалённом будущем. Создавать зависимость от них — не самая мудрая стратегия.
В-четвёртых: ИИ — не полное решение
Мы также забываем, что ИИ — не полное решение, и усиление через ИИ не означает, что эти навыки не требуются. Мы ясно видели это на примере Джоша Андерсона.
Андерсону пришлось вкладывать экспоненциально больше усилий, чтобы заставить ИИ выполнить задачу — потому что тот был не способен сделать это самостоятельно. По-настоящему требовалось, чтобы кто-то пришёл и независимо закончил работу. А для этого нужны все навыки кодирования: понимать код, следить за логикой, отлаживать проблемы, правильно соединять части и делать всё эффективным.
Иными словами, деквалификация может оставаться незамеченной до того дня, когда эти навыки потребуются для завершения критической задачи — которая тогда не сможет быть выполнена.
Пример Amazon
Это стало очевидно во время недавних сбоев Amazon. Я писал об этом в предыдущей статье: Amazon уволила значительное число инженеров и фактически попыталась заменить их, усилив оставшихся ИИ.
Однако оказалось: многие из уволенных инженеров обладали высокой квалификацией в предотвращении и устранении сбоев — а этой экспертизы не хватало оставшимся командам. Результат — волна гигантских, частых и крайне дорогостоящих сбоев.
Кто бы мог подумать?
И всё это — напрасно?
И всё это, вероятно, напрасно. Помните исследование Anthropic? Оно показало, что прирост производительности от использования ИИ-инструментов для кодирования не достигал статистической значимости.
То есть, как минимум в некоторых отраслях, нет измеримой выгоды, чтобы компенсировать огромный минус деквалификации. Это проигрыш-проигрыш: генеративные ИИ-инструменты дороже, но не дают прироста производительности, при этом заставляя программистов быстро терять критические навыки, которые всё ещё требуются.
Звучит как плохая сделка.
Это проблема всей отрасли?
Для разработчиков — возможно, да. Всё, что мы обсудили, может объяснить недавние находки METR.
Их предыдущий опрос 2025 года показал: ИИ-инструменты для кодирования замедляют опытных программистов на 20% — время, потраченное на исправление ИИ, превышает время, сэкономленное его использованием.
Однако опрос 2026 года был признан «ненадёжным». Почему? Потому что слишком мало программистов были готовы работать без генеративных ИИ-ассистентов.
Но ведь, как обнаружила Anthropic, значительного прироста производительности они не дают. Так в чём дело? Если значительная часть индустрии испытала ИИ-деквалификацию — это всё объясняет. Многим программистам теперь может не хватать навыков для кодирования без помощи ИИ, и потому они не готовы это делать.
Вторичная проблема
Примерно 84% программистов используют генеративные ИИ-ассистенты для кодирования. Это значит, что опросы вроде METR могут с трудом находить контрольную группу программистов, не подвергшихся ИИ-деквалификации и способных хорошо кодить самостоятельно.
Иными словами, эта общеотраслевая проблема деквалификации может искажать будущие исследования.
Что всё это значит?
Без серьёзных ограничений ИИ — это бомба для навыков и экспертизы. Это было бы проблемой, если бы происходило в нескольких изолированных случаях. Но ИИ разворачивается хаотично по целым секторам и отраслям, и потому он угрожает размыть наши коллективные навыки и способности.
Это делает проблему масштабной — и она коснётся всех нас.
Как решить эту проблему — разговор для другого дня. Регулирование ИИ, расширение прав работников, корпоративная реструктуризация — лишь несколько возможных вариантов.
Но пока я просто рад, что эта тема попадает в заголовки — хотя она заслуживает гораздо, гораздо большего освещения.
