
В последнее время один паттерн стало слишком трудно игнорировать. Компании, которые так и не научились управлять людьми, сейчас точно так же проваливают внедрение ИИ, как было с внедрением Agile‑практик, причем по тем же самым причинам. Изменились только декорации. Ошибки остались прежними.
ИИ не устранил необходимость в менеджменте. Он просто снес часть оправданий для эффективных менеджеров профнепригодных управленцев.
Дисклеймер
Уже более 8 лет я руковожу командами. За это время у меня сформировался большой опыт наблюдения за проблемами и кризисами в компаниях. Зачастую все они начинаются именно на стороне топ-менеджмента или немного ниже.
За последние несколько лет я наблюдал пару компаний, где активно внедрялся ИИ для повышения эффективности команд, где менеджеры рисовали красивые графики продуктивности и экономии ресурсов, обращая внимание лишь на количество задач и строк кода, обработанных ИИ. Результатом становилось сокращение персонала. К слову, считалась эффективность очень просто — нужно было проставить правильные лейблы в Jira и далее выгружалась статистика выполненных задач за определенное время...
По прошествии нескольких месяцев мои наблюдения превратились в заметки, которые оформилось в статью на английском (полировал с помощью ИИ). Решил, что здесь можно описать мысли и более прямо, поэтому данный материал нельзя назвать просто переводом.
Оригинал статьи на английском здесь.
TLDR; Что на самом деле говорит нам ИИ?
Самое важное — это вовсе не вопрос «исчезнут ли рабочие места». Этот спор решается проще, чем кажется: часть исчезнет, большинство изменит форму, а скорость этих перемен будет зависеть исключительно от тех, кто принимает решения.
Куда более глубокий вопрос — умеют ли организации в принципе управлять системами высокой производительности?
Те, кто умеет, уже построили компании, где у людей есть все, что необходимо для эффективности — контекст, распределение ролей и ответственности, обратная связь. Эти организации оказались хорошо подготовлены к эпохе ИИ именно потому, что условия, благодаря которым они были эффективны с людьми, — это те же самые основы управления, которые делают полезным и ИИ. Единственная проблема лишь в том, что таких организаций непропорционально меньше, чем других.
Остальные — не умеют. Они годами паразитировали на человеческой гибкости, затыкая дыры в процессах чужим временем и нервами. Сегодня эти компании в ловушке: ИИ не лечит кривой менеджмент — он проявляет его косяки, лишая «эффективных менеджеров» возможности свалить вину на исполнителей. Весь тот хаос, который люди годами героически тянули на себе в таких организациях, будет детонировать «в продакшне», если организационные и управленческие проблемы не будут устранены.
Компания, которая провалилась в работе с людьми, неизбежно провалится и с ИИ. Не потому, что алгоритмы похожи на людей, а потому, что плохой менеджмент остается плохим менеджментом, кто бы ни стоял за исполнением задач.
Старый баг: выезд на человеческой адаптивности
Задолго до того, как ИИ прописался в презентациях топ‑менеджмента, многие из этих компаний уже сидели на игле «эффективной операционки». Людей они рассматривали как статьи расходов и ресурсы, давление заменяло им внятную постановку задач, а искусственно созданные горящие дедлайны преподносились как «умение работать в режиме многозадачности», «высокий темп работы», «стрессоустойчивость», «ориентация на результат» и «работа в режиме стартапа» (даже для зрелых компаний). Нанимали без онбординга, раскидывали таски без распределения ролей, планировали месяцами и кварталами (если вообще планировали), и часто — оторвано от реальности. В итоге вместо отлаженных процессов и достижения поставленных целей компания получала вечный режим подвига, где выгорание сотрудника считалось лишь досадным побочным эффектом его «недостаточной вовлеченности».
Специфика провала зависела от стадии развития компании, но суть была один:
Стартапы: хаос под маской «скорости»
Здесь приходится существовать в вечном «контекстном долге». При этом ответственность каждого размыта настолько, что её всегда можно перекинуть на соседа, а отсутствие процессов романтизируется и подается как «драйв» и бесконечное личное геройство.Скейлапы: кризис роста и «велосипеды»
Процессы безнадежно отстают от штата — огромная толпа лидов и команд пытается выезжать на тех же костылях, которые работали, когда в компании было всего пятнадцать человек. Модель координации остается поверхностной, а нагрузка просто масштабирует старые проблемы.Энтерпрайз: гипербюрократизация вместо ясности
Тут хаос упаковывают в «стерильную» обертку из бесконечных синкапов, аппрувов и бюрократических артефактов. Это мир процессов ради процессов, где никто не хочет брать на себя отвественность, структура не выглядит прозрачной, зато солидно смотрится на слайдах для совета директоров.
Что объединяет все эти проявления? Система не падала только потому, что человеческая адаптивность скрывала проблемы дольше, чем они того требовали на самом деле. Люди компенсируют. Команды закрывают собой дыры. Сильный синьор способен бесконечно долго тащить на себе слабого менеджера и весь проект, прежде чем кто-нибудь заметит, кто и чью работу на самом деле делает (если заметят вообще).
Новая ошибка: автоматизация хаоса
Теперь те же организации пытаются собрать ИИ-инициативы на основе тех же костылей — лексика сменилась на хайповую, но проблемы в менеджменте остались прежними.
Тезис «ИИ‑трансформация кратно повысит нашу эффективность» — это не стратегия, а попытка делегировать управленческую ответственность алгоритмам. В реальности это выглядит как надежда на «автоматический рефакторинг» процессов, в которые менеджменту лень погружаться.
Логика проста: если раньше хаос выравнивался за счет адаптивности людей, то теперь вся надежда — на «магию» нейросетей. В самом деструктивном сценарии это подается как повод для оптимизации штата: «мы заменим дорогих спецов дешевыми токенами».
Но, если воркфлоу не перепроектирован, а границы ответственности ИИ размыты, вы не внедряете инновацию — вы просто масштабируете энтропию, превращая вынужденные, но понятные человеческие «костыли» в непредсказуемый техногенный шум».
В Anthropic недавно признали, что их старые методы оценки просто перестали работать. Рост возможностей LLM ломал тесты не из-за галлюцинаций модели, а потому что сами критерии оценки строились на устаревших допущениях. По сути, технологический скачок просто подсветил архитектурную неготовность системы.
Инженеры Amazon в свежих гайдах по оценке агентных систем «бьют по рукам» любителей бесконтрольной автоматизации. Их главный совет — не «плодите больше агентов», а стройте жесткие границы вокруг них. В реальном продакшене агентам жизненно необходимы компонентные метрики и обязательное ревью от «кожаных мешков». И это не опциональная фича, а обязательное условие выживания системы.
Другими словами: когда ИИ выходит за рамки чат-бота и встраивается в реальный продакшен, архитектура процессов перестает быть просто красивой картинкой на слайдах — она становится несущей конструкцией и критической зависимостью, которая не дает всей системе сложиться как карточный домик.
Что от системы нужно и людям, и ИИ
Тут важно не свалить людей и ИИ в одну кучу. Люди и статистические модели — это принципиально разные типы агентов, и требуют разного отношения. Но у них есть общее «бутылочное горлышко» — и те, и другие малоэффективны или вовсе беспомощны внутри слабой операционной системы.
И те и другие деградируют, когда цели размыты, инструкции противоречивы, а контекст нарезан тонкими ломтиками, если он вообще есть. В хаотично устроенной компании и новый инженер, и свежеподключенная LLM выдают похожий результат: неполный, местами ложный и дорогой в плане верификации (самоуверенности некоторых ИИ-агентов можно только позавидовать).
Именно поэтому термин «Context Engineering» в разговорах про ИИ — это не что иное, как менеджмент, просто под другим названием. Кто‑то должен решить, что модели нужно знать, в чем на самом деле состоит ее работа, каковы критерии оценки результата и кто его валидирует. Если этой архитектурой никто не занимается — система «лежит». Если этим занимается толковый лид — механика внезапно начинает работать.
Кейс Бриньольфссона и Ли (5000+ сотрудников саппорта): Генеративный ИИ повысил производительность в среднем на 14%. Но дьявол в деталях: основной прирост пришелся на новых сотрудников. Для них ИИ стал не «заменой», а когнитивным экзоскелетом, который помог вписаться в структуру рабочих процессов. Там, где структуры не было, ИИ не помог никому.
Гибридные команды (Human + AI): Исследования показывают, что связка человека и ИИ обходит в результативности обоих по отдельности только при одном условии — если их взаимодействие продумано — когда доверие откалибровано, а интерфейс взаимодействия проработан чьей‑то головой. Без этого «дизайна» гибридная команда перформит хуже, чем человек или модель в одиночку.
Любого, кто хоть раз руководил командой, это не должно удивлять. Производительность — это свойство системы, а не её компонентов, и попытки «оптимизировать штатку», просто заменив людей на токены без перепроектирования всей системы, — это не экономия, а технологичный суицид.
Где заканчивается аналогия между человеком и ИИ
Всё, что я сказал до этого момента может звучать так, будто я свожу людей к простым юнитам с определенной пропускной способностью. Это, разумеется, не так.
Людям нужно то, что в принципе не требуется моделям: справедливость, признание, доверие. Им важно ощущение, что их работу видят, а в их рост — вкладываются. Им жизненно необходима психологическая безопасность: право не согласиться с решением сверху и не получить за это «черную метку». Наконец, человеку нужно что‑то, напоминающее смысл. Это не просто условия результативности — это «базовый минимум», при котором профессионал на работе остается профессионалом, а не превращается в апатичную функцию.
Недавний материал MIT Sloan о фреймворке EPOCH утверждает, что ИИ скорее дополнит работников, чем заменит их. Авторы выделяют способности, которые остаются специфически человеческими: эмпатия, лояльность, наличие собственного мнения, творчество и вера. Можно спорить с этим утверждением, но вектор верный: люди — это не просто «исполнительский слой», а лидерство — всегда неизмеримо большее, чем механическая раздача задач в Jira.
Выясняется удивительная вещь: условия, благодаря которым люди в команде расцветают — ясность, понятный контекст, обратная связь, — оказываются теми же самыми условиями, которые делают результативным и ИИ. Это не совпадение. Это то, как всегда выглядел компетентный менеджмент, просто примененный к новому, неорганическому «материалу».
Почему слабые менеджеры могли прятаться за людьми
Вот самая неудобная часть — и, на мой взгляд — главная причина того, почему так много ИИ-инициатив разочаровывают бизнес.
Слабый менеджмент исторически умел создавать иллюзию эффективного движения. Он делал это через давление, статус, манипуляции и искусственно созданные авралы (что происходило и на моем предыдущем проекте). Хорошим управлением это не было никогда, но человек — существо запредельно адаптивное. Сильные исполнители годами тянули на себе слабых управленцев, команды героически закрывали дыры в процессах, а люди задерживались допоздна, чтобы система просто не развалилась.
ИИ не делает ничего из этого.
Ему плевать на давление. Его не запугивает должность и не впечатляет самый громкий голос в Slack-канале. У модели нет амбиций, нет чувства долга и желания «выручить компанию». Если контекст фрагментарен, роль размыта, а воркфлоу сломан — результат деградирует мгновенно, и это очевидно сразу, а не через полгода на на перформанс ревью, где это подается как «проблема с софт-скиллами». ИИ не будет пытаться «вытащить» проект на морально-волевых — он просто выдаст бесполезный результат.
Когда внедрение признают неудачным, обычно звучит дежурное: «модель слишком галлюцинирует» или «у нас слишком специфический домен для текущих LLM». Если копнуть глубже, то почти всегда это история про дефектную операционную модель, а не про нейросети. Менеджеры, привыкшие эксплуатировать человеческую гибкость как универсальный «костыль» для кривых процессов, внезапно столкнулись с системой, у которой нулевая толерантность к управленческому хаосу. Выяснилось, что ИИ не будет догадываться, что вы имели в виду в двухстрочном ТЗ, и не станет «входить в положение», исправляя плохую организацию и постановку задач личным героизмом. Там, где человек доделает за начальством, ИИ просто вывалит мусор, мгновенно обнажая профнепригодность тех, кто этот процесс проектировал.
Что я узнал на собственном опыте
Я пишу об этом так уверенно только потому, что сам прошел через все эти стадии и как работник, и как пользователь ИИ. Мои первые попытки всерьез использовать нейросети были классическим примером токсичного делегирования.
Запросы были максимально размытыми, контекст — микроскопическим, а ограничения подразумевались «по умолчанию». Ревью либо происходило слишком поздно, либо не случалось вовсе, и когда модель выдавала несусветную чушь, я первым делом винил «тупой ии», и только потом — свои кривые вводные. Я вел себя как типичный «эффективный менеджер» в первую неделю работы с новым сотрудником: просто перекидывал задачи и надеялся, что ясность как‑нибудь зародится сама собой. Результат был предсказуемо паршивым.
Поворотным моментом стал не «секретный промпт» и не выход новой GPT.
Всё изменилось, когда я перестал относиться к ИИ как к «волшебной кнопке» (той самой) и начал выстраивать с ним реальные рабочие отношения. Это значило:
Обозначать полный контекст. Как минимум — достаточный для понимания конкретной задачи: с отсылками к документации, архитектурным подходам и целям.
Декомпозировать задачи, итерировать. Дробить работу на куски, которые я реально в состоянии проверить, двигаться короткими шагами в несколько заходов, проверять, а не принимать на веру.
Четко фиксировать роль и границы. Определять ответственность: что он делает, а куда точно не лезет.
Определять критерии качества «на берегу». Договариваться о том, что считается хорошим результатом, еще до того, как нажат Enter.
Результат изменился кардинально. Не потому, что модель внезапно поумнела, а потому, что условия ее работы стали такими, в которых любой компетентный исполнитель — хоть человек, хоть нейронка — смог бы выдать качественный результат.
Урок оказался до боли знакомым: качество работы растет только тогда, когда растет качество менеджмента. И неважно, кто у тебя в подчинении — белковый инженер или терабайт весов.
Как выглядит серьёзная операционная модель
Теперь перейдем к конкретике, иначе «хороший менеджмент» так и останется пустой декларацией. В здоровой связке «человек + ИИ» за людьми должны оставаться задачи, требующие субъективного суждения и работы с настоящей неопределенностью. Это ответственность, выстраивание отношений, балансировка ограничений и принятие решений, подразумевающих высокий уровень ответственности.
ИИ же должен забирать на себя все, что имеет четкие границы: структурированный анализ, подготовку черновиков, синтез данных и повторяемую поддержку в заданных пределах. Это не «второстепенная роль» — на деле именно эта рутина сжирает у команд кратно больше времени, чем задачи, действительно требующие высокого интеллектуального вовлечения.
В этой парадигме работа лидера — спроектировать процесс и интерфейс между командой и ИИ:
Роли и границы: где вывод модели становится входом для человеческого решения, а где он становится самим решением (и на каком основании).
Эскалация и ревью: как выглядят циклы обратной связи и в какой момент «кожаный мешок» должен вмешаться.
Реинжиниринг воркфлоу: какие части процесса нужно пересобрать с нуля, потому что ИИ делает их копеечными, а какие — защитить, потому что использование агентов влечет много рисков.
Ни один из этих вопросов не является экзотическим, это база, на которую любой компетентный менеджер всегда отвечал при проектировании работы — просто теперь в уравнении появился новый тип «сотрудника».
Большинство разговоров об «ИИ-стратегии», которые я вижу сегодня, застревают на уровне закупок лицензий и доступа к API. Это самая легкая часть. Сложная — системный/операционный дизайн. Именно он определяет, получите ли вы на выходе ощутимый результат.
Отсылки
Anthropic Engineering, Designing AI-resistant technical evaluations. https://www.anthropic.com/engineering/AI-resistant-technical-evaluations
AWS, Evaluating AI agents: Real-world lessons from building agentic systems at Amazon. https://aws.amazon.com/blogs/machine-learning/evaluating-ai-agents-real-world-lessons-from-building-agentic-systems-at-amazon/
Brynjolfsson, Li, Raymond, Generative AI at Work, NBER Working Paper 31161. https://www.nber.org/papers/w31161
Toward a science of human–AI teaming for decision making: A complementarity framework, PNAS Nexus. https://academic.oup.com/pnasnexus/article/doi/10.1093/pnasnexus/pgag030/8490283
MIT Sloan, New MIT Sloan research suggests that AI is more likely to complement, not replace, human workers. https://mitsloan.mit.edu/press/new-mit-sloan-research-suggests-ai-more-likely-to-complement-not-replace-human-workers
