Чем толковее врачи, тем больше ошибок они фиксируют в своих отчетах. А проблема плохих врачей не в том, что они плохие, а в том, что они этого не понимают. Видеть ошибки — один из важнейших навыков. Он спасает жизнь, карьеру, семью. Он же является мощным конкурентным преимуществом. Особенно, если знать куда смотреть и как интерпретировать увиденное.
Что ж, попробуем в этом разобраться.
Меня зовут Костя Дубровин. Я веду канал про книги.

В начале карьеры — в 1992 году — будущий профессор Гарвардской бизнес-школы Эми Эдмондсон изучала тему медицинских ошибок. Она обнаружила, что их количество — скорее социальный маркер, чем профессиональный. В здоровых коллективах ошибки выявлялись на ранних стадиях, что положительно влияло на итоговый результат. Как сказал профессор Сколково Павел Алферов: «Самые большие проблемы можно решить пока они маленькие».
Наблюдения Эдмондсон легли в основу концепции психологической безопасности — состояния, при котором члены команды могут свободно высказывать опасения, задавать вопросы и признавать ошибки.
Таксономия неудач
Автор предлагает трехуровневую классификацию ошибок, каждая из которых требует специфического подхода:
• Предотвратимые ошибки (Basic failures) возникают при отклонении от известных процессов и процедур.
• Сложные ошибки (Complex failures) возникают в системах с множественными взаимодействиями, где комбинация факторов создает непредсказуемые результаты.
• Разумные ошибки (Intelligent failures) происходят при экспериментах в условиях неопределенности и являются неизбежным компонентом инноваций. Эдмондсон определяет четыре критерия разумной ошибки:
- действи�� на новой территории
- необходимость эксперимента для достижения цели
- информированная гипотеза (основана на имеющихся знаниях)
- управляемый масштаб неудачи
Это если коротко и сухо. Но в книге есть шикарные примеры. Вот история, иллюстрирующая предотвратимую ошибку:
В ноябре 2020 года сотрудник Citibank должен был перевести $7,8 миллионов кредиторам Revlon. Вместо этого система перевела $900 миллионов — всю сумму основного долга. Техническая ошибка усугубилась человеческим фактором: три сотрудника проверяли транзакцию, но не заметили аномалию. Суд постановил, что кредиторы не обязаны возвращать средства, поскольку Citibank не смог доказать очевидность ошибки. Предотвратимые ошибки требуют стандартизации процессов, чеклистов и систем верификации.
Или вот пример сложной ошибки:
17 июля 1981 года в отеле Hyatt Regency в Канзас-Сити обрушились две подвесные галереи, убив 114 человек и ранив более 200. Расследование показало: инженерная компания Havens Steel изменила дизайн крепления галерей, не пересчитав нагрузки. Изменение казалось незначительным, но удвоило нагрузку на критический элемент конструкции. Сложные ошибки требуют системного анализа, pre-mortem методологии (представление провала проекта до его начала для выявления потенциальных рисков) и междисциплинарного подхода. Или просто хорошего препода по сопромату.
Пример разумной ошибки:
В 1990-х годах фармацевтическая компания Eli Lilly внедрила практику «неудачных вечеринок» (failure parties) для исследовательских проектов. Когда команда завершала эксперимент, не приведший к желаемому результату, но давший ценные знания, это отмечалось как успех. В 2013 году препарат Alimta, разработанный в рамках одного из «провальных» проектов, принес компании $2,5 миллиарда выручки.
Культура страха
Со времен дизельгейта компании Volkswagen прошло 10 лет, но марка до сих пор ассоциируется с тем скандалом. В 2015 году выяснилось, что Volkswagen установил программное обеспечение на 11 миллионов автомобилей для фальсификации данных о выбросах оксидов азота. Правда вскрылась и компания потеряла более $30 миллиардов из-за штрафов и компенсаций.
По итогам расследования причина оказалась в хваленом немецком менеджменте. Когда топы поставили задачу создать «чистый дизель» с определенными характеристиками, инженеры понимали, что это технически невозможно в рамках имеющегося бюджета и временных рамок. Однако, корпоративная культура не позволяла открыто обсуждать технические ограничения с руководством. Поэтому команда инженеров нашла способ изобразить нужные ТТХ.
Похожая история произошла в компании Boeing при разработке 737 MAX. Система MCAS (Maneuvering Characteristics Augmentation System) проектировалась для компенсации изменений в аэродинамике после установки новых двигателей. Инженеры озвучивали опасения по поводу надежности системы. Но главный конкурент — Airbus — наступал на пятки, так что слушать их особо никто не стал. Больше того, им популярно объяснили, что проблема не в надежности системы, а в отсутствии командного духа. Как итог, две катастрофы — Lion Air (189 погибших) и Ethiopian Airlines (157 погибших).
Как использовать ошибки
Автор ожидаемо предлагает опыт компании Toyota, в первую очередь философию непрерывного совершенствования Kaizen. Там и кружки качества, и возможность в любой момент остановить производственную линию, и поставки комплектующих «с колес». Но я раньше как-то не задумывался, что принцип Just-in-time — отличный способ подсветить ошибки, которые иначе трудно обнаружить. В нашей стране это называется: ракета летит, когда задница горит.
Интересно к выявлению ошибок подошли американцы. В 1987 году компанию Alcoa (Aluminum Company of America) возглавил Пол О’Нил, его первое публичное заявление шокировало инвесторов. Вместо производственных планов он объявил о курсе компании на нулевой травматизм. Инвесторы подивились и восприняли это как отсутствие амбиций.
О’Нил установил правило, по которому информация о каждом несчастном случае должна быть предоставлена ему лично в течение 24 часов с анализом причин и планом предотвращения в будущем. Постепенно практика прижилась и отчеты о травмах превратились в механизм выявления операционных и производственных ошибок. За 13 лет руководства О’Нила показатель несчастных случаев снизился в 9 раз, а рыночная капитализация Alcoa выросла пятикратно.
Хитрый О’Нил сформулировал 3 вопроса для руководителей всех уровней:
Делаете ли вы все возможное для обеспечения безопасности людей?
Помогаете ли вы людям найти смысл в их работе?
Признаете ли вы людей как личностей, а не как функции?
Продвигая тему безопасности производства, он создал атмосферу, в которой ошибка расценивается как находка.
Еще один пример из авиации. 1 декабря 1972 года самолет Eastern Air Lines упал в болото в штате Флорида. Погиб 101 человек. Причина катастрофы поражает: экипаж был настолько сфокусирован на неисправной лампочке шасси, что никто не заметил, как самолет снижается. Второй пилот видел проблему, но не решился прервать капитана, занятого... лампочкой.
После инцидента была разработана система управления ресурсами экипажа (Crew Resource Management). Этот документ отменял фундаментальный принцип «капитан всегда прав». Вместо него появилась формулировка: «любой член экипажа обязан высказать опасения». Причем новые протоколы включают:
Стандартизированные фразы для выражения несогласия
Систему градации тревожности (от «я обеспокоен» до «я настаиваю на изменении действий»)
Обязательные симуляторные тренировки с фокусом на коммуникации
В результате этих и других действий количество авиакатастроф снизилось в 40 раз. Теперь самолет — один из самых безопасных видов транспорта.
Принципы, применяемые в авиации можно использовать и в других сферах. Например, сеть медцентров MedStar Health внедрила похожие правила в операционных. Перед началом операции вся команда проводит внутренний брифинг:
Представление членов команды
Обсуждение потенциальных рисков
Явное приглашение всех участников высказывать опасения.
Эта практика позволила снизить на треть процент послеоперационных осложнений.
Практическая часть
По мнению автора в корне проблемы лежит психологическая безопасность человека, который обнаружил ошибку. Эдмондсон впрямую об этом не пишет, но на протяжении всей книги складывается устойчивое ощущение, что весь этот фреймворк можно и нужно применять и к себе тоже. Это реальный способ избегать самообмана.
Итак, автор предлагает разделить весь контекст жизни или бизнеса на три зоны:
Зона комфорта: выполнение отработанных задач по известным алгоритмам. Здесь ошибки нежелательны и указывают на проблемы в обучении или процессе.
Зона обучения: эксперименты, проверка гипотез, освоение новых навыков. Ошибки ожидаемы и желательны как источник знаний.
Зона высокого выполнения: критические операции с высокими ставками, где ошибки недопустимы, но невозможность их полного устранения признается. Пример: хирургическая операция, посадка самолета. Здесь требуется максимальная стандартизация плюс культура немедленной эскалации проблем.
Ключевая ошибка — смешивать эти зоны. Когда команда работает над инновационным проектом (зона обучения), но руководство наказывает за каждую итерацию, не принесшую результат, инновации умирают. Когда рутинные операции (зона комфорта) выполняются без должного контроля качества под предлогом «права на ошибку», страдает надежность.
Лаборатория «лунных выстрелов» в Alphabet, явно определяет свою работу как зону обучения. Проекты оцениваются не по коммерческому успеху, а по скорости получения критических знаний. Закрытие проекта, доказавшего нежизнеспособность идеи, считается успехом, если это произошло быстро и дешево. Они придерживаются принципа: «Fail fast, fail cheap, fail forward» (проваливайся быстро, дешево и двигайся вперед).
Руководителям автор рекомендует:
Публично признавать неопределенность, когда вместо всезнания лидер явно обозначает зоны, где решение неочевидно, и приглашает команду к совместному поиску. Фразы вроде «У меня нет готового ответа, нам нужно это выяснить вместе» легитимизируют экспериментальный подход.
Структурированное приглашение к несогласию: «Что я упускаю в этом анализе?», «Кто видит риски, о которых я не подумал?», «Если бы вы делали это по-другому, что бы изменили?» Вопросы должны быть конкретными, а не риторическими.
Модель поведения через собственные ошибки, когда лидер публично признает свои ошибки, анализирует извлеченные уроки и создает разрешение для команды. Важно, чтобы это не выглядело как самобичевание, а демонстрировало процесс обучения.
Разделение реакции на ошибку в зависимости от типа:
предотвратимая ошибка требует анализа процесса и обучения
сложная ошибка — системного разбора без персонализации вины
разумная ошибка — извлечения знаний и признания вклада в обучение организации
Итого
Исследования автора, которые она вела на протяжении 25 лет, показывают, что конкурентное преимущество в условиях сложности и неопределенности получают не те кто избегает ошибок, а те, кто научился превращать ошибки в знания. Причем быстрее остальных.
Ключевой вопрос для компании или конкретного специалиста — не «как избежать неудач», а «как учиться с той же скоростью, с которой появляются ошибки». Поскольку скорость изменений превышает скорость планирования, именно эта способность определяет конкурентоспособность. Эдмондсон предлагает не просто изменить корпоративную культуру, а пересмотреть экономику информации в командах, то есть создать среду, где стоимость скрытой проблемы всегда выше стоимости ее озвучивания.
Приятного чтения!
И, кстати, напишите в комментариях на какие книги сделать обзор.
