Представьте: внутренняя команда платформы аналитики завершила квартал и большой набор инициатив, всё прошло по плану. Но тут же при подведении итогов возникает вопрос: «А наши внутренние пользователи заметили разницу? Это как-то повлияло на их работу?». В ответ получаем разрозненные отзывы: где-то похвалили, где-то пожаловались, а где-то вообще промолчали. 

В статье расскажу про решение, которое помогло команде платформы аналитики, а затем и целому департаменту аналитики в Туту системно собирать обратную связь и измерять пользовательский опыт. Поделюсь опытом, как нам удалось превратить разрозненные отзывы в систему и как мы заставили метрики «говорить».

Привет! Меня зовут Саша, я системный аналитик в компании Туту. Занимаюсь системным анализом и работой с неопределённостью в команде платформы аналитики. 

Мы развиваем сложные аналитические инструменты для внутренних пользователей — других команд компании. Полтора года назад осознали, что действуем порой вслепую. Мы делаем масштабные задачи и полезные изменения: например, внедряем UI-инструмент для подсчёта метрик и подведения итогов АБ-тестов для аналитиков и владельцев продуктов. Но при этом не можем объективно измерить, как это влияет на опыт и работу наших пользователей. Нужен был простой, но системный подход, который превратит набор отдельных мнений разного формата и наполнения в объективные метрики.

Какую проблему решаем

Наша целевая аудитория — это внутренние команды компании: продуктовые аналитики, разработчики и владельцы продуктов. Мы создаём инструменты для их повседневной работы, поэтому отношение к нашим инструментам и сервисам прагматичное и функциональное: важно, чтобы решения помогали быстрее и надежнее выполнять рабочие задачи.

Отношение пользователей к нашим инструментам строится на трёх компонентах:

  • Функциональность: решает ли инструмент задачу пользователя

  • Эффективность: насколько быстро и продуктивно у пользователя получается решить задачу

  • Ощущения от использования: как себя чувствует пользователь после использования инструмента

Классические метрики вроде NPS («Оцените вероятность рекомендации») здесь не помогут: коллега вряд ли будет рекомендовать внутренний инструмент как, например, бренд техники. А единый вопрос CSAT («Насколько вы довольны?») слишком общий и не говорит, что именно нужно улучшать и в каком аспекте есть проблемы. 

В процессе выбора подходящей метрики мы столкнулись с проблемами:

  • Хотим измерять, но не знаем, какие вопросы задавать, чтобы узнать всё, что нам нужно

  • Как всё это оцифровывать, систематизировать и использовать

  • Как узнать у пользователя достаточно информации, но не занять при этом час его рабочего времени

В упомянутых выше подходах пользователи склонны давать излишне положительные оценки с формулировкой: «Моя проблема в целом решалась — не буду ставить низкую оценку».

Решение — Temkin Experience Ratings

В поисках ответа мы обнаружили для себя фреймворк Temkin Experience Ratings. И решили применить его для решения нашей задачи.

Его сила в простоте и комплексности. 

Он разбивает весь пользовательский опыт на три компонента, которые идеально легли на наши нужды:

  • Успех (Success): Могу ли я сделать то, зачем пришел? Оценивает функциональность и эффективность

  • Усилие (Effort): Насколько это было легко? Оценивает простоту использования и требуемые усилия на решение задачи

  • Эмоция (Emotion): Как я себя после этого чувствую? Оценивает общую удовлетворенность и лояльность

Вот он — готовый каркас для нашего будущего опроса. К тому же, это именно те три компонента, которые мы хотим оценивать, чтобы понимать пользовательский опыт так, как нам это требуется.

Адаптация подхода

Академический подход Temkin Experience Ratings (TER) в чистом виде нам не совсем подошёл, поэтому мы его адаптировали. Исходная анкета оказалась слишком объёмной для регулярного опроса, а используемая в ней шкала излишне размытой: участникам нужно было найти разницу между, например, оценками 2 и 3 или 5 и 6. Нам нужна была простая форма, которую можно разослать раз в квартал и заполнить за 10–15 минут. 

В итоге мы взяли за основу три компонента пользовательского опыта в соответствии с TER-подходом, переформулировали вопросы и сделали шкалу ответов словесной — так анкета стала понятнее и удобнее для пользователей.

Пример части нашего опроса для инструмента «Каталог данных»:

Success (в терминах TER)

  • Оцени, насколько Каталог данных закрывает твои потребности (вопрос про степень достижения ожидаемых результатов при использовании инструмента)?

    • Полностью закрывает

    • Закрывает большую часть

    • Закрывает меньшую часть

    • Совсем не закрывает

Effort (в терминах TER)

  • Оцени, насколько текущий Каталог данных понятен и лёгок в использовании (вопрос про легкость достижения ожидаемых результатов при использовании инструмента)?

    • Всегда легко и понятно

    • Вопросы возникают редко

    • Вопросы возникают часто

    • Ничего не понятно

Emotion (в терминах TER)

  • Оцени свой опыт использования Каталога данных (вопрос про удовлетворённость и ощущения при использовании инструмента).

    • Крайне положительный

    • Положительный

    • Нейтральный

    • Негативный

    • Крайне негативный

Механика реализации

Общий подход к расчёту результирующих метрик мы взяли из методологии TER с поправкой на наши адаптации — изменение шкалы и вариантов ответов.

Что мы изменили:

  • Положительными считаем ответы 1 и 2 (по порядку вариантов)

  • Негативными считаем 3 и 4 в том случае, если вариантов 4, 4 и 5 — если вариантов 5 (по порядку вариантов)

Процесс обработки данных и расчёта результирующих метрик по опросу TER выглядит так:

  • Выгружаем результаты опроса

  • Преобразуем и загружаем в наш DWH в гибкой структуре

  • По каждому инструменту в отдельности рассчитываем TER-индексы с помощью SQL-запросов:

    • по компоненту Success — закрытие потребностей

    • по компоненту Effort — лёгкость выполнения задач

    • по компоненту Success — общее впечатление

  • Рассчитываем общий TER-индекс по всем инструментам

  • Визуализируем на дашборде в нашем BI-инструменте: показываем динамику изменения всех рассчитанных индексов в сравнении с прошлыми периодами

Особенности TER-метрики и интерпретации результатов

TER — это не мгновенный датчик качества, а диагностический инструмент, который требует корректной интерпретации. У метрики есть особенности, которые важно учитывать в работе и которые мы сознательно приняли, выстроив вокруг них дополнительные практики.

Эффект запаздывания

TER может запаздывать и не всегда полноценно отражает эффект изменений к концу квартала. Реакция пользователей на улучшения или ухудшения зависит от TTM в организации, внешнего контекста и частоты использования инструмента.

Для внутренних продуктов это особенно чувствительно: изменения могут быть внесены, но пользовательский опыт начинает меняться постепенно.

Как мы нивелируем этот эффект:

  • не используем TER как единственный источник истины

  • дополняем его точечными интервью с пользователями

  • анализируем динамику на горизонте нескольких периодов

В итоге TER служит не индикатором «моментального успеха», а мерилом устойчивого тренда.

Метрика отражает соответствие контексту, а не только абсолютное качество

TER не всегда меняется из-за объективного улучшения или ухудшения инструмента. Чаще он сигнализирует о том, насколько инструмент соответствует текущему ландшафту компании и ожиданиям пользователей.

Пример: документация инструмента со временем устарела, а в квартале в команду пришло несколько стажёров. Новички столкнулись со сложной и несовершенной документацией, хотя сам инструмент технически не ухудшился.

Формально продукт остался прежним. Фактически его качество перестало соответствовать новому профилю аудитории.

В этом случае снижение TER не говорит о деградации инструмента, а подсвечивает:

  • изменение профиля пользователей и аудитории

  • изменение/рост требований

  • накопленный долг в сопровождении

Почему это для нас плюс, а не минус: метрика помогает выявлять рассинхрон между продуктом и реальностью компании. Она становится инструментом ранней диагностики, который запускает интервью, анализ сценариев использования и приоритизацию изменений.

Почему мы оставили TER, несмотря на ограничения

Мы осознанно используем TER не как абсолютную оценку качества и не как оперативную метрику, а как инструмент управления пользовательским опытом во времени.

Его ценность для нас в том, что он:

  • показывает системные сдвиги, а не шум

  • сигнализирует о накопленных несоответствиях

  • помогает выявлять риски до того, как они становятся критичными

Ограничения метрики компенсируются процессом: дополнительными источниками данных, регулярными интервью с пользователями и анализом контекста изменений.

TER для нас — не запаздывающий индикатор, а рабочий инструмент управления. Он помогает вовремя замечать зоны риска и превращать их в понятные задачи для развития, если правильно читать его сигналы.

Результаты внедрения TER-метрик

Подход помог нам системно собирать и оценивать пользовательский опыт. При этом для каждого участника процесса он принёс свою пользу.

  • Для команды: мы теперь лучше понимаем, как наша работа влияет на пользователей и оперируем известными и объективными данными. По итогам внедрения новых фич или инструментов мы видим не просто факт деплоймента, но явную реакцию конкретных индексов и метрик. Для нас это лучшая мотивация и объективный показатель эффективности и ценности для бизнеса.

  • Для руководителя: появилась понятная фактура для диалога с директорами и руководителями бизнеса. Вместо абстрактных «мы улучшили юзабилити» можно показать динамику TER-индексов. Это помогает аргументировать ресурсы на развитие команды и планирование конкретных проектов с измеримыми целями.

  • Для наших коллег: появился простой, структурированный и заметный канал для обратной связи. Они видят, что мнение не уходит в пустоту, а напрямую влияет на развитие инструментов, которыми они пользуются каждый день.

Масштабирование

После успеха пилота в команде платформы аналитики другие команды департамента, у которых тоже есть внутренние клиенты, заинтересовались подходом. 

Тогда мы сделали следующее:

  • Расширили опрос вопросами про услуги и инструменты других команд департамента

  • Настроили логику внутри опроса, которая позволяет пользователю отвечать только на вопросы про те инструменты или услуги, которыми он пользуется

  • Взяли на себя работу по регулярному проведению опроса и обработке результатов

Сегодня методологию используют несколько команд для оценки десятков внутренних инструментов и процессов.

Выводы

Пользовательский опыт внутренних инструментов можно и нужно измерять системно. Разрозненные отзывы не дают управляемости. Регулярный и структурированный сбор обратной связи превращает ощущения в данные и позволяет видеть динамику, а не отдельные мнения.

TER — отличный подход для оценки пользовательского опыта. Фреймворк даёт сбалансированную картину и показывает не только «что» думают пользователи, но «о чём» и «почему». А ещё —  какие выводы из результатов можно сделать и куда дальше копать.

Метрики усиливают позицию команды в диалоге с бизнесом. Когда пользовательский опыт оцифрован, разговор переходит из плоскости «нам кажется» в плоскость «вот динамика индексов и конкретные зоны роста». Это упрощает приоритизацию, аргументацию ресурсов и планирование инициатив.

Если наш подход вас вдохновил — не бойтесь начинать с малого. Попробуйте запустить такой опрос для одного из ваших инструментов в следующем квартале :)

Вопрос к читателям:

А как вы справляетесь с задачей оценки пользовательского опыта для внутренних инструментов и продуктов? Сталкиваетесь ли с похожими сложностями?