Как унифицировать оценку задач командами и зачем это делать?
Перед менеджером продукта часто возникает потребность в оценке задачи до передачи ее в работу, то есть до проектирования с командой и декомпозиции. Например, от стоимости будущей разработки зависит решение о приоритизации таски (RISE, Value vs. Effort и прочее).
Я занималась разработкой рекомендаций к оценке эпиков для product lead-ов (далее — PL) в Спортмастер Лаб и хочу поделиться выводами:
Нет универсального метода оценки эпиков для всех команд и продуктов
Ни один метод не гарантирует 100% точность и надежность
Унификация применяемых способов оценки — нужная и полезная работа
Если вы хотите масштабировать применение рекомендаций, дайте удобные инструменты
Поясню :)
Нет универсального метода оценки
С самого начала работы над рекомендациями было очевидно, что одним методом не отделаться.
Команды и продукты очень разные. Например, есть команды, у которых накоплена история списаний трудозатрат, а есть новые команды, которым не на что опереться. Существуют продукты, работа над которыми состоит из более или менее похожих по работам эпиков, а есть продукты, у которых поиск подобного эпика — тот еще квест. Есть кроссфункциональные команды из 20 человек, а есть мини-команды из четырех специалистов с одинаковой ролью и прочее. Различий действительно очень много.
Не стоит пытаться внедрить на всех единственно правильный метод оценки. Это как натянуть сову на глобус.
Ни один метод не гарантирует 100% точность и надежность
Это факт. Принять и простить! При этом важно понимать, что вероятность попадания в оценку у каждого метода разная.
Почему это важно?
Если мы говорим о приоритизации задач, где бизнес присваивает вес каждой фиче, то стоимость в человекочасах — это противовес. Получается, если руководители продуктов применяют разные методы оценки с разной вероятностью реализации, фичи для бизнеса ранжируются недостоверно.
Поэтому так важно унифицировать подход к оценке задач для разных команд внутри одного бизнес-заказчика.
Унификация нужна и полезна
По результатам опроса PL не было ни одного, который сказал бы: «Сорри, но я не знаю, как оценить эпик», при этом из 45 PL не было двух одинаковых подходов. Схожие, конечно, были, но, как говорится, есть нюанс.
При этом унификация подходов помогает:
повысить прозрачность формирования оценок для всех
упростить оптимизацию процесса оценки
уменьшить затраты на оценку за счет готовых алгоритмов и дашбордов.
Дайте удобные инструменты
Решили разработать и внедрить универсальные алгоритмы оценки, но не знаете, как заинтересовать руководителей продуктов?
Очень просто: дайте удобные инструменты, которые позволят уйти от выгрузок трудозатрат из Jira или бесконечной работы в Excel. Сэкономьте время на проведении оценки, дайте рекомендации по удешевлению процесса, поделитесь полезными практиками.
В итоге у меня получилось подготовить рекомендации к оценке эпиков. Надеюсь, они не финальные, и со временем PL будут их дополнять, обновлять и раскатывать на всех новые изменения.