Pull to refresh

Comments 8

Спасибо за интересную статью.

Взял на себя смелость сделать небольшое резюме для практического применения может кому поможет:

Табличка (markdown от DeepSeek)
Вот таблица, обобщающая все практические рекомендации из статьи, сгруппированные по ключевым направлениям.

| Название | Рекомендация | Практические действия |
| :--- | :--- | :--- |
| **Синхронизация ритма** | | |
| 1. Единый спринт для всех | Синхронизировать работу всех команд в едином временном цикле. | Выбрать общую длительность спринта (например, 2 недели) и зафиксировать единые даты старта и окончания для всех команд (продуктовых, платформенных, бэкенда и фронтенда). |
| 2. Фиксированные точки синхронизации | Установить четкие внутренние дедлайны внутри спринта, общие для всех. | Определить даты Code Freeze, крайний срок передачи задач в тестирование и день релиза. Например: «вторая среда спринта — deadline для сдачи задач на тестирование». |
| **Прозрачность результатов** | | |
| 3. Кросскомандное демо | Показывать результаты работы всем смежным отделам, а не только внутри команды. | Раз в две недели проводить общую встречу, где каждая команда демонстрирует реально работающий функционал маркетингу, поддержке и руководству. |
| 4. Дисциплина через публичность | Использовать публичность демо как мотиватор для доведения задач до ума. | Заранее анонсировать список того, что будет показано на общем демо. Это стимулирует разработчиков не бросать задачи на полпути. |
| **Детализация статусов задач** | | |
| 5. Разделяйте ожидание и действие | Ввести статусы, которые четко показывают, выполняется ли над задачей работа или она ждет очереди. | Вместо общих колонок «Проверка кода» и «Тестирование» создать раздельные: «Ожидает проверки кода», «Код ревьюится», «Ожидает тестирования», «В тестировании». |
| 6. Выявляйте узкие места аналитикой | Использовать новые статусы для сбора статистики простоя задач. | Настроить отчеты по времени нахождения задачи в каждом статусе. Если задачи подолгу зависают в «Ожидает проверки кода» — значит, узкое место в код-ревью. |
| **Качество входа (Definition of Ready)** | | |
| 7. DoR как закон | Не брать в спринт задачи, которые не соответствуют критериям готовности к разработке. | Внедрить Definition of Ready: задача должна содержать понятный пользовательский сценарий, бизнес-ценность, ожидаемый результат и быть выполнимой за один спринт. |
| 8. Описывайте сценарии, а не функционал | Формулировать задачи через контекст и действия пользователя, а не через технические детали. | Вместо «Добавить экспорт отчета» писать: «Когда пользователь завершает формирование финансового отчета, он хочет выгрузить его в Excel, чтобы передать бухгалтеру без ручного копирования». |
| **Автоматизация рутины** | | |
| 9. Триггеры вместо напоминалок | Автоматизировать уведомления смежных отделов о событиях, связанных с задачей. | Добавить в тикеты поля-флаги («Нужен маркетинг», «Обновить документацию»). При их активации система автоматически отправляет уведомление соответствующей команде. |
| **Приоритизация и стратегия** | | |
| 10. RICE вместо интуиции | Принимать решения о приоритетах на основе объективных метрик, а не эмоций. | Оценивать каждую задачу по четырем параметрам: Reach (охват), Impact (влияние), Confidence (уверенность), Effort (трудозатраты). Сортить бэклог по убыванию итогового балла. |
| 11. Квартальные цели | Увязать спринты с долгосрочными целями, чтобы не терять стратегию в текучке. | В начале квартала сформировать крупные цели (продуктовые изменения, техдолг, инфраструктура). Планировать спринты так, чтобы каждый приближал к этим целям. |

О, это отличное решение. Спасибо!

  1. Первый понедельник - старт, третий - релиз и ретро. А остаток недели, в которой третий понедельник, чем все занимаются?

  2. В райсе охват и влияние на пользователей по каким метрикам считали?

  3. Бэклог перестал быть кладбищем пары тысяч задач - а куда эти задачи делись? Их же все нужно было приоритизировать и разбить на спринты, а на это нужно прилично времени... Или просто все в мусорку и с чистого листа?

  4. Перестали брать в работу не подготовленные задачи - чем занимались разработчики, пока аналитики доготавливали задачи?

  5. По какому принципу формирует квартальные цели и на сколько кварталов вперёд?

Вопросов по выходу из хаоса/болота на самом деле очень много...

Отвечу по пунктам.

1. В понедельник, когда завершается текущий спринт, сразу начинается новый, так как его планирование проходит ближе к концу второй недели. За счет этого нет паузы между спринтами.

2. Охват считаем по продуктовой аналитике - по количеству пользователей, вовлеченных в дорабатываемый или связанный функционал. Импакт - по сути субъективная метрика, оцениваем эмпирически.

3. Часть задач действительно удалили. Много дублей и связанных задач объединили. Остальное распределяем по спринтам при регулярной работе с бэклогом.

4. Всегда есть задачи, которые не требуют глубокой проработки: ошибки, техдолг и подобные вещи.

5. Квартальные цели согласуются со стратегией от стейкхолдеров. Планируем примерно на 2-3 квартала вперед, так как рынок и требования аудитории меняются достаточно быстро.

Спасибо за статью! Было очень интересно прочесть о вашем системном подходе к организации работы в эпоху AI-хайпа.

Отдельное спасибо за:
• RICE-метод — беру на вооружение; ссылки на стандартные фреймворки очень помогают в аргументации.
• Кейс с привлечением внешних участников на демо — отличный инструмент для правильной фокусировки команды, который редко встретишь на практике.

Задалась вопросом, можно ли сломать ваш подход бездумным копированием. Выделила несколько уязвимых мест, характерных для крупных процессов.

Шаблон «Роль — Действие — Ценность» не гарантирует качества задач. Можно написать формальную пустышку вроде: «Я, как администратор, хочу сбросить пароль, чтобы сбрасывался пароль». За ней теряется истинная причина: например, уязвимости в системе или проблемы пользователей. Если менеджер оценивает только формат, задача попадает в бэклог. Она будет переделываться многократно до закрытия реальной потребности. Как вы такое обходили и считали ли нужным обходить?

Насколько я поняла, вы используете Kanban, в статье представлена статусная модель User Story. Стори обычно «рассыпаются» на множество задач реализации (Task): фронт, бэк, макеты, IaC. Заказчик следит за Story. Основные риски управления скрыты в Task’ах. Статус стори подсвечивает факт проблемы, но не ее причину. Используете ли вы дополнительный слой аналитики? В статье есть пример про несоразмерное время ревью, как вы поняли, почему это происходит?

Движение User Story между ролями формирует скрытый «водопад», он создает два риска тестирования:

  1. Задержки на всех предыдущих этапах съедают время на выполнение тестов. Необходимо выбирать, выпускать продукт недопроверенным или сдвигать общие сроки.

  2. Когда тестирование в конце, женить компоненты начинают непосредственно перед этим этапом. Как следствие, продукт заходит в тест в неприглядном виде: не билдится, забагован, имеет логические противоречия. Вместо тестирования QA занимаются не тестами, а оживлением продукта. Используете ли вы Shift-Left и контрактную разработку для решения этих проблем? Какие практики реально прижились?

Возможно, мои вопросы касаются "секретных ингридиентов" или же я неверно расчитала процесс, поэтому пойму, если промолчите. Но надеюсь на ответ, заранее спасибо :)

Спасибо за такой вдумчивый комментарий, очень точные наблюдения.

Про «я, как администратор, хочу сбросить пароль, чтобы сбрасывался пароль» — с такими крайними кейсами, к счастью, не сталкивались :) Но в целом вы правы: сам шаблон не гарантирует качества. У нас это скорее микрофреймворк, чтобы задача была написана по-человечески.

Смысл в другом — определить базовую работу пользователя, которую мы закрываем. Это зона ответственности PM. Дальше важно, чтобы этот контекст доходил до всех по цепочке: не просто сделать кнопку, а понять, зачем она нужна. Если этого нет, никакая структура не поможет.

По статусам — да, они не про причину, а про сигнал. Нам важно было сначала увидеть, где именно в процессе начинаются проблемы, а уже потом разбираться, почему это происходит.

Причины каждый раз разные, поэтому универсального ответа нет. Из практики смотрим на cumulative flow diagram: если где-то зона начинает раздуваться, значит туда и идем копать.

По тестированию: из того, что реально прижилось — раннее подключение QA. Когда задача еще не дошла до разработки, QA уже смотрят требования, понимают, какие части продукта затронуты, пишут тест-кейсы.

Это сильно снижает количество сюрпризов в конце и ситуаций, когда вместо тестирования начинается попытка оживить продукт.

Спасибо за вопросы — видно, что вы глубоко в теме 🙂

Sign up to leave a comment.

Articles