Как стать автором
Поиск
Написать публикацию
Обновить
Страховой Дом ВСК
Более 30 лет на рынке страхового бизнеса

Синергия Process Mining и BI: как Страховой Дом ВСК строит эко-систему процессной аналитики Proceset в ИТ

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров413

Привет, Хабр! Я, Мадаров Артур, руководитель дирекции процессов эксплуатации и ИТ-услуг Страхового Дома ВСК.

В своей прошлой статье, «Реинжиниринг процессов контроля качества технической поддержки», я рассказывал, с чего началась наша трансформация: как мы перешли от разрозненной отчётности в Excel к системной BI-аналитике, как формировали культуру data-driven внутри ИТ-блока ВСК и зачем всё это нужно.

На пятой встрече ProcessTech и Страхового Дома ВСК я рассказал, что было дальше: как мы из BI-дашбордов перешли к процессной аналитике, внедрили инструменты Process Mining, Task Mining и построили центр компетенций по процессной аналитике в ИТ.

Эта статья — почти практический гайд по внедрению процессной аналитики в крупной компании. Без обобщений. Только конкретика, цифры, архитектура решений и кейсы. Рассчитываю, что статья будет полезна как для ИТ-специалистов, так и для руководителей, которые хотят перестать управлять на основе ощущения, а не данных.

Почему мы продолжили путь: от BI к Process Mining

Всего за 5 месяцев после закупки лицензий в ИТ-блоке уже 9 внутри командных review и рабочих групп с бизнесом проводятся с демонстрацией BI-аналитики Proceset (без Power Point и Excel). На первом этапе трансформации мы выстроили мощный слой BI. Благодаря интерактивным дашбордам:

  • Команды получили доступ к ключевым метрикам процессов;

  • Руководители — к автоматическим отчётам и отклонениям;

  • А планёрки — к аналитике в реальном времени.

Но со временем стало понятно: BI даёт нам ответы на вопрос «что произошло?», но не всегда позволяет понять «почему?».

Тогда мы поставили цель: внедрить инструменты процессной аналитики, которые помогают визуализировать реальный маршрут процессов, находить отклонения, «петли», задержки и узкие места. Это и стало вторым этапом развития культуры данных в нашем ИТ-блоке.

Технический стек

Если говорить про инструменты, мы используем:

  • Process Mining, как модуль Proceset — для процессной аналитики, построения карт процессов, чек-листов, калькуляторов;

  • BI, как модуль Proceset — основная BI-платформа для планёрок и аналитики;

  • Jira Service Desk — ключевой источник событий процессов;

  • PostgreSQL + REST API — для ETL, агрегатов и историчности.

Важно: мы не брали дорогостоящие консалтинг-решения. Все пилоты, обучение и внедрение — силами своей команды. Это критично для масштабируемости.

BI как точка входа в процессную аналитику

Мы начали не с Process Mining, а с BI — и это стратегически верное решение. Перед тем как анализировать поведение процессов, важно договориться о терминах, метриках, логике оценки.

Преследовали такую цель: приобщить потенциальных заказчиков, топ-менеджеров ИТ-блока к инструменту, познакомить с возможностями, выработать доверие к инструменту

Сформулировали задачу — автоматизировать KPI по ключевым процессам подразделений центра эксплуатации ИТ для формирования поручений по отклонениям на ответственных

Что сделали на этом этапе:

  • Построили 20+ дашбордов по ключевым направлениям: поддержка, инфраструктура, инциденты, проблемы, запросы;

  • Разработали единый стиль визуализации: карточки, динамика, детализация;

  • Интегрировали источники: Jira, CMDB, внешние API, БД, Excel;

  • Внедрили практику BI-планёрок: еженедельные сессии анализа с руководителями направлений.

Конкретные эффекты:

  • Автоматизировано 100+ метрик процессов;

  • Сокращено 2 200+ часов ручного труда ежегодно;

  • Получение информации — ежедневно/ежечасно вместо 1 раза в неделю;

  • Доверие к данным — выросло кратно, за счёт прозрачности расчётов.

Особенность: мы включили в дашборды не только агрегаты, но и распределения, доверительные интервалы, временные лаги между этапами, отклонения по медианам. Это позволило перейти от классического отчётного BI к аналитическому BI — когда дашборд не просто отображает цифры, но и провоцирует вопросы и гипотезы.

Автоматизированные KPI: центр управления в реальном времени

BI-дашборды были логичным переходом к следующему проекту — автоматизации KPI. До этого многие KPI собирались вручную, по e-mail, в Excel, с недельными лагами.

Технически:

  • Настроили ETL через SQL и API к Jira, внутренним CRM и IDM-системам;

  • Использовали градацию KPI: зелёный / жёлтый / красный с автоматическим вычислением порогов;

  • Визуализировали дашборды в BI Proceset.

Это позволило перейти к модели «KPI-driven Management»: решения о корректирующих действиях стали приниматься не по интуиции, а по фактам — на BI-сессиях, с фиксированными поручениями.

Process Mining: как мы начали видеть реальный процесс

Когда сформировался слой BI и привычка к регулярному анализу, мы перешли к следующему этапу — Process Mining. Использовали платформу Proceset.

Стартовали с процесса управления инцидентами в Jira Service Desk:

  • Оцифровали 1 400+ процессов каталога услуг в процессе управление инцидентами;

  • Построили карты маршрутов, отклонений, медианных времен;

  • Визуализировали распределения по SLA и точкам задержки.

Видим ключевые показатели процесса, карта процесса и метрики, описывающие процесс и помогающие в поиске отклонений. В кейсе выбран процесс управления инцидентами по услуге обращения по ДМС.

Как работаем с инструментом?

Видим красный индикатор, указывает на превышенное медианное время решения от норматива. Далее анализируем карту процесса и топ маршруты, в каждом из которых отклонение по медианному времени, для формирования гипотез по повышению эффективности процесса.

Какие результаты показал пилот Process Mining?

Гипотеза на пилот следующая

С помощью Process Mining возможно оцифровать услуги по управлению инцидентами с избыточными нормативами SLA для бизнес-заказчиков, и определить количество часов для сокращения по каждой услуге.

Как результат

Разработан инструмент прогнозируемых значений SLA при снижении нормативного времени выполнения для услуги. Решение позволяет проверять гипотезы по оптимизации нормативов SLA и управлять ожиданиями бизнес-заказчиков.

SLA-калькулятор: управление ожиданиями через симуляции

BI и Process Mining дали нам идеи для построения следующего инструмента: SLA-калькулятора.

Он позволяет:

  • Вводить текущий норматив SLA (например, 12 часов);

  • Смотреть процент заявок, укладывающихся в этот норматив;

  • Моделировать снижение норматива: на 10%, 20%, 30% и получать прогнозное выполнение SLA.

Почему это важно?

  • Для 300+ услуг оптимизировали нормативы SLA без отклонения целевых значений по уровню сервиса;

  • Снизили нормативы без падения фактического выполнения уровня сервиса;

  • Подписали 8 соглашений SLA с блоками бизнес-заказчиков.

В некоторых случаях норматив снизился с 12 до 2 часов без изменения % выполнения. Это стало мощным аргументом в переговорах с бизнесом.

Заключение: главное — не бояться!

Процессная аналитика — это не про инструменты. Это про образ мышления. Когда вы не спрашиваете «кто виноват?», а ищете «почему это произошло» и «как сделать лучше».

Мы часто цитируем внутри команды фразу: «Действуй сегодня, чтобы завтра не жалеть о несделанном». Если вы задумываетесь о внедрении BI, KPI, Process Mining —начните с малого. Постройте один полезный дашборд. Приведите на планёрку одну карту процесса. И вы удивитесь, как быстро команда начнёт задавать правильные вопросы.

Подписывайтесь на наш блог на Хабре, подкаст «Дневник ИТ-шника» и сообщество ВК.

Будем рады диалогу и обмену опытом: пишите комментарии!

Теги:
Хабы:
+5
Комментарии0

Публикации

Информация

Сайт
www.vsk.ru
Дата регистрации
Дата основания
Численность
5 001–10 000 человек
Местоположение
Россия