В 2025 году retention снова стал главной метрикой рынка

Трафик дорожает, конкуренция растет, AI-продукты выходят быстрее, чем я успеваю их тестировать, — и единственный способ выжить в этой гонке: удерживать пользователей, а не просто радоваться скачкам трафика по праздникам.

Но есть проблема: большинство команд все еще думают, что retention — это «график, на который мы будем смотреть, пока CFO грустит».

если вы тоже сейчас грустите, глядя на свой retention, — вы не один

Давайте разберём, как всё работает в реальности.

1. Почему классический retention устарел

Классический «Day 1, Day 7, Day 30» — это как смотреть на MRTG-графики 2008 года и делать вид, что так и задумано.

Если раньше возвращение действительно было привязано к дням, то сегодня пользователь возвращается, когда:

  • его тегнули в документе

  • сервис прислал релевантный триггер

  • он получил ценность от AI

  • или просто потому что push был вовремя

Линейная модел�� не отражает реальности.

1.1 Поведение стало событийным (event-driven)

Современные продукты фиксируют десятки событий на одного пользователя:

Пример реального event log:

{ "user_id": 129931, "session_id": "s-4481ab", "event": "ai_request", "timestamp": "2025-01-19T13:22:41Z", "metadata": { "response_time_ms": 842, "token_size": 614, "model": "llm-small-v3", "device": "mobile", "network": "wifi" } }

Retention невозможно считать, не понимая почему пользователь вернулся.

1.2. Journey стал нелинейным

Человек может войти в продукт:

  • через веб

  • через приложение

  • через голосового ассистента

  • через виджет

  • через IoT

У разных точек входа — разные ожидания и разные паттерны поведения.

1.3. AI внес хаос

До появления AI-помощников и LLM-подсказок поведение пользователей было сравнительно предсказуемым: есть конкретный сценарий, есть оптимальный путь, есть шаги, по которым мы строим воронки.

В 2025 году все изменилось. AI стал частью продукта, и создает нелинейные ветки действий. Пользователь может решить одну и ту же задачу десятью разными способами, и все они выглядят логичными:

  • использовать AI-генерацию вместо ручного ввода,

  • переписать текст через paraphrase-модель,

  • задать вопрос в чат,

  • через голосовой интерфейс,

  • открыть другой виджет AI,

  • активировать автозавершение...

И все это — «разные» пути к одной цели.

В итоге в логах появляется хаос:

{ "user_id": 129931, "session_id": "s-4481ab", "event": "ai_request", "timestamp": "2025-01-19T13:22:41Z", "metadata": { "response_time_ms": 842, "token_size": 614, "model": "llm-small-v3", "device": "mobile", "network": "wifi" } }

Какую цепочку считать «нормальной»?
Какая — успешной?
Какая — ведущей к уходу?

Классические воронки просто ломаются и старые метрики просто не успевают за реальностью.

Нельзя считать retention в AI-продуктах так же, как в обычных сервисах.
Поведение стало:

  • вероятностным,

  • вариативным,

  • контекстным,

  • непредсказуемым,

  • нелинейным,

  • зависящим от модели.

Поэтому фреймворки 2010–2017 годов перестали работать.

Нужны новые подходы:
Trigger-based Retention, CAR, Value Retention, и AI-кластеризация.

дальше будет чуть сложнее, но вы справитесь, я верю

2. Современные фреймворки retention в 2025 году

Здесь начинается самое интересное. Каждый из фреймворков ниже давно используется в Amplitude, Mixpanel и крупных AI-продуктах.

2.1. Trigger-based Retention

Возврат измеряется не по дате, а по моменту активации.

Визуальное представление фреймворка
Визуальное представление фреймворка


Пример SQL (упрощённый):

WITH activation AS ( SELECT user_id, MIN(event_time) AS activation_ts FROM events WHERE event_name = 'first_note_created' GROUP BY user_id ), returns AS ( SELECT e.user_id, DATE_DIFF(e.event_time, activation_ts, DAY) AS day_offset FROM events e JOIN activation a USING (user_id) WHERE e.event_time > activation_ts ) SELECT day_offset, COUNT(DISTINCT user_id) AS users FROM returns GROUP BY day_offset ORDER BY day_offset;

Почему это важно? Потому что «вернулся через 7 дней» не значит ничего, если он не дошёл до ценности.

2.2. Critical Action Retention (CAR)

Это один из самых точных предикторов удержания.

Critical Action = действие, после которого вероятность возврата резко растёт.

Пример таблицы:

Действие

Retention D7

Retention D30

Открыл приложение

14%

2%

Создал первую заметку

41%

23%

Добавил вторую заметку

58%

39%

Подключил AI-редактор

72%

51%

CAR говорит:

удержание растет не потому что пользователь «остался», а потому что он получил ценность.

если ваш critical action — «пользователь не убежал», то нам нужно серьёзно поговорить.

2.3. Contextual Retention

Retention по контекстам:

  • тип устройства

  • скорость соединения

  • время суток

  • трафик-канал

  • версия модели AI

Контекст

Retention D7

iOS, Wi-Fi

46%

Android, 4G

33%

Web, корпоративная сеть

18%

Контексты показывают где протекает труба в реальных условиях.

2.4. AI-кластеризация поведения

LLM-кластеры позволяют группировать пользователей на основе поведенческих последовательностей.

Пример кластера:

{ "cluster": "explorers", "pattern": [ "open_app", "try_feature_A", "switch_theme", "ai_experiment", "exit" ], "dropoff_cause": "no_clear_reward" }

Это мощнейший инструмент.
Если вы делаете AI-продукт — без этого просто нельзя.

2.5. Value Retention

Современная формула:

Value Retention(n) = UsersRepeatedValue(n) / UsersReceivedValueFirstTime

Value-state примеры:

  • второе сохранение документа,

  • вторая успешная AI-операция,

  • третий просмотр урока.

3. Как искать настоящие причины ухода (RCA 2025)

Раньше RCA делали вручную. Теперь используется LLM-assisted Root Cause Analysis.
Простейший пример псевдокода:

def detect_dropoff(events): issues = {} for e in events: if e.get("error"): issues["errors"] = issues.get("errors", 0) + 1 if e.get("latency_ms", 0) > 1200: issues["slow"] = issues.get("slow", 0) + 1 if e.get("empty_state"): issues["empty"] = issues.get("empty", 0) + 1 return sorted(issues.items(), key=lambda x: x[1], reverse=True)

AI показывает:

  • пользователи уходят из-за медленных ответов,

  • пустых экранов,

  • лишних шагов,

  • отсутствия понятного результата.

4. Как устроен технический пайплайн retention-аналитики

[Client apps] ↓ events [Event Gateway] ↓ stream [Kafka / Kinesis] ↓ ingestion [ClickHouse / BigQuery] ↓ transformations [dbt / Airflow jobs] ↓ [Cohort tables + Retention snapshots] ↓ [Amplitude / Mixpanel / Metabase dashboards]

5. Практическая карта улучшения retention в 2025

1. Найдите critical action.
Если у продукта нет ценности — retention не вылечит.

2. Упростите ранний путь.
Первые 3 события → самый сильный предиктор ухода.

3. Уберите «пустые состояния».
Пустой экран = гарантированный drop-off.

4. Введите триггеры возврата.
Контекстные, а не календарные.

5. Используйте AI для анализа поведения.
Пусть модель смотрит на последовательности — это точнее людей.

6. Оптимизируйте скорость.
Высокая latency = мгновенный рост отказов.

7. Покажите ценность в первые 2 минуты.
Value-превью работает лучше, чем длинный onboarding.

 Рост retention
Рост retention

Итоги

если вы дочитали до сюда — вы уже заслужили плюсик в карму.

Retention 2025 — это уже не «кто вернулся на 7-й день».
Это многослойная система:

  • контекстов,

  • событий,

  • ценностей,

  • AI-кластеров,

  • последовательностей поведения,

  • технических ограничений,

  • и правильной архитектуры.

Ключевой вопрос звучит так:

«Когда пользователь получает ценность, и что мешает ему получить ее снова?»

Если продукт умеет отвечать на этот вопрос — он растет. Если нет — он исчезает вместе с пользователями.