База знаний почти всегда создаётся из лучших побуждений: разгрузить поддержку, ускорить онбординг, зафиксировать экспертизу, дать клиентам возможность самообслуживания. Но уже через полгода статей становится больше, а ясности — меньше. Контент устаревает, поиск «не угадывает» формулировки пользователей, новые регламенты расходятся по чатам, а поддержка продолжает отвечать вручную, потому что «в базе знаний всё равно ничего не найдёшь».

Корень проблемы — не в том, что база знаний плохая. Проблема в том, что ею управляют как библиотекой — чем больше библиотечный фонд, тем лучше, так что «давайте просто напишем побольше», а не как продуктом  — «давайте измерим ценность и улучшим». Продукт без метрик неизбежно деградирует: у команды нет обратной связи, нет приоритетов, нет способа доказать пользу бизнесу и выбить ресурсы на обновление.

Рулетка спроса на знания

Метрики базы знаний нужны для четырёх вещей:

  • Доказать ROI: показать экономию времени и денег (меньше обращений, ниже стоимость обработки, выше скорость решения). В расчётах ROI для управления знаниями часто используют связку «сокращение обращений/времени → экономия стоимости обращения» и сопоставляют это с затратами на создание и поддержку контента.

  • Найти «узкие места»: выявить статьи, которые не решают задачу; темы, ища информацию из которых люди не могут сформулировать запрос; процессы, где контент застревает на согласовании и теряет актуальность ещё до публикации.

  • Принимать data-driven решения: что писать, что переписывать, что объединять, что архивировать — на основе фактов, а не ощущений.

  • Создать цикл непрерывного улучшения: план → создание → анализ → оптимизация. Этот цикл критичен, потому что база знаний — живой организм: продукт, политика, тарифы, интерфейсы, регламенты меняются постоянно.

Дальше разберём метрики четырёх уровней.

  1. Использование и охват. 

  2. Качество и поиск.

  3. Бизнес-эффект и ROI.

  4. Показатели процесса управления знаниями.

Использование и охват: «а нужна ли нам база знаний?»

Эта группа метрик отвечает на базовый вопрос: где люди ищут информацию? Заходят в базу знаний (БЗ) и читают статьи, делают поисковые запросы с AI или живут «в обход» — через личные сообщения, созвоны и тикеты? Важно: охват — это не про «успешность», это про принятие сотрудниками базы знаний как рабочего инструмента. Если такого принятия нет, то даже лучшие статьи не встроят БЗ в рабочие процессы.

Общее количество просмотров

Просмотры — самый простой индикатор активности: если трафик растёт, значит база знаний хотя бы участвует в пользовательских сценариях.  Но есть нюансы:

  • Просмотры легко «накрутить» внутренними ботами, индексацией, переходами из меню «на всякий случай».

  • Просмотры не равны пользе: статью могут открывать по 10 раз, потому что она непонятная.

Поэтому просмотры — только входной сигнал: они свидетельствуют о том, что в БЗ идёт какая-то жизнь. Но приносит ли она пользу?

Уникальные посетители

Уникальные посетители показывают ширину охвата: сколько разных людей реально использует БЗ.  Это важно, потому что одна и та же динамика просмотров может означать два разных мира:

  • если это 10% сотрудников, много и часто — поддержка и новички, то для остальных БЗ бесполезна.

  • если это 90% сотрудников, пусть не каждую минуту — значит БЗ стала стандартным инструментом.

Логичное продолжение отслеживания уникальных посетителей — сегментация их по аудиториям: 

  • сотрудники / клиенты; 

  • новички / опытные; 

  • поддержка / все остальные. 

Тогда становится видно, для кого БЗ реально работает.

Популярные и непопулярные статьи

Рейтинг статей по просмотрам — источник быстрых инсайтов.

  • Популярные статьи показывают частые боли, где обновление даст максимальный эффект.

  • Непопулярные статьи — либо не нужны, либо их не находят, либо они спрятаны в структуре, либо название не соответствует содержанию.

Важно не делать вывод «непопулярное = удалить». Бывают «редкие, но критичные» статьи: действия при инциденте, юридические инструкции, аварийные регламенты. Их оценивают по другой логике: насколько быстро нужная роль находит статью в нужный момент, и актуальна ли информация.

FCR, связанный с БЗ (закрытие с первого контакта)

FCR (First Contact Resolution) — одна из ключевых метрик поддержки: сколько обращений решаются с первого контакта, без повторных уточнений и эскалаций.  Если в процесс поддержки встроена БЗ — агенты отвечают ссылкой на статью, бот предлагает статью до создания тикета, — можно измерять «FCR с использованием БЗ»: какой процент обращений закрывается первой статьёй/первым ответом AI-ассистента.

Почему это важно для БЗ:

  • FCR напрямую влияет на стоимость поддержки и нагрузку на специалистов саппорта.

  • FCR чувствителен к качеству знаний: плохая статья часто приводит к повторному обращению.

  • FCR — это мост между контентом и операционным эффектом, понятный руководителям.

Технически реализация разная: где-то это тег в тикете «решен�� статьёй», где-то — связка через ссылки/макросы, где-то — отчёт в helpdesk. Главное — закрепить определение: что считать «закрыто первой статьёй», а что — нет и закрепить это понятие на уровне внутренних политик организации.

Качество контента и поиск: «Нашли и помогло?»

Если охват — это «люди пришли», то качество — это «люди нашли ответ и решили проблему». В этом показателе у большинства БЗ самые большие провалы: контент вроде есть, но он не находится или не решает задачу.

Эффективность поиска: успешные и нулевые запросы

Search effectiveness — один из самых сильных диагностических блоков.  Две метрики особенно полезны:

  • Процент успешных поисков: пользователь ввёл запрос, открыл релевантную статью или получил AI-summary,  прекратил поиск, потому что нашёл нужное.

  • Процент поисков с нулевым или нерелевантным результатом: запросы, по которым БЗ либо не нашла ничего, либо найденная информация бесполезна. Это почти всегда индикатор «дыры»: либо нет материала, либо он назван другими словами, либо не настроены теги/синонимы.

Как использовать нулевые запросы на практике:

  • Собрать топ-50/топ-100 запросов с нулевым откликом.

  • Классифицировать их по причинам: «нет статьи», «есть, но называется иначе», «есть, но не открывается (доступ/права)», «неоднозначность терминов и определений», «пользовательская ошибка», «нерелевантный (устаревший, недостаточный) контент».

  • Ввести правило: в течение каждой недели/спринта в БЗ закрывается N топовых нулевых запросов — новыми статьями, настройкой прав или переносом информации в доступные п��остранства, тегирование и приведение терминов к глоссарию, переименование в соответствии с содержанием и т.д.

Работа по нулевым запросам — это один из самых быстрых способов «поднять» самообслуживание без написания сотен новых материалов.

Реакции и оценки полезности

Самый банальный, но рабочий инструмент — кнопка «Была ли статья полезна?» и простые лайки/дизлайки. Это прямая обратная связь, особенно ценная, если к оценке собрать комментарии. И вообще не просто собирать оценки, а соединить этот процесс с улучшениями.

  • Низкая оценка → обязательный комментарий «что было не так?» (по возможности / желанию пользователя).

  • Низкая оценка + высокий трафик → приоритет №1 на переработку.

  • Низкая оценка + низкий трафик → сначала понять, нужна ли вообще статья и как в неё попадают.

Важно также учитывать «негативное смещение»: на 20 выражений недовольства в среднем приходится только одна похвала — это работает не только в БЗ, это закон для любого b2c. База знаний — сервис, закрывающий потребность, а его пользователи — клиенты, так что аналогия вполне жизненная. Поэтому оценки полезности лучше интерпретировать в динамике и в связке с другими сигналами — повторные поиски, тикеты по теме и т.д.

Время на странице и глубина просмотра

Эти метрики часто неправильно читают. Долго читали — это не всегда хорошо, быстро закрыли — не всегда плохо.

  • Долгое время на странице может означать: статья сложная (и это нормально), статья плохо структурирована, много воды, или человек реально выполняет инструкцию по шагам.

  • Быстрое закрытие может означать: нерелевантно, или наоборот — нашёл ответ в первой строке и ушёл счастливым.

Чтобы метрика стала полезной, её связывают с исходом: была ли повторная попытка поиска, был ли тикет после просмотра, была ли негативная оценка. Тогда получается не «абстрактное время», а сигнал «прочитал и всё равно пошёл в поддержку».

Self-Service Rate и Ticket Deflection: «решили без тикета»

Есть два как бы дублирующих понятия. Self-service rate (%SSR) — частота запросов, решённых без участия поддержки. Русский аналогичный термин — коэффициент самообслуживания. Ticket deflection rate (коэффициент отклонения тикетов) — это процент отказов от оформления тикетов в поддержку, когда клиент нашёл ответ на свой вопрос самостоятельно. 

На первый взгляд это одно и то же, но на практике %SSR оценивает возможность пользователя решить вопрос без выхода на сотрудника поддержки и показывает сами факты использования средств самообслуживания — а решил свой вопрос клиент или нет, непонятно. Коэффициент отклонения тикетов — это процент фактически решённых с помощью средств самообслуживания случаев. 

И то, и другое — «золотые» метрики для БЗ, прямой эффект: вопрос решён без обращения в поддержку.  

Есть несколько подходов к измерению, которые дополняют друг друга.

  • До тикета: пользователь взаимодействовал с БЗ/порталом, но тикет не создал.

  • После просмотра: пользователь посмотрел статью, которую нашёл сам, и не создал тикет в течение X часов/дней.

  • С ботом или AI (Bot / AI deflection): бот или ИИ-ассистент предложил статью, пользователь не попросил оператора.

Важно выбрать метод, который не будет «врать». Например, если положить X равным 24 часам, есть риск не учесть сложные вопросы; если приравнять X к 7 дням — потеряем показатель из-за естественной «необращаемости» части аудитории. 

Выявить правильный интервал обычно помогает контрольная группа или сравнение каналов до/после внедрения того или иного средства самообслуживания: БЗ, чат-бот, AI-ассистент и т.п.

Метрики влияния на бизнес и ROI

Если база знаний будет обходится дороже, чем служба поддержки, ни один адекватный управленец не даст добро на её внедрение. БЗ должна экономить деньги, а не быть лишь статьёй затрат с непонятной эффективностью.

Разберёмся с тем, на чём БЗ позволяет выиграть в деньгах.

Снижение нагрузки на поддержку

Как оценить и измерить:

  • Уменьшение количества обращений в саппорт (повышение %SSR / Ticket Deflection).

  • Более быстром решении оставшихся обращений (уменьшение AHT).

  • Более высоком качестве решения с первого раза (увеличение FCR).

AHT (Average Handle Time) — распространённая метрика поддержки, и в практиках управления знаниями часто рассматривают БЗ как инструмент, который снижает AHT за счёт готовых ответов и единых инструкций.

Пример расчёта ROI (упрощённо)

Одна из рабочих моделей:

  1. Считаем, сколько обращений «сэкономили» за период:

Deflected tickets = базовое количество обращений – фактическое количество обращений с поправкой на сезонность и рост базы клиентов.

  1. Умножаем на среднюю стоимость обращения или среднюю маржинальную стоимость времени агента.

  2. Вычитаем затраты на БЗ:

  • Работа авторов и редакторов, владельцев статей, экспертов на согласовании .

  • Стоимость платформы/лицензий.

  • Поддержка структуры, аналитики, обучение.

Качественный ROI: удовлетворённость и удержание

Не всё измеряется рублём напрямую. БЗ часто даёт «качественный» эффект:

  • Рост CSAT/NPS: пользователи быстрее получают ответ, меньше тратят усилий. В кейсах внедрения систем управления знаниями встречается связь создания пользовательских сервисов самообслуживания, основанных на БЗ, с улучшением показателей обслуживания и восприятия сервиса.

  • Рост ESAT/eNPS (удовлетворённость сотрудников): поддержке проще работать, новички быстрее проходят онбординг, всем работается лучше, когда меньше хаоса.

  • Снижение текучки кадров: когда у поддержки есть понятные знания и меньше «адского ручного труда», выгорание ниже, удовлетворение от работы выше, смысла уходить на другую работу меньше. Обычно бывает так, но всё зависит от нюансов конкретной компании.

Важно: для доказательства корреляции нужны данные. Часто делают простой анализ: сравнивают CSAT до/после внедрения БЗ / улучшения БЗ / внедрения сервисов самообслуживания на «топовых» темах.

Метрики управления знаниями: «как устроено производство контента»

База знаний — это не то, что можно один раз сделать и забыть на всю оставшуюся жизнь. Она должна меняться, когда меняются реалии — не только то, что в ней описано, но и то, что ещё не описано, когда меняются способы взаимодействия, внедряются новые сервисы и интерфейс��. Все изменения внутри и снаружи компании, которые влияют на сущности БЗ, должны оперативно находить отражение в статьях и их структуре, в новых курсах и тестах, в новых способах получения информации. Модификация знаний и управление ими должно быть встроено в стандартные бизнес-процессы компании, а не быть отдельной «нагрузкой».

Свежесть и актуальность

Базовый показатель — доля статей, пересмотренных/обновлённых за последние 6–12 месяцев. Это можно превратить в понятное правило:

  • Для критичных процессов — ревизия раз в 3–6 месяцев.

  • Для справочного контента — раз в 12 месяцев.

  • Для «одноразовых» объявлений — автоархив через N дней.

Смысл простой: доверие к БЗ исчезает после 2–3 случаев, когда статья привела к ошибке. Поэтому актуальность — не бюрократия, а защита репутации БЗ.

Статусы редакционного цикла и «узкие места»

Полезно видеть, сколько материалов находится в разных статусах.

  • Черновик (автор пишет).

  • На проверке (редактор/эксперт).

  • На согласовании (юристы/безопасность/владельцы процесса).

  • Устарело (требует обновления).

  • Архив (не используется, но хранится для истории).

Метрика здесь — не «больше публикаций», а «время прохождения цикла» и «где застревает». Если у вас 50 статей на согласовании по 3 недели, вы знаете проблему: не хватает SLA на ревью или владельцев процесса.

Вклад команд и авторов

БЗ становится сильной, когда знания распределены по владельцам разделов:

  • Поддержка отвечает за пользовательские сценарии и частые вопросы.

  • Продакты — за «как работает» и изменения.

  • Разработка — за инциденты, диагностику.

  • HR — за онбординг и внутренние политики.

  • Юристы/безопасность — за комплаенс и чувствительные процедуры.

Метрика вклада помогает увидеть перекосы: если наполнением и модификацией занимается один-два из перечисленных игроков,  знания будут однобокими, эффективность БЗ будет падать. Но не стоит забывать и о циклах изменений — у поддержки, продактов и разработки цикл гораздо короче, чем у HR и юристов с безопасниками.

Как внедрять метрики: практический план

Чтобы не утонуть в десятках показателей, начните с минимального набора и постепенно усложняйте.

Шаг 1. Зафиксируйте цели и аудитории

Пример целей:

  • Для клиентской БЗ: снижение обращений и рост %SSR.

  • Для внутренней БЗ: ускорение онбординга, снижение количества вопросов в чатах, сокращение AHT у внутренней поддержки — разумеется, по наличию и возможности измерения.

Сразу определите аудитории и их сценарии: новичок, эксперт, агент поддержки, клиент, партнёр.

Шаг 2. Определите 4–6 ключевых метрик

Пример списка ключевых метрик:

  • Охват: уникальные посетители, просмотры.

  • Поиск: процент нулевых запросов, процент успешных поисков.

  • Качество: оценки полезности, доля статей с низкой оценкой.

  • Эффект: процент SSR, FCR, AHT.

  • Процесс: доля обновлённых статей, время в статусах «на согласовании».

Шаг 3. Договоритесь о методологии

Главный риск — «рисовать» цифры. Поэтому заранее фиксируют:

  • Что считается успешным поиском.

  • Какой тикет считается решённым самостоятельно / deflected.

  • В каком окне времени связывать просмотр статьи и создание тикета — тот самый X.

  • Как исключать «служебный» трафик (боты, тесты, индексация).

Шаг 4. Привяжите метрики к регулярным действиям

Метрика должна запускать процесс:

  • Высокий процент нулевых запросов → еженедельный разбор и закрытие топа.

  • Статья с высоким трафиком и низкой полезностью → обязательная переработка в ближайший спринт.

  • Много материалов на согласовании → пересмотр SLA/ответственных.

Где и как отслеживать: аналитика в TEAMLY

На практике лучше всего работают метрики, которые собираются «сами» — через встроенную аналитику той платформы, где живёт контент, и через интеграции с сервис-деском.

Чтобы аналитика реально помогала (а не была «красивым отчётом»), стоит проверить, что на платформе доступны: статистика по статьям и пространствам, анализ поисковых запросов, а также разрезы по аудиториям/ролям — это базовая основа для метрик охвата и поиска. 

Аналитика в TEAMLY позволяет не только собрать цифры для отчёта, но и выявить наиболее активных читателей и писателей, оценить вклад авторов.

Если дополнительно связать БЗ с поддержкой (тикеты/чат), становится возможным честнее считать deflection, AHT и FCR, которые обычно используют как ключевые показатели эффективности сервисных команд.

Много — не значит «хорошо»

Эффективная база знаний — это не «много букв», а измеримый продукт, который снижает нагрузку на поддержку и ускоряет решение задач. Начните с охвата и поиска, затем переходите к проценту SSR /deflected tickets, FCR и AHT — именно эти показатели чаще всего переводят очевидную для пользователей и администраторов пользу базы знаний на язык бизнеса.