На конференции EMNLP 2025 представили метод HierarchicalTopK, который меняет взгляд на то, как обучать интерпретируемые модели с разной степенью разреженности. Обычно уровень разреженности выбирают заранее, еще до начала обучения, и после старта изменить его невозможно. Если разреженность слишком низкая, модель описывает данные слишком грубо. Если слишком высокая, признаки теряют смысл и интерпретируемость исчезает. Новая идея предлагает избежать этого компромисса и учить модель так, чтобы она понимала сразу несколько уровней разреженности.

Классический подход требует готовить отдельную м��дель под каждый уровень разреженности. Такие модели учатся долго, процесс удорожается, а масштабирование превращается в чистую боль для исследователей. HierarchicalTopK уходит от этой схемы. Метод обучает единое пространство, в котором одновременно представлены разные уровни, от максимально детализированного до более обобщенного.

Это означает, что система может переключаться между уровнями разреженности уже после обучения, причем связь между уровнями остается непрерывной. Даже при высоких значениях разреженности модель понимает, как ее внутренние представления соотносятся с более детальными слоями. Интерпретируемость сохраняется, потому что каждый уровень встроен в общую структуру и не существует изолированно.

Преимущество подхода в том, что вместо десятков отдельных сетей достаточно одной. Она гибко адаптируется под задачу и умеет работать на разных уровнях сложности. Это снижает вычислительные затраты, упрощает анализ результатов и делает модели прозрачнее. Метод также открывает новые возможности для аудита и контроля поведения моделей, что особенно важно для индустрии, где интерпретируемость становится обязательным требованием.

Если коротко, HierarchicalTopK помогает объединить точность, экономичность и понятность результатов в одном подходе. Исследователи считают, что это может ускорить переход к интерпретируемому ИИ в крупных компаниях и государственных системах.


Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.

Подробнее