
Meta* AI совместно с Университетом Калифорнии в Сан-Диего представили новый метод DeepConf (Deep Think with Confidence), который позволяет языковым моделям быстрее и эффективнее справляться с задачами, требующими логических рассуждений и математических вычислений. В отличие от традиционных подходов, где несколько вариантов решения оцениваются одинаково, даже если часть из них ошибочны, DeepConf использует внутренние сигналы уверенности модели.

За счёт анализа распределения вероятностей следующего токена система может определять, какие цепочки рассуждений с большей вероятностью приведут к правильному результату, и отдавать им приоритет. Такой подход сокращает вычислительные затраты, позволяя отбрасывать слабые варианты ещё в процессе генерации.

Метод работает в двух режимах: offline, когда все возможные варианты сначала генерируются, а затем фильтруются, и online, где уверенность оценивается на лету, а бесперспективные цепочки обрываются заранее.

Тесты на математических бенчмарках, включая AIME 2024/2025 и GPQA-Diamond, показали, что DeepConf не только повышает точность, но и существенно сокращает количество вычислений. Например, в связке с моделью GPT-OSS-120B метод достиг 99,9% точности на AIME 2025 при сокращении числа токенов почти на 85% по сравнению со стандартными методами.
Таким образом, DeepConf открывает путь к более рациональному использованию ресурсов в больших языковых моделях, делая их работу быстрее и надёжнее без потери качества вывода.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
*Meta признана экстремистской организацией и запрещена на территории РФ