Как стать автором
Поиск
Написать публикацию
Обновить
602.75
BotHub
Агрегатор нейросетей: ChatGPT, Claude, Midjourney

Новый подход CoD в AI: сокращение слов на 92,4% при удержании точности

Время на прочтение2 мин
Количество просмотров1.1K

Новый метод под названием «Цепочка черновиков» (CoD) помогает моделям AI выполнять сложные задачи, используя значительно меньше слов и с большей скоростью, сохраняя при этом уровень точности, сопоставимый с существующими подходами.

CoD генерирует краткие, но информативные промежуточные результаты, решая задачи, используя на 92,4% меньше слов по сравнению с устоявшимся методом Chain of Thought (CoT) — без потери точности. Вдохновение для CoD пришло из человеческого поведения: вместо того, чтобы подробно описывать каждую мысль, люди часто записывают только основные моменты в краткой форме маркера. CoD имитирует эту стратегию.

В: У Джейсона было 20 леденцов. Он дал Денни несколько леденцов. Теперь у Джейсона 12 леденцов. Сколько леденцов Джейсон дал Денни? О: 8
Пример ввода и вывода для расчетной задачи
Подробные шаги рассуждения с использованием метода «Цепочка мыслей»
Подробные шаги рассуждения с использованием метода «Цепочка мыслей»
Значительно более короткие шаги рассуждения при использовании цепочки черновиков. Хотя тестовые подсказки остаются идентичными во всех трех примерах, разница заключается в системной подсказке. Для CoD исследователи модифицировали подсказку цепочки мыслей ( CoT ), чтобы ограничить каждый шаг максимум пятью словами.
Значительно более короткие шаги рассуждения при использовании цепочки черновиков. Хотя тестовые подсказки остаются идентичными во всех трех примерах, разница заключается в системной подсказке. Для CoD исследователи модифицировали подсказку цепочки мыслей ( CoT ), чтобы ограничить каждый шаг максимум пятью словами.
Инструкции, данные модели AI для подсказок по цепочке черновиков
Инструкции, данные модели AI для подсказок по цепочке черновиков

Исследователи сравнили CoD с подробными подсказками CoT и стандартными подсказками, в которых отсутствовали пояснительные шаги. В задачах на арифметику, понимание и символическое рассуждение CoD достигал такой же точности, как и подробный CoT, но использовал на 68–86% меньше слов.

Например, при решении задач на понимание, связанных с датами, CoD повысил точность по сравнению со стандартными подсказками с 72,6 до 88,1% для GPT-4o и с 84,3 до 89,7% для Claude 3.5 Sonnet.

Vergleichstabelle: Performance-Metriken für GPT-4o und Claude 3.5 mit verschiedenen Prompting-Methoden (Standard, CoT, CoD), вкл. Точность, Токен, Латенц.
Chain of Draft достигает сопоставимой производительности, используя значительно меньше токенов. | Изображение: Xu et al.

Chain of Draft напрямую уменьшает количество выходных токенов, генерируя более короткие промежуточные шаги рассуждения. Кроме того, он косвенно снижает количество входных токенов, особенно в сценариях с подсказками с несколькими примерами, где несколько решенных примеров включены как часть первоначальной входной подсказки.

Когда эти примеры с несколькими выстрелами создаются с использованием краткого формата CoD, каждый пример становится короче, что приводит к меньшему количеству токенов в целом. Это комбинированное сокращение входных и выходных токенов снижает вычислительные затраты, обеспечивает более быстрые ответы и делает CoD особенно ценным для крупномасштабных реализаций LLM и приложений, чувствительных к стоимости.

Однако компактные подсказки подходят не для каждой задачи. Некоторые сценарии требуют расширенного рассмотрения, самокоррекции или внешнего извлечения знаний. Чтобы устранить эти ограничения, исследователи предлагают объединить CoD с дополнительными подходами, такими как адаптивное параллельное рассуждение или многоуровневая проверка. Кроме того, эти результаты могут дать информацию для будущего обучения модели AI, путем включения процессов компактного рассуждения в наборы данных для обучения.

Метод Chain of Draft разработан исследовательской группой Zoom Communications, которая с 2023 года предлагает «AI Companion» для помощи в проведении совещаний. Хотя задержка ответа часто упускается из виду в приложениях AI, CoD может оказаться особенно ценным для ситуаций в реальном времени, таких как видеозвонки.

Источник

Теги:
Хабы:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Другие новости

Информация

Сайт
bothub.chat
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия
Представитель
Greg Ewin