Обновить

Тихий даунгрейд: reasoning depth Claude Code просел на 73% — разбор 6852 сессий

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели6.2K
Всего голосов 4: ↑2 и ↓20
Комментарии7

Комментарии 7

модель underallocates на сложных задачах

Автор fucked up при написании статьи

Да, можно было написать “недовыделяет токены” - но underallocate это термин из самого issue Лоуренцо и документации Anthropic по adaptive thinking. Оставил как есть чтоб было гуглибельно если кто полезет проверять первоисточник. Но согласен, посреди русского текста режет

Вы так говорите, как будто счет пользователю на 42к с точки зрения Anthropic это что то плохое /s

Ну в статье как раз про это - что все три изменения совпадают в сторону снижения расходов Anthropic, не пользователя. Лоуренцо правда на Bedrock сидела, так что $42k ушли в AWS, не напрямую в Anthropic. Но паттерн забавный да

Лоуренцо замержила 191 тысячу строк за выходные

Что же это за задачи такие?

Ни усилий на ТЗ, ни усилий на ревью кода, не надо париться с edge cases. Всё собирается, само проверяется пока кожаный пьет кофе.

Вот предположение:

CUDA -> HIP (ROCm). AMD нужно чтобы код написанный под NVIDIA работал на их GPU. Есть утилита hipify которая делает это почти механически - переименование API, замена типов. Идеальная задача для LLM, объем огромный, трансформации шаблонные. Примерно, как перевести Войну и Мир на английский механически, без художественных особенностей

Впрочем, наверняка, это самопиар

у Лоуренцо нетипичный сценарий - 50 параллельных агентов, системный код

даже комментировать больно

На самом деле, в последнее время claude как будто поглупее стал. Спасибо за идею

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации