Pull to refresh

Comments 8

Спасибо за статью. Интересно! А что если скармливать ИИ не сам js-код, а d.ts файлы? Мне кажется, что количество токенов можно уменьшить в разы. d.ts файлы они и код описывают, и комментарии содержат. Например, DeepSeek выдавал вполне сносные выводы по скормленным d.ts файлам.

Я не использую TypeScript в разработке, я заменяю его JSDoc-аннотациями. Да, вы правы, что количество токенов можно уменьшить, если использовать описание интерфейса вместо его реализации. При достаточно большом объёме проекта это может быть отличной опцией - отделять описания интерфейсов. Можно даже использовать TS-нотацию в них.

Так я тоже пишу на JS с комментариями на jsdoc. Только в дополнение с помощью typescript я генерирую d.ts.

Да, это вполне себе может быть нишевое использование d.ts - для LLM'ок. Попробую, как упрусь в ограничения контекста.

Абсолютно верно, я делаю точно также.

У меня все наоборот. Я работаю с подхода человек-first. Днем я пишу код без каких-либо автодополнений, думаю сам. Ночью ллм рефакторит код и утром я делаю обзорочку изменений. 95% патчей выкидываю как мусор, 5% переделываю и принимаю. Затем меняю промпт, чтобы в следующий раз мусорных правок было меньше. Таким образом достигается итеративность разработки.

Для рефакторинга использую машину со 128 рам, 2 видеокарты Sapphire nitro radeon rx 7900 XTX по 24 видеопамяти каждая.В качестве ллм использую devstral:24b-small-2505-fp16 и qwen2.5-coder:32b-instruct-fp16. Запускаю через ollama.

Что касается контекста, то я не передаю ллм тела классов, функций и методов. Я прошу ллм писать и рефакторить JSDoc. Затем я передаю ллм сгенерированные d.ts. Таким образом экономится контекст и в итоге 32к хватает за глаза.

Интересный подход - код-ревью от силиконового, управляемое через промт. А какова сходимость процесса? Ну, т.е., кодовая база растёт - тут без вопросов. Модель через промпты (и контекст в коде/документации/d.ts) "настраивается" на предметную область. Должна быть сходимость (95% патчей выкидываю как мусор, 5% переделываю и принимаю) - либо мусора становится меньше, либо правок от Модели в целом становится меньше. Какой вариант ваш? Или ещё что-то?

Когда ллм-ка применялась первый раз - полезных патчей было больше т.е. порядка 10%. По мере интеграция полезных идей количество патчей стабилизировалось на уровне 5%. Количество их уже не снижается, но описывают они разные вариации уже примененных идей. Грубо говоря если сегодня я применил полезную идею, то завтра ллм предложит мне тоже самое, но чуть по-другому написанное. Данный патч я все еще считаю полезным но просто его игнорирую.

Sign up to leave a comment.

Articles