Comments 2
Что называется – снял с языка. В последнее время я заметил, что даже на микроскопических пет-проектах и самописных инструментах, в которых я для ускорения пользуюсь LLM, я всё больше сам себе напоминаю не джуна-кодера, а CTO.
У ЯМ (языковых моделей) есть одно фундаментальное ограничение - максимальный размер выходного контекста. Который просто диктует необходимость разваливать кодовую базу на фрагменты, если для разработки используется LLM. Так что, да - направление верное.
И, это... то, что пишут разработчики LLM по поводу размера выходного контекста - лажа. Например, уверенный рефакторинг текстов через веб-интерфейс ChatGPT идёт на размерах в районе 4К токенов (примерно 12.5К символов), хотя заявлено про 32К+. Это заявленный размер именно выходного, а не всего контекстного окна.
Декомпозиция кода становится критически важной при работе с ИИ