Обновить

Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги

Уровень сложностиПростой
Время на прочтение28 мин
Охват и читатели8K
Всего голосов 2: ↑0 и ↓2-2
Комментарии6

Комментарии 6

Каждый дурак может написать много не поддерживаемого кода.

LLM не может привести старый код в порядок, ни свой ни чужой.

Более того, LLM не может хорошо написать и новую программу: малые траты вначале, но высокие траты на внедрение, адаптацию бизнеса, сопровождение и эксплуатацию.

Всё относится в корпоративному и гос сектору и долгим сроком жизни.

Пока нет ни одного кейса успешного LLM-driven reverse engineering или design recovery на реальном legacy. В интернете не видел, мой личный опыт отрицательный: даже 2-3000 строк нормального реинжиниринга не может

Попробовал для работы GigaChat, SourceCraft, Colab и просто обычный гугелпоиск в режиме AI. Это просто невероятно что они могут сделать и отрефакторить для разработок. Из того что помогли - оптимизация циклов (на C вплоть до goto из вложенных if), изумительная работа с рекурсией и преобразования её в явный стек, для питона - применение numpy (доки на тысячу страниц человеку уже не под силу) для хитрых умножений в циклах, вообщем для тех кто решает скажем прикладную задачу и не хочет часы тратить на погружение в man-ы библиотек это просто незаменимый уже инструмент. То есть оптимизирующий компилятор вырвался на уровень... промптов. И кстати говоря он весьма неплохо владеет intrisics для использования SIMD-расширений прямо в C код реализующий цифровые фильтры/DSP, знает реализацию гистерезисов, ограничений итд За день удалось навайбкодить с проверкой и тестами столько, сколько я бы месяц ковырял читая пыльные форумы и прочие гайды и занимаясь не программой а её синтаксисом. Особенно впечатлила работа с преобразованием Фурье (с небольшими подталкиваниями), децимацией и апскейлом двумерных данных. У меня опыт не просто положительный а просто всё разделилось на до внедрения AI и после.

Вы стали больше писать кода студенческого качества. Зачем вам такой код?

Разработчики оптимизирующих компиляторов: разве наши утилиты формируют ассемблер/машинный код студенческого качества? Мы столько потратили человеко-часов на xor eax,eax вместо mov eax,0 а уж тем более or eax,eax как nop. Вообще говоря код сделанный AI уже вполне профессионалный, важно знать каким промптом сделать assertion для тестирования и прогнать соответствующие итерации. Очень понравилась генерация всяких sprintf оптимизированных для 8 бит, фактически кастомная настройка кода без всяких сторонних библиотек. Хочешь с рекурсией, хочешь со стеком, полное управление памятью, оценка глубины стека, проверка граничных значений на этапе компиляции или в реалтайме, тестирование выхода за границы массива, отрицательные значения для unsigned и многое другое. То есть код до 3к строк получается превосходным со всеми хитростями и прочими *(a++)=++(*a). Уровень уже даже не миддла а синьора, с учётом матподготовки. Символный процессор, работа с LUT/хешами/CRC, битовыми операциями, владение асинхронкой. Вообщем невероятно но будущее разработки уже наступило с этим. То есть важен промпт-инженеринг и дообучение. Язык уже какой-либо значимости не имеет. Прогнозирую что останется C (любой ООП можно свести к процедурке) как ассемблер, и Python как интерпретатор ввиду LL(1)-грамматики на тетрадный лист, которая легко токенизируются. Весь синтаксический сахар, предназначенный только для восприятия человека уходит в прошлое.

Пока нет ни одного кейса успешного LLM-driven reverse engineering или design recovery на реальном legacy. В интернете не видел, мой личный опыт отрицательный: даже 2-3000 строк нормального реинжиниринга не может

Уточню: не сам автономно не может а в принципе не может если не отвести его за ручку как маленького и не показать: раздели на такие блоки с такими контрактами

Большинство этих моделей не просто open weight — они полностью open source и распространяются под лицензиями, одобренными OSI: Qwen использует Apache 2.0 для большинства своих моделей, DeepSeek и Z.ai — MIT.

Все-таки абсолютное большинство open-weight. Опенсорс это когда публикуется не только сама модель, но и данные, на которых она обучена, так что каждый может повторить процесс обучения и получить такую-же модель. Опенсорсных моделей очень мало, все они посредственного качества, и обычно это маленькие модели. Обучающие данные очень важны и наверняка у нормальных моделей если их опубликовать, окажется, что там море всякого защищенного авторскими и прочими правами.

Есть еще и средний вариант между open weight и open source: когда публикуется базовая промежуточная модель, после основного самого затратного обучения, которую дообучают до конечной модели.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации