Комментарии 11
Рутинный код и раньше все искали на StackOverflow, копировали
Иногда (редко) копировал, а чаще плевался на него. Там зачастую такую фигню пишут.
А сейчас как будто ничего не изменилось с LLM. Иногда даже ощущение дежавю "где то я этот уже видел. Как бы не на StackOverflow". Что понятно в общем то. На чем обучали.
И приходится писать "Give me another version of the code". Потому что просто лень стучать по клавишам, но знаешь что должно быть.
А "чувство прекрасного" не дает принять ту первую корявенькую (но правда рабочую) версию, что LLM выдала.
Я обычно беру первую корявенькую версию ( если там не совсем уж бред), а потом просто правлю её руками. Получается всё равно быстрее, чем долбить с нуля. А вот попытки выдавить то, что удовлетворит чувство прекрасного промптами может занять в итоге больше времени.
Если со 2..3 попыток не получается (долго ли в чате copy|paste "..дай еще.." фразу) то так же делаю.
всегда приходится искать баланс между ленью писать промпт и код.
я вообще сочувствую вайб кодерам. Пробовал из принципа одностраничный сайт сделать исключительно LLM. Так писать LLM, то что надо сделать, зачастую дольше чем просто код вбить.
Вкус сам по себе не появляется, его надо формировать.
И вот это ощущение, что здесь "что-то не так" приходит с опытом и начитанностью.
Для одноразовых задач примеров со StackOverflow было предостаточно.
Например, нужно было один раз вытащить из огромного лога все строки между двумя таймстемпами и быстро вывести их в читаемом виде. Гуглишь "grep between two dates", находишь на SO связку из awk и регулярки, копируешь, запускаешь и больше никогда про неё вспоминаешь.
А вообще, было бы классно настраивать источник знаний под себя.
Чтобы модель включала в себя ресурсы, которые я считаю правильными: классические книги, эталонные репозитории, хорошие архитектурные примеры.
вроде бы начали использовать сжатие (суммаризацию) промпта, чтобы контекст не терялся
Я так понял, вы в чат гпт куски кода загружали? Попробуйте агентскую разработку: загрузите код в гитхаб и дайте задачу гитхаб копилот агенту.
Да, вы правы.
Я думал об этом перед началом эксперимента.
Разработку с агентом решил отложить по двум причинам:
Что он начнёт механически выполнять задачи цепочкой, и мелкие ошибки будут накапливаться.
Что когда мне будут нужны уточнения по каким-то решениям, то агент не сможет их дать и подробно всё разжевать.
Собственно, поэтому я и начал с диалога чтобы видеть каждый шаг и проверять, насколько рассуждения модели совпадают с моими.
Агента можно попросить составить план (codex) и уже из плана запускать задачи. Цепочкой он их выполнять не будет.
Codex на самом деле рассуждает не очень прозрачно. Github Copilot очень детально рассуждает. Его рассуждения очень полезно наблюдать - можно остановить, если что-то пошло не так; можно увидеть, в каком месте происходит затык (например не хватает каких-то библиотек) и помочь в этом месте агенту. В конце концов по рассуждениям агента можно многому научиться - он очень здорово отлаживает и изучает проблемное место.

Мой опыт парного программирования с Chat GPT-5