Комментарии 7
Самый дорогой баг в моей практике почти всегда начинался одинаково: “вроде ок, поехали в прод”.
LLM просто делает этот путь быстрее.
Мой личный гейт простой: пока нет Diff + Check + Evidence — это не “доставка”, это перенос риска в прод.
Расскажите, какой у вас был самый дорогой “вроде ок”? Сколько стоил — и какой минимальный smoke мог бы его поймать?
Поколения, привыкшие к честному образу жизни, должны вымереть в течении последующих 20 лет, а затем произойдёт величайшая катастрофа в истории.
из письма Ивана Антоновича ЕФРЕМОВА американскому палеонтологу Э.К Олсону в 1971 году.
Мне это тоже читается не про LLM напрямую, а про вымывание привычки к честности как к ремеслу. “Честный образ жизни” — это вообще про способность не подменять реальность рассказом о ней: не верить себе на слово, проверять ощущения фактами, держать обратную связь с миром (люди, деньги, здоровье, сроки) и вовремя признавать “я не знаю / мне нужно проверить”, вместо того чтобы “мне кажется, значит так и есть”.
LLM просто делает самообман дешевле и правдоподобнее, поэтому катастрофа становится не моральной, а статистической: накопленный слой “выглядит правильно” однажды схлопнется.
И вот вопрос шире программирования: честность — это свойство людей (поколений) или свойство процессов? Если её можно вшивать в процесс — какие опорные практики/контуры обратной связи должны быть неизбываемыми, чтобы скорость не превращалась в жизнь “по ощущениям”, а оставалась жизнью “по реальности”?
у LLM охват ограничен -- потому что ее, как сервис, уже прооптимизировали чтобы она обслуживала массы. Если пытаться впихнуть невпихуемое, результат будет плохим. Ограничиввайте свой аппетит, ставьте локальные простые задачи и LLM прерасно и правильно их отработает.
И, да, если не понимать что пишет LLM, то лучше и не заниматься программированием совсем. Не в 2026. Может потом, когда будут другие модели, другое железо каждая кухарка сможет запрограммировать большую софтверную систему из десятков миллионов строк кода. Но не сейчас. Сейчас пока мы ползаем по земле и LLM позволяет немжко меньше печатать на клавиатуре.
Вы забыли упомянуть что тесты которые генерирует ии основнны на коде, который она же и сгенерировала. Если в коде баги, то тесты покрывают баги и ничего не проверяют. Последние месяцы на работе после того как программисты начали использовать в работе llm, я сталкиваюсь с тем, что тесты ничего не проверяют. Покрытие кода тестами растёт, меняешь поведение кода, тесты зелёные. К сожелению не во всех языках есть адекватные инструменты для мутационных тестов.
Потому что конечный этап предфинальной обработки текста делает нейронка. наброски текста я делаю руками, прогоняю через нейронку, исправляю орфографические ошибки, и если есть какие то несостыковки логические довожу статью до готового проверенного состояния. Это очень ускоряет работу. Но все мысли, выводы, это мой личный реализованный опыт работы и взаимодействия с нейросетями и агентами. Сейчас планирую цикл статей про многоагентные системы. Это не абстрактные статьи, а все реализовано, протестировано и работает.

«Важно доставлять, а не понимать» — идеальный способ работы с нейросетями