Обновить

«Важно доставлять, а не понимать» — идеальный способ работы с нейросетями

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели9.9K
Всего голосов 8: ↑5 и ↓3+3
Комментарии7

Комментарии 7

Самый дорогой баг в моей практике почти всегда начинался одинаково: “вроде ок, поехали в прод”.
LLM просто делает этот путь быстрее.

Мой личный гейт простой: пока нет Diff + Check + Evidence — это не “доставка”, это перенос риска в прод.

Расскажите, какой у вас был самый дорогой “вроде ок”? Сколько стоил — и какой минимальный smoke мог бы его поймать?

Поколения, привыкшие к честному образу жизни, должны вымереть в течении последующих 20 лет, а затем произойдёт величайшая катастрофа в истории.

из письма Ивана Антоновича ЕФРЕМОВА американскому палеонтологу Э.К Олсону в 1971 году.

Мне это тоже читается не про LLM напрямую, а про вымывание привычки к честности как к ремеслу. “Честный образ жизни” — это вообще про способность не подменять реальность рассказом о ней: не верить себе на слово, проверять ощущения фактами, держать обратную связь с миром (люди, деньги, здоровье, сроки) и вовремя признавать “я не знаю / мне нужно проверить”, вместо того чтобы “мне кажется, значит так и есть”.

LLM просто делает самообман дешевле и правдоподобнее, поэтому катастрофа становится не моральной, а статистической: накопленный слой “выглядит правильно” однажды схлопнется.

И вот вопрос шире программирования: честность — это свойство людей (поколений) или свойство процессов? Если её можно вшивать в процесс — какие опорные практики/контуры обратной связи должны быть неизбываемыми, чтобы скорость не превращалась в жизнь “по ощущениям”, а оставалась жизнью “по реальности”?

Перенос риска в прод.

Это в точности то, что писал Ефремов: мы берём "взаймы" у будущего.

Общественное сознание глухо к любым рациональным доводам. Только комплиментарным. И так до полного самоуничтожения. Катастрофа приведёт к пересборке общества.

у LLM охват ограничен -- потому что ее, как сервис, уже прооптимизировали чтобы она обслуживала массы. Если пытаться впихнуть невпихуемое, результат будет плохим. Ограничиввайте свой аппетит, ставьте локальные простые задачи и LLM прерасно и правильно их отработает.
И, да, если не понимать что пишет LLM, то лучше и не заниматься программированием совсем. Не в 2026. Может потом, когда будут другие модели, другое железо каждая кухарка сможет запрограммировать большую софтверную систему из десятков миллионов строк кода. Но не сейчас. Сейчас пока мы ползаем по земле и LLM позволяет немжко меньше печатать на клавиатуре.

Вы забыли упомянуть что тесты которые генерирует ии основнны на коде, который она же и сгенерировала. Если в коде баги, то тесты покрывают баги и ничего не проверяют. Последние месяцы на работе после того как программисты начали использовать в работе llm, я сталкиваюсь с тем, что тесты ничего не проверяют. Покрытие кода тестами растёт, меняешь поведение кода, тесты зелёные. К сожелению не во всех языках есть адекватные инструменты для мутационных тестов.

Потому что конечный этап предфинальной обработки текста делает нейронка. наброски текста я делаю руками, прогоняю через нейронку, исправляю орфографические ошибки, и если есть какие то несостыковки логические довожу статью до готового проверенного состояния. Это очень ускоряет работу. Но все мысли, выводы, это мой личный реализованный опыт работы и взаимодействия с нейросетями и агентами. Сейчас планирую цикл статей про многоагентные системы. Это не абстрактные статьи, а все реализовано, протестировано и работает.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации