Comments 19
На Хабре массово появляются статьи на тему "как я быстро навайбкодил приложение, решившее множество повседневных проблем нашей фирмы". Иногда за это даже доплачивают премии, мол, хорошая идея. Потом начинают пользоваться и в процессе работы выявляются ошибки, разобраться с которыми вайбкодеру не под силу, потому как с глубоким дебагом нейросеть уже не справится. По итогу получается, что вроде какое-то решение есть, с ним даже работают и к нему привыкли, но оно есть как есть - ни функционал расширить, ни косяки поправить. А если и удастся впихнуть ещё несколько функций, так они с высокой вероятностью могут поломать то, что уже работало, а как откатить всё назад непонятно, ибо не все вайб кодеры удосужились разобраться, что такое система контроля версий. Без знаний и опыта в разработке толк от нейронов крайне сомнителен. Профессиональному программисту да, удобно заставить нейронку написать функцию парсинга какого-нибудь хитрого файла, понимая при этом, как данные будут обработаны дальше. Тут, бесспорно, ускорение есть.
Речь как раз про маленькие атомарные этапы решения какой-то большой задачи с помощью LLM. Каждый этап контролирует сам разработчик. Вайб-кодинг - конечно, игрушка и фантазии.
Статьи "я тут навайбкодил" на Хабре видел. А откуда информация о том, что " Потом начинают пользоваться и в процессе работы выявляются ошибки, разобраться с которыми вайбкодеру не под силу "?
Про это реально здесь писали, или это только мнение - "по другому же быть не может!"?
Сейчас основной «удар» приходится на веб-разработчиков, так как именно в веб-разработке наименьший порог входа, есть устоявшиеся фреймворки и множество готовых решений для реализации задач практически любой сложности.
а на практике достаточно попробовать написать фронтенд для проекта средней сложности (типа простенькой системы учета) с каким-нибудь claude code (sonnet 4.5). стоит только отвлечься и вот у тебя уже компоненты на 600 строк, запутанные связи, везде баги
а потом еще попросить это все отрефакторить «как надо» под присмотром!
Это задача разработчика выстроить архитектуру приложения, а последние модели уже могут достаточно неплохо "по образу и подобию" реализовывать новые части.
хаха нет. пожал контекст - надо опять во все тыкать вручную. я начинающий вайбкодер, пока не понял как заставить клавдия автоматом перечитывать план задания, соотв. части архитектуры и инструкции по методам разработки в этом проекте, после того как он пожал контекст
Проблема в том, что по ходу работы с нейронками контекст из начал общения теряется, поэтому PRD файлик приходится ему постоянно скармливать, но и это не сильно помогает, потому что временами он пакостит, и приходится делать откаты и искать где же кроется фича, которая всё ломает)
Как будет выглядеть разработка в ближайшем будущем?
Есть (и уже сейчас) ещё такой вариант от отдела информационной безопасности в виде регламента, а то и записи в трудовом договоре а-ля "запрещается передавать коммерческую тайну третьим лицам, включая AI-агентов как обучающихся на исходных кодах".
А работа исключительно на выданном компе (читай: со всякого рода логированием)
Посмотрим, у каких сеньеров и где преимущество будет.
Для этого в бигтехе развивают свои LLM, чтобы снять риски утечки информации. Плюс дополнительно используют договоры с поставщиками услуг (Cursor и пр.), где есть пункты про конфиденциальность.
На бигтехах свет клином не сошёлся. Особенно интерес к ним поугас из-за массовых увольнений, которыми они ИИ-стерию и разогнали.
Вот никак не могу понять феномен, может кто-то объяснит.
Который раз в глаза бросается задержка в явлениях (на полгода-год примерно) и выводах.
На западе сейчас: и тебе boomerang hires и вовсю откровения, что сильно переоценили ИИ и вообще пузырь.
У нас: и тебе 20% неэффективного персонала уволить, и повышенный поток статей "я навайбкодил за два вечера X, хотя в этом стеке ранее не работал"
Спасибо за то, что поделился мнение. Было интересно почитать 👍
LLM могут решить задачу, но вопрос качества будет всегда вставать на первое место. Из качества вытекает вопрос безопасности написанного кода
Тут не совсем так... из качества не вытекает безопасность написанного кода. Это про разное.
Например, Роберт Мартин очень хорошо описывал каким критериям должен соответствовать качественный код: читаемость, структурированность, тестируемость, поддерживаемость, расширяемость... Это еще называют валидным кодом (в т.ч. соответствие стандартам самого языка).
А вот безопасность это про безопасность. Например про приемы защиты от сиквельных инъекций, когда нужно использовать прекомпилированные запросы вместо обычных и т.п. Ну и, вроде как, это не связано с качеством кода
вопрос качества будет всегда вставать на первое место
Скажи, пожалуйста, для кого будет вставать на первое место? Для бизнеса? Для PO, для РП? Вот из всех названных стейкхолдеров ни для кого качество не встает на первое место. Для этих ребят встает вопрос скорости получения ценности для бизнеса.
Получается, что вопрос качества, прям сильно, имеет значение для ребят из разработки (разрабы, тестеры и т.п.). Ну а далее всегда нехватка времени, бизнес всегда подгоняет, сроки частенько горят и т.п. В общем до качества кода не доходит особо то)))
Но, справедливости ради, не всегда все так плохо. Бывает бизнес прислушивается к разработчикам и позволяет выделить в году n спринтов для устранение костылей, проведения рефакторинга и т.п. Но делает это лишь потому, что последние обосновывают это и просят время, а не из-за того, что это заложено в процесс. А бывает и заложено в процесс, но скорость поставки ценности всегда имеет приоритет... В общем то все логично
На первое место вопрос качества встанет для "чёрных" хакеров :)
Тогда уж безопасности, а не качества. Эксплуатация уязвимостей черными шляпами это про безопасность.
По опыту скажу, что в разных компаниях разное отношение. Дело в том, что невозможно постоянно поддерживать высокий уровень безопасности. Просто порою бывает недостаточно обновить пару зависимостей, так как слишком разветвленная корневая система. К тому же может потребоваться и обновить мажорную версию какого-нибудь фреймфорка, если используется. В итоге все время будет уходить только на латание дыр и тестирование после этого. А бывает еще хуже - просто нет альтернативы библиотеке, а поднятие ее версии приводит к несовместимости много чего остального. В таких случаях прикрываются тем, что все находится за dmz и можно пренебречь в чем то. Диаметрально противоположна ситуация с фронтовыми прикладами, например, с какими-нибудь он-лайн кошельками и т.п. там безопасность будет на первом месте всегда. Но опять же это отдельно про безопасность
Скажи, пожалуйста, для кого будет вставать на первое место? Для бизнеса? Для PO, для РП?
У бизнеса есть CTO, который выстраивает взаимодействие с разработкой. В крупных проектах всегда смотрят на метрики: количество/скорость прихода багов, метрики скорости сервисов, метрики скорости работы приложений и многие другие. При запуске новой фичи в АБ тесте аналитики могут принести самые неожиданные результаты, противоположные от тех, что ожидали PO/PM. И это может быть некачественный/медленный/багованный код. Тут и наступает отвественность разработчиков, которые в угоду скорости доверили написание всей фичи LLM. Всегда должен быть баланс между скоростью и качеством.
Все не так. Скриншотьте. Будут нужны и джуны и не джуны, как и раньше. Только скилл будет не столько в том, чтобы кодить, а в том чтобы писать промпты. Джун будет писать промыты, не требующие глубоких знаний. Синьор будет выжимать из ИИ гораздо больше. А Ваши влажные фантазии об абстрактных архитектурных промптах, а дальше ИИ типа сам - нет, так не будет. Это такая же утопия как и полный вайбкодинг. ИИ никогда не знает как вам нужно что-то реализовать, пока ВЫ ему это детально не опишете. А если и вы этого не знаете, ну ешьте тогда что дадут и потом не жалуйтесь. В будущем самый важный скилл будет всего один - понимание как выковырять из ИИ то, что надо и уметь этим управлять.
Вечный ревьювер: как ИИ меняет работу разработчиков