В том то и дело, что PRD не опционален, он нужен для нормальной работы с ИИ для генерации планов, а по ним кода. Без этого результата не будет. А раз есть PRD для кода, почему не может быть PRD для тестов?
Вот я из тех, кто документацию и за мильон не писал бы, тяжко это. А вот с ИИшкой в роли редактора - запросто. Генерит он план, правишь слегка и вперёд. Сейчас "гуманитарии" расцветут. Уж им то писать доки не проблема, проблема была - техническая компетенция. И этот пробел ИИ заполняет. В некоторых тематических чатах люди непрограммеры с большим энтузиазмом сейчас для себя всякий инструментарий успешно "пишут".
Документация разная бывает. Описание фактического состояния системы, своего рода память для ИИ - это одно. А требования - совсем другое, это то, что подаётся на вход на исполнение. И используя оба набора документов на вход ИИ спокойно тесты и напишет. Естественно, для обоих документаций нужно участие человека, вооружённого ИИ. А вот для технической имплементации тестов - тут штаты поредеют.
Ещё год назад агенты не были реальностью, а теперь - рабочий инструмент. Зарекаться наперёд становится всё рискованней.
А косяки с логикой, неэффективными запросами - это именно то, что и сейчас люди на раз совершают и оно проходит PRы, пока не вылезет в операционке под нагрузкой. Мой поинт в том, что это не является на столько критичным, что бы вот так сходу блокировать ИИ коммиты. Люди ошибаются не меньше. Выкатывать и QAить просто надо тоже правильно. Не all in в прод, а под процент трафика, мониторить метрики и т.п. Ничего нового, всё это и сейчас является best practice, так как люди косячат с этими вопросами так же часто и доверять им нельзя.
Это если сеньор не заинтересован и смотрит через губу на всё это. Таких много. Но много и таких, которые распробовав инструмент, научившись с ним ПРАВИЛЬНО работать (что самое важное), осознали его мощь и стали продуктивней в РАЗЫ. Именно вокруг таких историй и поднимается обсуждение о ненужности больших команд.
Если дурным менеджментом называть нереалистичные планы развития в предыдущие лет 5 и связанный с этим сумасшедший найм персонала в любую пиццерию - то да, менеджмент дурной. Но если видеть в этом вопросы роста капитализации компаний и освоения дурных денег дурных инвесторов, то менеджмент уже не такой дурной, это инвесторы дурные, как и деньги. Как бы то ни было, всё это должно было сдуться рано или поздно по естественным причинам. ИИ тут не причина конечно, но один из катализаторов, участвующих в реакции охлаждения.
Я не согласен с критичностью абсолютно любого куска кода. CVE поддаются классификации, условно inputs->sql injections, memory bounds и прочее. Все такие вещи на самом деле на много проще проверять автоматизировано, чем глазами. Что на много сложнее проверять - это кривые архитектурно-логические решения, приводящие к неэффективности, использованию ресурсов и т.п. Но я уверен - это всё вопрос инструментария. Чисто технически-теоретически ничего не мешает лет через Н ИИшкам разворачивать каждый коммит в песочнице и анализировать метрики, делая выводы. Это сложно - но отнюдь не нерешаемо. Ну и опять же, чисто "статический" анализ будет прогрессировать очень быстро. Ну нет ничего сакрального в абсолютном большинстве тех PR code review, что происходят в большинстве проектов. Понятно, будут сложные тематики как проектирование электроники, ASIC, FPGA где всё сильно сложнее по ревью и тестированию. Но блин, у нас индустрия по большей части занимается на много более примитивной ерундой.
Проблема нынешнего школьного образования ещё в том, что оно одно одновременно обо всём и ни о чём. Тем затрагивается много, в основном, совершенно неинтересных ребёнку, при этом углубление в темы поверхностное. Но опять же, как это решать, непонятно. До определённого возраста большинство будет интересоваться условным "программированием роблокс", а не химией, потому что неинтересно и сложно. Интерес тоже надо "засеивать". И на определённом этапе жёстко дифференцировать одних от других с индивидуальными учебными программами. Это если задаваться целью выращивать специалистов, а не просто "учить учиться" с соответствующим странным результатом, как это происходит сейчас. И индивидуальные программы, судя по всему, станут скоро технически просто реализуемыми. Но вот вопросы дифференциации - они уже в стратегической / политической плоскости.
А как в промышленности решают вопросы QA при выпуске миллионов единиц продукции? Проводят выборочные проверки качества отдельных партий продукции. Вот и сюда это всё приходит. И работать будет, почему нет?
Ну вы же не будете утверждать, что PRки ревьювятся всегда очень тщательно и компетентными людьми, способными продумать все edge cases и которые в курсе всех актуальных технологий безопасности? Это утопия. И этот процесс одна из причин выгорания сейчас людей. Много где уже пишут, что процесс ревью умрёт, так как станет 1) ботлнеком 2) ИИшки сами с этим лучше справятся если не сейчас, то совсем скоро.
Как по мне, так QA первый кандидат на вылет. Правильная работа с LLM подразумевает нынче хорошую структурированную самообновляемую документацию. А по документации нагенерить всяких разных тестов (опять же под мудрым присмотром) - какие сложности?
Это беспорно, но людей таких нужно будет если не на порядок, то в разы меньше, чем до этого. И требования к ним будут не сортировки писать, а архитектуры строить.
Я про то, что 3 года назад - это какая модель? В GPT35 из чатика руками эти мильоны дёргали? Как по мне, так настоящий ИИ в кодинге начался только в конце 2025ого. До этого было так, разминка.
Я вот не понимаю, почему пишут про уязвимости ИИ сгенерированного кода, но "забывают" что все эти нынешние CVE - это "заслуги" живых программистов?
Далее, отчёт Veracode - это исследование какого года. 2022-2024? Ну серьёзно? Это просто вечность для моделей. Тогда толком и пайплайнов нельзя было построить, которые сейчас на раз строятся.
. И тут крайне важны понятность кода, чистота архитектуры, и т.д., а именно этими вещами в последние лет пятнадцать принято пренебрегать. За последние полтора года я был свидетелем волны взломов всевозможных аккаунтов, но инженерных решений при этом не видел
Так в чём причина. Уменьшение QA? Или понижение среднего уровня программистов (вкатуны, стихийный найм и тп.)? И почему кто-то захочет вместо продуктивного компетентного по любым бизнес темам ИИ вдруг нанимать назад этих "специалистов"?
Обычному пользователю тоже нужно уметь "повесить картину на стену", что бы при этом на стене лишние окна не появились. При этом делается всё это нынче элементарно (декомпозиция в JSON).
Хороший овервью. Во всём этом есть одна проблема - исходим из того, что PRD проработанный и однозначно верный и не требует дальнейшей проработки после написания. Что чаще всего не так. Для полноценной разработки не хватает циклов приёмки/уточнения промежуточных результатов.
В том то и дело, что PRD не опционален, он нужен для нормальной работы с ИИ для генерации планов, а по ним кода. Без этого результата не будет. А раз есть PRD для кода, почему не может быть PRD для тестов?
Вот я из тех, кто документацию и за мильон не писал бы, тяжко это. А вот с ИИшкой в роли редактора - запросто. Генерит он план, правишь слегка и вперёд. Сейчас "гуманитарии" расцветут. Уж им то писать доки не проблема, проблема была - техническая компетенция. И этот пробел ИИ заполняет. В некоторых тематических чатах люди непрограммеры с большим энтузиазмом сейчас для себя всякий инструментарий успешно "пишут".
Документация разная бывает. Описание фактического состояния системы, своего рода память для ИИ - это одно. А требования - совсем другое, это то, что подаётся на вход на исполнение. И используя оба набора документов на вход ИИ спокойно тесты и напишет. Естественно, для обоих документаций нужно участие человека, вооружённого ИИ. А вот для технической имплементации тестов - тут штаты поредеют.
Ещё год назад агенты не были реальностью, а теперь - рабочий инструмент. Зарекаться наперёд становится всё рискованней.
А косяки с логикой, неэффективными запросами - это именно то, что и сейчас люди на раз совершают и оно проходит PRы, пока не вылезет в операционке под нагрузкой. Мой поинт в том, что это не является на столько критичным, что бы вот так сходу блокировать ИИ коммиты. Люди ошибаются не меньше. Выкатывать и QAить просто надо тоже правильно. Не all in в прод, а под процент трафика, мониторить метрики и т.п. Ничего нового, всё это и сейчас является best practice, так как люди косячат с этими вопросами так же часто и доверять им нельзя.
Это если сеньор не заинтересован и смотрит через губу на всё это. Таких много. Но много и таких, которые распробовав инструмент, научившись с ним ПРАВИЛЬНО работать (что самое важное), осознали его мощь и стали продуктивней в РАЗЫ. Именно вокруг таких историй и поднимается обсуждение о ненужности больших команд.
Если дурным менеджментом называть нереалистичные планы развития в предыдущие лет 5 и связанный с этим сумасшедший найм персонала в любую пиццерию - то да, менеджмент дурной. Но если видеть в этом вопросы роста капитализации компаний и освоения дурных денег дурных инвесторов, то менеджмент уже не такой дурной, это инвесторы дурные, как и деньги. Как бы то ни было, всё это должно было сдуться рано или поздно по естественным причинам. ИИ тут не причина конечно, но один из катализаторов, участвующих в реакции охлаждения.
Я не согласен с критичностью абсолютно любого куска кода. CVE поддаются классификации, условно inputs->sql injections, memory bounds и прочее. Все такие вещи на самом деле на много проще проверять автоматизировано, чем глазами. Что на много сложнее проверять - это кривые архитектурно-логические решения, приводящие к неэффективности, использованию ресурсов и т.п. Но я уверен - это всё вопрос инструментария. Чисто технически-теоретически ничего не мешает лет через Н ИИшкам разворачивать каждый коммит в песочнице и анализировать метрики, делая выводы. Это сложно - но отнюдь не нерешаемо. Ну и опять же, чисто "статический" анализ будет прогрессировать очень быстро. Ну нет ничего сакрального в абсолютном большинстве тех PR code review, что происходят в большинстве проектов. Понятно, будут сложные тематики как проектирование электроники, ASIC, FPGA где всё сильно сложнее по ревью и тестированию. Но блин, у нас индустрия по большей части занимается на много более примитивной ерундой.
Проблема нынешнего школьного образования ещё в том, что оно одно одновременно обо всём и ни о чём. Тем затрагивается много, в основном, совершенно неинтересных ребёнку, при этом углубление в темы поверхностное. Но опять же, как это решать, непонятно. До определённого возраста большинство будет интересоваться условным "программированием роблокс", а не химией, потому что неинтересно и сложно. Интерес тоже надо "засеивать". И на определённом этапе жёстко дифференцировать одних от других с индивидуальными учебными программами. Это если задаваться целью выращивать специалистов, а не просто "учить учиться" с соответствующим странным результатом, как это происходит сейчас. И индивидуальные программы, судя по всему, станут скоро технически просто реализуемыми. Но вот вопросы дифференциации - они уже в стратегической / политической плоскости.
А как в промышленности решают вопросы QA при выпуске миллионов единиц продукции? Проводят выборочные проверки качества отдельных партий продукции. Вот и сюда это всё приходит. И работать будет, почему нет?
Ну вы же не будете утверждать, что PRки ревьювятся всегда очень тщательно и компетентными людьми, способными продумать все edge cases и которые в курсе всех актуальных технологий безопасности? Это утопия. И этот процесс одна из причин выгорания сейчас людей. Много где уже пишут, что процесс ревью умрёт, так как станет 1) ботлнеком 2) ИИшки сами с этим лучше справятся если не сейчас, то совсем скоро.
Как по мне, так QA первый кандидат на вылет. Правильная работа с LLM подразумевает нынче хорошую структурированную самообновляемую документацию. А по документации нагенерить всяких разных тестов (опять же под мудрым присмотром) - какие сложности?
Это беспорно, но людей таких нужно будет если не на порядок, то в разы меньше, чем до этого. И требования к ним будут не сортировки писать, а архитектуры строить.
Я про то, что 3 года назад - это какая модель? В GPT35 из чатика руками эти мильоны дёргали? Как по мне, так настоящий ИИ в кодинге начался только в конце 2025ого. До этого было так, разминка.
Я вот не понимаю, почему пишут про уязвимости ИИ сгенерированного кода, но "забывают" что все эти нынешние CVE - это "заслуги" живых программистов?
Далее, отчёт Veracode - это исследование какого года. 2022-2024? Ну серьёзно? Это просто вечность для моделей. Тогда толком и пайплайнов нельзя было построить, которые сейчас на раз строятся.
Так в чём причина. Уменьшение QA? Или понижение среднего уровня программистов (вкатуны, стихийный найм и тп.)? И почему кто-то захочет вместо продуктивного компетентного по любым бизнес темам ИИ вдруг нанимать назад этих "специалистов"?
И тут Остапа понесло. 3 года
Обычному пользователю тоже нужно уметь "повесить картину на стену", что бы при этом на стене лишние окна не появились. При этом делается всё это нынче элементарно (декомпозиция в JSON).
и не слова про JSON описание сцены? серьёзно?
Хороший овервью. Во всём этом есть одна проблема - исходим из того, что PRD проработанный и однозначно верный и не требует дальнейшей проработки после написания. Что чаще всего не так. Для полноценной разработки не хватает циклов приёмки/уточнения промежуточных результатов.
Программисты не нужны - это тема кликбейтных заголовков. А вот то, что программистов нужно меньше, а сами они - круче - это суровая реальность.