Главный product owner тоже не контролирует качество кода и точность реализации. Его волнует конечный результат, если он ок, значит хорошо. Допустим он может теперь добиться этого без разработчиков. Ценность высокая.
Ну и 'гарантировать' к сожалению никто не может ни с ai ни без ai 🙂
Однако в будущем ai будет вероятно намного стабильнее лучшего программиста сегодня.
может немного оффтоп, но может быть полезно читателям ищущим инфо по чат ботам: вот это моделька из статьи all-MiniLM-L6-v2 реально хороша и универсальна, я много тестировал моделек для чат бота в проекте (FAQ retrieval) и классификации запроса (bug report, feature request, question), и вот волшебный, легкий, работающий на cpu на серваке all-MiniLM-L6-v2 потребляющий на пике 724 MiB, был победителем (85% FAQ, 77% Classifier, тесты намного сложнее чем обычные use case, поэтому не высокий %. сам циферка как reference просто).
Хотя чисто по FAQ, но не по классификации был лучше intfloat/multilingual-e5-small, (peak RAM 1.65 GiB, 93%% FAQ, 62% Classifier) в итоге я использую обе, одну по FAQ другую, по классификации.
14мс всего на ответ им надо в Docker/TEI, если вдруг интересно.
ну про репозиторий не спорю, считаю намного удобнее так. Но люди не меняются от местонахождения документации 🙂. Во многих проектах про доки в репозитории так же забывали как про доки в конфлюенс. Есть несколько полу решений (DoD, custom linter hook), но они не стабильные. А вот LLM комфортно справляется с обновлением доков сразу (пока не супер идеально, но вероятно через пару лет, намного лучше людей). Конечно есть доки не для БЯМ, например внешняя информация (типа "берем Х потому что нам так дешевле"), т.е. люди еще нужны иногда не только для ревью. Но в общей сумме тенденция имхо ясна.
Агенты сейчас сами обновляют релевантные доки после комитов. Мне кажется уже не нужно будет заморачиваться инструментами и ручной работой. Так, проверять иногда.
Мне показался codex (openai, gpt-5.1-codex) в последнее время неожиданно более 'продуманным' чем claude code с opus/sonnet (anthropic) который был абсолютный лидер не так давно.
Работал в разных скрам проектах начиная с самого хайпа. Видел много бреда, когда работники не понимали что и зачем они делают, но им приказали "скрам", они стараются.
Результат: карго-скрам катастрофа, где каждый день доходит до абсурда. Все в недоумении и тратят время на ненужные дискусси и оформление. Зато в отчётах "у нас скрам".
Скрам идея всё таки требует немного интеллекта, из-за своей гибкости/свободы в реализации, а не у всех есть такой ресурс 🙂
Круто будет читать это в будущем, как "первые шаги" развития через llm, когда через 10 лет у нас будет другой уровень математики и физики за счёт "видеокарт и электричества" 😎.
ну всякие продвинутые alphaGo не рассчитывают все наперед, в этом то и смысл нейронной сети. Они как и люди можно сказать "чувствуют", оценивают приблизительно, что лучше в той или иной ситуации. Если бы рассчитывали бы на 100%, то был бы только 1 самый лучший движок.
Мне кажется вы немного перегнули.
Главный product owner тоже не контролирует качество кода и точность реализации. Его волнует конечный результат, если он ок, значит хорошо. Допустим он может теперь добиться этого без разработчиков. Ценность высокая.
Ну и 'гарантировать' к сожалению никто не может ни с ai ни без ai 🙂
Однако в будущем ai будет вероятно намного стабильнее лучшего программиста сегодня.
может немного оффтоп, но может быть полезно читателям ищущим инфо по чат ботам:
вот это моделька из статьи all-MiniLM-L6-v2 реально хороша и универсальна, я много тестировал моделек для чат бота в проекте (FAQ retrieval) и классификации запроса (bug report, feature request, question), и вот волшебный, легкий, работающий на cpu на серваке all-MiniLM-L6-v2 потребляющий на пике 724 MiB, был победителем (85% FAQ, 77% Classifier, тесты намного сложнее чем обычные use case, поэтому не высокий %. сам циферка как reference просто).
Хотя чисто по FAQ, но не по классификации был лучше intfloat/multilingual-e5-small, (peak RAM 1.65 GiB, 93%% FAQ, 62% Classifier) в итоге я использую обе, одну по FAQ другую, по классификации.
14мс всего на ответ им надо в Docker/TEI, если вдруг интересно.
Сравнение в статье конечно не очень связано с разработкой, зато есть рекламодатель 🙂
(дали б хоть cli tools эти задачи, а не в чатике, я не говорю уже о подготовке доков, скиллов и тулов для агента)
Мне нравился claude, но в какой-то момент сильно удивил кодекс глубиной понимания проблемы.
Теперь я только на кодексе, развивают его быстро, по фичам помоему почти догнал клода.
Мне кажется он пишет менее ошибочный код. Но возможно я предвзят, т.к. подписки клода больше нет.
Использую gpt5.4-high (fast) в основном.
Но он к сожалению явно сложнее. Придется надеяться на естественный процесс. (старость, смерть, может повезёт со сменой курса потом).
ну про репозиторий не спорю, считаю намного удобнее так. Но люди не меняются от местонахождения документации 🙂.
Во многих проектах про доки в репозитории так же забывали как про доки в конфлюенс.
Есть несколько полу решений (DoD, custom linter hook), но они не стабильные.
А вот LLM комфортно справляется с обновлением доков сразу (пока не супер идеально, но вероятно через пару лет, намного лучше людей).
Конечно есть доки не для БЯМ, например внешняя информация (типа "берем Х потому что нам так дешевле"), т.е. люди еще нужны иногда не только для ревью. Но в общей сумме тенденция имхо ясна.
Агенты сейчас сами обновляют релевантные доки после комитов. Мне кажется уже не нужно будет заморачиваться инструментами и ручной работой. Так, проверять иногда.
Докам даже не надо быть в репозитори.
github репозиторий к сожалению приват\недоступен.
Мне показался codex (openai, gpt-5.1-codex) в последнее время неожиданно более 'продуманным' чем claude code с opus/sonnet (anthropic) который был абсолютный лидер не так давно.
Работал в разных скрам проектах начиная с самого хайпа. Видел много бреда, когда работники не понимали что и зачем они делают, но им приказали "скрам", они стараются.
Результат: карго-скрам катастрофа, где каждый день доходит до абсурда. Все в недоумении и тратят время на ненужные дискусси и оформление. Зато в отчётах "у нас скрам".
Скрам идея всё таки требует немного интеллекта, из-за своей гибкости/свободы в реализации, а не у всех есть такой ресурс 🙂
Круто будет читать это в будущем, как "первые шаги" развития через llm, когда через 10 лет у нас будет другой уровень математики и физики за счёт "видеокарт и электричества" 😎.
Думаю тут очень важно было бы протестировать claude и claude-code. Возможно тогда статья была бы другой.
А можно узнать про результаты личного опыта на сегодня? (оценку улучшения по сравнению с 2019, 2023..)
ну всякие продвинутые alphaGo не рассчитывают все наперед, в этом то и смысл нейронной сети. Они как и люди можно сказать "чувствуют", оценивают приблизительно, что лучше в той или иной ситуации. Если бы рассчитывали бы на 100%, то был бы только 1 самый лучший движок.
Нет, если сравнить рейтинги Ai игроков и реальных. Там без шансов. Ни в Го ни в шахматы.
Автор всё таки сам по видимому не очень понимает что написал или не проверил сгенерированный текст 🤷🏻♂️ . MCP это не "Modular Capability Providers".
Ai помогает, контента больше, но качество конечно страдает 😐