Пока нет, в текущей версии все живет в одном документе. То что вы описываете - разумный шаг в сторону систем управления требованиями, даже необходимый для больших систем. Тут возможна и интеграция с какими-то внешними системами и вариант собственной разработки. В идеальной картине будущего поддержка изменений с обратной связью: т.е. вы начали работать с таском, нашли проблему, поменяли что-то в юзер-сориз у вас автоматом пересобрались все верхнеуровневые требования, проверерились на согласованность и переопубликовались. Туда идем, но пока мы полностью закрываем задачи связанные с документами на ранних стадиях - собрать требования, помочь владельцам продукта понять чего они собственно хотят и как это может выглядеть, собрать прототип, помочь оценить трудозатраты. Приложение на 30 - 50 экранов для стартапа или идея новой фичи в большом энтерпрайзе - наш текущий идеальный клиент, тут будет наибольший эффект.
Да, с шаблонами работаем, мы сейчас в основном используем свои шаблоны Vision & Scope – на основе PMBoK и нашего проектного опыта. Но это можно кастомизировать, недавно меняли шаблон под запрос заказчика, добавляли секцию с CJM. ГОСТы и т.д. – вполне можно. В планах вообще любые кастомные шаблоны документов.
Структура документа - тут как будто бы все уже изложено в методологиях, PMBoK, BABok, ISO, ГОСТы, - это скорее туда, конкретно наш документ, если он интересен можем показать на демо.
С декомпозицией система справляется вполне неплохо, в этом ее смысл и заключается) Каждый раздел в несколько проходов заполняется промптами на основе расшифровки интервью клиента, документов, знаний самой модели. При необходимости дополняется и финально аппрувится живым аналитиком.
Трассировка, нумерация требований частично автоматизирована, т.е. некоторые требования мы умеем разбивать на атомарные, нумеровать и автоматически проставлять связи, но пока полностью все документы насквозь это не покрывает. Совсем строго, как это делается в авиационных или медицинских стандартах с матрицей трассировки – пока только вручную, но все равно это быстрее чем вообще все делать руками. Это, кстати, очень перспективный (на мой взгляд) вопрос, в плане автоматической поддержки изменений в требованиях.
Разбивка на фичи и задачи, приоритезация – это пока все за человеком. Но в целом в эту сторону тоже уже смотрим.
Если интересно – можем вам провести демо, или даже пилот обсудить, это хороший способ увидеть скорость и качество.
В Калифорнии есть закон запрещающий соглашения о неконкуренции, то есть работодатели не могут препятствовать сотрудникам переходить в компании-конкуренты. Иногда работодателям это нравится, иногда нет)
https://news.ycombinator.com/item?id=44573195 вот, кстати, еще ветка в форуме где в хвост и в гриву комментируют данную статью - объективность, ругают OpenAI за низкое внимание к безопасности, отсутствие тех писателей, культуру снизу вверх = отсутствие нормального управления и т.д. Это уже для тех кому надо совсем глубоко копать)
Про "цикл отладки" - я думаю тут речь о том, что Devinу в теории можно просто отдать багу из таск трекера, а все остальное он сделает сам (ну в идеале, пока совсем не всегда делает, конечно). Может быть можно в .cursorrules прописать подход как вы написали "статический анализ и автотесты" и оно заработает. Единственное что, думаю чтобы нормально заработало нужна будет рассуждающияя модель на шаге продумывания архитектуры решения и тестов. Т.е. :
Прочитал задачку, отдал ее подумать в o1/o3/R1
Получил план решения и что проверяют тесты - преедал его в Claude
Claude Написал код, проганл тесты, вернул в o1 на проверку
Не исключено, что уже довольно скоро сможет. Попытки таких агентов сделать уже есть (Devin, SWE Agent, Amazon Q и т.д.), пока еще не очень работает, но кажется что уже вот-вот может поменяться
Вообще там все есть, но вот еще раз: 1. Общественное мнение сформировалось, что ИИ для разработчиков - уже must have, а не преимущество; 2. Бизнес опасается опоздать и пробует ИИ; 3. Процессы delivery и создания продуктов должны адаптироваться под новую реальность, где код пишется быстрее с ИИ 4. Не смотря на все заявления Сэма Альтмана в общественном сознании есть опасения, что в перспективе 5+ лет ИИ серьезно расшатает индустрию разработки софта
Не совсем так, исследователи усредняли показатели по языкам, при этом большинство запросов было на пайтоне, что не удивительно, сейчас это самый популярный язык в мире, а плагин может поставить кто угодно.
Супер, спасибо! Не встречал этот бенчмарк раньше, очень любопытный https://mceval.github.io/ . Судя по гитхабу ему ему полгода уже, не очень понятно когда именно модели учили, теоретически мог попасть в обучающий датасет, но все равно интересно
Там уже обновленная версия и она должна быть так же хороша, gguf перезалиты несколько часов назад, и большие опенсорсные модели QWEN (которые сравнимы с GPT4o ) тоже. Пост в их блоге: https://qwenlm.github.io/blog/qwen2.5-coder-family/
Да, большая модель корректно отвечает. Собственно в этом и смысл моего поста был, что вышла модель, которая справляется с такими задачами значительно лучше, чем предыдущие. Она неплохо рассуждает. Может еще не как кандидат наук, но уже неплохо и часто гораздо быстрее. Есть задачи с которыми она не справляется, но вот с этим похоже вопрос закрыт. Приложил скрины:
На первый взгляд она реально неплохо рассуждает и 83% задач на отборочных экзаменах IMO (Международная математическая олимпиада) и 89% в соревнованиях Codeforces - звучит неплохо. Думаю в ближайший месяц мы узнаем насколько она справляется с задачами в целом, а не с конкретными бенчмарками
Пока нет, в текущей версии все живет в одном документе. То что вы описываете - разумный шаг в сторону систем управления требованиями, даже необходимый для больших систем. Тут возможна и интеграция с какими-то внешними системами и вариант собственной разработки. В идеальной картине будущего поддержка изменений с обратной связью: т.е. вы начали работать с таском, нашли проблему, поменяли что-то в юзер-сориз у вас автоматом пересобрались все верхнеуровневые требования, проверерились на согласованность и переопубликовались. Туда идем, но пока мы полностью закрываем задачи связанные с документами на ранних стадиях - собрать требования, помочь владельцам продукта понять чего они собственно хотят и как это может выглядеть, собрать прототип, помочь оценить трудозатраты. Приложение на 30 - 50 экранов для стартапа или идея новой фичи в большом энтерпрайзе - наш текущий идеальный клиент, тут будет наибольший эффект.
Спасибо, хорошие вопросы! Отвечу по порядку.
Да, с шаблонами работаем, мы сейчас в основном используем свои шаблоны Vision & Scope – на основе PMBoK и нашего проектного опыта. Но это можно кастомизировать, недавно меняли шаблон под запрос заказчика, добавляли секцию с CJM. ГОСТы и т.д. – вполне можно. В планах вообще любые кастомные шаблоны документов.
Структура документа - тут как будто бы все уже изложено в методологиях, PMBoK, BABok, ISO, ГОСТы, - это скорее туда, конкретно наш документ, если он интересен можем показать на демо.
С декомпозицией система справляется вполне неплохо, в этом ее смысл и заключается) Каждый раздел в несколько проходов заполняется промптами на основе расшифровки интервью клиента, документов, знаний самой модели. При необходимости дополняется и финально аппрувится живым аналитиком.
Трассировка, нумерация требований частично автоматизирована, т.е. некоторые требования мы умеем разбивать на атомарные, нумеровать и автоматически проставлять связи, но пока полностью все документы насквозь это не покрывает. Совсем строго, как это делается в авиационных или медицинских стандартах с матрицей трассировки – пока только вручную, но все равно это быстрее чем вообще все делать руками. Это, кстати, очень перспективный (на мой взгляд) вопрос, в плане автоматической поддержки изменений в требованиях.
Разбивка на фичи и задачи, приоритезация – это пока все за человеком. Но в целом в эту сторону тоже уже смотрим.
Если интересно – можем вам провести демо, или даже пилот обсудить, это хороший способ увидеть скорость и качество.
А почему вы считаете, что статья булшит? В ней не хватает какой-то информации?
В Калифорнии есть закон запрещающий соглашения о неконкуренции, то есть работодатели не могут препятствовать сотрудникам переходить в компании-конкуренты. Иногда работодателям это нравится, иногда нет)
https://news.ycombinator.com/item?id=44573195 вот, кстати, еще ветка в форуме где в хвост и в гриву комментируют данную статью - объективность, ругают OpenAI за низкое внимание к безопасности, отсутствие тех писателей, культуру снизу вверх = отсутствие нормального управления и т.д. Это уже для тех кому надо совсем глубоко копать)
Про "цикл отладки" - я думаю тут речь о том, что Devinу в теории можно просто отдать багу из таск трекера, а все остальное он сделает сам (ну в идеале, пока совсем не всегда делает, конечно). Может быть можно в .cursorrules прописать подход как вы написали "статический анализ и автотесты" и оно заработает. Единственное что, думаю чтобы нормально заработало нужна будет рассуждающияя модель на шаге продумывания архитектуры решения и тестов. Т.е. :
Прочитал задачку, отдал ее подумать в o1/o3/R1
Получил план решения и что проверяют тесты - преедал его в Claude
Claude Написал код, проганл тесты, вернул в o1 на проверку
и так по кругу, пока проблема не решена.
Получается в подписку Cursor за $20 как бы входит подписка на Claude $18
Спасибо, с примерами с YOLO супер!
Автор собственно пишет, что т.к. windsurf и cursor в основе своей vs code, то плагины к ним тоже подходят, и cline на них прекрасно работает тоже
Не исключено, что уже довольно скоро сможет. Попытки таких агентов сделать уже есть (Devin, SWE Agent, Amazon Q и т.д.), пока еще не очень работает, но кажется что уже вот-вот может поменяться
sudo -u Владимир Владимирович Post_на_Habr
Все верно подмечено, Владимир Владимирович не заводил себе аккаунт на Хабре, запостили от его имени
Вообще там все есть, но вот еще раз: 1. Общественное мнение сформировалось, что ИИ для разработчиков - уже must have, а не преимущество; 2. Бизнес опасается опоздать и пробует ИИ; 3. Процессы delivery и создания продуктов должны адаптироваться под новую реальность, где код пишется быстрее с ИИ 4. Не смотря на все заявления Сэма Альтмана в общественном сознании есть опасения, что в перспективе 5+ лет ИИ серьезно расшатает индустрию разработки софта
Не совсем так, исследователи усредняли показатели по языкам, при этом большинство запросов было на пайтоне, что не удивительно, сейчас это самый популярный язык в мире, а плагин может поставить кто угодно.
Супер, спасибо! Не встречал этот бенчмарк раньше, очень любопытный https://mceval.github.io/ . Судя по гитхабу ему ему полгода уже, не очень понятно когда именно модели учили, теоретически мог попасть в обучающий датасет, но все равно интересно
Обычно с этим просто, чем больше кода в интернете, тем лучше работает. Лучше всех Python, потом JS и т.д.
Там уже обновленная версия и она должна быть так же хороша, gguf перезалиты несколько часов назад, и большие опенсорсные модели QWEN (которые сравнимы с GPT4o ) тоже. Пост в их блоге: https://qwenlm.github.io/blog/qwen2.5-coder-family/
llama.cpp / ollama, кажется koboldcpp считается проще
Так все уже там: https://huggingface.co/Qwen/Qwen2.5-Coder-7B-Instruct-GGUF
Да, большая модель корректно отвечает. Собственно в этом и смысл моего поста был, что вышла модель, которая справляется с такими задачами значительно лучше, чем предыдущие. Она неплохо рассуждает. Может еще не как кандидат наук, но уже неплохо и часто гораздо быстрее. Есть задачи с которыми она не справляется, но вот с этим похоже вопрос закрыт. Приложил скрины:
Скрытый текст
На первый взгляд она реально неплохо рассуждает и 83% задач на отборочных экзаменах IMO (Международная математическая олимпиада) и 89% в соревнованиях Codeforces - звучит неплохо. Думаю в ближайший месяц мы узнаем насколько она справляется с задачами в целом, а не с конкретными бенчмарками