Наш пойнт в том, что в реальных enterprise‑проектах такие скрипты есть далеко не всегда и не все покрывают. Veai опирается на то, что уже гарантированно работает у команды сегодня - конфиги запуска, индексы и инспекции IDE — и дает агенту доступ именно к ним, а не заставляет его «изобретать окружение».
Облачные модели дают очень хорошее качество и выгодную тарификацию, но в большом количестве компаний сотрудникам запрещают использовать облачные модели на копрпоративном коде (даже через шлюз, который маскирует конфиденциальные данные) Касаемо окупаемости железа, если в компании моделью/агентом пользуется большое количество сотрудников, то затраты окупаются достаточно быстро — несколько лет (зависит от размера модели, разумеется) По поводу тарификации облачных моделей: в нашей платформе ohmycode добавили тарификацию по минутам — теперь вы можете использовать агентов и платить только за время обработки запроса облачной моделью, это получается сильно выгоднее, чем платить за входные и выходные токены
На прошедшем вебинаре коротко и высокоуровнево разобрали отличия и особенности ИИ-агентов: • блок 1 «Экскурс» — отличия между Auto-completion, Chat-based ассистентами, ИИ-агентами и агентскими системами • блок 2 «Инструменты AI-разработки» — плюсы и минусы, особенности и отличия между CLI-агентами и агентами в IDE • блок 3 «Констекст и Промпт» — отличия и особенности сбора контекста в разных ИИ-агентах
На следующих вебинарах будем подробнее погружаться в темы связанные с использованием ИИ в разработке и тестировании.
про web auth: работаем над этим, очень непростая фича, но сейчас на неё брошены все силы
про аттачменты: если вы спрашиваете про указание отдельных строк в документе, сейчас так делать можно: выделите кусок кода в нужном документе, нажмите ПКМ > Veai: Add Selection as Attachment и в чате появится ровно выделенный фрагмент, процитированный так, как вы указали в своём примере
в ближайшем релизе выкатим задание размера контекста модели. пока она влияет только на сжатие, можете снять галочку на автоматическое сжатие в чате и размер окна ничего больше не будет портить
Gemini 3 Flash — отличный пример того, как frontier-модели становятся более гибкими и калибруемыми. Управляемый thinking, экономия в токенах, ценовой класс — это всё правильные ходы. Но вот что интересно: сама по себе модель — это ещё не решение для разработки. Flash отлично генерирует код, но не решает главную проблему enterprise: как встроить это в процесс команды так, чтобы: 🧑💻разработчик знал, когда и зачем запускать агента; 🧑💻код был проверен перед попаданием в прод; 🧑💻были видны метрики эффективности и качества; 🧑💻безопасность и политики компании не нарушались.
Вот здесь frontier-модель и управляемый слой — разные вещи. В модели с Veai — она демонстрирует существенно более высокое качество заметно умнее и уверенно решает более сложные задачи.
Главное: Veai оборачивает (https://veai.ru/) модели (Gemini, Claude, локальные, DeepSeek) в сценарии, контроль и телеметрию. На вход — понятный сценарий «сгенерировать тесты» или «починить по стектрейсу», на выходе — код, который прошёл обязательные проверки, и метрика в дашборде CTO.
Frontier-модель — это как железо, а процесс — это архитектура.
Наш пойнт в том, что в реальных enterprise‑проектах такие скрипты есть далеко не всегда и не все покрывают. Veai опирается на то, что уже гарантированно работает у команды сегодня - конфиги запуска, индексы и инспекции IDE — и дает агенту доступ именно к ним, а не заставляет его «изобретать окружение».
Облачные модели дают очень хорошее качество и выгодную тарификацию, но в большом количестве компаний сотрудникам запрещают использовать облачные модели на копрпоративном коде (даже через шлюз, который маскирует конфиденциальные данные) Касаемо окупаемости железа, если в компании моделью/агентом пользуется большое количество сотрудников, то затраты окупаются достаточно быстро — несколько лет (зависит от размера модели, разумеется) По поводу тарификации облачных моделей: в нашей платформе ohmycode добавили тарификацию по минутам — теперь вы можете использовать агентов и платить только за время обработки запроса облачной моделью, это получается сильно выгоднее, чем платить за входные и выходные токены
На прошедшем вебинаре коротко и высокоуровнево разобрали отличия и особенности ИИ-агентов: • блок 1 «Экскурс» — отличия между Auto-completion, Chat-based ассистентами, ИИ-агентами и агентскими системами • блок 2 «Инструменты AI-разработки» — плюсы и минусы, особенности и отличия между CLI-агентами и агентами в IDE • блок 3 «Констекст и Промпт» — отличия и особенности сбора контекста в разных ИИ-агентах
На следующих вебинарах будем подробнее погружаться в темы связанные с использованием ИИ в разработке и тестировании.
Наши ближайшие вебинары:
• Вебинар 1: Уровень компании
Безопасность и защита данных
Выбор и оценка ИИ-моделей
Требования к оборудованию (GPU)
• Вебинар 2: Уровень проекта
Управление контекстом и правилами
Memory Bank (база знаний проекта)
Интеграции через MCP (Jira, GitHub)
• Вебинар 3: Уровень разработчика
Режимы работы ИИ-агентов
ИИ-методологии (TDD, SDD)
Кастомные навыки и сабагенты
про web auth: работаем над этим, очень непростая фича, но сейчас на неё брошены все силы
про аттачменты: если вы спрашиваете про указание отдельных строк в документе, сейчас так делать можно: выделите кусок кода в нужном документе, нажмите ПКМ > Veai: Add Selection as Attachment и в чате появится ровно выделенный фрагмент, процитированный так, как вы указали в своём примере
в ближайшем релизе выкатим задание размера контекста модели. пока она влияет только на сжатие, можете снять галочку на автоматическое сжатие в чате и размер окна ничего больше не будет портить
Добрый день! мы сейчас готовим очень удобный способ оплаты, там будет эта возможность.
Gemini 3 Flash — отличный пример того, как frontier-модели становятся более гибкими и калибруемыми. Управляемый thinking, экономия в токенах, ценовой класс — это всё правильные ходы.
Но вот что интересно: сама по себе модель — это ещё не решение для разработки. Flash отлично генерирует код, но не решает главную проблему enterprise: как встроить это в процесс команды так, чтобы:
🧑💻разработчик знал, когда и зачем запускать агента;
🧑💻код был проверен перед попаданием в прод;
🧑💻были видны метрики эффективности и качества;
🧑💻безопасность и политики компании не нарушались.
Вот здесь frontier-модель и управляемый слой — разные вещи. В модели с Veai — она демонстрирует существенно более высокое качество заметно умнее и уверенно решает более сложные задачи.
Главное: Veai оборачивает (https://veai.ru/) модели (Gemini, Claude, локальные, DeepSeek) в сценарии, контроль и телеметрию. На вход — понятный сценарий «сгенерировать тесты» или «починить по стектрейсу», на выходе — код, который прошёл обязательные проверки, и метрика в дашборде CTO.
Frontier-модель — это как железо, а процесс — это архитектура.