Обновить
64K+
4
Виктория@dirvika

Пользователь

30
Рейтинг
2
Подписчики
Отправить сообщение

Проблема не в Anthropic как таковом — проблема в самой модели «заплати за месяц вперед и молись». Поэтому интересно смотреть на инструменты с поминутной оплатой: тратишь по факту, не платишь за простой, а если завтра что-то блокируют — теряешь только остаток на балансе, а не всю подписку. В JetBrains-экосистеме так устроен Veai

Добрый день, в статье ссылки битые! Например на плагин Veai нажимаешь попадаешь на 404! Я попробовала скачать не получилось. Поправьте пожалуйста

Тарификацию можно посмотреть https://veai.ru/tarifs

Personal Выбрать провайдер OpenAI-compatible

Там должен быть opus 4.7

Спасибо, мысль интересная я подумаю. Хочется донести что сейчас главное научиться правильно ставить цель и видеть, что стоит за ней

Очень нужная вещь для Москвы и пробок

Интересный проект, спасибо за честный рассказ о процессе. По технической части: выбор RRF поверх BM25 + семантического поиска - правильный, это уже де-факто стандарт для RAG-пайплайнов. Любопытно, насколько хорошо text-embedding-3-small справляется с русскоязычным контентом - в моём опыте у OpenAI-эмбеддингов есть просадки на кириллице по сравнению с, например, E5-multilingual или ruBERT-based моделями. Проводил ли какие-то сравнения или шёл по принципу “работает - не трогай”? MCP-интеграция с Claude - логичный шаг, особенно для агентных сценариев. Сам активно использую похожие подходы в рабочих проектах: когда поиск становится инструментом агента, а не просто API - качество итогового ответа заметно растёт. По поводу масштабирования: при росте индекса за 500k+ документов pgvector начинает заметно проседать на HNSW без тюнинга параметров (ef_construction, m). Планируешь оставаться на pgvector или смотришь в сторону выделенных векторных БД?

Спасибо, сможете чуть подробнее что вам больше понравилось? Что оказалось полезным?

Если агент умеет дебажить, запускать конфигурации и выполнять рефакторинг на уровне опытного разработчика, какие сигналы о квалификации остаются «чисто человеческими»? Где проходит граница между навыком специалиста и «навыком IDE + агента»?

Тема утечки и архитектуры Claude Code действительно стоящая, но материал пока выглядит как набросок, а не статья, за которую хочется зацепиться. Не хватает конкретики по тому, что именно утекло, архитектурных деталей, сравнения с другими агентными системами и выводов для практиков. В таком виде это хороший тизер, но не тот разбор, который сохраняют в закладки и используют как референс.

Спасибо за комментарий — формулировка действительно может резать глаз на Хабре, где к маркетинговым словам относятся особенно критично. Мы называем курс «знаменитым» в первую очередь опираясь на количество желающих, регулярный фидбек от разработчиков и то, что материал заметно разошёлся за пределы одной площадки (у нас уже были внешние публикации и приглашения рассказывать про этот формат).

Но вы правы: для части аудитории Хабра такая формулировка звучит как голословный маркетинг, поэтому в следующих анонсах мы переформулируем заголовок и будем аккуратнее с оценочными эпитетами. Если хотите проверить, насколько курс «знаменит» по сути, а не по слову в тексте — приходите в эфир, задайте любые неудобные вопросы автору и по итогам уже сами решите, стоит ли он вашего времени.

Наш пойнт в том, что в реальных enterprise‑проектах такие скрипты есть далеко не всегда и не все покрывают. Veai опирается на то, что уже гарантированно работает у команды сегодня - конфиги запуска, индексы и инспекции IDE — и дает агенту доступ именно к ним, а не заставляет его «изобретать окружение».

Облачные модели дают очень хорошее качество и выгодную тарификацию, но в большом количестве компаний сотрудникам запрещают использовать облачные модели на копрпоративном коде (даже через шлюз, который маскирует конфиденциальные данные) Касаемо окупаемости железа, если в компании моделью/агентом пользуется большое количество сотрудников, то затраты окупаются достаточно быстро — несколько лет (зависит от размера модели, разумеется) По поводу тарификации облачных моделей: в нашей платформе ohmycode добавили тарификацию по минутам — теперь вы можете использовать агентов и платить только за время обработки запроса облачной моделью, это получается сильно выгоднее, чем платить за входные и выходные токены

На прошедшем вебинаре коротко и высокоуровнево разобрали отличия и особенности ИИ-агентов: • блок 1 «Экскурс» — отличия между Auto-completion, Chat-based ассистентами, ИИ-агентами и агентскими системами • блок 2 «Инструменты AI-разработки» — плюсы и минусы, особенности и отличия между CLI-агентами и агентами в IDE • блок 3 «Констекст и Промпт» — отличия и особенности сбора контекста в разных ИИ-агентах

На следующих вебинарах будем подробнее погружаться в темы связанные с использованием ИИ в разработке и тестировании.

Наши ближайшие вебинары:

• Вебинар 1: Уровень компании

  1. Безопасность и защита данных

  2. Выбор и оценка ИИ-моделей

  3. Требования к оборудованию (GPU)

• Вебинар 2: Уровень проекта

  1. Управление контекстом и правилами

  2. Memory Bank (база знаний проекта)

  3. Интеграции через MCP (Jira, GitHub)

• Вебинар 3: Уровень разработчика

  1. Режимы работы ИИ-агентов

  2. ИИ-методологии (TDD, SDD)

  3. Кастомные навыки и сабагенты

про web auth: работаем над этим, очень непростая фича, но сейчас на неё брошены все силы

про аттачменты: если вы спрашиваете про указание отдельных строк в документе, сейчас так делать можно: выделите кусок кода в нужном документе, нажмите ПКМ > Veai: Add Selection as Attachment и в чате появится ровно выделенный фрагмент, процитированный так, как вы указали в своём примере

в ближайшем релизе выкатим задание размера контекста модели. пока она влияет только на сжатие, можете снять галочку на автоматическое сжатие в чате и размер окна ничего больше не будет портить

Добрый день! мы сейчас готовим очень удобный способ оплаты, там будет эта возможность.

Gemini 3 Flash — отличный пример того, как frontier-модели становятся более гибкими и калибруемыми. Управляемый thinking, экономия в токенах, ценовой класс — это всё правильные ходы.
Но вот что интересно: сама по себе модель — это ещё не решение для разработки. Flash отлично генерирует код, но не решает главную проблему enterprise: как встроить это в процесс команды так, чтобы:
🧑‍💻разработчик знал, когда и зачем запускать агента;
🧑‍💻код был проверен перед попаданием в прод;
🧑‍💻были видны метрики эффективности и качества;
🧑‍💻безопасность и политики компании не нарушались.

Вот здесь frontier-модель и управляемый слой — разные вещи. В модели с Veai — она демонстрирует существенно более высокое качество заметно умнее и уверенно решает более сложные задачи.

Главное: Veai оборачивает (https://veai.ru/) модели (Gemini, Claude, локальные, DeepSeek) в сценарии, контроль и телеметрию. На вход — понятный сценарий «сгенерировать тесты» или «починить по стектрейсу», на выходе — код, который прошёл обязательные проверки, и метрика в дашборде CTO.

Frontier-модель — это как железо, а процесс — это архитектура.

Информация

В рейтинге
294-й
Зарегистрирован
Активность

Специализация

Директор по маркетингу
Ведущий
От 600 000 ₽
Git
Java Spring Framework
Базы данных
XML
Java
SQL
Python