Search
Write a publication
Pull to refresh

Comments 11

Круто я тупой но мне интересно хе

Почему-то все продвигают агента в IDE, но никто не пытается сделать аналог Codex, который работает онлайн. Для меня намного удобнее флоу, когда пнул агента, иногда даже с телефона, и пошел дальше заниматься своими делами. Также в онлайн агенте все изменения хорошо контролируемы и точно ничего не сломают.

я попробовал кодекс несколько месяцев назад, мне тоже понравилось, что можно через N минут асинхронно проверить и поправить. но на просто тестовом проекте 2/3 простых задач он решил, а одну так и не смог. у вас на больших проектах нормально работает?

и еще, с ломающими изменениями у агентов (всех) действительно проблема, бывает, что код ломается неочевидным способом. расскажете, что имеете ввиду под контролем изменений в онлайн-агенте?

Да, у меня отлично работает. Можете написать, какие вы ему промпты давали?

Онлайн агент работает в докере, поэтому в основном коде и в основной файловой системе точно ничего не поменяет. Как результат отдает дифф, поэтому сразу видно, что поменялось. И сразу по кнопке можно сделать пулл реквест, чтобы дальше в удобном гитхаб интерфейсе поревьюить и опционально в отдельной ветке подправить.

посмотрел, промпты не сохранились, к сожалению. но я не помню, чтобы я что-то сумасшедшее писал)

да, отдельное окружение для агента - это плюс, для каких-то задач важно, кстати, расскажете, для каких? я например пишу UI-приложение, и чтобы кодекс был полезен, мне нужно много инфры будет под него писать (UI-тесты, под еще не реализованный UI, например)

У меня разные задачи. Делал сервис распределенной репутации на Rust, блокчейн сервис для TON, немного фронтенд. Codex справлялся примерно в 90% задач, если я сам понимал, как они должны быть сделаны.

если я сам понимал, как они должны быть сделаны

да, по моему опыту это важное предусловие для успешного использования агентов, спасибо, что поделились

Для запуска больших моделей рекомендуем использовать vLLM и другие high‑performance фреймворки

С этого момента хотелось бы поподробнеее))

здравствуйте, ну если коротко - то мы экспериментировали с фреймворками для инференса, vLLM работает лучше всего. у vLLM есть возможность развернуть OpenAI-compatible API сервер, в плагине в настройках провайдера можно выбрать OpenAI-compatible, отдать адрес сервера

или у вас другой вопрос?

Ребят, немногоо опишу ощущения от своего использования Expyt,

1) генерация простых юнит тестов, да работает прилично

2) АИ агент не понял как, совсем не работает на момент 05.08.2025

3) Правка тестов если более менее сложынй тест начинаются танцы с бубнами. Но процентов 70 он поправит, остальное или сам или надо помочь

4) Может настривать тест контейнер корреткно, сложное нек пробовал но базу да это прям приятно

5) Подключить к нему локальную модель для дальнейшего тестирования я не смог, ошибка пробовал Olama: модели qwen-coder, Llama, openops - 20b (chagpt модекль) (возможно что то не так написал)

Итак вопрос можно ли работаь слокальными можделями хочук нормально потестить систему и еще если у меня корпоративный ИИ я ведь его не подключу.

Пока удалил плагин но если подскажите как решить эти вопросы, обещаю, попробую еще раз. Но пока это блокирует работу и я перепшел на Ligma + Copilot

здравствуйте, спасибо, что поделились. по поводу 2), 5), напишите пожалуйста тут или в нам чатик, какая у вас версия плагине, скрин с настройками, какой промпт, какие ошибки у вас при использовании.

с Ollama и агентами - известная проблема, в следующей версии плагина уже будет работать. Сейчас можете попробовать использовать Ollama через OpenAI-compatible провайдера с URL http://localhost:11434.

Sign up to leave a comment.