Обновить

Комментарии 4

Здорово! Сколько времени потребовалось, чтобы это все развернуть?

После работы ИИ приходится вручную дорабатывать артефакты?

Хотелось бы ещё увидеть реальные примеры использования ИИ в анализе.

Пара примеров в статье есть. Хотелось бы прям всех артефактов от ИИ?

Да, конечно, артефакты от ИИ допиливаются в 100% случаев. Часто она предлагает больше, чем надо, или не в контексте нашей архитектуры. Что-то требует большего тюнинга, что-то меньшего.

По времени: мы еще в процессе. :-) Сейчас же постоянно выходит что-то новое, то LLM, то IDE с агентом.

Но базово мы все быстро развернули: Cursor + MCP Server + настройка интеграции с Confluence и Jira примерно 2 недели. Свой сервер с LLMками - тут мы дольше ждали сам сервак. :-) Как он пришел - за один день все поставили, теперь постоянно скачиваем новые LLMки для тестирования и выбора нужной под конкретные задачи.

Скрытый текст

Ещё вопрос про конфиденциальность данных.

На чьих серверах хранится база знаний для ИИ? Ваши корпоративные?

Да, конечно, для чувствительных данных - строго использование LLM, развернутых на нашем локальном сервере.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации