Обновить
0
0

Пользователь

Отправить сообщение

Про контекстное окно не согласен. У человека оно просто гигантское. Если вы писали код сами, то без особых усилий вспомните где и что писали, и как это +- работает. У вас в голове лежат примеры готовых паттернов, которые приняты в команде. У LLM из коробки этих знаний нет. Но, благо это решается системными ароматами. И как я заметил во время работы с ИИ (поправьте, если это не так), большая часть проблем связана с плохой настройкой контекста или её отсутствием + очень много решает сам промпт

Ключевое здесь - прямыми

Складывается такое ощущение, что агента не настроили для работы с конкретным проектом и стеком (системные промты, промт инженеринг). Хотя возможно дело и в моделях

Нет. Вообще никакого. Разве что для каких-то простых задач иногда большие модели любят излишне думать в ответе. Тут больше экономически, тонкости настройки и с точки зрения безопасности больше профита

Фантазирует он только на сайте, т.к. там нет настроек. А вот в api этот параметр очень даже легко настраивается. Так что его и как поисковик можно использовать. Особенно 4 версию

Информация

В рейтинге
6 948-й
Зарегистрирован
Активность