Comments 2
В этом смысле меньше всего будет галлюцинировпть модель с RAG, если у неё в системном промте будет записано: "если поиск по БД не дал результата, отвечай "не знаю"
не будет, потому что это не так работает. ллм ничего не ищет в RAG и не осознает того факта что что-то там искалось. поиск в RAG срабатывает перед тем как ллм начинает генерировать ответ и просто обогащает ваш контекст.
крч это работает не так что вы спрашиваете "какая столица у Аргентины?" и ллмка сама составляет запрос к базе, а потом на основе ответа из базы генерит вам ответ. нет, просто ваш запрос будет обогащён всем что только удастся найти про Аргентину в RAG и передаваться ллм. сама ллм это увидит как огромную статью про Аргентину как из википедии и в конце ваш вопрос про столицу. но если в RAG ничего нет про Аргентину, то увидит только вопрос.
а само требование "если в бд ничего не нашлось - говори не знаю" - бессмысленное с точки зрения ллм, которая ничего нигде произвольно не ищет, и или не будет вообще исполняться, либо будет исполняться как-то странно, когда ллмке "покажется" что она где-то там что-то искала
Почему языковые модели «галлюцинируют»