All streams
Search
Write a publication
Pull to refresh

Comments 2

В этом смысле меньше всего будет галлюцинировпть модель с RAG, если у неё в системном промте будет записано: "если поиск по БД не дал результата, отвечай "не знаю"

не будет, потому что это не так работает. ллм ничего не ищет в RAG и не осознает того факта что что-то там искалось. поиск в RAG срабатывает перед тем как ллм начинает генерировать ответ и просто обогащает ваш контекст.

крч это работает не так что вы спрашиваете "какая столица у Аргентины?" и ллмка сама составляет запрос к базе, а потом на основе ответа из базы генерит вам ответ. нет, просто ваш запрос будет обогащён всем что только удастся найти про Аргентину в RAG и передаваться ллм. сама ллм это увидит как огромную статью про Аргентину как из википедии и в конце ваш вопрос про столицу. но если в RAG ничего нет про Аргентину, то увидит только вопрос.

а само требование "если в бд ничего не нашлось - говори не знаю" - бессмысленное с точки зрения ллм, которая ничего нигде произвольно не ищет, и или не будет вообще исполняться, либо будет исполняться как-то странно, когда ллмке "покажется" что она где-то там что-то искала

Sign up to leave a comment.

Articles