User
Согласен, отличный вариант
Она только для openai, можно использовать langchain.output_parsers для формирования формата ответа
Это будет очень дорого. LLM очень вычислительно неэффективно обрабатывает длинные контексты (подробнее прочитайте тут)На длинных контекстах у моделей падает качество. LLM становится сложнее и сложнее разобраться, что важно, а что нет. Надо им помочь!
Это будет очень дорого. LLM очень вычислительно неэффективно обрабатывает длинные контексты (подробнее прочитайте тут)
На длинных контекстах у моделей падает качество. LLM становится сложнее и сложнее разобраться, что важно, а что нет. Надо им помочь!
Сейчас хайп идет на CAG где как раз и предлагается все добавлять в контекс для ускорения поиска. Так использовать его или нет?
Очень круто получается.
Согласен, отличный вариант
Она только для openai, можно использовать langchain.output_parsers для формирования формата ответа
Сейчас хайп идет на CAG где как раз и предлагается все добавлять в контекс для ускорения поиска. Так использовать его или нет?
Очень круто получается.