All streams
Search
Write a publication
Pull to refresh
0
0
Send message

Согласен, отличный вариант

Она только для openai, можно использовать langchain.output_parsers для формирования формата ответа

  1. Это будет очень дорого. LLM очень вычислительно неэффективно обрабатывает длинные контексты (подробнее прочитайте тут)

  2. На длинных контекстах у моделей падает качество. LLM становится сложнее и сложнее разобраться, что важно, а что нет. Надо им помочь! 

Сейчас хайп идет на CAG где как раз и предлагается все добавлять в контекс для ускорения поиска. Так использовать его или нет?

Очень круто получается.

Information

Rating
Does not participate
Location
Минск, Минская обл., Беларусь
Registered
Activity