Pull to refresh

Comments 5

А вот такой вопрос почему решили LongFormer использовать? Она как-то помогает representation сделать или что-то типо нормировать эмбеддинги в пространстве? Или это просто что бы сократить количество токенов?

LongFormer используется в оригинальной статье, т.к у него attention за O(seq_len*window_len), что быстрее чем дефолтный seq_len^2 у BERT. Можно попробовать и другие эффективные attention'ы, надо тестить

Прикольный подход! А тестили классические SASRec/BERT4Rec на айдишниках, как они перформят относительно content-based подхода?

Авторы предлагают представлять товар как совокупность его атрибутов, а пользователя описывать как атрибуты товаров, с которыми он взаимодействовал

Вопросик такой, а разве это не ложится на какую графовую базу данных и погнали?

Sign up to leave a comment.