alexwortega 7 авг 2021 в 13:04Краткий пересказ Towards Pretrained Transformers As universal Computation EnginesВремя на прочтение4 минКоличество просмотров1.6KNatural Language Processing*Recovery ModeВсего голосов 4: ↑3 и ↓1+2Добавить в закладки9Комментарии3
Kilorad 9 авг 2021 в 14:42Мощно. Интересно, сколько времени такая модель исполняется и сколько памяти требует... Наверное, столько, сколько GPT-3
alexwortega 10 авг 2021 в 21:17Показать предыдущий комментарийТаким способом можно затюнить любой трансформер
Краткий пересказ Towards Pretrained Transformers As universal Computation Engines