Как стать автором
Обновить

Комментарии 13

Спасибо за библиотеку!

Есть ли смысл решать ей задачи классификации, например, а не seq2seq?

В первую очередь нам было интересно попробовать подбор затравки для генеративных задач, но, как показывают статьи, для классификации метод тоже работает хорошо. В будущем мы, возможно, добавим в библиотеку поддержку большего числа задач.

Потрогать ruPrompts можно в Colab-ноутбуках

Нельзя. На обоих Not Found.
Надо сначала установить:
!pip install ruprompts

Только что проверил, примеры работают.

Библиотека работает. Ссылки на ноутбуки в Google Colab не работают. По ссылкам not found. Локальные библиотеки к этому отношения не имеют.

P.S не работали. Уже починили.

Спасибо за внимательность, в данный момент все ссылки на ноутбуки рабочие

Здравтствуйте!

А можно где-нибудь по подробнее почитать про использование LSTM. Т.к. как я сейчас понимаю Вашу работу, вы размечаете части запроса подсказками, а потом помещаете теги подсказок в словарь и создаете случайные вектора встраивания, потом считаете градиенты по всей gpt, но обновляете веса только у Ваших новых тегов. И тут я не совсем понимаю, где используется LSTM, т.к. градиенты приходят с трансформеров.

Репараметризация с помощью LSTM используется как альтернатива прямому обучению эмбеддингов, соответствующих обучаемым токенам (<P>). В этом случае эмбеддинги являются не самостоятельными параметрами, а выходом LSTM. Градиенты, соответственно, прокидываются до параметров LSTM, а не останавливаются в эмбеддингах. Дополнительно почитать об этом можно было бы в статье, где использование LSTM было предложено, но там, к сожалению, этот момент описан не очень подробно.

Спасибо большое за ответ! Почитаю!

Ссылка на готовые промпты отдает 404. Скажите куда переместили?

Репозиторий sberbank-ai переехал на ai-forever.
Количество токенов надо подобрать эмпирически или есть какое-то правило (чем длиньше тем лучше, например)?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий