Comments 5
BERT — достаточно двунаправленная модель.
@
Достаточно.
Спасибо, давно не так не ржал
:) К сожалению, из песни слов не выкинешь. Это перевод материала. Мы не стали делать стилистическую редакцию, чтобы не исказить мнение автора оригинала.
Но мы очень рады, что смогли поднять вам настроение ;))
Автор имел ввиду: полностью двунаправленная полагаю, quite в данном случае является редким синонимом. См гугл переводчик)
Я что-то проспал и теперь общепринятым переводом "embedding" стало "вложение"? Когда впервые в статье наткнулся на это слово, то долго не мог понять что это и зачем. Встречал пару раз такую трактовку, но там это было обусловлено спецификой обращения с векторами.
Разве по смыслу текста не сподручнее было перевести как "векторное представление"? Или на худой конец "проекция", "отображение".
Гид по предварительной обработке текста с помощью BERT