Интересная статья. Насколько я понял, автор ведёт к тому, что где-то половина "трансформера" это обычная линейная апроксимация FF сетью. Но все же остаётся вторая половина, которая использует внимание для кодирования-декодирования. Так то и в reinforcement learning у "обычной" flat нейроной сети в конце может быть большая доля всех параметров, но это не отменяет факт того, что что бы её обучить, нужен RL подход
В итогах вы немного лукавите — «Мы создали приложение». Правильно было бы — мы разобрались как использовать kotlin c jpa.
Вот константый hashcode — это интересный ньюанс. В целом спасибо за статью!
Согласитесь, что с TC в 400к+ сложно ожидать простых процессов/интервью. Если планку снизить до 100к+, то leetcode hard я бы не ожидал
Интересная статья. Насколько я понял, автор ведёт к тому, что где-то половина "трансформера" это обычная линейная апроксимация FF сетью. Но все же остаётся вторая половина, которая использует внимание для кодирования-декодирования. Так то и в reinforcement learning у "обычной" flat нейроной сети в конце может быть большая доля всех параметров, но это не отменяет факт того, что что бы её обучить, нужен RL подход
Вот константый hashcode — это интересный ньюанс. В целом спасибо за статью!