Как стать автором
Обновить

Комментарии 10

НЛО прилетело и опубликовало эту надпись здесь

Когда рассказчик дерьмовый, конечно, не понятно (я не про статью, я её не читал).
Однако, как я считаю, понять это довольно просто.
Эмбеддинги - это способ представить класс/понятие через вектор.
"слово" (класс) = [0.3, -0.2, 0.6] (вектор)
А сумма векторов здесь не работает, потому что теряется информация о порядке (например, "вопрос про" или "про вопрос"). Потому придумали RNN и Транс. А нейросеть - это просто функция с большим количеством связей (настраиваются весами). И обратное распространение как способ подбора весов.

НЛО прилетело и опубликовало эту надпись здесь

LSTM придумали в 1997 году. А RNN в принципе ещё раньше.
А всего несколько лет назад придумали Транс (2017).
И что значит "однозначно сопоставляется с вектором" ?
Нейросети имеют вероятностную природу. На входе и сейчас токены однозначно сопоставляется. А на выходе этого давно никто не ждёт.

НЛО прилетело и опубликовало эту надпись здесь

Ну да Word2Vec стал известен относительно недавно.
Королева = король - мужчина + женщина.
Нищеброд = король + женщина - корона.
Многозначность была.


Жаль только что так долго придумать не могли эту простейшую идею.
Но операции над векторами в нейросетях были и никуда не делись.
Основа нейросетей это умножение матриц. Так что математика тоже никуда не девалась.

НЛО прилетело и опубликовало эту надпись здесь

Да я понял и согласен. Но я не провожу границы между тогда и сейчас. Сейчас всё тоже сложение векторов в основе только надстроек стало больше. И дорогу прокладывали эвристически тогда и сейчас.

НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации