Comments 7
В этой статье слово "эмбеддинги" встречается 44 раза, а как они получаются, так и не объяснено. Зато в старом цикле статей "Автоэнкодеры в Keras" можно получить исчерпывающее понимание математики латентных пространств, эмбеддингов и Metric Learning, хотя там и слова-то такого нет. Так что, кто действительно хочет разобраться - ищите те статьи. Они всё еще лучшие.
Представим, что у нас имеется 2 объекта (например текста). После определенного преобразования получаем 2 двумерных вектора: [1, 2] и [5, 5] (вектора v1 и v2 соответственно)
Математики (ну, в данном случае, наверное, в душе́) неисправимы - "отсюда легко видеть". Попытка объяснить понятное непонятным...
Векторы (или эмбеддинги) можно понимать как точки в некотором пространстве
Так эмбеддинг - это вектор, что ли? И при чём тут точки? Вектор - это не точки в пространстве, ибо точки не могут показать направление, а вектор - это именно направление, а не просто координаты отрезка...
Есть талант понимать что-то, а есть талант объяснять... Они очень редко пересекаются...
Спасибо @maksimov_m, очень хорошая статья. Немного не понял про косинусовое расстояние. Вроде сначала вычислили 0.05 , потом вставили в формулу 1-0.05 и снова получается 0.05
Спасибо за статью, прочитала с интересом. У вас хорошо получается объяснять сложные вещи простыми словами. Пишите ещё)
Что такое эмбеддинги и как с ними работать. Вводная для начинающих