All streams
Search
Write a publication
Pull to refresh

Comments 7

В этой статье слово "эмбеддинги" встречается 44 раза, а как они получаются, так и не объяснено. Зато в старом цикле статей "Автоэнкодеры в Keras" можно получить исчерпывающее понимание математики латентных пространств, эмбеддингов и Metric Learning, хотя там и слова-то такого нет. Так что, кто действительно хочет разобраться - ищите те статьи. Они всё еще лучшие.

Согласен, делал упор на практическую составляющую

А мне подача понравилась. Не имею сейчас времени изучать всю математику процесса, но хочу глубже понять как этим можно пользоваться.

Представим, что у нас имеется 2 объекта (например текста). После определенного преобразования получаем 2 двумерных вектора: [1, 2] и [5, 5] (вектора v1 и v2 соответственно)

Математики (ну, в данном случае, наверное, в душе́) неисправимы - "отсюда легко видеть". Попытка объяснить понятное непонятным...

Векторы (или эмбеддинги) можно понимать как точки в некотором пространстве

Так эмбеддинг - это вектор, что ли? И при чём тут точки? Вектор - это не точки в пространстве, ибо точки не могут показать направление, а вектор - это именно направление, а не просто координаты отрезка...

Есть талант понимать что-то, а есть талант объяснять... Они очень редко пересекаются...

Спасибо @maksimov_m, очень хорошая статья. Немного не понял про косинусовое расстояние. Вроде сначала вычислили 0.05 , потом вставили в формулу 1-0.05 и снова получается 0.05

Благодарю за комментарий! Вроде в формуле все правильно?

Спасибо за статью, прочитала с интересом. У вас хорошо получается объяснять сложные вещи простыми словами. Пишите ещё)

Sign up to leave a comment.

Articles