Pull to refresh

Comments 7

Как раз недавно читал про метод повышения размерности для сведения нелинейной задачи к линейной.
image
Если кому интересно, тут про это немного написано: nlp.stanford.edu/IR-book/html/htmledition/nonlinear-svms-1.html
Ищется по «kernel mapping» или «kernel trick».
Разумеется, именно для этого в SVM существует такое понятие, как ядровой переход
Сорри, криво прочитал, Вы про это как раз и пишете
Автор, не очевидно, будет ли Ваша идея работать в случае использования ядра. Да и нередко на практике размерность увеличивается именно за счет ядрового перехода, нередко до бесконечности.
Очень хочется сравнение Вашего метода, метода из статьи и какого-нибудь стандартного PCA
Размерность же не может превысить размер обучающей выборки.
Это не совсем так. Рекомендую Вам прочитать на эту тему информацию по ссылке, страницы 73-78
недавно было видео на GoogleTechTalks по схожей тематике
видео: www.youtube.com/watch?v=RJVL80Gg3lA
сайт автора: homepage.tudelft.nl/19j49/t-SNE.html
пример построенного многомерного множества рукописных цифр homepage.tudelft.nl/19j49/t-SNE_files/MovieMNIST.mov
пример его же уменьшенного до размеронсти 2 homepage.tudelft.nl/19j49/t-SNE_files/mnist_large.jpg
алгоритм называется t-SNE
Sign up to leave a comment.

Articles