Comments 22
(не совсем по теме) Красивые графики, в чем рисовал?
Cool! Хорошая статья
Жаль, что я с Кочетковым столько прибухивал, а не линейку вкуривал. Супер!
Замечательно, большое спасибо :)
Напомнило
Скрытый текст
Картинки хороши, особенно начальная
Думаю, человеку, плохо знакомому с машинным обучением будет крайне сложно переработать такое количество информации (даже при должной математической подготовке). Но вот для освежения знаний статья подходит просто отлично. Спасибо!
Будет здорово, если Вы освятите в таком же стиле и другие разделы машинного обучения, например некоторые методы кластеризации и классификации. Будет интересно прочитать статью, аля, «ликбез по нейронным сетям».
Спасибо огромное за Ваш труд!
Спасибо огромное за Ваш труд!
Спасибо за статью и нотбуки!
Особенно порадовало это: "Состекаем несколько логрегрессоров в один слой — получим softmax regression/max entropy regression."
Особенно порадовало это: "Состекаем несколько логрегрессоров в один слой — получим softmax regression/max entropy regression."
Крутая статья, спасибо! Но пожалуйста, поменяйте ссылку на меня так, чтобы она вела не на папку с pdf'ками, я не насколько тру олдскульный учёный. :) Вот сюда можно, например:
http://logic.pdmi.ras.ru/~sergey/teaching/mlkfu2014.html
p.s. «сигмойд» и «неронная сеть» — это тонко :)
http://logic.pdmi.ras.ru/~sergey/teaching/mlkfu2014.html
p.s. «сигмойд» и «неронная сеть» — это тонко :)
А можете подсказать откуда в формуле после
берётся деление на 2? Никак не могу понять откуда эта двойка берётся
Эмпирический риск (функция стоимости) принимает форму среднеквадратичной ошибки:
берётся деление на 2? Никак не могу понять откуда эта двойка берётся
объяснения два, простое и верное:
— что бы сократилась двойка при дифференцировании (целевую функцию можно умножать на любую константу, и это не повлияет на решение задачу оптимизации)
— если копнуть в природу среднеквадратичной ошибки, то окажется, что ее минимизация — это тоже самое что и максимизация логарифма правдоподобия нормальных распределений, а у нормального распределения под экспонентой находится 1/2, и эта двойка всплывет при логарифмировании именно в том месте, где вы ее видите (совпадение?..)
— что бы сократилась двойка при дифференцировании (целевую функцию можно умножать на любую константу, и это не повлияет на решение задачу оптимизации)
— если копнуть в природу среднеквадратичной ошибки, то окажется, что ее минимизация — это тоже самое что и максимизация логарифма правдоподобия нормальных распределений, а у нормального распределения под экспонентой находится 1/2, и эта двойка всплывет при логарифмировании именно в том месте, где вы ее видите (совпадение?..)
Sign up to leave a comment.
Базовые принципы машинного обучения на примере линейной регрессии