Pull to refresh
73
0
Send message
Если хотите альтернативное мнение: МЛ давно вышли из лабораторий «в поле», и научная степень для работы в этой сфере вовсе не нужна — академия, вообще, придумана для тех, кто хочет заниматься наукой, а не целится на инженерные должности в индустрии.

По образованию: в интернете сейчас достаточно много материалов. Есть Курсера и другие MOOC, есть Stanford Engineering Everywhere. Из более серьезного: Stanford Center for Professional Development и магистратура в хороших западных вузах (я несколько biased в сторону Стэнфорда :-)).

По конференциям: есть NIPS, они более авторитетны, чем многие МЛ журналы. Все материалы конференции есть в открытом доступе.

По практике: в сети периодически появляются data science competitions, на которых можно не только потренироваться, но и заработать :-) Агрегатором таких, к примеру, является Kaggle.

А в остальном, все формальные требования не имеют никакого значения, если любишь то, чем занимаешься :-) Удачи вам!
Ох-хо-хо, да что ж вы в меня все ссылками-то кидаетесь? Я ж говорю: я в курсе.

DL и NN — интересные и перспективные научные концепции. На сегодняшний день они not mature enough для уровня практического применения «из коробки». Это значит, что на практике вы влегкую можете потратить полгода на применение нейросети к вашей задаче, на выходе не получив ожидаемого результата. Вы ж, вроде, практик, вы ж должны это все и так понимать.
Спасибо, я доволен своей текущей работой.

Существуют стандартные методики выбора кернелов, более того, на NIPS, например, периодически докладывают о новых типах кернелов под какие-то задачи. SVM чаще всего — лучших выбор для задачи классификации, если понимать, как его использовать и тюнить. Очень уж редко встречаются задачи, для которых SVM не способен дать приемлемую точность, либо же для которых разница между SVM и нейросетью существенна для практического применения.

SVM с полиномиальным кернелом дает точность в 94% при распознавании рукописных цифр. Как я уже говорил, проблема не в инструменте, а в умении его использовать.
Спасибо, я, вообще, в теме :-)

SVM решает задачу нелинейной классификации, разделяя классы гипперплоскостью в пространстве с бОльшим количеством измерений, в котором классы разделимы линейно — в этом суть kernel trick. И любой SVM с использованием валидного (мерсеровского) кернела имеет выпуклую функцию вероятности.

SVM гарантированно сходится в глобальный максимум, при этом решая задачи нелинейной классификации ненамного хуже нейросетей. А выпуклая функция вероятности позволяет использовать SVM «из коробки».
Нет, в этом-то и особенность НН, их функция вероятности невыпуклая.

Применять можно, это увеличивает variance классификатора, равно как и увеличение количества нейронов/слоев.
Главная проблема НН не в ресурсоемкости как таковой, в конце концов, она касается только обучения, дьявол, как обычно, кроется в деталях. НН имеют невыпуклую функцию вероятности, что приводит к проблеме локальных максимумов. Именно это делает обучение ресурсоемким и в некотором роде непредсказуемом сравнительно с методами с выпуклой функцией вероятности (SVM, например).

Но при этом в общем случае НН показывают бОльшую точность. Если повезет сойтись в нужный максимум.
Спасибо вам за вашу работу, очень полезно! Курс был и правда замечательный.
Да, еще: правильно я понимаю, что вы говорите с точки зрения подхода к ИИ как acting rationally? С ним, как известно, есть проблема «идеальной рациональности», которая недостижима. Отдельно, есть подход acting humanly, который допускает ошибки и является более «прикладным». ИМХО, в текущий момент времени это направление в ИИ наиболее перспективно.
Ёлки!

Спасибо, конечно, добавил в избранное, осталось найти время прочитать столько буков :-)
Тоже прошел этот курс — он потрясающий! С нетерпением жду второй части.
Супер, спасибо огромное!

А вы не подскажете, есть ли какие-то ресерчи по классификации иронии? ЕМНИП, это остается одной из главных проблем NLP.
Питер Норвиг и Стюарт Рассел в своей книге «Artificial Intelligence: A Modern Approach» выделяют такие подходы к ИИ:

Acting humanly: The Turing Test approach
Thinking humanly: The cognitive modeling approach
Thinking rationally: The “laws of thought” approach
Acting rationally: The rational agent approach

Так что все уже придумано до нас, так сказать :-)

К слову, книга считается лучшим учебником по ИИ в мире.
Так следы астронавтов и роверов на Луне до сих пор видны с орбиты :-) «Не читайте советских газет» (с)
Повторяю еще раз, для студентов: ядерных классификаторов не существует. В SVM ядра используются.

Не спорьте со старшими.
Ну, название той книжки с английского корректно переводится как «самообучаемые классификаторы с использованием kernel метода», а вовсе не «ядерные классификаторы». Т.е. сами типы классификаторов остаются теми же, что и были — регрессии, SVM, нейросети. А вот уже внутри них используется этот самый кернел-метод.
Ну, напишите тогда о «ядерных классификаторах», что ли :-) Будет интересно почитать. Подозреваю, что мнезапно выяснится, что это просто использование kernels в функциях гипотезы SVM и — таки да — нейросетях, и отдельным классификатором, стало быть, они являются где-то так же, как градиентный спуск и метод обратной пропагации.

Но, может быть, вы сможете рассказать мне что-то новое. Вот это уже и правда будет интересно.
Теоретические принципы вы тоже так себе получили. К примеру, «ядерных классификаторов» не существует, а kernels лежат в основе метода опорных векторов.
И какова же польза от этого поста при условии того, что он просто пересказывает один из фрагментов стэнфордского NLP в пафосной «бульварной» обертке, характерной для креатива студентов младших курсов? :-)
Не понравилось. Слишком много пафоса, слишком мало выхлопа, и новизна этого выхлопа равна нулю.

Information

Rating
Does not participate
Location
Украина
Date of birth
Registered
Activity