Comments 24
Дмитрий Петрович, вопрос тем не менее по заключительной части интервью. Какие научные статьи по глубинному обучению и байесовским методам (или их авторы) произвели на Вас наибольшее впечатление в последнее время. Хотелось бы Ваших рекомендаций.
1. Stochastic Variational Inference. www.columbia.edu/~jwp2128/Papers/HoffmanBleiWangPaisley2013.pdf
2. Doubly Stochastic Variational Bayes for non-Conjugate Inference
proceedings.mlr.press/v32/titsias14.pdf
3. Variational Dropout and the Local Reparameterization Trick arxiv.org/pdf/1506.02557.pdf
Это не самые хорошо написанные статьи. Но они дают новый инструментарий и/или расширяют наше понимание происходящего в нейронных сетях. Ну и еще они байесовские ;-)
К Дмитрию Петровичу вопрос скорее по административной части. Как ему и коллегам удалось договорится с Samsung'ом о создании совместной лаборатории, которая занимается фундаментальными исследованиями, а не прикладными? Это довольно редко встречается, и только у самых крупных «денежных мешков» — Гугла и Майкрософта. Несколько неожиданно видеть появление такой инициативы где-то еще.
Я бы хотел в этой связи обратить внимание на несколько моментов: (1) Самсунг по своим размерам это компания калибра гугла и майкрософта, поэтому тут противопоставления не должно быть; (2) небольшая лаборатория, занимающаяся фундаментальными исследованиями, которые могут привести к появлению новых направлений в области машинного обучения, стоит недорого и вполне по карману крупной национальной компании — транснациональной корпорацией для этого быть не нужно; (3) Самсунг открывает весной ПЕРВЫЙ исследовательский центр крупной корпорации в Москве, который бы занимался разработкой новых технологий ИИ (не путать с совместной лабораторией Самсунг-ВШЭ вашего покорного слуги). До сих пор такие центры открывались в Лондоне, Монреале, Торонто и пр. Кажется, что это большой успех для страны, вообще, и, в особенности, для наших молодых исследователей, которые получат возможность разрабатывать новые технологии в наиболее перспективной области науки в России и не стыдиться при этом своей зарплаты в разговорах с друзьями-разработчиками из индустрии. Заниматься наукой снова станет круто, престижно и прикольно! Жалко, что только в отдельно взятой области…
Большое спасибо за интервью, было очень интересно. За лекции по истории хочется сказать Дмитрию отдельное спасибо! К Дмитрию Петровичу у меня есть следующий вопрос. Есть ли какие-либо примеры успешного применения глубинного обучения к решению обратных задач? Имеется в виду линейная задача, которая в классическом подходе сводится к поиску псевдообратной матрицы. И есть ли какая-либо хорошая статья на эту тему.
Я не Дмитрий Петрович, но спрошу: зачем псевдообратную матрицу искать с помощью глубинного обучения?
Довольно интересный пример — задача формулируется в виде задачи оптимизации, а потом решается путем обучения регрессоров которые генерируют очередной шаг оптимизации вместо классического Newton step (который в редких случаях требует нахождения обратной матрицы, но обычно сводится к поиску Гессиана и решению СЛАУ)
Метод вполне рабочий, время от времени встречаю ссылки на него в работах и бенчмарках посвященных facial landmarks detection.
Более того, технически это аналог алгоритма из статьи «one millisecond face alignment with an ensemble of regression trees» (который в Dlib) просто сформулированный как задача оптимизации и с другим регрессором/входными фичами. Ну по крайней мере мне так казалось.
Тут вроде есть реализация github.com/patrikhuber/superviseddescent. Сам не проверял.
Ну… я пробежал статью глазами за 4 минуты, увидел, что вместо классических методов 2-го порядка предлагается что-то еще. Увидел сравнения по качеству решения задачи face detection. А про время работы ничего… Конечно, это вовсе не значит, что метод не полезен, но наверняка про время работы умолчали не просто так.
Я даже не про face detection, а просто про решение задачи оптимизации, "4.1. SDM on analytic scalar functions". Странно, что они говорят, например, "SDM converges with the same number of iteration as Newton method
but each iteration is faster", но не подтверждают последнее цифрами. Ну да ладно…
- взглянуть на вот эти эксперименты c библиотекой ODL. Там на примере задачи реконструкции томографических изображений показавается как сделать не «чисто data driven» и не «чисто knowledge driven» а некий гибридный решатель, который, внезапно, оказывается и быстрее и лучше.
- в лоб у гугла спросить «A Review of Convolutional Neural Networks for Inverse Problems in Imaging» — довольно популярная нынче тема.
del
О машинном обучении, истории и жизни с Дмитрием Ветровым