Картинки, это вообще очень важно в анализе данных. Очень часто помогают найти ошибку или улучшить качество. Правда бывает, что не просто сходу картинку такую придумать))
Как говорится, «Вы там сговорились, что ли?», буквально на днях на хабре статья про ЕМ была.
Для ЕМ алгоритма есть очень хороший и простой пример — метод к средних. Он не использует вероятностную трактовку, но в целом имеет схожую структуру.
Вообще, ЕМ алгоритм — это довольно общая штука. Представьте, что вы как-то разметили данные и обучили на этом некоторую статистическую модель. В некоторых ситуациях может так получиться, что если вы этой же моделью разметите обучающую выборку, а потом переучите модель на новой разметке, то модель станет лучше. В общем то, зациклив эту процедуру и получается ЕМ алгоритм, кластеризацией он не ограничен. Я вот довольно много работаю со скрытыми марковскими цепями, там есть хороший аналог — алгоритм Баума-Велша.
А так, мне кажется, что мануал хороший!
P. S. У вас там кажется пару раз $j$ встречается, видимо забыли $inline$ написать. На мой взгляд в заглавной картинке ну уж очень мерзким шрифтом формулы написаны
Статью, о которой Вы говорите, я не видел, собственно поэтому и решил заполнить нишу. Поищу, посмотрю что там))
Метод k-means действительно очень хорошо иллюстрирует работу EM-алгоритма, однако про k-means уже столько написано, что было решено его даже не упоминать))
Насчет более широкого применения EM-алгоритма в статье упоминается. Но должен признаться — я сам еще прохожу курсы и поэтому не богат практическим опытом. Было бы чего, то конечно бы написал как метод работает на практике. Думаю когда-то и такие статьи появятся.
Значки долларов убрал, действительно, оЧепятка)) спасибо
Разбираем EM-algorithm на маленькие кирпичики