Я должен почитать теорию. СДУ не решал. По идее, для непрерывного случая можно ввести плотность вероятности перехода, и перейти к условной плотности. Но это чуть больше, чем я знаю.
Есть оценка качества кластеризации Markov Stability of Community Partitioning. В ней буквально запускают частицу в граф путешествовать и записывают вектор переходов, затем можно увидеть, между какими узлами частица провела больше времени, и если эти узлы совпадают с кластерами, то партишнинг был сделан успешно.
И, кстати, лемматизатор для русского в этом пакете не совершенный прямо совсем. Почему-то полно опечаток и странных словоформ, в общем, на текущий момент не годится.
Такая засада с udpipe. При попытке параллельного исполнения (ради чего и хотелось его попробовать), возникает ошибка invalid external pointer. Так как внутри самого главного метода создается указатель С++, doParalallel похоже не умеет с такими объектами работать. Но с другой стороны обращение к яндекс mystem по замерам чуть ли не в 10 раз медленнее получается и тоже ни фига не параллелится (так как копии стучатся в один экзешник и толку нет). Поэтому может и получится прирост по скорости, посмотрим…
Статья хорошая, впервые услышал про ваши пакеты для R (могут пригодиться).
Алексей, нужно еще добавить в статье про параллельное исполнение о том, что R нативно — и уже давно — поддерживает параллельность (под Unix), используя функции parallel::mclapply, parallel::mcsapply из поставляемого по умолчанию пакета parallel.
Также я бы добавил, что помимо foreach %dopar% можно использовать doParallel::parLapply, doParallel::parSapply и т.д.
Что очень характерно, на триллиарды игр, сыгранных OpenAI для обучения, людям оказалось достаточно всего лишь двух (или трех, уже не помню) публичных игр OpenAI для выработки успешной выигрышной стратегии против оного.
Это характерно для машинного обучения в целом и очевидно почему так. Градиентный спуск не сходится за пару-тройку итераций.
За 10 лет метод эволюционировал от возможности балансировать палку в тележке (cart-pole) до игры в стратегию с непрерывными действиями на уровне чемпионов (youtube). А так, да, простые нейронки и предсказание валуе/полиси. Даже странно, что работает. :)
Внутри AlphaZero просто нейронная сеть. Программа обучается сотни тысяч псевдо часов или миллионы ходов для подстройки весов нейронки. Это где тут разум? Просто так функция, которую она аппроксимирует в пределе похожа на игру человека — исторически так сказать. Да, похоже, что думает, но это ж тупо нейронки, читай, сложные функции.
Коллеги, поправьте, если я уже отстал. Для NLP на русском(!) языке приходится юзать лемматизатор от Яндекса, обращаясь к екзешнику через команду system(… Что не очень быстро, а ктому же почти не параллелится. Кроме почти непригодного лемматизатор из tm есть ли какие-то нормальные пакеты?
Я бы добавил к безликому опенспейсу: отсутствие перегородок между столами, что заставляет любоваться симпатичными разными лицами коллег всегда, даже когда не хочется.
Он открывает в обе стороны. Я думаю, он долго перестраивается на смене тренда. Но если тренд изменится надолго, то должен перестроиться на шортЫ. Есть идея как это ускорить?
Есть оценка качества кластеризации Markov Stability of Community Partitioning. В ней буквально запускают частицу в граф путешествовать и записывают вектор переходов, затем можно увидеть, между какими узлами частица провела больше времени, и если эти узлы совпадают с кластерами, то партишнинг был сделан успешно.
"Он не учится в процессе игры, прилетел дроп, и AI продолжал гоняться за ним пока не проиграл."
Чисто технически это можно сделать, нет проблем. Проблема в необходимости огромного количества материала для обучения.
Алексей, нужно еще добавить в статье про параллельное исполнение о том, что R нативно — и уже давно — поддерживает параллельность (под Unix), используя функции parallel::mclapply, parallel::mcsapply из поставляемого по умолчанию пакета parallel.
Также я бы добавил, что помимо foreach %dopar% можно использовать doParallel::parLapply, doParallel::parSapply и т.д.
Это характерно для машинного обучения в целом и очевидно почему так. Градиентный спуск не сходится за пару-тройку итераций.
Внутри AlphaZero просто нейронная сеть. Программа обучается сотни тысяч псевдо часов или миллионы ходов для подстройки весов нейронки. Это где тут разум? Просто так функция, которую она аппроксимирует в пределе похожа на игру человека — исторически так сказать. Да, похоже, что думает, но это ж тупо нейронки, читай, сложные функции.
Следите за ветром. Через 10 лет китайский может стать основным.)
Коллеги, поправьте, если я уже отстал. Для NLP на русском(!) языке приходится юзать лемматизатор от Яндекса, обращаясь к екзешнику через команду system(… Что не очень быстро, а ктому же почти не параллелится. Кроме почти непригодного лемматизатор из tm есть ли какие-то нормальные пакеты?
А они пробурят верхний слой до многокилометровой пустоты и уткнутся в пирамиды Создателей?
симпатичнымиразными лицами коллег всегда, даже когда не хочется.Времени маловато. Пилю RL, данных и так много.
Он открывает в обе стороны. Я думаю, он долго перестраивается на смене тренда. Но если тренд изменится надолго, то должен перестроиться на шортЫ. Есть идея как это ускорить?
Ну, что сказать? Тупые американские шутки! Теперь я понял, что это НЕ стереотип.