Ага, массивом граф представлять — правильная идея. Могут возникнуть проблемы добавления-удаления, но здесь не тот случай. Тут статичного представления достаточно.
Один момент — не увидел по тексту, позволяет ли та реализация DAWG, что вы используете, минимизировать автомат. Если нет — этим стоит занятся, т.к. можно сохранить большое количество памяти без деградации по скорости. Кстати, в aot было хитро — они использовали алгоритм, где при добавлении слова автомат поддерживался минимально возможным.
ps я делаю pure-с клон openfst, более бедный по функционалу, но более оптимальный по скорости и памяти. пока это только сырой драфт. Как доделаю, было бы интересно потестировать на морфологии.
> Я так понимаю, при для мультикатегориальной классификации scikit-овская реализация использует one-vs-one стратегию?
Нет, на сколько я помню там one-vs-all по умолчанию. Хотя one-vs-one тоже можно прикрутить.
> Интересно, почему SVM с радиальным ядром дал такой низкий результат.
Вот это действительно странно. Радиальное ядро может дать качество ниже чем линейное, но разница тут слишком велика.
Откуда информация? Не могли бы дать ссылки на статьи? На каком именно этапе работает нейронная сеть? Для представления языковой модели, или для unsupervised извлечения фич, как с котиками? Было бы интересно, если последний вариант.
Сильно звучит. Я правильно понимаю речь идет о распозновании речи, извините за каламбур :) Если да — то как вам удается применить нейронную сеть для декодинга временных последовательностей? Или это марковская сеть параметризованная НС? И какие фичи используете для тренировки, mfcc?
Хорошая статья, спасибо что перевели. Довольно типичная картина для машинного обучения — классификация или прогнозирование лучше работает когда никто не мешает :).
> Алгоритм EM [11] основан на предположении, что исследуемое множество данных может быть смоделировано с помощью линейной комбинации многомерных нормальных распределений.
Не совсем так. EM используется тогда, когда максимум правдоподобия не может быть оценен напрямую из-за скрытых переменных. Тогда используется итеративное приближение матожидания целевой функции относительно этих переменных. То что вы написали — задача разделения смеси гауссиан, и EM ее решает. Но он более общий и может оценивать и другие виды распределений.
Статья хорошая, плюсую, хотя терминология непривычная.
С наступающим :)
Да, конечно, неверно выразился. Просто часто попадаются документы оптимизации именно для хранения связности web-страниц.
Если конкретно, то интересует разряженные направленные взвешенные графы. На дугах — метки из какого-то конечного алфавита. Веса берутся из какой-то алгебраической структуры (в моем случае — полукольцо). Т.е. теоретически — { |A| x |S| } ^ (n^2), где |A| — мощность алфавита, |S| — мощность полукольца (рефлексия так же возможна). Элементы кольца обычно не конечны, так что эта оценка теряет смысл :).
Но это не важно. Больше интересуют более «практичные вещи» — в какой структуре данных это представлять, чтобы быть экономным по памяти, но в то же время быстро пройтись по графу. Какая сложность будет при этом для добавления-удаления вершин и дуг. Существуют ли способы упаковки.
У меня Neato. Заказывали из штатов. Умный, зараза :). Есть стенка полукругом, так он точно рядом с ней идет, по границе, описывая дугу. Иногда бывают сбои в навигации, но не часто. Стабильно сам возвращается на базу.
PR2 Overview
Странно, что в статье нет упоминания об этом.
Успехов :).
Один момент — не увидел по тексту, позволяет ли та реализация DAWG, что вы используете, минимизировать автомат. Если нет — этим стоит занятся, т.к. можно сохранить большое количество памяти без деградации по скорости. Кстати, в aot было хитро — они использовали алгоритм, где при добавлении слова автомат поддерживался минимально возможным.
ps я делаю pure-с клон openfst, более бедный по функционалу, но более оптимальный по скорости и памяти. пока это только сырой драфт. Как доделаю, было бы интересно потестировать на морфологии.
Видение:
Результат:
Это как? Т.е. я довольно отчетливо вижу проблемы с технической стороны. Вы можете рассказать, каков план создания?
Глупость. По Google Scholar > 700k публикаций. Еще один пруф — willow garage, стартап который пытается сделать более-менее универсального робота. Все публикации открыты: http://www.willowgarage.com/publications
Нет, на сколько я помню там one-vs-all по умолчанию. Хотя one-vs-one тоже можно прикрутить.
> Интересно, почему SVM с радиальным ядром дал такой низкий результат.
Вот это действительно странно. Радиальное ядро может дать качество ниже чем линейное, но разница тут слишком велика.
Не совсем так. EM используется тогда, когда максимум правдоподобия не может быть оценен напрямую из-за скрытых переменных. Тогда используется итеративное приближение матожидания целевой функции относительно этих переменных. То что вы написали — задача разделения смеси гауссиан, и EM ее решает. Но он более общий и может оценивать и другие виды распределений.
Статья хорошая, плюсую, хотя терминология непривычная.
С наступающим :)
Пруф.
Как-то сурово на Урале. Может в тайе русский pycon провести? :)
А вообще хорошее дело делаете. Желаю чтоб у вас все получилось.
Если конкретно, то интересует разряженные направленные взвешенные графы. На дугах — метки из какого-то конечного алфавита. Веса берутся из какой-то алгебраической структуры (в моем случае — полукольцо). Т.е. теоретически — { |A| x |S| } ^ (n^2), где |A| — мощность алфавита, |S| — мощность полукольца (рефлексия так же возможна). Элементы кольца обычно не конечны, так что эта оценка теряет смысл :).
Но это не важно. Больше интересуют более «практичные вещи» — в какой структуре данных это представлять, чтобы быть экономным по памяти, но в то же время быстро пройтись по графу. Какая сложность будет при этом для добавления-удаления вершин и дуг. Существуют ли способы упаковки.