Как стать автором
Обновить

Комментарии 12

327 просмотров, 7 заносов в избранное и ни одного комментария за 2 часа с момента публикации, статистика интересная уже сама по себе :)
Вопрос: какого результата автор добился? Что дают полученные данные?
Автор показал, что пока ведущие специалисты мира разрабатывают структуры слоев нейронных сетей или спорят о типах дистанции в автоэнкодерах — существуют полностью агностические методы, дающие сравнимый результат.

Что в свою очередь как бы намекает, что ни автоэнкодеры, ни сверточные слои, ни loss-функции не являются необходимым элементом для построения классификатора.

Вот здесь habrahabr.ru/company/meanotek/blog/256593 например конволюционка на 8 нейронах дает меньше. А на 16 — больше.

Разумеется в реальных задачах никто не делает троллейбусы из буханки черного хлеба.
Но в реальных задачах на больших данных приведение размерности к дистанциям выборки из базы — обычная практика и может быть названо deep learning для бедных.
Такой известный продукт как sofia-ml например его использует, скорость весьма впечатляет.
добавил апдейт в пост
Интересует практическое применение. Какова разница в результатах для разных языков? Для текстов разного уровня?
Что будете делать с завуалированным текстом? Метафорами, метонимиями, синекдохами, афоризмами и т.д…
Т.е. что можно, в конечном счете, решить с помощью данной модели?
Проанализировать комментарии к Mail.ru?

Практического применения здесь нет — слишком затратен метод. Разве что использовать персональный десктоп в качестве зимнего отопления.
На самом деле метод крут. И спасибо, что обратили на него внимание. Дело в том, что полноценный разбор текста — ещё затратнее. И существенно алгоритмически сложнее.

Подобным архивированием можно из большой выборки выделять потенциально интересные сообщения, а уж их-то проверять полным разбором или даже оператором. 75% точности для первого фильтра — хороший результат.
Для полноценного разбора текста требуется еще и иметь языковую модель.
Которая не только разная для каждого языка, но и в пределах одного языка может сильно варьироваться.
Я как-то вытаскивал данные из сотни тысяч английских текстов, написанных индусами, китайцами и филиппинцами.
По результату пришлось писать свой экстрактор — готовые системы (коммерческие и бесплатные) давали очень плохое качество. Хотя казалось бы — где уже сделано все и все истоптано — так это в английском языке.

Поэтому агностические модели столь привлекательны — более традиционные схемы предполагают большой объем ручной адаптации, что реально дорого IRL.
А почему бы не использовать обычный gzip? Разве метод не станет менее затратным? Для алгоритма, мне кажется, без разницы?
Разница есть и gzip не подходит.
Вообще блочные упаковщики плохо работают для таких целей.
Проверить насколько хорош упаковщик можно простой процедурой.
cat somefile | packer >test1
cat somefile somefile | packer >test2

Если рамеры файлов test1 и test2 мало отличаются — то упаковщик подходит.
Второе требование — чем сильнее он пакует целевые файлы — тем лучше для результата.
Спасибо, не знал, что длина архива зависит от последовательности конкатенации файлов.
На самом деле ожидаемый результат точности. Думаю, если использовать сим-хеши для побайтового сравнения результат будет еще лучше.
Для промышленных решений такая точность маловата, но идею можно применить для предварительной классификации чего угодно. Кстати, все эти SVM и Байесы — так же методы классификации, столь популярные в русскоязычном сегменте тональности, достигают примерно такого же уровня точности или чуть лучше (все-таки там применяют всякие лингвистические эвристики типа н-грамм). Ну а чтобы получить более 90% нужна глубокая лингво информация, даже не языковая модель — что от нее толку — а грамматика и синтаксис.
Обычный Random Forest на случайных байтовых n-граммах так сразу мне показал 72.95% — без тюнинга.
При том, что быстрее Random Forest в детекции наверное ничего придумать и нельзя.
И это тоже агностический метод, количество параметров ненамного больше и знание содержимого файла не требуется — он будет работать и на классификации вирусов, спама, ДНК и чего угодно с линейной структурой и произвольной длиной.
Возможно n-граммы на словах или на синсетах покажут лучший результат, но они уже преполагают текст, причем на европейском языке, с пробелами и пунктуациями.

Для существенного поднятия точности нужен уже deep learning — трансфомация пространства признаков. И получать их лучше с очень больших объемов неклассифицированных данных.
Приведенный датасет для таких задач вообще непригоден, он слишком мал.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.