Pull to refresh

Comments 3

Пример с гамматон фильтрами, сверху целевая и снизу полученная
Пример с гамматон фильтрами, сверху целевая и снизу полученная

Насчет выделения классов, они же признаки. Используйте петлю гистерезис, для усиления признаков и убирания шума.

  • Гистерезис может подавлять шум за счет инерционности (сглаживание резких изменений).

  • Усиление слабых признаков, где важна информация в зашумленных участках. Но не подавляет слабые признаки, а наоборот, подтягивает их до среднего уровня.

  • Выделяет и усиливает те признаки, которые уже были сильными.

Это ведёт к тому, что слабые признаки не исчезают, а становятся более заметными. При этом это не особо усиливает шум, так как из за колебаний, он будет всегда оставаться на низком уровне.

Данное регулирование достигается за счет регулирования скорости "роста" и "спада" сигнала, имитируя инерционность. Если это шум, то колебания будут постоянными и хаотичными, что приводит к тому, что сигнал всегда быстро спадает. В то время как для признаков, сигнал будет постепенно более медленно увеличиваться, подтверждая наличие признака, что приводит к его более сильному выделению на фоне шума. Достигается это введением разной скорости регулирования при росте и спаде сигнала, как в случае гомеостаза.

Вот такой разбор хотелось бы видеть в статье. А не просто. кусок кода, определение термина. Что я могу получить от такой подачи? Набор общих штампов и терминов, оторванные куски кода? Лучше оставьте какой то один пункт и подробно, наглядно разберите его даже ради рекламы, чем просто накидать гору текста.

Удивительно! Я на курсах всю неделю только этим и занимался) приятно смотреть и читать код, который уже наверное более 50 раз за неделю пришлось самому набирать.

какая-то прям совсем базовая "машинка". Возможно, стоит в следующей статье показать, как деплоить ее с помощью того же Airflow, например. Так можно показать весь пайплайн от "загрузили данные" до "выкатили в прод"

По поводу GS (кажется, базовый sklearn давно уже не прод-решение, хотя могу ошибаться) и оптимизаций хотел бы поделиться:

  1. Optuna на Хабре

  2. Hyperopt на Хабре

  3. Top 10 Tools For Hyperparameter Optimization In Python

  4. Статья о Progressive GS

Sign up to leave a comment.