Pull to refresh

Comments 4

Если выходит, что простое решение — самое лучшее, имеет ли смысл искать сложные многоуровневые цепочки? Есть ли какие-то предпосылки, что сложные модели должны давать настолько большой прирост в точности, что время, потраченное на их обучение становится не таким критичным фактором?
>простое решение — самое лучшее
Это верно только для довольно простых процессов. В более сложных задачах прогностический пайплайн неизбежно усложняется: добавляются блоки предобработки (причем разные блоки могут применяться для различных рядов — основного и экзогенного, например), ансамблировать модели, применяться различные фильтры.

Мы поэкспериментировали и с дополнительными «каскадами» для коррекции ошибок одних моделей с помощью других — фактически, перенос идеи бустинга на уровень пайплайна.

Всё это неизбежно приводит к необходимости усложения структуры пайплайна и работе с ними как с графами. Собественно, если посмотреть экспертные решения на том же Kaggle — это хорошо видно.

Большой плюс подхода, реализованного в FEDOT — возможность получать как простые, так и сложные структуры в зависимости от данных и лежащего в их основе процесса. Это позволяет работать с довольно широким диапазоном задач.
UFO just landed and posted this here
В первую очередь, sktime — это инструмент именно для «ручного» построения пайплайнов, без автоматизационной логики, которая имеется в AutoML (если не брать отдельные блоки вроде autoarima). Поэтому там качество решения прогностических задачи напрямую зависит от удачности выбора структуры модели.

Гиперпараметры, судя по примерам, можно настраивать используя инструменты sklearn — но описанный в документации способ выглядит громоздким и плохо подходящим для сложных пайплайнов со множеством моделей и блоков обработки данных.

Варианта использования нескольких вариантов размера окна предыстории в рамках одного пайплайна тоже там не увидел — хотя по нашему опыту, это довольно полезно.
Sign up to leave a comment.

Articles