Забавно, в хорошем смысле, читать этот комментарий из 2021 года :)
К слову, нашел эту статью, разбираясь как вейвлеты используют для сжатия архитектур нейронных сеток.
Отличная статья! Факультативно интересуюсь pose estimation задачей. Но не смог найти чего-то вроде инструкций о том, как размечали тот же COCO. Хочу понять по какому принципу при разметке выбиралось конкретное место для точек. Как-то связаны они с анатомией человека или «на глазок в центр плеча»? Вы когда размечали как объясняли своим разметчикам куда ставить точки?
Михаил, шикарный туториал!
Очень круто, практически «на пальцах» объясняете механику работы сетки. Можете в паре предложений рассказать про ew-shot learning? Какую именно часть сетки дообучают? Может даже есть инфа по времени обучения на тех же 16 примерах для 10 классов?
Да, это похоже на то, что нужно.
А я не рассматриваю трекер как Issue Tracker. Есть ведь и другие области, где нужно управлять задачами. К примеру, digital-агентства часто делают похожие задачи и надо уметь закрывать их одинаково качественно. Тут чек-листы и приходят на помощь.
Почему ещё ни кто не вспомнил word2vec? Это способ кодировать слова с учётом контекста их употребления. Есть готовые решения. Позволяет заметно поднять качество модели.
Ребята, тоже немного игрался с Azure ML, но не видел там встроенного модуля для оценки threshold. Правильно понимаю, что вы просто выгрузили значения метрик для разных threshold и построили график в условном экселе?
И как потом полученное значение указать в модели для боевого прогноза?
Кстати, не хватает статьи как из обученные модели прикрутить к продакшену. Там вроде какое-то web-api.
Коллеги, расскажите подробней что же делаете с категориальными признаками. Уже увидел, что используете счетчики, но какие статистики считаете? Используете при расчете только целевую переменную, или есть статистики для хорошо коррелирующих с целевой вещественных признаков?
Ну и второй вопрос — что делать с сильно разряженными датасетами? Бытует мнение, что на них деревья работают хуже линейных моделей. В xgb есть возможность указать тип элементарных алгоритмов. Но у вас, подозреваю, все заточено под деревья. Есть какое-то решение на этот счёт? Или catboost изначально проектировался с учётом таких задач?
Похоже что дрон просто выполнял команды, полученные с наземной станции. То есть модель крутилась не на самом дроне. А как известно, перенести даже на смартфон получается не все модели. Ну и полеты все-таки были на заданной высоте, но есть не совсем 3D. Результат тем не менее интересный.
У меня остается вопрос — что они делали с диким разбалансом положительных и отрицательных образцов, тем более что на каждую секунду полетов у них было по 30 кадров. И как собственно детектировали столкновения, не ручками же размечали данные.
Кажется, что сама по себе метрика для бизнеса не важна. Важно сколько денег это решение принесло. А это зависит от того, что будут делать с прогнозами. И тут огромный выбор дальнейших сценариев.
Так что где-то 69% мало, а где-то и 30 будет супер сделкой.
Ребята, не могу поверить, что возраст, количество приемов и затраты могут прогнозировать страховые выплаты с такой хорошей точностью. Вы точно не лукавите? :)
Там буква А латинская, и попробуйте сначала кликнуть на правой области, свободной от панелей. Вообще, это просто был тест гипотезы, поэтому мы пока его не трогаем.
Да, тоже игрались с этой темой, есть даже сырая версия веб-сервиса есть — kg.ppc-panel.ru/# Для автоматической разбивки фраз по группам после импорта клевиков нажмите a+Tab (все команды "?").
К слову, нашел эту статью, разбираясь как вейвлеты используют для сжатия архитектур нейронных сеток.
Очень круто, практически «на пальцах» объясняете механику работы сетки. Можете в паре предложений рассказать про ew-shot learning? Какую именно часть сетки дообучают? Может даже есть инфа по времени обучения на тех же 16 примерах для 10 классов?
Я правильно понял, что обучать модель надо самостоятельно. А в КХ уже подсовывать файлы с моделями?
А я не рассматриваю трекер как Issue Tracker. Есть ведь и другие области, где нужно управлять задачами. К примеру, digital-агентства часто делают похожие задачи и надо уметь закрывать их одинаково качественно. Тут чек-листы и приходят на помощь.
Весь хелп перерыл: неужели у вас нет чек-листов?
Почему ещё ни кто не вспомнил word2vec? Это способ кодировать слова с учётом контекста их употребления. Есть готовые решения. Позволяет заметно поднять качество модели.
И как потом полученное значение указать в модели для боевого прогноза?
Кстати, не хватает статьи как из обученные модели прикрутить к продакшену. Там вроде какое-то web-api.
Традиционно для фотографий лучше нейросети работают. Здесь же градиентный бустинг над решающими деревьями.
Коллеги, расскажите подробней что же делаете с категориальными признаками. Уже увидел, что используете счетчики, но какие статистики считаете? Используете при расчете только целевую переменную, или есть статистики для хорошо коррелирующих с целевой вещественных признаков?
Ну и второй вопрос — что делать с сильно разряженными датасетами? Бытует мнение, что на них деревья работают хуже линейных моделей. В xgb есть возможность указать тип элементарных алгоритмов. Но у вас, подозреваю, все заточено под деревья. Есть какое-то решение на этот счёт? Или catboost изначально проектировался с учётом таких задач?
У меня остается вопрос — что они делали с диким разбалансом положительных и отрицательных образцов, тем более что на каждую секунду полетов у них было по 30 кадров. И как собственно детектировали столкновения, не ручками же размечали данные.
Но круто.
Кажется, что сама по себе метрика для бизнеса не важна. Важно сколько денег это решение принесло. А это зависит от того, что будут делать с прогнозами. И тут огромный выбор дальнейших сценариев.
Так что где-то 69% мало, а где-то и 30 будет супер сделкой.