Pull to refresh
49
0
Send message
Если верна «Гипотеза оптимальности рынка», то текущие цены являются лучшей оценкой цен в будущем. Поэтому никак невозможно увеличить ожидаемую доходность. А будут затраты на спрэды и фи. Ребалансировка просто снижает риски (волатильность портфеля).

Более того, ребалансировка увеличивает ожидаемый доход, только если цены, которые сейчас на рынке не учитывают цен, которые были во время прошлой балансировки.

Чтобы ребалансировка увеличила доходность, у рынка должен быть возврат к среднему (корректировка, mean revision). А это значит, что рынок не оптимален и текущие цены не являются лучшей оценкой стоимости активов в будущем. Но если у рынка сильнее импульс (либо обвал либо пузырь) на периодах совпадающих с частотой ваших ребалансировок, то, наоборот, потеряете.

В реальности могут работать какие-то стратегии проводящие хитрую ребалансировку вроде Passive Agressive Mean Revision.
Спасибо! Но есть пару вопросов:

1. Возможно я не так понял описание алгоритма, но кодирование категорий в цифры происходит вне зависимости от прошлых деревьев или прошлых сплитов текущего дерева. Я правильно понял?

2. У вас довольно слабый априори. Вы добавляете только одно псевдоиспытание. При классификации априори получается всегда мультимодальным бета-распределением. У вас на практике получилось, что такой априори лучше всего работает?
Самая сложная и важная штука в оптимизаторах — прогноз вероятности конверсии.
Если у фразы нет кликов или их мало, то все-равно оптимизатор может предсказать конверсию.
Самый простой способ — считать ее равной конверсии сайта.
им просто нужно выжать максимум трафика по ключевым фразам, в которых они уверены

Это утверждение требует отдельного ответа. «просто нужно выжать максимум трафика», это значит «получить как-можно больше кликов и пофиг сколько они стоят»? Ну тогда просто ставьте ставку в 50$.

Или все-таки стоимость клика важна для клиента? Задача у клиента стоит получить максимум кликов не платя за клик больше X$. X это ценность клика максимальная сумма которую мы готовы заплатить за клик. Ее же нужно устанавливать в интерфейсе бидменеджера.

Ценность клика можно оценить исходя из каких-то соображений.
Еще месяц назад вас удивляло наше утверждение о том, что между блоками в Директе по-прежнему работает старый аукцион второй цены (GSP).

Вы ошиблись и перепутали меня с другим человеком. Я такого не говорил.

Проблема в том, что искреннюю ставку можно рассчитать только в крупном ecommerce, где много данных и можно смело усреднять.

Ее можно оценить даже если у нас нет статистики.
Кстати могу представить пару цитат ваших-же которые противоречат этому.

ваш оптимизатор, ради рекламы которого вы и затеяли «крестовый поход против бид-менеджеров»

Я уже года два пишу что перебивка и бидменеджеры — глупость.

но выводы вы делаете неправильные, когда считаете, что в таком случае ставка по запросам будет случайной

Выпадение орла или решки не случайно. Если мы знаем физические параметры направление броска, силу, вес монеты, то можем вычислить на какую сторону упадет монета. «Случайность» получается поскольку мы чего-то не знаем.

Есть много факторов которую влияют на стоимость входа. Мы не знаем их все. Поэтому мы считаем, что стоимость входа в блок случайным числом.

Вообще в тервере есть 2 типа чисел. константы и случайные величины. Константа это постоянная величина т.е равна у всех объектов изучаемых объектов. Случайная величина — в общем случае разная. Следовательно стоимость входа в блок случайная величина.

На практике цена по разным словоформам одной и той же ключевой фразы может отличаться только в том случае, если кто-то рекламируется именно по этой словоформе

Я не понимаю к чему это? Я не использовал нигде оператор!..

Есть в нашем бид-менеджере реализована возможность автоматической подпорки, тут вы опять неправы

А что сделает робот если подопрут нашу подпорку?

А си-образные случайные языки есть?
Нам нужно оценить вероятность того, что вариант А лучше Б. Но мы это сделать не можем, поскольку мы не знаем Априори. Если мы зададим априори, то все наши расчеты станут субъективными как и полученный результат.

Но мы можем посчитать какую-то метрику, которая не является вероятность. Например, коэффициент значимости при котором интервалы расходятся. Но он нам не нужен. Нам нужна вероятность, чтобы принять решение. Когда мы пытаемся судить о вероятности по какой-то метрике, наша вероятность перестает быть объективной.

CTBO в теории можно посчитать используя частотный подход. Но это будет не совсем корректно. Мы не можем говорить о вероятности и шансах. Мы можем говорить «По какому-то критерию с такими параметрами мы получили то-то». Не верно интерпретировать коэффициент значимости как вероятность. Когда мы это делаем, вероятность становится субъективной.

Если мы изначально примем, что вероятность субьективна (это оценка, которую мы можем дать исходя из данных), то мы можем ее посчитать нормально и сказать вероятность, что А лучше Б = 81%. В этом случае мы изначально не считаем какую-то метрику в стиле Т-критерий с такими-то параметрами. И формулы будут другими.

На больших данных разница будет незначительной, но все же будет. Поскольку вероятность у нас субъективна, то одни данные 2 разных человека могут трактовать по разному и оба они будут правы.
Точность, это когда у задачи есть только один правильный ответ, который не зависит от субъективного выбора коэффициентов.

Обоснованность, когда мы что-то считаем с помощью математики, но в принципе, можно получить другой ответ при выборе других субъективных параметров.

Обратную задачу тер. вера точно нельзя решить, поскольку мы не знаем Априори. Есть два пути:

Байесоновский, мы выбираем субъективно Априори. При этом мы считаем вероятность, но она становится субъективной.

Частотный, мы меняем постановку задачи считаем не вероятность, а то что можем посчитать. Наш ответ объективен, но что-бы его применить на практике, мы должны, его субъективно трактовать.

В любом случае, мы не можем сказать, что конверсия лежит в этом диапазоне с вероятностью 90%. Или с некоторой вероятностью один вариант лучше другого. Если не введем некоторую субъективность. См. чем creditable от confidence интервалы отличаются.

При расчете CTBA используется вместо Априори равномерное распределение. Как будто до эксперимента мы ничего не знаем о конверсии. По сути у нас нет предубеждений. Это делает оценку более консервативной, что хорошо. Больше у нас нет субъективных допущений. И ответ проще.

Доверительные интервалы не совсем корректно сравнивать с друг-другом. Более того, если 90% интервалы расходятся, то это не значит, что вероятность что один лучше другого >= 90%. Это значит только, что интервалы разошлись. Вы вынуждены субъективно трактовать результат опыта.

Аналогичная радость с критериями. Без трактовки они ничего не дают, а трактовка субъективная.

В общем Баесоновский подход проще для пользователей. И по сути он доминирует на западе.
«Математическая обоснованость» может быть, когда нет точности. У вас есть две константы, коэффициент значимости и мощность, которые нужно выбирать субъективно.
Доверительный интервал, не айс решение. Он сильно сложен для работы. И не дает математически точного результата, если просто два интервала сравнивать. Особенно, если ждать пока разойдутся. А не проводить эксперимент с фикс. временем.

Если CTBA метод, тоже не дает мат. точности, но сравнивать проще.
habrahabr.ru/post/232639/
Интересная статья. Но есть замечание. Т-критерий Стюдента требует нормальное распределение. Вы предлагаете биномиальное (конверсия). Нормальная аппроксимация справедлива когда pn>5 и n(1-p)>5. en.wikipedia.org/wiki/Binomial_proportion_confidence_interval

Т.е. если на сайте 1% конверсии, то выборка должна быть на 500 кликов минимум. Если мы изучаем клики по банеру c CTR 0.1%, то показов должно быть 5к минимум. Так что не совсем верно: «Этот тест хорошо зарекомендовал себя для небольших объемов данных».

P.S. Не совсем понятно что такое «Стандартное отклонение». Это «среднеквадратичное отклонение» или «стандартная ошибка»?
Я не понял какую конверсию считал автор, когда вырубил бесплатную версию.
а. Среди уже подсевших пользователей. Пользователей которые привыкли в сервису.
б. Среди новых пользователей.

А почему у вас получаются такие негладкие графики? Точек мало?
Подскажите, а можно ли получить отчет в котором.
1. Источник трафика Директ
2. В каждой строчке есть:
а. фраза, которую набрал пользователь (не ключевик, а запрос)
б. данные по конверсии
в. число кликов
г. расход в директе, ну или средний CPC
>>p вероятность равенства любому конкретному значению x стремится к нулю. имеет только кумулятивный вероятность.
В принципе верно. Но это не мешает считать p=x событием.

ЧП более жёсткий подход. Определение вероятности частота при бесконечном числе испытаний. Он строго математический. Но из-за этой строгости мы ничего толком не можем посчитать в обратной задаче. Кроме доверительного интервала. Который практически ничего не значит.

Если мы подкинули монетку 100 раз и получили 40 орлов и 90% дов интервал равен (0.3,0.5) это не значит что симметричность монетки с вероятностью 90% лежит в этом интервале. Это значит что если мы подкинем монету еще 100 раз, потом еще 100 раз и так далее до бесконечности. То если мы посчитаем для каждой сотни дов. интервал, то симметричность монетки будет лежать в 9 из 10 90% дов. интервалов. Причем у каждой сотни свой дов интервал. Мы без априори ничего лучше точно не можем сказать.

Хотя есть и неточные методы оценки. Выборочное среднее и прочее, но они не называются вероятностью.

У БП более мягкое определение. Степень уверенности. Грубо говоря: какую оценку мы можем дать по имеющимся у нас данным. В БП нормальный дов. интервал. Если мы подкинули монетку 100 раз и получили 40 орлов и 90% дов интервал БП равен (0.3,0.5) это значит что симметричность монетки с вероятностью 90% лежит в этом интервале. Но проблема в том, что мы должны субъективно выбирать априори.
«Но ведь дальше в статье речь идёт о биномиальном распределении, которое никак не относится к нашей непрерывной переменной p, а только к пораждающим сэмплам. „
Я опять вас не понял. Мы решаем обратную задачу, а не прямую. Мы оцениваем вероятность выпадения орла по данным экспериментов.
Вернемся к началу.

У нас есть монета. У нее есть вероятность выпадения решки. Обозначим ее p. 0<=p<=1. Нам проще в дальнейшем называть p симметричностью монеты и считать некоторым свойством монеты. Монету мы не меняем в ходе эксперимента, поэтому p однозначно и фиксировано, но мы его не знаем.

Есть событие «Симметричностью монеты равно x» обозначим его как p=x. У события есть некоторая вероятность: P(p=x).

Мы провели эксперимент и получили s решек, f орлов. Обозначим это как событие [s,f].

Теперь нам нужно оценить p по данным эксперимента. В формулу Байеса вместо А подставим событие p=x. Вместо B подставим событие [s,f].

P([s,f]|p=x) — вероятность того, что мы получили s решек и f орлов если событие p=x произошло(если p=x). Нам известна из формулы биномиального распределения.
credible и confidence при a=1, b=1 отличаются не сильно. У нас в калькуляторе credible (нужно обновить документации все-таки). Я все думал, почему он отличается на пару сотых процента от Вилсона.
А все понял когда обычный 80% доверительный интервал = 1-2%. Это что в 80% случайных независимых выборок искомое значение будет находится в этом интервале в их 80% доверительный интервале.
Если честно, я не полностью улавливаю разницу между баесоновским и обычными доверительными интервалами.

Information

Rating
Does not participate
Location
Одесса, Одесская обл., Украина
Date of birth
Registered
Activity