Пример практического применения копул

    В предыдущей статье я рассказал теоретическое обоснование копул. Так как сам был студентом, знаю, что лучшим объяснением теоретического аппарата может служить пример его практического применения. Поэтому в этой статье попробую показать, как копулы используются для моделирования взаимозависимостей нескольких случайных величин.


    Опять немного теории


    Как уже упоминалось, многие копулы могут отражать зависимость не только двух, но сразу нескольких величин. Это, конечно, хорошо, но стандартные копулы подразумевают некоторую симметричность, то есть все попарные зависимости будут иметь одинаковый паттерн. Согласитесь, это не всегда является правдой. Для преодоления этой проблемы был предложен интересный и вполне очевидный (сколько мучений скрыто за этим словом в математическом анализе) способ – мы разбиваем совместную копулу на набор двумерных копул. Мы знаем, что для n переменных у нас будет попарных взаимосвязей. То есть нам придется определить именно столько попарных копул. Покажем, что совместную плотность распределения 4 величин можно выразить следующим образом:


    небольшое доказательство
    Для начала напомним, что плотность распределения нескольких величин можно выразить следующим образом:



    Так же из определения копулы, мы знаем, что:



    что в свою очередь можно выразить следующим образом:



    Для двумерного случая это будет выглядеть следующим образом:



    И совместив это с самой первой формулой, мы получаем:



    Можно расширить этот пример до трехмерного случая:



    и совместив с предыдущей формулой, мы получаем:



    Таким образом, мы видим, что все элементы из первого уравнения могут быть представлены в виде произведения парных копул и маржинальной плотности.

    Существует несколько способов представления разбиения, и упомянутый выше называется канонической лозой (искренне прошу прощения, но устоявшегося перевода «canonical vine» в математическом контексте я не нашёл, так что буду использовать прямой перевод). Графически последнее уравнение можно представить следующим образом:



    Три дерева описывают разбиение 4-мерной копулы. В самом левом дереве кружки – это маржинальные распределения, стрелки – двухмерные копулы. Наша задача, как человека ответственного за моделирование – задать все «стрелки», то есть определить попарные копулы и их параметры.

    Теперь посмотрим на формулу D-образной лозы:



    и ее графическое представление



    По сути, каноническая и D-лозы отличаются только порядком определения попарных зависимостей. Можно задаться вопросом — «а как я буду выбирать порядок?» или эквивалентный «а какую лозу мне выбирать?» На это есть ответ у меня: на практике начинают с пар, которые показывают наибольшую взаимосвязь. Последнюю определяют по тау Кендалла. Не волнуйтесь — все станет яснее позже, когда я буду показывать непосредственный практический пример.

    После того, как вы определились с порядком определения копул, вам нужно понять, какие копулы использовать для определения связей (Гаусса, Стьюдента, Гумбеля или какую ещё). В принципе, тут нет точного научного метода. Кто-то смотрит на парные графики распределения «заархивированных» величин и на глаз определяют копулу. Кто-то использует Хи-графики (тут написано как их использовать). Вопрос мастерства и обширное поле для исследований.

    После того как мы решили, какие копулы использовать в парных связях, нам нужно определить их параметры. Это делается численным методом максимального правдоподобия (numerical MLE) по следующим алгоритмам:

    Псевдокод для оценки параметров канонической лозы
    Log-likelihood=0;
    for i = 1:n
        v(0,i) = x(i)
    end for
    
    for j = 1:n-1
        for i = 1:n-j
            Log-likelihood = Log-likelihood + L(v(j-1,1), v(j-1,i+1), param(j,i));
        end for
    
        if j == n then
            break
        end if
    
        for i = 1:n-j
            v(j,i) = h(v(j-1,i+1), v(j-1,1), param(j,i));
        end for
    
    end for
    


    Псевдокод для оценки параметров D-лозы
    Log-likelihood=0;
    for i = 1:n
        v(0,i) = x(i);
    end for
    
    for j = 1:n-1
        Log-likelihood = Log-likelihood + L(v(0,i),v(0,i+1), param(1,i));
    end for
    
    v(1,1) = h(v(0,1),v(0,2), param(1,1))
    
    for k = 1:n-3
        v(1,2k) = h(v(0,k+2), v(0,k+1), param(1,k+1));
        v(1,2k+1) = h(v(0,k+1), v(0,k+2), param(1,k+1));
    end for
    
    v(1,2n-4) = h(v(0,n), v(0,n-1), param(1,n-1));
    
    for j = 2:n-1
    
        for i = 1:n-j
            Log-likelihood = Log-likelihood + L(v(j-1,2i-1),v(j-1,2i), param(j,i));
        end for
    
        if j == n-1 then
            break
        end if
    
        v(j,i) =  h(v(j-1,1), v(j-1,2), param(j,1));
    
        if n > 4 then
            for i = 1:n-j-2
                 v(j,2i) = h(v(j-1,2i+2),v(j-1,2i+1),param(j,i+1));
                 v(j,2i+1) = h(v(j-1,2i+1),v(j-1,2i+2),param(j,i+1));
            end for
         end if
    
         v(j,2n-2j-2) = h(v(j-1,2n-2j),v(j-1,2n-2j-1),param(j,n-j))
    
    end for
    


    Это алгоритмы расчета логарифмической функции правдоподобия, которую, как известно, нужно максимизировать. Это задача для различных оптимизационных пакетов. Тут требуются небольшие пояснения по используемым в «коде» переменным:

    х — набор «заархивированных» данных размером T на n, где х ограничены на отрезке (0,1).
    v — матрица размером T на n-1 на n-1, куда будут загружаться промежуточные данные.
    param — параметры парных копул, которые мы и ищем, максимизируя Log-likelihood.
    L(x,v, param) =
    h(x,v, param) =
    Любители попортить бумагу своими выкладками могут не открывать следующий спойлер, куда я внес h-функции основных копул.
    h-функции








    После того как мы нашли параметры наших копул, которые максимизируют логарифмическую функцию правдоподобия, мы можем приступать к генерации случайных величин, которые имеют такую же структуру взаимосвязей, как и наши начальные данные. Для этого тоже существуют алгоритмы:
    Псевдокод для генерации данных по канонической лозе
    w = rand(n,1); % Генерируем n равномерно распределенных величин
    
    x(1) = v(1,1) = w(1);
    
    for i = 2:n
    
        v(i,1) = w(i);
    
        for k = i-1:1
            v(i,1) = h_inv(v(i,1), v(k,k), param(k,i-k)); % стоит отметить, что здесь идет обратный цикл.
        end for
    
        x(i) = v(i,1);
    
        if i = n then
            break
        end if
    
        for j = 1:i-1
            v(i,j+1) = h(v(i,j), v(j,j), param(j,i-j));
        end for
    
    end for
    


    Псевдокод для генерации данных по D-лозе
    w = rand(n,1); % Генерируем n равномерно распределенных величин
    
    x(1) = v(1,1) = w(1);
    x(2) = v(2,1) = h_inv(w(2), v(1,1), param(1,1));
    v(2,2) = h(v(1,1), v(2,1), param(1,1));
    for i = 3:n
    
         v(i,1) = w(i);
    
         for k = i-1:2
              v(i,1) = h_inv(v(i,1), v(i-1,2k-2), param(k,i-k));
         end for
    
         v(i,1) = h_inv(v(i,1), v(i-1,1), param(k,i-1));
         x(i) = v(i,1);
    
         if i == n
              break
         end if
    
         v(i,2) = h(v(i-1,1), v(i,1), param(1,i-1));
         v(i,3) = h(v(i,1), v(i-1,1), param(1,i-1));
    
         if i>3
             for j = 2:i-2
                  v(i,2j) = h(v(i-1,2j-2), v(i,2j-1), param(j,i-j));
                  v(i,2j+1) = h(v(i,2j-1), v(i-1,2j-2), param(j,i-j));
             end for
         end if
    
         v(i,2i-2) = h(v(i-1,2i-4), v(i,2i-3), param(i-1,1));
    
    end for
    


    Вы используете параметры, которые получили при помощи алгоритмов оценки модели и генерируете n переменных. Прогоняете данный алгоритм T раз и получаете матрицу T на n, данные в которой имеют такой же паттерн взаимосвязей, как и исходные данные. Единственное нововведение по сравнению с предыдущими алгоритмами — обратная h-функция (h_inv), которая является обратной функцией условного распределения по первой переменной.

    Опять-таки, позвольте избавить вас от длительных выкладок:
    обратные h-функции






    Вот в принципе и все. А теперь обещанный…

    Практический пример


    1. Для примера я решил поиграть в маленького банковского клерка, которому сказали посчитать дневной VaR по его портфелю. На дворе 1 января 2012 года и у меня в портфеле в равных долях лежат акции 4 компаний: 3M (MMM), Exxon Mobil (XOM), Ford Motors (F) и Toyota Motors(TM). Поприставав к добрым ай-тишникам, добиваясь от них выгрузки с нашего сервера истории цен за последние 6 лет, понял, что им некогда (1 январе на дворе, кто вообще работает???) и выгрузил эту информацию с сервера Яху. Я взял историю цен по дням на периоде с 3 января 2005 по 31 декабря 2011 года. Получилась матрица 1763 на 4.


    2. Нашёл лог-ретерны: и построил их попарное распределение.

    Ну так — чтоб представлять общую картину.

    3. Потом я вспомнил лекции по финансам и то, как нам вдалбливали — «ребята, то что ретерны распределены нормально — чушь; в реальной жизни все не так». Подумал, не использовать ли мне тогда предположение, что ретерны распределены по NIG (Normal Inverse Gaussian). Исследования показывают, что это распределение хорошо соответствует эмпирическим данным. Но мне надо придумать модель расчета VaR, а потом пробэктестить ее на исторических данных. Любая модель, не учитывающая кластеризацию второго момента, будет показывать нехорошие результаты. Тогда пришла идея — буду использовать GARCH(1,1). Модель неплохо схватывает 3 и 4 моменты распределения, плюс учитывает волатильность второго момента. Итак я решил, что мои ретерны следуют следующему закону . Тут с — это историческое среднее, z — стандартно нормально распределенная случайная величина, а сигма следует уже своему закону: .

    4. Так, теперь нужно учесть взаимозависимости этих четырех акций. Для начала я использовал эмпирические копулы и построил графики парных зависимостей «заархивированных» наблюдений:

    Учитывая, что сегодня 1 января, а я — ленивая скотинка, решил что тут все паттерны похожи на копулу Стьюдента, но чтобы лучше передать взаимозависимости, решил применить не 4-х мерную копулу, а разбить это все на шесть 2-х мерных копул.

    5. Для того, чтобы разбить на парные копулы, нужно выбрать порядок представления — каноническая или D-лоза. Для этого я посчитал тау Кендалла, чтобы определить уровень взаимозависимости:

    Нетрудно заметить, что самые сильные связи имеет МММ со всеми остальными компаниями. Это предопределяет наш выбор лозы — каноническая. Почему? Нажмите пару раз PageUp и посмотрите на её графическое отображение. В первом дереве все стрелки исходят из одного узла — именно наша ситуация, когда самыми сильными связями обладает одна компания. Если бы высокие тау Кендалла в последней таблице были на разных строчках и разных столбцах, мы бы выбрали D-лозу.

    6. Итак мы определили порядок представления и все необходимые попарные копулы — можно приступать к оценке параметров. Применив вышеуказанный алгоритм по оценке параметров канонической лозы, я нашёл все необходимые параметры.

    7. Вот тут я немного объясню, как это всё происходило в контексте бэктестинга. Для того, чтобы проверить, насколько моя модель правдоподобно считает VaR, я хотел посмотреть как бы она справлялась в прошлом. Для этого я дал ей небольшую фору — 500 дней и, начиная с 501 дня, я считал мои риск метрики для следующего дня. Имея на руках параметры копул, я генерировал по 10 000 четверок равномерно распределенных величин, получал из них четверки стандартно нормально распределенных величин (шумы) и подставлял в формулу расчета ретерна из 3 пункта данного примера. Туда же я вставлял прогноз сигмы по GARCH(1,1) модели используя данные предыдущих дней (это делалось комбинацией матлабовских функций ugarch и ugarchpred) и исторические средние. Получив таким образом 10 000 четверок ретернов акций, я получал 10 000 ретернов моего портфеля, беря среднее арифметическое от ретернов акций (т.к. у нас равные доли и лог-ретерны, мы имеем право так делать). Потом сортировка и выделение 50-ого, 100-ого и 500-ого значения для 99.5%, 99% и 95% порогового уровня соответственно. Посчитав таким образом риск метрики для оставшихся 1263 дней, я получил красивый график и статистику пробоев уровней.





    Как считать p-value для статистики пробоев VaR
    В 1995 товарищ Купич предложил формулу расчета достоверности модели расчета VaR:

    Здесь х — количество пробоев по модели, Т — количество испытаний (у нас = 1263), р — ожидаемая доля пробоев (в нашем случае 0.5%, 1% и 5%).
    По нулейвой гипотезе данная статистика имеет хи-квадрат распределение с одной степенью свободы. Найдя статистику, несложно посчитать ее p-value.

    В принципе, есть куда еще расти в точности. Но если взять в качестве бенчмарка модель без учета взаимозависимостей вообще, то там вообще швах:





    Для честности, нужно показать как бы вела себя модель, если бы мы использовали корреляции и генерировали шумы для расчета ретернов из многомерного нормального распределения:




    Как видите, для VaR 95% данная модель даже лучше, чем наша. Но чем дальше, тем хуже — как уже упоминалось, нормальное распределение не схватывает хвосты.

    В общем, копулы можно использовать, но делать это надо с умом. Они дают более широкие возможности для учета взаимозависимостей, но, как и с любой точной моделью, тут надо быть аккуратным — есть возможность промахнуться в предположениях и получить результаты хуже, чем от стандартной модели.

    P.S. Не раз замечал за собой косноязычие, поэтому буду рад, если вы укажете мне на такие моменты в тексте. Я постарался излагать мысли, как можно яснее, но не всегда мне это удается.
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 38

      +6
      «Каждая формула в тексте уменьшает кол-во читателей в 2 раза» (с) кто-то
      Статья ясно не для широкого круга читателей.
        +9
        Мне сказали, что каждая включённая в книгу формула вдвое уменьшит число покупателей. Тогда я решил вообще обходиться без формул. Правда, в конце я всё-таки написал одно уравнение — знаменитое уравнение Эйнштейна E=mc².
        Стивен Хокинг
          +2
          Согласен, статья и не писалась для утреннего прочтение за чашечкой чая. Она для тех, кто использует подобные вещи в своей практике. Так же хотел бы отметить, что не считаю хабрасообщество «широким кругом читателей» и их не должно отпугивать наличие формул в статье.
            +1
            Не раз замечал за собой косноязычие, поэтому буду рад, если вы укажете мне на такие моменты в тексте. Я постарался излагать мысли, как можно яснее, но не всегда мне это удается.


            Сойдет, по крайней мере я все понял с первого прочтения под кофе двойной шоколад.
            Математические статьи (особенно около статистических тематик) пишут намного корявее, хотя там и материал чуточку посложнее ;)

              +1
              Спасибо :)
          0
          Непонятно зачем статья про случайные величины заканчивается примером с совсем не случайными величинами…
            0
            Простите, а не могли бы Вы разъяснить Ваше замечание? Вы считаете цены на акции не случайными величинами? Или я не правильно Вас понимаю?
              –3
              «Случайности не случайны» © Мастер Шифу.
              XD
                –1
                Мастер Шифу? Это как масло масленное?
                –1
                Именно так, они совсем не случайные величины. Конечно, на некоторых выборках их поведение будет довольно похоже на «случайную» величину, но с таким же успехом можно температуру воздуха и влажность представлять случайными величинами. Или количество мух в конкретной комнате. Или первый знак после запятой расстояния от Марса до спутника Юпитера в конкретную неделю месяца.

                Всё это величины зависящие от кучи параметров, но никак не случайные.
                  +2
                  Я Вас правильно понимаю, что Вы беретесь «предсказывать» с заданной точностью цену акции? Другой вопрос — а если параметры сами по себе случайные, то можно ли считать зависимые от них величины случайными?

                  Википедия: Случайная величина — это величина, которая принимает в результате опыта одно из множества значений, причём появление того или иного значения этой величины до её измерения нельзя точно предсказать. Цена акции подходит.

                  Не нравится «любительская» Википедия?

                  WolframAllpha: A random variable is a measurable function from a probability space into a measurable space known as the state space (Doob 1996). Цена акции вполне подходит под данное определение.

                  Псевдослучайность тут тоже не сработает, так как цена акции — производная от доступной общественности информации. Если Вы сможете предсказывать информацию — Вам надо не тут сидеть. Со всем уважением…
                    –6
                    Как здорово вы «в результате опыта одно из множества значений» привели к цене акций :) Увы цена акций как показывает практика может принимать значения
                    1) в узком диапазоне от предыдущего значения
                    2) зависит от других неслучайных величин
                    ну и «опыт» как таковой отсутствует. Определение ВольфрамАльфа также «подходит». Например, какое у вас «вероятностное пространство» для цены акций?

                    Естественно если взять произвольную выборку цен из промежутка, скажем за год, то он будет выглядеть вполне себе случайным (хотя можно сделать выборку где вообще не будет особых флуктуаций). Если же взять тренд и подставить рядом с ним, что при этом творилось, например, с информационным фоном, выясниться что цена акции вообще не случайный параметр :)
                      –2
                      Ну и кто вам сказал что надо предсказывать информационный фон? Хотя конечно, не являсь его генератором предсказать его можно только опираясь на другие информационные поводы (не в силу его случайности, а в силу нейзвестной функции генерации, вообще он тоже не случаен). Но выводы делать никто не запрещает. То есть, предсказывать ту самую неслучайную величину — цену акций.
                        +1
                        Вы демагог, как я погляжу :) Делать выводы и предсказывать цену — удачи :) У Вас за дверью уже очередь из управляющих хедж-фондами.
                        0
                        1) Узкий диапазон — это сколько? Понятие jump Вам должно быть знакомо. Так что обычно узкий диапазон нужно расширять. Да даже и без расширения — узкий диапазон сам по себе «множество значений» :)
                        2) Y = 2+X, где Х — случайная величина. По вашему утверждению Y не будет случайной, так как зависит от неслучайной 2.

                        Чем заключение сделки между двумя трейдерами вам не «опыт»?

                        Про отсутствующее вероятностное пространство для акций такое же, как и для любого стохастического процесса.

                        Дальше Вы пишете вообще не относящееся к понятию «случайной величины». Как минимум, вы исходите из анализа «пост-фактум». Тут очень уместно «знал бы прикуп, жил бы в Сочи».
                          0
                          — Чем заключение сделки между двумя трейдерами вам не опыт»?
                          — тем что смена цены акции от этой сделки зависит только от мощности сделки. То есть мы имеем предопределенный процесс с предопределенным результатом.

                          я не говорил что оно (пространство) отсутствует, я спросил какое оно? можете ли его описать? В данном вопросе я обращаюсь к вам за разъяснениями, которые вы поидее имеете, если считаете эту величину случайной.

                          О как интересно, то есть если мы «формулу» постфактум «вычислили», то у нас величина осталась случайной?

                          Повторюсь еще раз. С тем же успехом можно считать случайной значение первого знака после запятой расстояние от Марса до какого-либо спутника Юпитера. Посмотрели на выборку, сказали для себя — а она выглядит случайной — и начали вкладывать в формулу подлёта спутника от марса к юпитеру какуюто случайную величину… Клёвый подход, тото роботы последнее время «славятся» сливами на биржах.
                            0
                            По поводу пространства:
                            Омега — от 0 до бесконечности
                            Сигма-алгебра — булеан Омеги
                            Вероятностная мера — это неизвестное множество, которое куча ученых и пытается максимально правдоподобно описать.

                            Подойдет?

                            Я, к сожалению, так и не смог понять аргументов Вашего отрицания того факта, что цена акции — случайный процесс. Видимо, мне не дано.

                            Про роботов вообще не пойму: если Вы утверждаете, что цена — неслучайный процесс, то граммотный робот, должен приносить миллионы, так как он «используя тренд» легко предскажет неслучайную цену. Приводить их провалы, как аргумент в Вашу пользу — как минимум странно.
                              +1
                              Я кажется понял, что не нравится вашему оппоненту.

                              Цена является случайной величиной только потому, что вы сделали такое предположение. Построили на основе этого предположения вероятностную модель и стали решать статистическую задачу. Все вроде бы как обычно =)

                              Но есть люди, которые из каких-то философских соображений не считают такое предположение состоятельным. Они считают, что все предопределено, просто у предопределенности степеней свободы много и она кажется нам случайной.

                              Спорить тут не о чем. В конце концов я тоже играю в науку, но готов к тому, что кто-то придет и скажет, что все это чушь и иллюзии. Научный метод тоже в каком-то смысле религия =)
                                +1
                                Если Вы правы про детерминизм, то все мои возражения опускаются. Я уже тоже думал, что тут вопрос скорее в философии.

                                Про религиозность научного метода я с Вами согласен :)
                                  +1
                                  Типа что случайное и сложное суть одно и то же. Вопрос философский, конечно. Лежит в рамках постановки задачи. В этом плане мне работы Пригожина очень нравятся.
                                  И вероятность, вроде, величина детерминированная.
                                0
                                То есть цена акции в каждый следующий момент времени есть величина от нуля до бесконечности? И значение это распределено случайно? Для понимания проблемы уточню: вы действительно уверены что в каждый следующий момент времени стоимость акции может внезапно прыгнуть до нуля или прыгнуть сразу, например на 100 порядков вверх?

                                А разве сейчас торговлей и не занимаются грамотные роботы? :)
                                  0
                                  Да. Да. Да, но вероятность этого пренебрежительно мала. Путин завтра объявляет, что все активы Российской Федерации переходят во владение ОАО «Ладогафинансгруп», которая на данный момент имеет только уставной капитал в 10 000 рублей. Что исполнение этого закона будет гарантироваться армией РФ. Отчего бы цене на акцию не прыгнуть на много порядков?

                                  Вам же известно, что стандартное нормальное распределение определено от минус до плюс бесконечности? Вы будете утверждать о невозможности выскакивания гигантских чисел? На практике этого может и нет, но в теории такое возможно. То же и с акциями.

                                  Вы неотвтили на мой прямой вопрос: как неудачи роботы доказывают ваш тезис о неслучайности?
                                    0
                                    Ок, попробуем подругому вывести вас на чистую воду. Вы учитываете в своих расчётах такие, +-бесконечность варианты? :)

                                    неудачи не доказывают, это просто вставка про подходы :)
                                      0
                                      Учитываю.
                                    0
                                    xiWera,
                                    если взять такой пример: в опыте возможно два исхода, A и B. вероятность исхода A равна 0.95; вероятность исхода B равна 0.05. Как вы считаете, исход опыта является случайной величиной?
                                      0
                                      Сути не понимаете? Я же пример привожу про знак после запятой расстояния от Марса до спутника Юпитера не просто так. Вы можете любую последовательность чисел считать случайной величиной если не знаете «функции», но тем не менее эта последовательность не факт что случайная величина.
                                        0
                                        То есть существует функция, описывающая цену акции. Но ни эту функцию, ни есть ли она на самом деле никто не знает. Таким образом можно любой процесс считать детерминированным. И в нашем мире нет неопределенности. Я прав?
                                          0
                                          Как-то очень сложно «знать» функцию от, скажем, 100 параметров. Но подобрать различные способы приближения конечно можно, что собственно многие и делают.

                                          Ну и про неопределенность — до сих пор считается неопределенным квантовый уровень.
                                          0
                                          Чесно, не понимаю сути примера. И действительно первый знак после запятой в вашем примере может быть случайной величиной.

                                          Так вы не ответили, считаете ли случайной величиной исход такого опыта?
                                            0
                                            Вы не понимаете сути моего примера, я «не понимаю» сути вашего вопроса. Квиты?

                                            ну и за сим откланиваюсь, а то надоели уже… в карму. Тут смотрю модно её сливать любому кто с чем-то несогласен. Какаято шайка «техктовплюсе»
                                              0
                                              xiWera,
                                              Ого, даже так? ну ладно. Только я вам ничего не минусовал и не в какой «шайке» не состою
                                            0
                                            Кстати говоря, первый знак после запятой расстояния от Марса до спутника Юпитера будет случайной величиной.

                                            1) Пусть вы это расстояние будете считать между центрами масс, тогда я скажу, что на это расстояние влияет как притяжение Туманности Андромеды, так и атмосферные явления на Юпитере.

                                            2) Как рассчитать расстояние с точностью до дециметра по кратчайшему пути я увы вообще не знаю.

                                            То расстояние, которое вы можете рассчитать — будет с погрешностью, а она относительно вас будет случайной.
                              0
                              Вы предлагаете автору задействовать квантовый генератор истинно случайных чисел?
                        • UFO just landed and posted this here
                            +1
                            Использовал встроенную функцию Matlab'a — ugarch. На вход ей давал сигмы за предыдущие дни, на выходе получал коеффициенты уравнения (a, alpha, beta), на основе которых и делал прогноз на следующий день. Если вас интересует непосредственно математика процесса — используется функция кваз-правдоподобия. mrvar.fdv.uni-lj.si/pub/mz/mz2.1/posedel.pdf — тут есть точное описание, как этот алгоритм реализовать самому.
                            0
                            Arthur Charpentier — Vine copulas ~ 2004 год
                              0
                              … и копула Тона, чтобы описывать асимметричные структуры
                                0
                                Ну он не единственный и не первый, кто написал на эту тему. Почему Вы выделили именно этого автора?

                              Only users with full accounts can post comments. Log in, please.