1) Опечатка. Исправил
2) Нет, цикл бесконечный, пока случайная величина отклоняется. Я такие опасности не люблю, потому поставил такой лимит. На практике надо напрягаться, когда уже отклонили с десяток.
Вообще говоря, условие нормальности распределения случайной величины для линейного коэффициента корреляции — вовсе не догма, поэтому Вы зря так просто его откинули. Кроме того, как я замечал в одной из статей jatx, весьма смело выдвигать гипотезу об однородности распределения цены на длительном промежутке времени, и неудивительно, что тест Шапиро-Уилка провалился. Вот если бы Вы анализировали коэффициенты корреляции на небольших временных интервалах, тем самым получая зависимость этих коэффициентов от времени, это, на мой взгляд, была бы куда более занимательная оценка.
А полученная матрица действительно дает основания для подозрений, что закрался баг.
Насчет третьего, Вы, надеюсь, шутите. Это так Вы считаете вероятность?
Я подскажу. Для подсчета вероятности выхода за нижнюю границу мю-1.5 сигмы нужно брать определенный интеграл от функции плотности нормального распределения с пределами -бесконечность и мю-1.5 сигмы. И в Вашем случае она составит около 6.68%.
Вычисления несложные, Вы правы, но необоснованные. Почему Вы решили, что распределение будет нормальным? Почему вы выбрали 1.5 сигмы? Цитирую: «Вероятность того, что продажи товара в истории продаж, при нормальном ходе событий, будут меньше чем средние продажи этого товара минус среднеквадратичные продажи товара умноженные на 1,5, равнa 91%». Во-первых, что такое среднеквадратичные продажи? Так не говорят. Во-вторых, вы, наверное, имели ввиду не 91%, а 9%, а то у Вас почти все продажи были бы «аномально низкими». И в-третьих даже с 9% Вы не правы — это вероятность того, что продажи будут либо аномально низкими, либо аномально высокими. Вероятно, Вы хотели написать 4.5%.
Раз уж залезли в область мат. статистики и решили писать об этом статью, желательно все-таки в этой теории разбираться.
Это может означать и простое совпадение. Я потому и спросил, что хотел узнать у автора какой-нибудь практический результат. На мой взгляд вообще неверно рассматривать данные по ценам аж за 30 лет как случайную величину, а не случайный процесс.
Интересная метрика для кластерного анализа — коэффициент корреляции. А не пробовали программу для больших значений отрицательных коэффициентов? Или например иные коэффициенты кроме линейного?
p.s. для 65% я вижу взаимосвязь бревен и курицы (а не кукурузы). Интересно было бы узнать, откуда она.
… и непонятно. Вероятность рассматривается при условии, что в предыдущих стульях бриллианты еще не найдены? Тогда ответ 0.9.
И, может, поясните, откуда у Вас появилось p в знаменателе в предпоследней формуле?
Либо я не понял условия Вашей задачи, либо тут сплошная околесица.
Если ищется вероятность того, что бриллианты найдутся в последнем стуле, при условии, что все до него уже были проверены, то она равна p = (1 — вероятность того, что бриллиантов и не было), то есть 0.9, не иначе.
И Вашу предпоследнюю формулу тоже, хоть убейте, не понимаю.
Не сказал бы, что по приведенным шести значениям можно получить оценку.
Насчет pair-wise — это Вы правы, как правило, на этом все и заканчивается, и 9/10 из найденных мною статей только об этом. Мне же больше был интересен сам алгоритм поиска покрытия различной глубины, нежели его применение в тестировании.
Спасибо за полезную ссылку, правда, там идет речь только о построении покрытия глубины 2, и не указываются примерные оценки зависимости количества тестов от начальных данных.
Не совсем понятен пример с простым случаем задачи минимизации тестов при заданной степени покрытия. Может, я заблуждаюсь, но мне кажется, что, если вторую строчку «1b 2a 3a» убрать, то все равно останется покрытие степени 2.
2) Нет, цикл бесконечный, пока случайная величина отклоняется. Я такие опасности не люблю, потому поставил такой лимит. На практике надо напрягаться, когда уже отклонили с десяток.
А полученная матрица действительно дает основания для подозрений, что закрался баг.
Я подскажу. Для подсчета вероятности выхода за нижнюю границу мю-1.5 сигмы нужно брать определенный интеграл от функции плотности нормального распределения с пределами -бесконечность и мю-1.5 сигмы. И в Вашем случае она составит около 6.68%.
Раз уж залезли в область мат. статистики и решили писать об этом статью, желательно все-таки в этой теории разбираться.
p.s. для 65% я вижу взаимосвязь бревен и курицы (а не кукурузы). Интересно было бы узнать, откуда она.
И, может, поясните, откуда у Вас появилось p в знаменателе в предпоследней формуле?
Если ищется вероятность того, что бриллианты найдутся в последнем стуле, при условии, что все до него уже были проверены, то она равна p = (1 — вероятность того, что бриллиантов и не было), то есть 0.9, не иначе.
И Вашу предпоследнюю формулу тоже, хоть убейте, не понимаю.
Насчет pair-wise — это Вы правы, как правило, на этом все и заканчивается, и 9/10 из найденных мною статей только об этом. Мне же больше был интересен сам алгоритм поиска покрытия различной глубины, нежели его применение в тестировании.