
Статистические исследования и эксперименты являются краеугольным камнем развития любой компании. Особенно это касается интернет-проектов, где учёт количества пользователей в день, времени нахождения на сайте, нажатий на целевые кнопки, покупок товаров является обычным и необходимым явлением. Любые изменения в пользовательском опыте на сайте компании (внешний вид, структура, контент) приводят к изменениям в работе пользователя и, как результат, изменения наблюдаются в собираемых данных. Важным элементом анализа изменений данных и его фундаментом является использование основных типов распределений случайных величин, от понимания которых напрямую зависит качество оценки значимости наблюдаемого изменения.
В данной статье я сделаю упор не на функции и формулы, которые обычно сопутствуют распределениям (функции вероятности, распределения, PMF, PDF, CDF) - их можно легко найти самостоятельно. Скорее я попытаюсь показать как генерируются те или иные распределения на конкретных примерах. Это, на мой взгляд, нагляднее и важнее для понимания сути этих распределений и того, как они в итоге применяются на практике для решения конкретных задач анализа. Хотел бы обратить внимание на статью "Как сравнивать распределения. От визуализации до статистических тестов", т. к. это пример основной работы с распределениями - их сравнение на предмет статистической значимости произошедших изменений с помощью статистических тестов. Также, в качестве углубленного материала, рекомендую интересный метод работы с отдельной выборкой без использования статистических тестов, который описан в статье "Бутстрап в A/B-тестах: швейцарский нож аналитика"
Примечание: в данной публикации намеренно минимизируется использование уже готовых функций генерации случайных величин из определённых распределений (например, scipy.stats.norm.rvs())
Список распределений вероятностей
1. Биномиальное распределение
Схема формирования выборок и получения искомых величин: заполняем 1000 массивов размером единицами с вероятностью
, остальные позиции заполняем нулями. Количества единиц (успехов) в каждом массиве являются искомыми случайными величинами, формирующими Биноминальное распределение.

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 Y_RANGE = 20 P_1 = 0.1 # вероятность успеха для первого распределения P_2 = 0.5 # вероятность успеха для второго распределения P_3 = 0.8 # вероятность успеха для третьего распределения ... for i in range(X_RANGE): sample1 = [1 if r < P_1 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample2 = [1 if r < P_2 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample3 = [1 if r < P_3 else 0 for r in [random.random() for i in range(Y_RANGE)]] distr1.loc[i] = sample1.count(1) distr2.loc[i] = sample2.count(1) distr3.loc[i] = sample3.count(1) ...
Результат работы:

2. Распределение Пуассона
Схема формирования выборок и получения искомых величин: заполняем 1000 массивов размером единицами с вероятностью
, остальные позиции заполняем нулями.
берём достаточно большим, а среднее количество единиц (успехов)
. Количества единиц (успехов) в каждом массиве являются искомыми случайными величинами, формирующими распределение Пуассона.

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 # 1000 выборок Y_RANGE = 1000 # размер одной выборки достаточно большой P1 = 0.001 # вероятность успеха для первого распределения (среднее успехов для 1000 экспериментов λ = 1) P2 = 0.01 # вероятность успеха для второго распределения (среднее успехов для 1000 экспериментов λ = 10) P3 = 0.03 # вероятность успеха для третьего распределения (среднее успехов для 1000 экспериментов λ = 30) ... for i in range(X_RANGE): # https://numpy.org/doc/stable/reference/random/generated/numpy.random.poisson.html # The Poisson distribution is the limit of the binomial distribution for large N. sample_1 = [1 if r < P1 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_2 = [1 if r < P2 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_3 = [1 if r < P3 else 0 for r in [random.random() for i in range(Y_RANGE)]] distr_1.loc[i] = sample_1.count(1) distr_2.loc[i] = sample_2.count(1) distr_3.loc[i] = sample_3.count(1) ...
Результат работы:

3. Экспоненциальное распределение
Схема формирования выборок и получения искомых величин: заполняем 1000 массивов размером единицами с вероятностью
(в данном случае
), остальные позиции заполняем нулями. Количества нулей между единицами (��спехами) в каждом массиве являются искомыми случайными величинами, формирующими Экспоненциальное распределение. Нули в данном случае играют роль "интервала времени" между "событиями" ("успехами", единицами).

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 # 1000 выборок Y_RANGE = 20 # берём выборку размером 20 LAMBDA_1 = 1 # в среднем 1 успех за условный интервал веремени (выборку) LAMBDA_2 = 2 # в среднем 2 успеха за условный интервал веремени (выборку) LAMBDA_3 = 3 # в среднем 3 успеха за условный интервал веремени (выборку) P1 = LAMBDA_1 / Y_RANGE # вероятность успеха для LAMBDA_1 P2 = LAMBDA_2 / Y_RANGE # вероятность успеха для LAMBDA_2 P3 = LAMBDA_3 / Y_RANGE # вероятность успеха для LAMBDA_3 THETA_1 = (Y_RANGE - LAMBDA_1)/LAMBDA_1 # средний интервал времени между успехами # (например, 1 успех из 1000 замеров даёт средний интервал 999) THETA_2 = (Y_RANGE - LAMBDA_2)/LAMBDA_2 # средний интервал времени между успехами # (например, 2 успеха из 1000 замеров даёт средний интервал 499) THETA_3 = (Y_RANGE - LAMBDA_3)/LAMBDA_3 # средний интервал времени между успехами # (например, 3 успеха из 1000 замеров даёт средний интервал ~332) ... # Пример: 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 # Число успехов: 4 # Время между успехами: [3, 8, 4] def calc_times(sample: list, df: pd.DataFrame, remainder: int): time = remainder for event in sample: if event == 1: df.loc[len(df), 'time'] = time time = 0 elif event == 0: time += 1 return df, time remainder1 = 0 remainder2 = 0 remainder3 = 0 for i in range(X_RANGE): # https://numpy.org/doc/stable/reference/random/generated/numpy.random.poisson.html # The Poisson distribution is the limit of the binomial distribution for large N. sample_1 = [1 if r < P1 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_2 = [1 if r < P2 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_3 = [1 if r < P3 else 0 for r in [random.random() for i in range(Y_RANGE)]] distr_1, remainder1 = calc_times(sample_1, distr_1, remainder1) distr_2, remainder2 = calc_times(sample_2, distr_2, remainder2) distr_3, remainder3 = calc_times(sample_3, distr_3, remainder3) ...
Результат работы:

4. Распределение Вейбулла
Схема формирования выборок и получения искомых величин: заполняем 1000 массивов размером единицами с вероятностью
(в данном случае
), остальные позиции заполняем нулями. Количества нулей между единицами (успехами) в каждом массиве, возведённые в степень
, являются искомыми случайными величинами, формирующими распределение Вейбулла. Нули в данном случае играют роль "интервала времени" между "событиями" ("успехами", единицами), а меняющаяся интенсивность "событий" отражается степенью
.

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 # 1000 выборок Y_RANGE = 1000 # берём выборку размером 1000 LAMBDA_1 = 1 # в среднем 1 успех за условный интервал веремени (выборку) LAMBDA_2 = 2 # в среднем 2 успеха за условный интервал веремени (выборку) LAMBDA_3 = 3 # в среднем 3 успеха за условный интервал веремени (выборку) P1 = LAMBDA_1 / Y_RANGE # вероятность успеха для LAMBDA_1 P2 = LAMBDA_2 / Y_RANGE # вероятность успеха для LAMBDA_2 P3 = LAMBDA_3 / Y_RANGE # вероятность успеха для LAMBDA_3 THETA_1 = (Y_RANGE - LAMBDA_1)/LAMBDA_1 # средний интервал времени между успехами # (например, 1 успех из 1000 замеров даёт средний интервал 999) THETA_2 = (Y_RANGE - LAMBDA_2)/LAMBDA_2 # средний интервал времени между успехами # (например, 2 успеха из 1000 замеров даёт средний интервал 499) THETA_3 = (Y_RANGE - LAMBDA_3)/LAMBDA_3 # средний интервал времени между успехами # (например, 3 успеха из 1000 замеров даёт средний интервал ~332) BETA_1 = 3.0 BETA_2 = 1.5 BETA_3 = 0.9 K_1 = 1/BETA_1 # степень, в которую будет возведено каждое полученное значение времени K_2 = 1/BETA_2 # степень, в которую будет возведено каждое полученное значение времени K_3 = 1/BETA_3 # степень, в которую будет возведено каждое полученное значение времени ... # Пример: 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 # Число успехов: 4 # Время между успехами: [3, 8, 4] def calc_times(sample: list, df: pd.DataFrame, remainder: int): time = remainder for event in sample: if event == 1: df.loc[len(df), 'time'] = time time = 0 elif event == 0: time += 1 return df, time remainder1 = 0 remainder2 = 0 remainder3 = 0 for i in range(X_RANGE): # https://numpy.org/doc/stable/reference/random/generated/numpy.random.poisson.html # The Poisson distribution is the limit of the binomial distribution for large N. sample_1 = [1 if r < P1 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_2 = [1 if r < P2 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_3 = [1 if r < P3 else 0 for r in [random.random() for i in range(Y_RANGE)]] distr_1, remainder1 = calc_times(sample_1, distr_1, remainder1) distr_2, remainder2 = calc_times(sample_2, distr_2, remainder2) distr_3, remainder3 = calc_times(sample_3, distr_3, remainder3) # https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.weibull_min.html # Suppose X is an exponentially distributed random variable with scale s. # Then Y = X**k is weibull_min distributed with shape c = 1/k and scale s**k. distr_1_pow_k = np.power(distr_1.values, K_1) distr_2_pow_k = np.power(distr_2.values, K_2) distr_3_pow_k = np.power(distr_3.values, K_3) ...
Результат работы:

5. Гамма-распределение
Схема формирования выборок и получения искомых величин: заполняем 1000 массивов размером единицами с вероятностью
(в данном случае
), остальные позиции заполняем нулями. Количества нулей между
единицами (успехами) в каждом массиве, являются искомыми случайными величинами, формирующими Гамма-распределение. Нули в данном случае играют роль "интервала времени" между "событиями" ("успехами", единицами).

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 # 1000 выборок Y_RANGE = 20 # берём выборку размером 20 LAMBDA_1 = 1 # в среднем 1 успех за условный интервал веремени (выборку) LAMBDA_2 = 2 # в среднем 2 успеха за условный интервал веремени (выборку) LAMBDA_3 = 3 # в среднем 3 успеха за условный интервал веремени (выборку) P1 = LAMBDA_1 / Y_RANGE # вероятность успеха для LAMBDA_1 P2 = LAMBDA_2 / Y_RANGE # вероятность успеха для LAMBDA_2 P3 = LAMBDA_3 / Y_RANGE # вероятность успеха для LAMBDA_3 THETA_1 = (Y_RANGE - LAMBDA_1)/LAMBDA_1 # средний интервал времени между успехами # (например, 1 успех из 1000 замеров даёт средний интервал 999) THETA_2 = (Y_RANGE - LAMBDA_2)/LAMBDA_2 # средний интервал времени между успехами # (например, 2 успеха из 1000 замеров даёт средний интервал 499) THETA_3 = (Y_RANGE - LAMBDA_3)/LAMBDA_3 # средний интервал времени между успехами # (например, 3 успеха из 1000 замеров даёт средний интервал ~332) K_1 = 3 # количество "успехов" для которого считается интервал времени K_2 = 2 # количество "успехов" для которого считается интервал времени K_3 = 1 # количество "успехов" для которого считается интервал времени ... # Пример: 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 # Число успехов: 4 # Время между успехами: [3, 8, 4] def calc_times(sample: list, df: pd.DataFrame, remainder: int): time = remainder for event in sample: if event == 1: df.loc[len(df), 'time'] = time time = 0 elif event == 0: time += 1 return df, time remainder1 = 0 remainder2 = 0 remainder3 = 0 for i in range(X_RANGE): # https://numpy.org/doc/stable/reference/random/generated/numpy.random.poisson.html # The Poisson distribution is the limit of the binomial distribution for large N. sample_1 = [1 if r < P1 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_2 = [1 if r < P2 else 0 for r in [random.random() for i in range(Y_RANGE)]] sample_3 = [1 if r < P3 else 0 for r in [random.random() for i in range(Y_RANGE)]] distr_1, remainder1 = calc_times(sample_1, distr_1, remainder1) distr_2, remainder2 = calc_times(sample_2, distr_2, remainder2) distr_3, remainder3 = calc_times(sample_3, distr_3, remainder3) distr_1_k = [np.sum(distr_1.values[K_1*i: K_1*i+K_1]) for i in range(int(len(distr_1)/K_1))] distr_2_k = [np.sum(distr_2.values[K_2*i: K_2*i+K_2]) for i in range(int(len(distr_2)/K_2))] distr_3_k = [np.sum(distr_3.values[K_3*i: K_3*i+K_3]) for i in range(int(len(distr_3)/K_3))] ...
Результат работы:

6. Бета-распределение
Схема формирования выборок и получения искомых величин: Воспользуемся уже готовыми функциями для генерации случайных величин из Гамма-распределения stats.gamma.rvs(a, size). Получим 1000 значений и 1000 значений
. Тогда искомые значения из Бета-распределения будут вычеслены по формуле:

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 K_1 = 1 # 1-я пара K_2 = 9 # 1-я пара K_3 = 2 # 2-я пара K_4 = 4 # 2-я пара K_5 = 0.5 # 3-я пара K_6 = 0.5 # 3-я пара ... # Генерируем массивы случайных величин из Гамма-распределений # 0: [0 .. 999] # 1: [0 .. 999] # .. # 7: [0 .. 999] gamma = [] gamma.append(stats.gamma.rvs(a=K_1, size=X_RANGE)) gamma.append(stats.gamma.rvs(a=K_2, size=X_RANGE)) gamma.append(stats.gamma.rvs(a=K_3, size=X_RANGE)) gamma.append(stats.gamma.rvs(a=K_4, size=X_RANGE)) gamma.append(stats.gamma.rvs(a=K_5, size=X_RANGE)) gamma.append(stats.gamma.rvs(a=K_6, size=X_RANGE)) # Транспонируем матрицу случайных величин - строка будет выдавать случайные величины для каждой итерации цикла for # 0: [0 .. 7] # 1: [0 .. 7] # .. # 999: [0 .. 7] gamma = np.array(gamma).transpose().tolist() for i in range(X_RANGE): ########### x00 = [gamma[i][0], gamma[i][1]] beta_0 = (x00[0]) / (x00[0] + x00[1]) ... ########### x01 = [gamma[i][2], gamma[i][3]] beta_1 = (x01[0]) / (x01[0] + x01[1]) ... ########### x02 = [gamma[i][4], gamma[i][5]] beta_2 = (x02[0]) / (x02[0] + x02[1]) ... ########### betas_0.append(beta_0) betas_1.append(beta_1) betas_2.append(beta_2) ...
Результат работы:

7. Гипергеометрическое распределение
Схема формирования выборок и получения искомых величин: рассмотрим на примере колоды карт. Допустим есть колода из карт. Нас интересует количество вытянутых червей и пик, если вытягивать из колоды по
карт. Общее количество интересующих нас карт в колоде
(13 карт червовой масти и 13 карт пиковой). Количества вытянутых червей и пик при данных условиях - это искомые значения из Гипергеометрического распределения
.

Картинки с картами взяты у Kenney (CC0)
Основная часть программы для получения выборок и искомых величин (полный код программы):
cards = pd.DataFrame([ ['C', '2'], ['D', '2'], ['H', '2'], ['S', '2'], ['C', '3'], ['D', '3'], ['H', '3'], ['S', '3'], ['C', '4'], ['D', '4'], ['H', '4'], ['S', '4'], ['C', '5'], ['D', '5'], ['H', '5'], ['S', '5'], ['C', '6'], ['D', '6'], ['H', '6'], ['S', '6'], ['C', '7'], ['D', '7'], ['H', '7'], ['S', '7'], ['C', '8'], ['D', '8'], ['H', '8'], ['S', '8'], ['C', '9'], ['D', '9'], ['H', '9'], ['S', '9'], ['C', '10'], ['D', '10'], ['H', '10'], ['S', '10'], ['C', 'J'], ['D', 'J'], ['H', 'J'], ['S', 'J'], ['C', 'Q'], ['D', 'Q'], ['H', 'Q'], ['S', 'Q'], ['C', 'K'], ['D', 'K'], ['H', 'K'], ['S', 'K'], ['C', 'A'], ['D', 'A'], ['H', 'A'], ['S', 'A'], ], columns=['Suit', 'Rank']) CARDS_1 = 5 # Выбираем 5 карт из колоды CARDS_2 = 15 # Выбираем 15 карт из колоды CARDS_3 = 25 # Выбираем 25 карт из колоды N = len(cards) # Размер совокупности S_COUNT = cards['Suit'].values.tolist().count('S') # Число пик в колоде H_COUNT = cards['Suit'].values.tolist().count('H') # Число червей в колоде X_RANGE = 1000 # Число выборок ... for i in range(X_RANGE): sample_1 = cards.sample(CARDS_1) sample_2 = cards.sample(CARDS_2) sample_3 = cards.sample(CARDS_3) distr_1.loc[i] = sample_1['Suit'].values.tolist().count('S') distr_1.loc[i] += sample_1['Suit'].values.tolist().count('H') distr_2.loc[i] = sample_2['Suit'].values.tolist().count('S') distr_2.loc[i] += sample_2['Suit'].values.tolist().count('H') distr_3.loc[i] = sample_3['Suit'].values.tolist().count('S') distr_3.loc[i] += sample_3['Suit'].values.tolist().count('H') ...
Результат работы:

8. Нормальное распределение
Схема формирования выборок и получения искомых величин: согласно Центральной Предельной Теореме "Если величина является суммой многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то центрированное и нормированное распределение такой величины при достаточно большом числе слагаемых стремится к нормальному распределению." [ссылка]. Если для популяции raw_data со средним и стандартным отклонением
1000 раз взять выборку размера
и расчитать среднее значение
каждой выборки, полученные значения сформируют Нормальное распределение.

Основная часть программы для получения выборок и искомых величин (полный код программы):
mean = raw_data.mean() # μ - среднее всей совокупности std = raw_data.std() # σ - стандартное отклонение всей совокупности se_05 = std / math.sqrt(5) # Стандартная ошибка (SE05) для выборки размером 5 se_20 = std / math.sqrt(20) # Стандартная ошибка (SE20) для выборки размером 20 ... for i in range(1000): sample_05 = raw_data.sample(5) sample_20 = raw_data.sample(20) ... sample_mean_05.loc[i] = [sample_05.mean()] # x̄ - среднее выборки размером 5 sample_mean_20.loc[i] = [sample_20.mean()] # x̄ - среднее выборки размером 20 ... z_sample_mean_05 = (sample_mean_05['mean_05'] - mean) / se_05 - 1 # -1, чтобы разделить графики распределений z_sample_mean_20 = (sample_mean_20['mean_20'] - mean) / se_20 + 1 # +1, чтобы разделить графики распределений ...
Результат работы:

9. Распределение Стьюдента (t-распределение)
Схема формирования выборок и получения искомых величин: в отличии от Нормального распределения для Распределения Стьюдента неизвестно стандартное отклонение популяции , поэтому расчёт стандартной ошибки среднего (SE или SEM) проводится с помощью стандартного отклонения
самой выборки. В остальном действия те же, что и для Нормального распределения: если для популяции
raw_data со средним 1000 раз взять выборку размера
и расчитать среднее значение
каждой выборки, полученные значения сформируют t-распределение со сдвигом
, масштабом равным оценке стандартной ошибки среднего (SEE), рассчитанной с помощью
, и степенью свободы
.

Основная часть программы для получения выборок и искомых величин (полный код программы):
mean = raw_data.mean() # μ - среднее всей совокупности ... SAMPLE_SIZE_1 = 3 # размер первой выборки SAMPLE_SIZE_2 = 50 # размер второй выборки ... for i in range(1000): sample_1 = raw_data.sample(SAMPLE_SIZE_1) sample_2 = raw_data.sample(SAMPLE_SIZE_2) # https://en.wikipedia.org/wiki/Standard_error#Estimate see_1 = sample_1.std() / math.sqrt(SAMPLE_SIZE_1) # используем стандартное отклоненение выборки (s) взамен стандартного отклонения совокупности (σ) see_2 = sample_2.std() / math.sqrt(SAMPLE_SIZE_2) # используем стандартное отклоненение выборки (s) взамен стандартного отклонения совокупности (σ) ... sample_mean_1.loc[i] = [sample_1.mean()] sample_mean_2.loc[i] = [sample_2.mean()] ... sample_see_1.loc[i] = [see_1] # оценка стандартной ошибки для выборки n=3 sample_see_2.loc[i] = [see_2] # оценка стандартной ошибки для выборки n=50 ... # https://en.wikipedia.org/wiki/Student%27s_t-test#One-sample_t-test t_sample_mean_1.loc[i] = ((sample_1.mean() - mean) / see_1) - 1 # -1, чтобы разделить графики распределений t_sample_mean_2.loc[i] = ((sample_2.mean() - mean) / see_2) + 1 # +1, чтобы разделить графики распределений
Результат работы:

10. Распределение Хи-квадрат
Схема формирования выборок и получения искомых величин: Воспользуемся уже готовыми функциями для генерации случайных величин из Стандартного Нормального распределения stats.norm.rvs(size). Получим 1000 значений для каждого , где
, где
- это число степеней свободы. Тогда искомые значения из Хи-квадрат распределения будут вычеслены по формуле:

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 DF_1 = 2 DF_2 = 3 DF_3 = 8 ... # Генерируем массивы нормально распределённых случайных величин # 0: [0 .. 999] # 1: [0 .. 999] # .. # 7: [0 .. 999] normal = [stats.norm.rvs(size=X_RANGE) for i in range(max(DF_1, DF_2, DF_3))] # Транспонируем матрицу случайных величин - строка будет выдавать случайные величины для каждой итерации цикла for # 0: [0 .. 7] # 1: [0 .. 7] # .. # 999: [0 .. 7] normal = np.array(normal).transpose().tolist() for i in range(X_RANGE): ########### Число степеней свободы 1 x00 = normal[i][0: DF_1] # Массив случайных величин [Z1, Z2] chi_squared_0 = np.sum(np.square(x00)) # Берём квадрат случайных величин и суммируем ... ########### Число степеней свободы 2 x01 = normal[i][0: DF_2] # Массив случайных величин [Z1, Z2, Z3] chi_squared_1 = np.sum(np.square(x01)) # Берём квадрат случайных величин и суммируем ... ########### Число степеней свободы 3 x02 = normal[i][0: DF_3] # Массив случайных величин [Z1, Z2, Z3, Z4, Z5, Z6, Z7, Z8] chi_squared_2 = np.sum(np.square(x02)) # Берём квадрат случайных величин и суммируем ... ########### chis_0.append(chi_squared_0) chis_1.append(chi_squared_1) chis_2.append(chi_squared_2) ...
Результат работы:

11. Распределение Фишера
Схема формирования выборок и получения искомых величин: Воспользуемся уже готовыми функциями для генерации случайных величин из Хи-квадрат распределения stats.chi2.rvs(df, size). Получим 1000 значений для и для
. Тогда искомые значения из распределения Фишера будут вычеслены по формуле:

Основная часть программы для получения выборок и искомых величин (полный код программы):
X_RANGE = 1000 DF_1 = 1 # 1-я пара DF_2 = 9 # 1-я пара DF_3 = 2 # 2-я пара DF_4 = 4 # 2-я пара DF_5 = 3 # 3-я пара DF_6 = 5 # 3-я пара ... # Генерируем массивы случайных величин из Хи-квадрат распределений # 0: [0 .. 999] # 1: [0 .. 999] # .. # 7: [0 .. 999] chi2 = [] chi2.append(stats.chi2.rvs(df=DF_1, size=X_RANGE)) chi2.append(stats.chi2.rvs(df=DF_2, size=X_RANGE)) chi2.append(stats.chi2.rvs(df=DF_3, size=X_RANGE)) chi2.append(stats.chi2.rvs(df=DF_4, size=X_RANGE)) chi2.append(stats.chi2.rvs(df=DF_5, size=X_RANGE)) chi2.append(stats.chi2.rvs(df=DF_6, size=X_RANGE)) # Транспонируем матрицу случайных величин - строка будет выдавать случайные величины для каждой итерации цикла for # 0: [0 .. 7] # 1: [0 .. 7] # .. # 999: [0 .. 7] chi2 = np.array(chi2).transpose().tolist() for i in range(X_RANGE): ########### x00 = [chi2[i][0], chi2[i][1]] f_0 = (x00[0] / DF_1) / (x00[1] / DF_2) ... ########### x01 = [chi2[i][2], chi2[i][3]] f_1 = (x01[0] / DF_3) / (x01[1] / DF_4) ... ########### x02 = [chi2[i][4], chi2[i][5]] f_2 = (x02[0] / DF_5) / (x02[1] / DF_6) ... ########### fs_0.append(f_0) fs_1.append(f_1) fs_2.append(f_2) ...
Результат работы:

Заключение
Распределения вероятностей являются результатом большого количества наблюдений и экспериментов статистиков прошлых столетий. Это важно отметить, т. к. расчёты того времени предполагали отсутствие всякого рода вычислите��ьной техники, поэтому главная роль распределений стала аппроксимация любого рода случайных величин. Для самых разных задач и данных существует множество статистических тестов и критериев, в основе которых лежат основные распределения. Примерами наиболее известных из них являются:
Z-тест, основанный на нормальном распределении
t-критерий Стьюдента, основанный на распределении Стьюдента
Критерий хи-квадрат, связанный с распределением Хи-квадрат
F-тест, основанный на распределении Фишера (F-распределении)
Основной областью применения этих тестов является проверка статистических гипотез, потому что они позволяют стандартизировать и проводить количественную оценку полученных сырых данных, а также проводить сравнения нескольких наборов данных для различных условий и вариантов использования (гипотез).