Comments 5
https://en.wikipedia.org/wiki/Durbin–Watson_statistic Критерий Дарбина — Уотсона не измеряет гомоскедастичность, он проверяет наличие автокорреляции с лагом 1. И, кмк, не имеет смысла вне временных рядов или панельных данных (когда у нас множественные измерения одного и того же значения в разные моменты времени).
Обычно гетероскедастичность видно глазом, если нарисовать попарные графики регрессионных остатков со всеми признаками (можно взять самые важные признаки).
Гетероскедастичность чаще всего проверяют тестом Голдфелда — Куандта
https://en.wikipedia.org/wiki/Goldfeld–Quandt_test
Очень хорошая статья. В основном кратко и по делу. Только один вопрос - это все-таки перевод или ваша оригинальная работа?
Кстати, не разбирались с таким вопросом: почему при выдаче результатов summary из statsmodels значение эксцесса остатков отличается от значения, рассчитанного с помощью scipy.stats.kurtosis?
А каким образом рассчитываете?
В оригинальной статье приведён пример рассчёта
d = Y - result.fittedvalues
S = np.mean( d**3.0 ) / np.mean( d**2.0 )**(3.0/2.0)
# equivalent to:
# S = stats.skew(result.resid, bias=True)
K = np.mean( d**4.0 ) / np.mean( d**2.0 )**(4.0/2.0)
# equivalent to:
# K = stats.kurtosis(result.resid, fisher=False, bias=True)
print('Skewness: {:.3f}, Kurtosis: {:.3f}'.format( S, K ))
>>> Skewness: -0.014, Kurtosis: 1.527
В этой функции fisher=True по умолчанию.
Интерпретация summary из statsmodels для линейной регрессии