Pull to refresh

Comments 5

https://en.wikipedia.org/wiki/Durbin–Watson_statistic Критерий Дарбина — Уотсона не измеряет гомоскедастичность, он проверяет наличие автокорреляции с лагом 1. И, кмк, не имеет смысла вне временных рядов или панельных данных (когда у нас множественные измерения одного и того же значения в разные моменты времени).

Обычно гетероскедастичность видно глазом, если нарисовать попарные графики регрессионных остатков со всеми признаками (можно взять самые важные признаки).

Гетероскедастичность чаще всего проверяют тестом Голдфелда — Куандта
https://en.wikipedia.org/wiki/Goldfeld–Quandt_test

Очень хорошая статья. В основном кратко и по делу. Только один вопрос - это все-таки перевод или ваша оригинальная работа?

Перевод с дополнениями. То, чего мне не хватало в оригинальной статье для понимания линейной регрессии -- я добавил здесь и оставил ссылки на источники, которые помогли мне разобраться

Кстати, не разбирались с таким вопросом: почему при выдаче результатов summary из statsmodels значение эксцесса остатков отличается от значения, рассчитанного с помощью scipy.stats.kurtosis?

А каким образом рассчитываете?
В оригинальной статье приведён пример рассчёта

d = Y - result.fittedvalues

S = np.mean( d**3.0 ) / np.mean( d**2.0 )**(3.0/2.0)
# equivalent to:
# S = stats.skew(result.resid, bias=True)

K = np.mean( d**4.0 ) / np.mean( d**2.0 )**(4.0/2.0)
# equivalent to:
# K = stats.kurtosis(result.resid, fisher=False, bias=True)
print('Skewness: {:.3f},  Kurtosis: {:.3f}'.format( S, K ))

>>> Skewness: -0.014,  Kurtosis: 1.527

В этой функции fisher=True по умолчанию.

Sign up to leave a comment.

Articles