Распределение KStwo#

Это распределение максимальных абсолютных разностей между эмпирической функцией распределения, вычисленной из \(n\) выборки или наблюдения, и сравнительная (или целевая) функция распределения, которая предполагается непрерывной. («Двусторонняя» в названии, потому что это двусторонняя разность. ksone это распределение положительных разностей, \(D_n^+\), следовательно, это касается односторонних разностей. kstwobign является предельным распределением нормированный максимальные абсолютные разности \(\sqrt{n} D_n\).)

Запись \(D_n = \sup_t \left|F_{empirical,n}(t)-F_{target}(t)\right|\), kstwo является распределением \(D_n\) значения.

kstwo также может использоваться с разностями между двумя эмпирическими функциями распределения, для наборов наблюдений с \(m\) и \(n\) соответственно. Запись \(D_{m,n} = \sup_t \left|F_{1,m}(t)-F_{2,n}(t)\right|\), где \(F_{1,m}\) и \(F_{2,n}\) являются двумя эмпирическими функциями распределения, тогда \(Pr(D_{m,n} \le x) \approx Pr(D_N \le x)\) при соответствующих условиях, где \(N = \sqrt{\left(\frac{mn}{m+n}\right)}\).

Есть один параметр формы \(n\), положительное целое число, и носитель — \(x\in\left[0,1\right]\).

Реализация следует Simard & L'Ecuyer, которая комбинирует точные алгоритмы Durbin и Pomeranz с асимптотическими оценками Li-Chien, Pelz и Good для вычисления CDF с 5-15 точными цифрами.

Примеры#

>>> import numpy as np
>>> from scipy.stats import kstwo

Показать вероятность разрыва не менее 0, 0.5 и 1.0 для выборки размера 5

>>> kstwo.sf([0, 0.5, 1.0], 5)
array([1.   , 0.112, 0.   ])

Сравните выборку размера 5, взятую из исходного распределения N(0.5, 1), с целевой CDF N(0, 1).

>>> from scipy.stats import norm
>>> n = 5
>>> gendist = norm(0.5, 1)       # Normal distribution, mean 0.5, stddev 1
>>> x = np.sort(gendist.rvs(size=n, random_state=np.random.default_rng()))
>>> x
array([-1.59113056, -0.66335147,  0.54791569,  0.78009321,  1.27641365])  # may vary
>>> target = norm(0, 1)
>>> cdfs = target.cdf(x)
>>> cdfs
array([0.0557901 , 0.25355274, 0.7081251 , 0.78233199, 0.89909533])   # may vary
>>> # Construct the Empirical CDF and the K-S statistics (Dn+, Dn-, Dn)
>>> ecdfs = np.arange(n+1, dtype=float)/n
>>> cols = np.column_stack([x, ecdfs[1:], cdfs, cdfs - ecdfs[:n], ecdfs[1:] - cdfs])
>>> np.set_printoptions(precision=3)
>>> cols
array([[-1.591,  0.2  ,  0.056,  0.056,  0.144],     # may vary
       [-0.663,  0.4  ,  0.254,  0.054,  0.146],
       [ 0.548,  0.6  ,  0.708,  0.308, -0.108],
       [ 0.78 ,  0.8  ,  0.782,  0.182,  0.018],
       [ 1.276,  1.   ,  0.899,  0.099,  0.101]])
>>> gaps = cols[:, -2:]
>>> Dnpm = np.max(gaps, axis=0)
>>> Dn = np.max(Dnpm)
>>> iminus, iplus = np.argmax(gaps, axis=0)
>>> print('Dn- = %f (at x=%.2f)' % (Dnpm[0], x[iminus]))
Dn- = 0.246201 (at x=-0.14)
>>> print('Dn+ = %f (at x=%.2f)' % (Dnpm[1], x[iplus]))
Dn+ = 0.224726 (at x=0.19)
>>> print('Dn  = %f' % (Dn))
Dn  = 0.246201
>>> probs = kstwo.sf(Dn, n)
>>> print(chr(10).join(['For a sample of size %d drawn from a N(0, 1) distribution:' % n,
...      ' Kolmogorov-Smirnov 2-sided n=%d: Prob(Dn >= %f) = %.4f' % (n, Dn, probs)]))
For a sample of size 5 drawn from a N(0, 1) distribution:
 Kolmogorov-Smirnov 2-sided n=5: Prob(Dn >= 0.246201) = 0.8562

Построить эмпирическую CDF против целевой N(0, 1) CDF

>>> import matplotlib.pyplot as plt
>>> plt.step(np.concatenate([[-3], x]), ecdfs, where='post', label='Empirical CDF')
>>> x3 = np.linspace(-3, 3, 100)
>>> plt.plot(x3, target.cdf(x3), label='CDF for N(0, 1)')
>>> plt.ylim([0, 1]); plt.grid(True); plt.legend();
>>> plt.vlines([x[iminus]], ecdfs[iminus], cdfs[iminus], color='r', linestyle='solid', lw=4)
>>> plt.vlines([x[iplus]], cdfs[iplus], ecdfs[iplus+1], color='m', linestyle='solid', lw=4)
>>> plt.annotate('Dn-', xy=(x[iminus], (ecdfs[iminus]+ cdfs[iminus])/2),
...              xytext=(x[iminus]+1, (ecdfs[iminus]+ cdfs[iminus])/2 - 0.02),
...              arrowprops=dict(facecolor='white', edgecolor='r', shrink=0.05), size=15, color='r');
>>> plt.annotate('Dn+', xy=(x[iplus], (ecdfs[iplus+1]+ cdfs[iplus])/2),
...             xytext=(x[iplus]-2, (ecdfs[iplus+1]+ cdfs[iplus])/2 - 0.02),
...             arrowprops=dict(facecolor='white', edgecolor='m', shrink=0.05), size=15, color='m');
>>> plt.show()

Ссылки#

  • “Тест Колмогорова-Смирнова”, Википедия https://en.wikipedia.org/wiki/Kolmogorov-Smirnov_test

  • Durbin J. «Вероятность того, что выборочная функция распределения лежит между двумя параллельными прямыми линиями.» Ann. Math. Statist., 39 (1968) 39, 398-411.

  • Померанц Дж. «Точное кумулятивное распределение статистики Колмогорова-Смирнова для малых выборок (Алгоритм 487).» Communications of the ACM, 17(12), (1974) 703-704.

  • Li-Chien, C. “On the exact distribution of the statistics of A. N. Kolmogorov and their asymptotic expansion.” Acta Matematica Sinica, 6, (1956) 55-81.

  • Pelz W, Good IJ. "Аппроксимация нижних хвостовых областей статистики Колмогорова-Смирнова для одной выборки." Журнал Королевского статистического общества, Series B, (1976) 38(2), 152-156.

  • Simard, R., L'Ecuyer, P. «Вычисление двустороннего распределения Колмогорова-Смирнова», Journal of Statistical Software, Том 39, (2011) 11.

Реализация: scipy.stats.kstwo