bws_test#
- scipy.stats.bws_test(x, y, *, альтернатива='two-sided', метод=None)[источник]#
Выполнить тест Баумгартнера-Вайса-Шиндлера на двух независимых выборках.
Тест Баумгартнера-Вайса-Шиндлера (BWS) — это непараметрический тест нулевой гипотезы о том, что распределение, лежащее в основе выборки x совпадает с распределением, лежащим в основе выборки y. В отличие от тестов Колмогорова-Смирнова, Уилкоксона и Крамера-фон Мизеса, тест BWS взвешивает интеграл по дисперсии разности функций распределения (CDF), подчёркивая хвосты распределений, что увеличивает мощность теста во многих приложениях.
- Параметры:
- x, yarray-like
1-d массивы выборок.
- альтернатива{‘two-sided’, ‘less’, ‘greater’}, необязательный
Определяет альтернативную гипотезу. По умолчанию ‘two-sided’. Пусть F(u) и G(u) пусть будут функциями распределения распределений, лежащих в основе x и y, соответственно. Затем доступны следующие альтернативные гипотезы:
‘двусторонний’: распределения не равны, т.е. F(u) ≠ G(u) для по крайней мере одного u.
‘less’: распределение, лежащее в основе x стохастически меньше распределения, лежащего в основе y, т.е. F(u) >= G(u) для всех u.
‘greater’: распределение, лежащее в основе x стохастически больше чем распределение, лежащее в основе y, т.е. F(u) <= G(u) для всех u.
При более ограничительном наборе предположений альтернативные гипотезы могут быть выражены через расположения распределений; см. [2] раздел 5.1.
- методPermutationMethod, необязательный
Настраивает метод, используемый для вычисления p-значения. По умолчанию используется стандартный
PermutationMethodобъект.
- Возвращает:
- resPermutationTestResult
- Объект с атрибутами:
- статистикаfloat
Наблюдаемая тестовая статистика данных.
- p-значениеfloat
P-значение для данной альтернативы.
- null_distributionndarray
Значения тестовой статистики, сгенерированные при нулевой гипотезе.
Смотрите также
Примечания
Когда
alternative=='two-sided', статистика определяется уравнениями, приведенными в [1] Раздел 2. Эта статистика не подходит для односторонних альтернатив; в этом случае статистика - это отрицательный из тех, что заданы уравнениями в [1] Раздел 2. Следовательно, когда распределение первой выборки стохастически больше, чем распределение второй выборки, статистика будет стремиться быть положительной.Ссылки
[1] (1,2,3,4,5)Neuhäuser, M. (2005). Exact Tests Based on the Baumgartner-Weiss-Schindler Statistic: A Survey. Statistical Papers, 46(1), 1-29.
[2]Fay, M. P., & Proschan, M. A. (2010). Wilcoxon-Mann-Whitney or t-test? On assumptions for hypothesis tests and multiple interpretations of decision rules. Statistics surveys, 4, 1.
Примеры
Мы следуем примеру таблицы 3 в [1]: Четырнадцать детей были случайным образом разделены на две группы. Их ранги при выполнении определенных тестов следующие.
>>> import numpy as np >>> x = [1, 2, 3, 4, 6, 7, 8] >>> y = [5, 9, 10, 11, 12, 13, 14]
Мы используем тест BWS для оценки наличия статистически значимой разницы между двумя группами. Нулевая гипотеза состоит в том, что нет различий в распределениях производительности между двумя группами. Мы решаем, что уровень значимости 1% требуется для отклонения нулевой гипотезы в пользу альтернативы, что распределения различны. Поскольку количество образцов очень мало, мы можем сравнить наблюдаемую тестовую статистику с точный распределение тестовой статистики при нулевой гипотезе.
>>> from scipy.stats import bws_test >>> res = bws_test(x, y) >>> print(res.statistic) 5.132167152575315
Это согласуется с \(B = 5.132\) сообщено в [1]. p-значение, полученное от
bws_testтакже согласуется с \(p = 0.0029\) сообщено в [1].>>> print(res.pvalue) 0.002913752913752914
Поскольку p-значение ниже нашего порога в 1%, мы рассматриваем это как свидетельство против нулевой гипотезы в пользу альтернативы о наличии разницы в производительности между двумя группами.