6.2. Т-критерий. Углубление в тему

6.2.1. Дополнительные замечания о Т-критерии для парных выборок

Повторные измерения являются наиболее частым употреблением критерия для парных выборок. Однако возможны и другие ситуации. Например, мы можем использовать в каком-то исследовании пары близнецов, причем один из пары включается в экспериментальную группу, а другой — в контрольную. Если близнецы очень похожи, то результаты могут по структуре совпадать с повторными измерениями, а проблемы, о которых мы говорили во введении к подпараграфу 6.1.2, будут обойдены. Например, если измерение может быть проделано с каждым человеком только один раз, то «близнецовый» дизайн эксперимента, может дать значительный выигрыш по сравнению с Т-критерием для независимых выборок. Выигрыш будет тем меньше, чем меньше похожи близнецы (или иные пары, подобранные для эксперимента) и совсем исчезнет, когда мы возьмем пары случайных людей. О величине этого выигрыша можно судить по величине линейной связи (корреляции) между первой и второй переменными (они выводятся в специальной таблице SPSS). О корреляциях мы будем говорить в десятой главе.

6.2.2. Условия применимости Т-критерия для независимых выборок

Точная формула вычисления t-статистики для независимых выборок такова:

\[ t=\frac{\overline{x}-\overline{y}}{\sqrt{\sum(x_i-\overline{x})^2+\sum(y_i-\overline{y})^2}}*\sqrt{\frac{(n+m-2)nm}{n+m}}. \]

Если рассматривать проект исследования, то можно сказать так: мы наберем две выборки, предположительно объема m и n, и подставим полученные данные в формулу t-статистики. Это значит, что мы предполагаем сделать m испытаний случайной величины X и n испытаний случайной величины Y, затем подставить полученные значения в формулу. Это в точности означает, что мы собираемся провести испытание случайной величины (заглавными буквами мы обозначаем случайные величины)

\[ T=\frac{\overline{X}-\overline{Y}}{\sqrt{\sum(X_i-\overline{X})^2+(Y_i-\overline{Y})^2}}*\sqrt{\frac{(n+m-2)nm}{n+m)}}. \]

Эта случайная величина и имеет то распределение — распределение Стьюдента с m+n−2 степенями свободы, — по которому оцениваются квантили и радиусы доверительных интервалов. Если проводить эксперимент по данной схеме 1000 раз, то в случае, если ​\( M_X=M_Y \)​ (именно в этом случае!), гистограмма полученных 1000 результатов будет похожа на кривую теоретической плотности этого распределения.

Но теперь необходимо сделать важное уточнение: мы получим распределение Стьюдента, если наши случайные величины X и Y имеют нормальное распределение с одинаковой дисперсией. Именно исходя из таких предположений математики доказали, что данная случайная величина имеет распределение Стьюдента.

Распределение нужных показателей в наших генеральных совокупностях не бывает в точности нормальным, дисперсии в совокупностях, дающих нам «иксы» и «игреки», тоже могут быть различными. Это значит, что наши распределения отличаются от теоретических и квантили для оценивания параметров и гипотез мы берем неправильные. В таком случае важно знать, насколько неправильны наши квантили, как сильно отличается наше распределение от теоретического распределения Стьюдента.

В книге (Шеффе, 1980) и в статье (Корнеев, Кричевец, 2011) разобраны некоторые варианты нарушений нормальности и их последствия для пятипроцентных и однопроцентных квантилей. Коротко, результаты таковы:

Предложение 6.2.2(1). Равенство/неравенство дисперсий. При равенстве объема выборок неравенство дисперсий приводит лишь к небольшим ошибкам в расчете значимостей. При неравенстве объемов выборок ошибки тем более значительны, чем больше разница в объемах. При этом, если выборка с меньшей дисперсией имеет больший объем, статистический вывод ошибается «в нашу пользу», т.е. реальная значимость «хуже», чем дает Т-критерий, если же выборка с меньшей дисперсией имеет меньший объем, то наш вывод недооценен, реальная значимость «еще лучше», чем показывает Т-критерий. Причины этого легко видны: в знаменателе t-статистики в первом случае будет большее значение (больше половины слагаемых малы) и сама t-статистика будет переоценена, а во втором случае по противоположной причине t-статистика недооценивается.

Кроме расчета, предполагающего равенство дисперсий, в SPSS есть вариант расчета, не предполагающий равенства (в нем предусмотрены коэффициенты, которые в знаменателе делают вклад оценок дисперсий двух выборок равным). Этот вариант применим всегда. В случае, если есть сомнения в том, что выборки сделаны из совокупностей с равными дисперсиями[1], мы рекомендуем пользоваться в SPSS именно этой опцией — «равенство дисперсий не предполагается». Чаще всего результаты обоих вариантов будут близки.

Предложение 6.2.2(2). Серьезные ошибки расчетов, по нашему опыту (см. также учебник Howit, Cramer, 2008), наблюдаются лишь в случае асимметрии распределений, причем разнонаправленной — гистограммы «скошены» (максимальные значения гистограммы (выборочная мода) расположены близко к одному краю распределения), причем в разные стороны (Корнеев, Кричевец, 2011). Ориентироваться на статистическую значимость отличия асимметрии от нуля не следует. На больших выборках будет сочтена значимой близкая к нулю асимметрия, а на малых не обнаружится существенная асимметрия распределений. Скорее, надо оценить это условие по гистограмме.

В главе 11, посвященной непараметрическим методам, мы добавим к сказанному еще несколько рекомендаций.

>> следующий параграф>>


[1] Решать, какой опцией воспользоваться, ориентируясь на приведенный в той же таблице вывода SPSS результат сравнения дисперсий по критерию Ливиня, неразумно, поскольку статистика работает здесь против логики: на малых выборках равенство дисперсий не отвергается даже в случаях, если теоретические дисперсии отличаются сильно; а на больших выборках равенство, напротив, отвергается даже в случаях, когда теоретические дисперсии отличаются незначительно и вызванное различием отклонение от расчетной значимости ничтожно.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.