Документ взят из кэша поисковой машины. Адрес оригинального документа : http://lnfm1.sai.msu.ru/grav/russian/lecture/mon/9.doc
Дата изменения: Mon Dec 20 16:54:53 2004
Дата индексирования: Mon Oct 1 23:33:59 2012
Кодировка: koi8-r

Глава 9

Проверка статистических гипотез
9.1 Постановка задачи

Под статистической гипотезой понимают всякое высказывание о
генеральной совокупности, которое можно проверить по выборке. Как правило,
статистические гипотезы делят на гипотезы о законах распределения и
гипотезы о параметрах распределения.
Пусть [pic] - закон распределения случайной величины Х, зависящий
от одного параметра [pic]. Предположим, что наша гипотеза состоит в
утверждении, что [pic]. Назовём эту гипотезу нулевой и обозначим её Н0 .
Альтернативной, или конкурирующей гипотезой, которую обозначим Н1 , будет
[pic]. Перед нами стоит задача проверки гипотезы Н0 относительно
конкурирующей гипотезы Н1[pic]на основании выборки, состоящей из п
независимых наблюдений Х1 ,Х2, ., Хп . Следовательно, всё возможное
множество выборок объёма п можно разделить на два непересекающихся
подмножества ( О и W) таких, что проверяемая гипотеза Н0 должна быть
отвергнута, если наблюдаемая выборка попадает в подмножество W и принята,
если выборка принадлежит подмножеству О.
Подмножество О называют областью допустимых значений, а подмножество W
- критической областью. При формировании критической области возможны
ошибки.
Ошибка первого рода состоит в том, нулевая гипотеза отвергается, то
есть принимается гипотеза Н1 , в то время как в действительности верна
гипотеза Н0 .
Ошибка второго рода состоит в том, что принимается гипотеза Н0 , а в
действительности верна гипотеза Н1.
Для любой заданной критической области будем обозначать через [pic]
вероятность ошибки первого рода, а через [pic]- вероятность ошибки второго
рода. Следовательно, можно сказать, что при большом количестве выборок доля
ложных заключений равна [pic], если верна гипотеза Н0 , и [pic][pic], если
верна гипотеза Н1. При фиксированном объёме выборки выбор критической
области W позволяет сделать как угодно малой либо [pic], либо[pic].
9.2 Сравнение центров распределения нормальных генеральных совокупностей
На практике иногда оказывается, что средний результат одной серии
наблюдений заметно отличается от среднего результата другой серии. Что это?
Влияние ошибок наблюдения? Или, может быть, мы имеем дело с двумя разными
генеральными совокупностями.
Итак, имеем две случайные величины Х и У. Обе подчиняются нормальному
закону распределения. Допустим, что мы располагаем двумя независимыми
выборками объёмами п1 и п2 соответственно. Нулевая гипотеза : М(Х)=М(У).
За альтернативную гипотезу примем [pic]. Дисперсии этих двух выборок
будем считать известными.
Если гипотеза Н0 справедлива, то разность их арифметических средних
[pic] распределена также по нормальному закону, а дисперсия этой разности (
при условии, что Х и У - независимы!) равна сумме дисперсий этих
случайных переменных:
[pic][pic].
Введём нормированную случайную величину [pic], которая также распределена
нормально и имеет дисперсиюё равную единице, и математическое ожидание,
равное нулю. С помощью таблицы, функции Лапласа, нетрудно установить
критическое значение для [pic], которое наша разность не может
превосходить с заданной вероятностью [pic]. Если гипотеза Н0 имеет место,
то эта вероятность мало отличается от единицы. Чем меньше [pic], тем меньше
вероятность отклонить проверяемую гипотезу.
Приведём пример.
Допустим, что мы располагаем двумя сериями наблюдений с количеством п1
=25 и п2=50. При этом, получены средние значения [pic]. Установить с
вероятностью 0,99, является ли это расхождение случайным. Пусть обе
случайные величины имеют стандартное отклонение [pic] = 0, 30.
Вычислим нормированную разность [pic][pic]
Из таблицы функции Лапласа следует, что c вероятностью (надёжностью) 0,99
наша нормированная случайная величина должна быть меньше 2,576. Область
значений z>2,576 при нашей гипотезе достичь практически невозможно. Это
означает, наблюдаемое расхождение нельзя считать случайным.
Следует отметить, что в случае z<2,576, ещё нельзя утверждать, что
гипотеза подтвердилась. С помощью проверки гипотез можно лишь отвергнуть
проверяемую гипотезу, но никогда нельзя доказать её справедливость.
9.3 Проверка гипотез о законе распределения. Критерий согласия [pic].
Существует несколько критериев согласия для проверки законов
распределения случайной величины. Это критерии Колмогорова, Смирнова, [pic]
Пирсона и др. Мы остановимся лишь на критерии Пирсона - это наиболее часто
употребляемый критерий для проверки закона распределения случайной
величины.
Сначала нужно разбить всю область изменения случайной величины на l
интервалов (бин). Затем нужно подсчитать сколько этих величин попадает в
каждый бин, то есть подсчитать эмпирические частоты тк . Чтобы вычислить
теоретические частоты нужно вероятность попадания в каждый бин рк умножить
на объём выборки п. Таким образом, статистика
[pic]
является случайной величиной, подчиняющейся закону [pic]с [pic]степенями
свободы.В последней формуле r - число параметров распределния, определяемы
по выборке. Для нормального закона - это два параметра, для закона Пуассона
- один и т.д.
Рассчитав значения [pic]и выбрав уровень значимости [pic], по таблице
[pic]-распределения определяют [pic]. Если [pic], то гипотезу Н0
отвергают, если [pic] то гипотезу принимают.
9.4 Проверка гипотезы о равенстве дисперсий двух нормальных
генеральных совокупностей
Рассмотрим две случайные величины Х и У, каждая из которых подчиняется
нормальному закону с дисперсиями [pic]. Пусть из этих генеральных
совокупностей извлечены две выборки объёмами п1 и п2 . Проверим гипотезу
Н0 о том, что [pic]относительно альтернативной гипотезы Н1 , заключающейся
в том, что [pic]
Однако, мы располагаем только выборочными дисперсиями [pic]=[pic] и
[pic]=[pic]. Задача проверки гипотезы Н0 сводится к сравнению выборочных
дисперсий.
Для построения критической области с выбранной надёжностью необходимо
исследовать совместный закон распределения оценок [pic]и [pic]. Таким
законом распределения является распределение Фишера - Снедекора (или F-
распределение)
Рассмотрим случайную величину [pic], распределённую нормально с
математическим ожиданием Х и с дисперсией [pic]. Произведём две независимые
выборки объёмами п1 и п2 . Для оценки [pic]используют выборочные
дисперсии. Случайную величину, определяемую отношением [pic], называют
величиной с распределением Фишера-Снедекора. Имеются таблицы для
дифференциального закона распределения Фишера-Снедекора, которые зависят
лишь от объёма выборки и уровня значимости
[pic], где k1=n1-1, k2=n2-1.
Вернёмся снова к задаче проверки гипотезы о равенстве дисперсий.
Сначала нужно вычислить выборочные дисперсии. Найдём отношение F=[pic],
причём в числителе поставим большую из двух оценок дисперсии. Выберем
уровень значимости [pic] и из таблиц находим число F[pic] которое
сравнивается с вычисленным F. Если окажется, что [pic] , то проверяема
гипотеза Н0 отвергается, в противном случае делается вывод о том, что
наблюдения не противоречат проверяемой гипотезе.
[pic]
9.5 Интервальная оценка дисперсии
Для интервальной оценки параметра мы использовали среднюю
квадратическую погрешность как меру точности. Однако уместно задать вопрос,
насколько эта мера точности реально отражает стандартное отклонение,
связанное с погрешностью? Иначе говоря, когда мы вычисляем оценку
дисперсии погрешности по формуле [pic], то необходимо знать и меру доверия
этой величине. При небольших п эта оценка может значительно отличаться от
точного значения дисперсии. Другими словами, нам нужно получить
интервальную оценку дисперсии.
Известно, что величина ( п-1)([pic])2 распределена по закону [pic],
которым и нужно воспользоваться для построения доверительного интервала.
Этот закон не симметричный, поэтому нужно определять левую и правую
границы отдельно. Допустим, что доверительная вероятность равна [pic].
Тогда вероятность того, что величина [pic]будет лежать правее левой границы
доверительного интервала можно взять равной [pic], а вероятность того,
что она окажется больше правой границы, будет равна 1-[pic]/2. Зададим
доверительную вероятность равной 0,9. Тогда [pic]. Вероятность «левой
границы» будет 0,95 , а правой 0,05. Допустим, что объём выборки равен
п=10, следовательно число степеней свободы при вычислении оценки дисперсии
равно т=9. Из таблицы [pic] - распределения, помещённой в справочнике И.Н.
Бронштейна и К.А.Семендяева, находим [pic] , [pic]. Следовательно
3,32[pic]. После пересчёта окончательно будем иметь 0.72[pic]. Это и
есть доверительный интервал для дисперсии.