Оглавление:
Так же как и теория вероятностей, математическая статистика имеет свои ключевые понятия, к которым относятся: генеральная совокупность, теоретическая функция распределения, выборка, эмпирическая функция распределения, статистика. Именно с определения этих понятий, а также с установления связи между ними и объектами, изучаемыми в теории вероятностей, мы начнем изложение математической статистики, предварительно дав краткое описание задач, которые собираемся решать. Кроме того, в последнем параграфе главы остановимся на некоторых распределениях, наиболее часто встречающихся в математической статистике.
Задачи математической статистики
Математическая статистика, являясь частью общей прикладной математической дисциплины «Теория вероятностей и математическая статистика», изучает, как и теория вероятностей, случайные явления, использует одинаковые с ней определения, понятия и методы и основана на той же самой аксиоматике А.Н. Колмогорова.
Однако задачи, решаемые математической статистикой, носят специфический характер. Теория вероятностей исследует явления, заданные полностью их моделью, и выявляет еще до опыта те статистические закономерности, которые будут иметь место после его проведения. В математической статистике вероятностная модель явления определена с точностью до неизвестных параметров. Отсутствие сведений о параметрах компенсируется тем, что нам позволено проводить «пробные» испытания и на их основе восстанавливать недостающую информацию.
Попытаемся показать различие этих двух взаимосвязанных дисциплин на простейшем примере — последовательности независимых одинаковых испытаний, или схеме Бернулли (часть 1, гл.4). Схему Бернулли можно трактовать как подбрасывание несимметричной монеты с вероятностью выпадения «герба» (успеха) р и «цифры» (неудачи) В теории вероятностей р и q задаются «извне» (например, для симметричной монеты Методы теории вероятностей позволяют, зная р и q, определить вероятность выпадения т «гербов» при п подбрасываниях монеты (биномиальное распределение, часть 1, гл.4, параграф 1), найти асимптотику этой вероятности при увеличении числа подбрасываний (теоремы Пуассона и Муавра-Лапласа,
часть 1, гл.4, параграфы 2-4) и т.д. В математической статистике значения р и q неизвестны заранее, но мы можем произвести серию подбрасываний монеты. Цель проведения испытаний как раз и заключается либо в определении р и q, либо в проверке некоторых априорных суждений относительно их значений. Таким образом, судя уже по этому простейшему примеру, задачи математической статистики являются в некотором смысле обратными задачам теории вероятностей.
В математической статистике обычно принято выделять два основных направления исследований.
Первое направление связано с оценкой неизвестных параметров. Возвращаясь к нашему примеру, предположим, что мы произвели п подбрасываний монеты и установили, что в из них выпал «герб». Тогда наиболее естественной оценкой вероятности р является наблюденная частота Как известно из закона больших чисел Бернулли (часть 1, гл. 4, параграф 5), с увеличением числа испытаний частота стремится к вероятности р, т. е. является состоятельной оценкой вероятности р. Оказывается, наряду с простотой и естественностью оценка будет и наилучшей с многих точек зрения, т. е. она обладает свойством эффективности. Однако если нам заранее определено число п подбрасываний монеты, то сказать со 100%-й гарантией что-либо об истинном значении р мы не можем (за исключением разве что тривиальных суждений типа «если выпадет хотя бы один „герб» то вероятность выпадения „герба» не может равняться нулю»). Поэтому наряду с точечными оценками в математической статистике принято определять интервальные оценки или, иными словами, доверительные интервалы, опираясь при этом на «уровень доверия», или доверительную вероятность.
Второе направление в математической статистике связано с проверкой некоторых априорных предположений, или статистических гипотез. Так, до опыта мы можем предположить, что монета симметрична, т.е. высказать гипотезу о равенстве Противоположное предположение, естественно, будет состоять в том, что и тоже представляет собой гипотезу. Принято называть одну из этих гипотез (как правило, более важную с практической точки зрения) основной а вторую — альтернативной или конкурирующей В приведенном выше примере нужно проверить основную гипотезу против конкурирующей гипотезы Заметим, что в нашем случае основная гипотеза полностью определяет вероятностную модель подбрасывания монеты, т.е. является простой (состоит из одной точки), в отличие от конкурирующей гипотезы являющейся сложной (состоит из более чем одной точки). Задача проверки статистических гипотез состоит в выборе правила или критерия, позволяющего по результатам наблюдений проверить (по возможности, наилучшим образом) справедливость этих гипотез и принять одну из них. Так же, как и при оценке неизвестных параметров, мы не застрахованы от неверного решения; в математической статистике они подразделяются
на ошибки первого и второго рода. Ошибка первого рода состоит в том, что мы принимаем конкурирующую гипотезу в то время как справедлива основная гипотеза аналогично определяется ошибка второго рода. Возвращаясь к примеру с монетой, приведем следующий критерий проверки двух перечисленных гипотез: основную гипотезу будем принимать в том случае, если наблюденная частота удовлетворяет неравенству в противном случае считаем верной конкурирующую гипотезу Вероятность ошибки первого рода (принять симметричную монету за несимметричную) в этом случае определяется как вероятность выполнения неравенства в схеме Бернулли с равновероятными исходами. Вероятность ошибки второго рода (принять несимметричную монету за симметричную) также определяется из схемы Бернулли, но с неравновероятными исходами и будет зависеть от истинного значения р.
Далее мы увидим, что задача проверки статистических гипотез наиболее полно решается для случая двух простых гипотез. Можно поставить и задачу проверки нескольких гипотез (в примере с монетой можно взять, например, три гипотезы: однако мы такие задачи рассматривать не будем.
Условно математическую статистику можно подразделить на исследование байесовских и небайесовских моделей.
Байесовские модели возникают тогда, когда неизвестный параметр является случайной величиной и имеется априорная информация о его распределении. При байесовском подходе на основе опытных данных априорные вероятности пересчитываются в апостериорные. Применение байесовского подхода фактически сводится к использованию формулы Байеса (см. часть 1, гл. 3, параграф 5), откуда, собственно говоря, и пошло его название. Байесовский подход нами будет применяться только как вспомогательный аппарат при доказательстве некоторых теорем.
Небайесовские модели появляются тогда, когда неизвестный параметр нельзя считать случайной величиной и все статистические выводы приходится делать, опираясь только на результаты «пробных» испытаний. Именно такие модели мы будем рассматривать в дальнейшем изложении.
В заключение этого параграфа отметим, что в математической статистике употребляют также понятия параметрических и непараметрических моделей. Параметрические модели возникают тогда, когда нам известна с точностью до параметра (скалярного или векторного) функция распределения наблюдаемой характеристики и необходимо по результатам испытаний определить этот параметр (задача оценки неизвестного параметра) или проверить гипотезу о принадлежности его некоторому заранее выделенному множеству значений (задача проверки статистических гипотез). Все приведенные выше примеры с подбрасыванием монеты представляют собой параметрические модели. Примеры непараметрических моделей мы рассмотрим позже.
Основные понятия математической статистики
Основными понятиями математической статистики являются: генеральная совокупность, выборка, теоретическая функция распределения.
Генеральная совокупность. Будем предполагать, что у нас имеются N объектов, каждому из которых присуще определенное значение некоторой числовой характеристики X. Характеристика X, вообще говоря, может быть и векторной (например, линейные размеры объекта), однако для простоты изложения мы ограничимся только скалярным случаем, тем более что переход к векторному случаю никаких трудностей не вызывает. Совокупность этих N объектов назовем генеральной совокупностиью.
Поскольку все наши статистические выводы мы будем делать, основываясь только на значениях числовой характеристики X, естественно абстрагироваться от физической природы самих объектов и отождествить каждый объект с присущей ему характеристикой X. Таким образом, с точки зрения математической статистики генеральная совокупность представляет собой N чисел, среди которых, конечно, могут быть и одинаковые.
Выборка. Для того чтобы установить параметры генеральной совокупности, нам позволено произвести некоторое число п испытаний. Каждое испытание состоит в том, что мы случайным образом выбираем один объект генеральной совокупности и определяем его значение X. Полученный таким образом ряд чисел будем называть (случайной) выборкой объема п, а число элементом выборки.
Заметим, что сам процесс выбора можно осуществлять различными способами: выбрав объект и определив его значение, изымать этот объект и не допускать к последующим испытаниям (выборка без возвращения); после определения его значения объект возвращается в генеральную совокупность и может полноправно участвовать в дальнейших испытаниях (выборка с возвращением) и т.д.
Разумеется, если бы мы смогли провести сплошное обследование всех объектов генеральной совокупности, то не нужно было бы применять никакие статистические методы и саму математическую статистику можно было бы отнести к чисто теоретическим наукам. Однако такой полный контроль невозможен по следующим причинам. Во-первых, часто испытание сопровождается разрушением испытуемого объекта; в этом случае мы имеем выборку без возвращения. Во-вторых, обычно необходимо исследовать весьма большое количество объектов, что просто невозможно физически. Наконец, может возникнуть такое положение, когда многократно измеряется один и тот же объект, но каждый замер производится со случайной ошибкой, и цель последующей статистической обработки заключается именно в уточнении характеристик объекта на основе многократных наблюдений; при этом результат каждого наблюдения надо считать новым объектом генеральной совокупности (простейшим примером такой ситуации является многократное подбрасывание монеты с целью определения вероятности выпадения «герба»). Следует помнить также, что выборка обязательно должна удовлетворять условию репрезентативности или, говоря более простым языком, давать обоснованное представление о генеральной совокупности.
С ростом объема N генеральной совокупности исчезает различие между выборками с возвращением и без возвращения. Мы, как обычно это делается в математической статистике, будем рассматривать случай бесконечно большого объема генеральной совокупности и поэтому, употребляя слово «выборка», не будем указывать, какая она — с возвращением или без него.
Теоретическая функция распределения. Пусть — выборка единичного объема из заданной генеральной совокупности. Поскольку сам процесс выбора производится случайным образом, то является случайной величиной и, как и всякая случайная величина, имеет функцию распределения Нетрудно видеть, что если объем N генеральной совокупности конечен, то при случайном выборе объекта мы находимся в рамках схемы классической вероятности (часть 1, гл.2, параграф 1) и значение функции распределения F(x) совпадает с отношением — число тех объектов генеральной совокупности, значения которых меньше х.
В случае выборки произвольного объема п каждый элемент выборки также будет иметь функцию распределения F(x), причем для выборки с возвращением наблюдения будут независимы между собой (чего нельзя сказать о выборке без возвращения). Поскольку, как уже говорилось, мы будем рассматривать выборки из генеральной совокупности бесконечно большого объема, а в этом случае исчезает различие между выборками разного типа, мы приходим к интерпретации (с точки зрения теории вероятностей) выборки как п независимых одинаково распределенных с функцией распределения F(x) случайных величин или, допуская некоторую вольность речи, как п независимых реализаций наблюдаемой случайной величины X, имеющей функцию распределения F(x). Функция распределения F(x) называется теоретической функцией распределения. Однако теоретическая функция распределения F(x) либо неизвестна, либо известна не полностью, и именно относительно F(x) мы будем делать наши статистические выводы. Заметим, что в соответствии с общими положениями теории вероятностей совместная функция распределения выборки задается формулой
В дальнейшем, как правило, мы будем предполагать, что F(x) является функцией распределения либо дискретной, либо непрерывной наблюдаемой случайной величины X. В первом случае будем оперировать рядом распределения случайной величины X, записанным в виде табл. 1, а во втором — плотностью распределения
Простейшие статистические преобразования
Прежде чем переходить к детальному анализу наблюденных статистических данных, обычно проводят их предварительную обработку. Иногда результаты такой обработки уже сами по себе дают наглядную картину исследуемого явления, в большинстве же случаев они служат исходным материалом для получения более подробных статистических выводов.
Вариационный и статистический ряды. Часто бывает удобно пользоваться не самой выборкой а некоторой ее модификацией, называемой вариационным рядом. Вариационный ряд представляет собой ту же самую выборку но расположенную в порядке возрастания элементов: Такое преобразование не приводит к потере информации относительно теоретической функции распределения F(x), поскольку, переставив элементы вариационного ряда в случайном порядке, мы получим новый набор случайных величин совместная функция распределения которых в точности совпадает с функцией распределения первоначальной выборки
Для употребляют название «крайние члены вариационного ряда».
Пример 1. Измерение проекции вектора скорости молекул водорода на одну из осей координат дало (с учетом направления вектора) результаты представленные в табл.2.
Вариационный ряд этой выборки приведен в табл. 3. Крайними членами вариационного ряда являются
Если среди элементов выборки (а значит, и среди элементов вариационного ряда имеются одинаковые, что происходит при наблюдении дискретной случайной величины, а также довольно часто встречается при наблюдении непрерывной случайной величины с округлением значений, то наряду с вариационным рядом используют представление выборки в виде статистического
ряда (табл.4), в котором представляют собой расположенные в порядке возрастания различные значения элементов выборки — числа элементов выборки, значения которых равны соответственно
Пример 2. В течение минуты каждую секунду регистрировалось число попавших в счетчик Гейгера частиц. Результаты наблюдений приведены в табл. 5.
Статистический ряд выборки представлен в табл. 6.
Статистики. Для получения обоснованных статистических выводов необходимо проводить достаточно большое число испытаний, т.е. иметь выборку достаточно большого объема п. Ясно, что не только использование такой выборки, но и хранение ее весьма затруднительно. Чтобы избавиться от этих трудностей, а также для других целей, полезно ввести понятие статистики, общее определение которой формулируется следующим образом. Назовем статистикой произвольную (измеримую) k-мерную функцию от выборки
Как функция от случайного вектора статистика S также будет случайным вектором (см. часть 1, гл.6, параграф 7), и ее функция распределения
определяется для дискретной наблюдаемой случайной величины X формулой
и для непрерывной — формулой
где суммирование или интегрирование производится по всем возможным значениям (в дискретном случае каждое принадлежит множеству для которых выполнена система неравенств
Пример 3. Пусть выборка произведена из генеральной совокупности с теоретической функцией распределения являющейся нормальной с математическим ожиданием (средним значением) т и дисперсией Рассмотрим двумерную статистику где
Тогда
Мы, однако, не будем вычислять записанный интеграл, а воспользуемся тем фактом (см. пример 29, часть 1, гл.6, параграф 7), что любое линейное преобразование переводит нормально распределенный вектор в вектор, снова имеющий нормальное распределение, причем ортогональное преобразование переводит вектор с независимыми координатами, имеющими одинаковые дисперсии, в вектор с также независимыми и имеющими те же самые дисперсии координатами.
Из курса теории вероятностей известно, что статистика имеет нормальное распределение со средним га и дисперсией Положим
Очевидно, что
Пусть теперь А — линейное ортогональное преобразование пространства ставящее в соответствие каждому вектору вектор (как известно из курса линейной алгебры, такое преобразование всегда существует). Тогда, если будет нормально распределенным случайным вектором, имеющим независимые координаты с нулевым средним и дисперсией Кроме того, Далее, рассмотрим — квадрат длины вектора Простейшие преобразования показывают, что
С другой стороны, в силу ортогональности преобразования А
Отсюда, в частности, следует, что
т.е. представляет собой сумму квадратов п — 1 независимых случайных величин, распределенных по стандартному нормальному закону. Вспоминая теперь, что случайные величины независимы, получаем окончательный ответ: статистики независимы статистика распределена по нормальному закону с параметрами а случайная величина (в том случае, когда дисперсия неизвестна, отношение не является статистикой, поскольку зависит от неизвестного параметра — по закону степенями свободы (см. также параграф 4).
Отметим, что проведенные рассуждения будут нами постоянно использоваться в гл. 4, посвященной статистическим задачам, связанным с нормально распределенными наблюдениями.
Важный класс статистик составляют так называемые достаточные статистики. Не давая пока строгого математического определения, скажем, что статистика S является достаточной, если она содержит всю ту информацию относительно теоретической функции распределения F(x), что и исходная выборка В частности, вариационный ряд всегда представляет собой достаточную статистику. Более сложными примерами достаточных статистик являются число успехов в схеме Бернулли и двумерная статистика S из примера 3 для выборки из генеральной совокупности с нормальной теоретической функцией распределения. В современной математической статистике достаточные статистики играют очень важную роль.
Эмпирическая функция распределения. Пусть мы имеем выборку объема п из генеральной совокупности с теоретической функцией распределения F(x). Построим по выборке аналог теоретической функции распределения F(x). Положим
где — число элементов выборки, значения которых меньше х. Поскольку каждое меньше х с вероятностью а сами независимы, то является целочисленной случайной величиной, распределенной по биномиальному закону:
Функция носит название эмпирической (выборочной) функции распределения. Ясно, что при каждом х значение эмпирической функции распределения является случайной величиной, принимающей значения если же рассматривать как функцию от х, то представляет собой случайный процесс.
Построение эмпирической функции распределения удобно производить с помощью вариационного ряда Функция постоянна на каждом интервале а в точке увеличивается на 1 /п.
Пример 4. График эмпирической функции распределения, построенной по вариационному ряду из табл. 3, приведен на рис. 1.
Если выборка задана статистическим рядом (см. табл. 4), то эмпирическая функция распределения также постоянна на интервалах но ее значение в точке увеличивается на а не на 1/n
Пример 5. График эмпирической функции распределения, построенной по статистическому ряду из табл. 6, приведен на рис. 2.
Гистограмма, полигон. Для наглядности выборку иногда преобразуют следующим образом. Всю ось абсцисс делят на интервалы длиной и определяют функцию постоянную на i-м интервале и принимающую на этом интервале значение — число элементов выборки, попавших в интервал Функция называется гистограммой.
При наблюдении дискретной случайной величины вместо гистограммы часто используют полигон частот. Для этого по оси абсцисс откладывают все возможные значения наблюдаемой величины X, а по оси ординат, пользуясь статистическим рядом, либо числа элементов выборки, принявших значения (полигон частот), либо соответствующие наблюденные частоты
(полигон относительных частот). Для большей наглядности соседние точки соединяются отрезками прямой.
Для непрерывной наблюдаемой случайной величины полигоном относительных частот иногда называют ломаную линию, соединяющую середины отрезков, составляющих гистограмму.
Пример 6. Построим гистограмму и полигон относительных частот выборки, представленной в табл. 2. Для этого выберем интервалы одинаковой длины Числа и значения на каждом интервале приведены в табл. 7. Гистограмма выборки показана на рис. 3 сплошной линией, а полигон относительных частот — штриховой линией.
Пример 7. Построим полигон относительных частот выборки, приведенной в табл. 5. Возможные значения наблюдаемой случайной величины X (числа частиц, попавших в счетчик Гейгера) представляют собой неотрицательные целые числа. Воспользовавшись статистическим рядом из табл. 6, получаем полигон относительных частот, изображенный на рис. 4.
Предельное поведение эмпирической функции распределения.
Предположим, что по выборке мы построили эмпирическую функцию распределения (здесь и в дальнейшем в том случае, когда нам важна зависимость какой-то характеристики от объема выборки п, будем снабжать ее дополнительным нижним индексом (n)). Как мы уже говорили, число элементов выборки, принявших значение, меньшее х, распределено по биномиальному закону с вероятностью успеха Тогда при в силу усиленного закона больших чисел (часть 1, гл.8, параграф 2) значения эмпирических функций распределения сходятся при каждом х к значению теоретической функции распределения F(x). В. И. Гливенко и Ф. П. Кантелли обобщили этот факт и доказали следующую теорему.
Теорема Гливенко-Кантелли. При с вероятностью, равной единице
Смысл теоремы Гливенко-Кантелли заключается в том, что при увеличении объема выборки п у эмпирической функции распределения исчезают свойства случайности и она приближается к теоретической функции распределения.
Аналогично, если п велико, то значение гистограммы в точке х приближенно равно
где — концы интервала, в котором находится х, а есть длина этого интервала. Если теоретическая функция распределения имеет плотность распределения р(х) и при этом длины интервалов малы, то гистограмма достаточно хорошо воспроизводит эту плотность.
Выборочные характеристики. Эмпирическая функция распределения построенная по фиксированной выборке обладает всеми свойствами обычной функции распределения (дискретной случайной величины). В частности, по ней можно найти математическое ожидание (среднее)
второй момент
дисперсию
момент k-го порядка
центральный момент k-го порядка
и т.д. Соответствующие характеристики называются выборочными (выборочное среднее, выборочный второй момент, выборочная дисперсия и т.п.). Ясно, что выборочные характеристики как функции от случайных величин сами являются случайными величинами, причем их распределения определяются в соответствии с общими положениями теории вероятностей (см. часть 1, гл.6, параграф 7). Так, функция распределения выборочного среднего для случая дискретной наблюдаемой случайной величины определяется формулой
где суммирование ведется по всем принимающим значения и удовлетворяющим неравенству а функция распределения выборочного второго момента для непрерывного случая — формулой
Наряду с выборочной дисперсией часто используют и другую характеристику разброса выборки вокруг среднего:
Характеристику также будем называть выборочной дисперсией, а для того чтобы не путать каждый раз будем указывать, о какой именно выборочной дисперсии идет речь. Выборочная дисперсия отличается от выборочной дисперсии только лишь наличием множителя который с увеличением объема выборки п стремится к единице, и, казалось бы, нет смысла вводить две практически одинаковые величины. Однако, как мы увидим из дальнейшего, является несмещенной оценкой теоретической дисперсии чего нельзя сказать о выборочной дисперсии хотя стандартные методы приводят именно к
Пример 8. Подсчитаем выборочное среднее и выборочные дисперсии для выборки, приведенной в табл. 2:
Для подсчета выборочной дисперсии можно было бы воспользоваться также формулой
Основные распределения математической статистики
Наиболее часто в математической статистике используются: нормальное распределение, распределение (распределение Пирсона), t-распределение (распределение Стьюдента), F-распределение (распределение Фишера), распределение Колмогорова и -распределение. Все эти распределения связаны с нормальным. В свою очередь, широкое распространение нормального распределения обусловлено исключительно центральной предельной теоремой (см. часть 1, гл.8, параграф 4). Ввиду их особой важности все названные распределения затабулированы и содержатся в различных статистических таблицах, а также, частично, в большинстве учебников по теории вероятностей и математической статистике. Наиболее полными из известных и доступных читателю в нашей стране являются таблицы Л.Н. Большева и Н. В. Смирнова [1], на которые мы и будем ссылаться в дальнейшем.
Нормальное распределение. Одномерное стандартное нормальное распределение (стандартный нормальный закон) задается своей плотностью распределения (см. часть 1, гл.5, параграф 4)
Значения функции Ф(x) и плотности стандартного нормального распределения, а также квантилей (функции обратной функции стандартного нормального распределения) приведены в [1], табл. 1.1-1.3 (см. также табл.2 и 3 приложения).
Общее одномерное нормальное распределение характеризуется двумя параметрами: средним (математическим ожиданием) т и дисперсией Его можно трактовать как распределение случайной величины
где случайная величина подчинена стандартному нормальному закону. Плотность распределения и функцию распределения общего нормального закона будем обозначать через Многомерное (k-мерное) нормальное распределение (часть 1, гл.6, параграф 4) определяется вектором средних и матрицей ковариаций
-распределение (см. часть 1, гл.5, параграф 4, а также примеры 28 и 30, часть 1, гл.6, параграф 7). Пусть — независимые случайные величины, распределенные по стандартному нормальному закону. Распределение случайной величины
носит название —распределения с п степенями свободы, -распределение имеет плотность распределения
где введено в параграфе 4 гл. 5.
Значения функции -распределения и а-процентных точек (а-про-центная точка -распределения представляет собой -квантиль -распределения приведены в [1], табл. 2.1а и 2.2а. В дальнейшем нам будет полезно следующее свойство. Пусть независимые случайные величины, распределенные по нормальному закону с одинаковыми параметрами Положим
Тогда случайная величина
имеет -распределение, но с п-1 степенями свободы. Доказательство этого факта содержится в примере 3.
Еще одна схема, в которой появляется -распределение — полиномиальная схема (см. часть 1, гл.4, параграф 7). Пусть производится п независимых одинаковых испытаний, в каждом из которых с вероятностью может произойти одно из событий Обозначим через число появлений события Тогда из многомерного аналога интегральной теоремы Муавра-Лапласа следует, что случайная величина
при асимптотически распределена по закону степенями свободы.
t-распределение. Пусть — независимые случайные величины, причем распределена по стандартному нормальному закону, а имеет -распределение с п степенями свободы. Распределение случайной величины
называется t-распределением с п степенями свободы, t-распределение имеет плотность распределения
Значения функции t-распределения и -процентных точек квантилей t-распределения приведены в [1], табл. 3.1а и 3.2.
Далее, пусть — независимые одинаково распределенные случайные величины, подчиненные нормальному закону со средним т. Положим
Тогда случайные величины независимы, а случайная величина
имеет t-распределение с n-1 степенями свободы (доказательство этого см. в примере 3).
F-распределение. Пусть две независимые случайные величины, имеющие -распределения с степенями свободы. Распределение случайной величины
носит название F-распределения с параметрами F-распределение имеет плотность распределения
Значения -процентных точек -квантилей -распределения приведены в [1], табл. 3.5.
Распределение Колмогорова. Функция распределения Колмогорова имеет вид
Распределение Колмогорова является распределением случайной величины
где — броуновский мостик, т. е. винеровский процесс с закрепленными концами на отрезке (см. [11]).
Значения функции распределения Колмогорова приведены в [1], табл.6.1. Квантили распределения Колмогорова будем обозначать через
-распределение. Функция —распределения задается формулой
Здесь — модифицированная функция Бесселя, -распределение представляет собой распределение случайной величины
где — броуновский мостик.
Значения функции -распределения приведены в [1], табл. 6.4а. Квантили -распределения будем обозначать через
Оценки неизвестных параметров
Как уже говорилось в гл. 1, одним из двух основных направлений в математической статистике является оценивание неизвестных параметров. В этой главе мы дадим определение оценки, опишем те свойства, которые желательно требовать от оценки, и приведем основные методы построения оценок. Завершается глава изложением метода построения доверительных интервалов для неизвестных параметров.
Статистические оценки и их свойства
Предположим, что в результате наблюдений мы получили выборку из генеральной совокупности с теоретической функцией распределения F(x). Относительно F(x) обычно бывает известно только, что она принадлежит определенному параметрическому семейству зависящему от числового или векторного параметра Как правило, для простоты изложения будем рассматривать случай числового параметра и лишь иногда обращаться к векторному параметру в векторном случае будем использовать запись Для большей наглядности будем все неизвестные параметры (за исключением теоретических моментов обозначать буквой (снабжая их при необходимости индексами), хотя в теории вероятностей для них обычно приняты другие обозначения. Наша цель состоит в том, чтобы, опираясь только на выборку оценить неизвестный параметр
Оценкой неизвестного параметра построенной по выборке назовем произвольную функцию
зависящую только от выборки Ясно, что как функция от случайной величины оценка сама будет являться случайной величиной и, как всякая случайная величина, будет иметь функцию распределения определяемую в дискретном случае формулой
где суммирование ведется по всем переменным принимающим значения из ряда распределения наблюдаемой случайной величины X и удовлетворяющим неравенству и в непрерывном случае — формулой
где интегрирование ведется по области, выделяемой неравенством Как уже говорилось, иногда для того, чтобы подчеркнуть зависимость оценки от объема выборки п, будем наряду с обозначением употреблять обозначение Нужно четко представлять себе, что зависимость оценки от неизвестного параметра осуществляется только через зависимость от выборки что в свою очередь реализуется зависимостью от функции распределения Приведенное выше определение отождествляет понятие оценки (вектора оценок с одномерной (k-мерной) статистикой.
Пример:
Предположим, что проведено п испытаний в схеме Бернулли с неизвестной вероятностью успеха В результате наблюдений получена выборка где — число успехов i-м испытании. Ряд распределения наблюдаемой величины X — числа успехов в одном испытании представлен в табл. 1.
В качестве оценки рассмотрим наблюденную частоту успехов
где
представляет собой суммарное число успехов в п испытаниях Бернулли. Статистика распределена по биномиальному закону с параметром поэтому ряд распределения оценки имеет вид, приведенный в табл. 2.
Пример:
Выборка произведена из генеральной совокупности с теоретической функцией распределения являющейся нормальной с неизвестным средним В качестве оценки снова рассмотрим выборочное среднее
Функция распределения задается формулой
Однако вместо непосредственного вычисления написанного n-мерного интеграла заметим, что статистика
распределена по нормальному закону с параметрами (математической ожидание) и (дисперсия). Значит, оценка распределена также по нормальному закону с параметрами
Разумеется, на практике имеет смысл использовать далеко не любую оценку.
Пример:
Как и в примере 1, рассмотрим испытания в схеме Бернулли. Однако теперь в качестве оценки неизвестной вероятности успеха возьмем
Такая оценка будет хороша лишь в том случае, когда истинное значение ее качество ухудшается с увеличением отклонения от 1 /2.
Приведенный пример показывает, что желательно употреблять только те оценки, которые по возможности принимали бы значения, наиболее близкие к неизвестному параметру. Однако в силу случайности выборки в математической статистике мы, как правило, не застрахованы полностью от сколь угодно большой ошибки. Значит, гарантировать достаточную близость оценки к оцениваемому параметру можно только с некоторой вероятностью и для того, чтобы увеличить эту вероятность, приходится приносить необходимую жертву — увеличивать объем выборки п.
Опишем теперь те свойства, которые мы хотели бы видеть у оценки.
Главное свойство любой оценки, оправдывающее само название «оценка», — возможность хотя бы ценой увеличения объема выборки до бесконечности получить точное значение неизвестного параметра . Оценка называется состоятельной, если с ростом объема выборки она сходится к оцениваемому параметру Можно рассматривать сходимость различных типов: по вероятности, с вероятностью единица, в среднем квадратичном и т.д. Обычно рассматривается сходимость по вероятности, т.е. состоятельной называется такая оценка которая для любого при всех возможных значениях неизвестного параметра удовлетворяет соотношению
Отметим, что правильнее было бы говорить о состоятельности последовательности оценок поскольку для каждого значения п объема выборки оценка может определяться по своему правилу. Однако в дальнейшем мы будем употреблять понятие состоятельности только для оценок, построенных по определенным алгоритмам, поэтому будем говорить просто о состоятельности оценки.
Пример:
Оценка из примера 1 является состоятельной оценкой неизвестной вероятности успеха . Это является прямым следствием закона больших чисел Бернулли.
Пример:
Пусть выборка произведена из генеральной совокупности с неизвестной теоретической функцией распределения F(x). Тогда в силу закона больших чисел выборочный момент
сходится к теоретическому моменту значит, представляет собой состоятельную оценку Аналогично, выборочные дисперсии и выборочные центральные моменты являются состоятельными оценками теоретической дисперсии и теоретических центральных моментов Отметим, что поскольку в этом примере не предполагается принадлежность теоретической функции распределения F(x) какому-либо параметрическому семейству, то мы имеем дело с задачей оценки неизвестных моментов теоретической функции распределения в непараметрической модели.
Пример:
Выборка произведена из генеральной совокупности с теоретической функцией распределения F(x), имеющей плотность распределения Коши
с неизвестным параметром Поскольку плотность распределения Коши симметрична относительно то казалось бы естественным в качестве оценки параметра взять выборочное среднее
Однако как и сама наблюдаемая случайная величина X, имеет распределение Коши с тем же параметром (это легко установить с помощью характеристических функций, см. часть 1, гл.8, параграф 3), т.е. не сближается с параметром а значит, не является состоятельной оценкой параметра
Из курса теории вероятностей известно (см. часть 1, гл.7, параграф 1), что мерой отклонения оценки от параметра служит разность В математической статистике разность
называется смещением оценки Ясно, что
в дискретном случае и
в непрерывном, где суммирование или интегрирование ведется по всем возможным значениям
Оценка называется несмещенной, если
при всех е. ее среднее значение совпадает с оцениваемым параметром
Пример:
Оценка неизвестной вероятности успеха из примера 1 является несмещенной. Действительно,
Пример:
Выборочные моменты являются несмещенными оценками теоретических моментов поскольку
Вычислим теперь математическое ожидание выборочной дисперсии
Таким образом, является смещенной (хотя и состоятельной, см. пример 5) оценкой дисперсии Поскольку
то
и представляет собой уже несмещенную оценку Можно показать также, что выборочные центральные моменты являются смещенными оценками теоретических центральных моментов
Пример:
Пусть — выборка из генеральной совокупности с теоретической функцией распределения являющейся нормальной с неизвестным средним Поскольку то оценка
является несмещенной. Очевидно, однако, что она не является состоятельной.
Примеры 8 и 9 показывают, что состоятельная оценка может быть сметенной и, наоборот, несмещенная оценка не обязана быть состоятельной.
Рассматривая несколько оценок неизвестного параметра мы, разумеется, хотели бы выбрать из них ту, которая имела бы наименьший разброс, причем при любом значении неизвестного параметра . Мерой разброса оценки как и всякой случайной величины, является дисперсия
(дисперсия, как и распределение оценки, зависит от неизвестного параметра ). Однако для смещенной оценки дисперсия служит мерой близости не к оцениваемому параметру а к математическому ожиданию Поэтому естественно искать оценки с наименьшей дисперсией не среди всех оценок, а только среди несмещенных, что мы и будем делать в дальнейшем. Для несмещенных оценок дисперсия определяется также формулой
Имеется несколько подходов к нахождению несмещенных оценок с минимальной дисперсией. Это связано с тем, что такие оценки существуют не всегда, а найти их бывает чрезвычайно сложно. Здесь мы изложим понятие эффективности оценки, основанное на неравенстве Рао-Крамера.
Теорема:
Неравенство Рао-Крамера. Пусть — несмещенная оценка неизвестного параметра построенная по выборке объема п. Тогда (при некоторых дополнительных условиях регулярности, наложенных на семейство
где — информация Фишера, определяемая в дискретном случае формулой
а в непрерывном — формулой
Прежде чем переходить к доказательству теоремы, заметим, что по неравенству Рао-Крамера дисперсия любой несмещенной оценки не может быть меньше Назовем эффективностью несмещенной оценки величину
Ясно, что эффективность любой оценки при каждом заключена между нулем и единицей, причем чем она ближе к единице при каком-либо тем лучше оценка при этом значении неизвестного параметра.
Несмещенная оценка называется эффективной (по Рао-Краме-ру), если при любом
Доказательство теоремы 1. Доказательство этой и всех остальных теорем будем проводить (если не сделано специальной оговорки) для непрерывного случая. Это связано с тем, что непрерывный случай, как правило, более сложен, и читатель, усвоивший доказательство для непрерывного случая, легко проведет его для дискретного.
Как мы увидим из хода доказательства, условия регулярности семейства упомянутые в формулировке теоремы, есть не что иное, как условия, гарантирующие законность дифференцирования под знаком интеграла в формулах (1) и (3). В разных книгах сформулированы различные достаточные условия. Мы упомянем одно из них, приведенное в [11]:
функция для всех (точнее, для почти всех) х непрерывно дифференцируема по информация Фишера конечна, положительна и непрерывна по
Приступим теперь к собственно доказательству теоремы. Заметим прежде всего, что, дифференцируя тождество
(в силу сформулированного условия это можно делать), получаем
Далее, в силу несмещенности оценки имеем
Дифференцируя это равенство по и учитывая очевидное тождество
полученное из (1) и (2), находим
Воспользовавшись неравенством Коши-Буняковского
при
имеем
Заметим теперь, что в силу тождества (2)
Тогда неравенство (5) можно переписать в виде откуда и следует неравенство Рао-Крамера.
Замечание:
Для превращения используемого при доказательстве теоремы 1 неравенства Коши-Буняковского, в равенство необходимо и достаточно существование таких функций аргумента х и аргумента что ,
При этом оценка должна иметь вид
Обозначая
и интегрируя уравнение (6), получаем, что необходимым условием существования эффективной оценки является возможность представления плотности распределения в виде
где — функции, зависящие только от функции, зависящие только от
Аналогичное представление для ряда распределения должно иметь место и в дискретном случае. Семейство плотностей или рядов распределения такого вида носит название экспоненциального.
Экспоненциальные семейства играют в математической статистике важную роль. В частности, как мы показали, только для этих семейств могут существовать эффективные оценки, которые к тому же определяются формулой
(появление множителя связано с неоднозначностью определения функций в представлении (7)). Однако следует помнить, что не для всякого экспоненциального семейства существует эффективная оценка (в принятом нами смысле), поскольку эффективная оценка по определению должна быть несмещенной, что, вообще говоря, нельзя сказать об оценке (8) в случае произвольного экспоненциального семейства. Впрочем, из тождества (1) вытекает весьма простой способ проверки несмещенности (8) непосредственно по заключающийся в выполнении равенства
Замечание:
Неравенство Рао-Крамера можно обобщить на случай смещенных оценок:
И в этом случае неравенство превращается в равенство только тогда, когда семейство распределений экспоненциально.
Пример:
Рассмотрим оценку неизвестной вероятности успеха в схеме Бернулли из примера 1. Как показано в примере 7, эта оценка несмещенная. Дисперсия имеет вид
Найдем информацию Фишера (напомним, что в данном случае наблюдаемая величина X принимает всего два значения 0 и 1 с вероятностями соответственно):
Таким образом, и, значит, оценка эффективная.
Пример:
Рассмотрим оценку неизвестного среднего нормального закона из примера 2. Поскольку эта оценка представляет собой выборочное среднее, то в соответствии с результатами, полученными в примере 8, она является несмещенной. Найдем ее эффективность. Для этого прежде всего заметим, что
Далее,
И в этом примере оценка является эффективной.
Пример:
Оценим неизвестную дисперсию нормального закона при известном среднем т. Плотность нормального распределения представима в виде
где
т.е. по отношению к неизвестной дисперсии принадлежит экспоненциальному семейству. Поэтому эффективная оценка дисперсии должна по формуле (8) иметь вид
С другой стороны, нетрудно видеть, что откуда следует несмещенность оценки
и, значит, ее эффективность. Впрочем, эффективность оценки легко установить и на основе неравенства Рао-Крамера.
Пусть теперь мы оцениваем не дисперсию, а среднее квадратичное отклонение И в этом случае имеет место представление (7), только теперь
Поэтому равенство не превращается в тождество ни при каком выборе g, и, значит, эффективной (в смысле Рао-Крамера) оценки среднего квадратичного отклонения нормального закона не существует. Рассмотрим оценку
равную корню квадратному из оценки дисперсии с точностью до постоянного множителя Читателю предлагается проверить, что оценка несмещенная. Кроме того, в следующем параграфе будет показано, что среди всех несмещенных оценок среднего квадратичного отклонения она имеет минимальную дисперсию (хотя и не является эффективной).
Пример:
Пусть выборка произведена из генеральной совокупности с равномерным на интервале теоретическим распределением. Оценим неизвестный параметр Обозначим через максимальный член вариационного ряда. В качестве оценки параметра возьмем
Функция распределения статистики задается формулой
Тогда
Значит, оценка несмещенная. Далее,
Мы видим, что дисперсия оценки при убывает, как Такая оценка оказалась более эффективной, поскольку дисперсия эффективной оценки убывает только, как 1 /п. Разгадка парадокса чрезвычайно проста: для данного семейства не выполнены условия регулярности, необходимые при доказательстве неравенства Рао-Крамера. Используя понятие достаточной статистики, в следующем параграфе мы докажем минимальность дисперсии данной оценки.
В заключение этого параграфа отметим, что эффективные по Рао-Крамеру оценки существуют крайне редко. Правда, как мы увидим в параграфе 4, эффективность по Рао-Крамеру играет существенную роль в асимптотическом анализе оценок, получаемых методом максимального правдоподобия. Кроме того, существуют обобщения неравенства Рао-Крамера (например, неравенство Бхаттачария [7]), позволяющие доказывать оптимальность более широкого класса оценок.
В следующем параграфе мы рассмотрим другой подход к определению оценок с минимальной дисперсией, базирующийся на достаточных статистиках.
Наиболее распространенные методы нахождения оценок приводятся в параграфах 3-6.
Наконец, в параграфе 7 описан подход к построению доверительных интервалов для неизвестных параметров.
Достаточные оценки
Первый шаг в поисках другого (не основанного на неравенстве Рао-Крамера) принципа построения оценок с минимальной дисперсией состоит во введении понятия достаточной статистики (отметим, что достаточные статистики играют в современной математической статистике весьма важную роль, причем как при оценке неизвестных
параметров, так и при проверке статистических гипотез). Назовем k-мерную статистику
достаточной для параметра если условное распределение выборки при условии не зависит от параметра
Пример:
Пусть — число успехов в i-м испытании Бернулли (см. пример 1). Рассмотрим статистику
— общее число успехов в п испытаниях Бернулли. Покажем, что она является достаточной для вероятности успеха Для этого найдем условное распределение Воспользовавшись определением условной вероятности, получаем
Если то вероятность совпадает с вероятностью т.е.
(напомним еще раз, что каждое может принимать здесь только значение О или 1, причем Поскольку вероятность определяется формулой Бернулли
то из (9) получаем, что
т. е. не зависит от Если же то
откуда
т. е. опять-таки не зависит от Таким образом, S — достаточная статистика.
Очевидно, что использовать приведенное выше определение для проверки достаточности конкретных статистик весьма сложно, особенно в непрерывном случае. Простой критерий достаточности задается следующей теоремой.
Теорема:
Факторизационная теорема Неймана-Фишера. Для того чтобы статистика была достаточной для параметра необходимо и достаточно, чтобы ряд распределения
в дискретном случае или плотность распределения
в непрерывном случае выборки были представимы в виде
где функция зависит только от а функция — только от
Доказательство:
Для простоты изложения ограничимся только дискретным случаем. По определению условной вероятности,
Очевидно, что числитель в правой части (II) совпадает с вероятностью в том случае, когда и равен нулю в противном. Поскольку событиями нулевой вероятности можно пренебречь, то ограничимся случаем и запишем (11) в виде
Теперь, если S — достаточная статистика, то левая часть (12) не зависит от Обозначая ее через — через приходим к (10), что доказывает необходимость (10). И наоборот, пусть выполнено (10). Тогда
Подставляя последнее равенство в (12), имеем
т.е. не зависит от а значит, статистика S является достаточной.
Замечание к теореме 2. Очевидно, что представление (10) справедливо с точностью до функции зависящей только от
Пример:
Пусть — выборка из генеральной совокупности с теоретической функцией распределения, являющейся нормальной со средним и дисперсией Покажем, что (двумерная) статистика где
является достаточной для (двумерного) параметра (см. также пример 3 из гл. 1). Действительно, плотность распределения выборки представима в виде
т.е. имеет вид (10), где
Пример:
Пусть — выборка из генеральной совокупности с равномерным на интервале теоретическим распределением (см. пример 13). Покажем, что максимальный член вариационного ряда
является (одномерной) достаточной статистикой для Действительно, вспоминая, что плотность равномерно распределенной на интервале величины равна при и нулю в противном случае, получаем для плотности распределения выборки выражение
В частности, область изменения каждого аргумента при отличной от нуля плотности распределения зависит от параметра Рассмотрим функцию
и положим
С учетом введенных функций.
Здесь уже при определении функции сверху не наложено никаких ограничений, поскольку они автоматически ограничены своим максимальным значением S, которое в свою очередь не превосходит Но это означает, что функция не зависит от параметра и в соответствии с теоремой 2 статистика
является достаточной для параметра
Пример:
Покажем, что для экспоненциального семейства (7) существует одномерная достаточная статистика. Этот факт легко установить, если подставить выражение (7) в формулу для плотности распределения выборки
Полагая теперь
видим, что одномерная статистика
является достаточной для параметра
Как уже говорилось в гл. 1, смысл достаточной статистики S заключается в том, что она включает в себя всю ту информацию о неизвестном параметре которая содержится в исходной выборке Интуиция подсказывает нам: оценка с наименьшей дисперсией (если она существует) должна зависеть только от достаточной статистики S. И действительно, следующий наш шаг будет заключаться в переходе от произвольной оценки к оценке зависящей только от достаточной статистики S, причем этот переход совершится таким образом, чтобы дисперсия оценки не превосходила дисперсии исходной оценки
Начиная с этого момента и до конца параграфа будем для простоты предполагать, что неизвестный параметр является одномерным.
Пусть имеется некоторая оценка этого параметра, а также (произвольная) статистика S. Рассмотрим условное математическое ожидание случайной величины при условии S (см. часть 1, гл. 7, параграф 5). Следующее утверждение, играющее основную роль в наших рассуждениях, было получено независимо Д. Блекуэлом, М.М. Рао и А.Н. Колмогоровым.
Теорема:
Улучшение оценки по достаточной статистике. Пусть S — достаточная статистика, а — несмещенная оценка параметра Тогда условное математическое ожидание является несмещенной оценкой параметра зависящей только от достаточной статистики S и удовлетворяющей неравенству
при всех
Доказательство:
В силу достаточности статистики 5 условное распределение, а значит, и условное математическое ожидание оценки при условии S не зависит от неизвестного параметра (для произвольной статистики S функция вообще говоря, может зависеть от т.е. представляет собой оценку параметра причем зависящую только от S. Далее, из равенства
для условного математического ожидания немедленно следует несмещенность оценки
Наконец,
Используя опять свойство условного математического ожидания, получаем
Поэтому
Замечание:
Неравенство (13) превращается для некоторого в равенство тогда и только тогда, когда (почти всюду по мере
Замечание:
Утверждение теоремы остается в силе и для смещенной оценки В частности,
Смысл теоремы 3 заключается в том, что взятие условного математического ожидания, т. е. переход к оценке зависящей только от достаточной статистики S, не ухудшает любую оценку при всех значениях неизвестного параметра
Пример:
Пусть — выборка из нормально распределенной генеральной совокупности с неизвестным средним и известной дисперсией В примере 9 было показано, что оценка даже не является состоятельной оценкой хотя она и несмещенная. Рассмотрим статистику
Нетрудно показать, что статистика S является достаточной для параметра Поэтому мы можем определить новую оценку Для ее вычисления заметим, что величины имеют двумерное нормальное распределение со средними дисперсиями и ковариацией Но тогда, как известно из курса теории вероятностей, условное распределение при условии S = s также является нормальным со средним значением как раз и представляющим собой значение при S = s. Поскольку коэффициент корреляции то среднее значение условного распределения совпадает с s/n и окончательно получаем
Иными словами, мы из совсем плохой оценки получили эффективную (см. пример 11) оценку
Рассмотренный пример приоткрывает нам те возможности, которые несет с собой теорема 3. Однако, прежде чем сделать последний шаг, введем еще одно определение. Назовем статистику полной для семейства распределений если из того, что
при всех (мы для простоты предположили существование плотности распределения следует, что функция тождественно равна нулю. Теперь мы в состоянии сформулировать окончательный итог наших поисков.
Теорема:
Минимальность дисперсии оценки, зависящей от полной достаточной статистики. Пусть S — полная достаточная статистика, — несмещенная оценка неизвестного параметра Тогда
является единственной несмещенной оценкой с минимальной дисперсией.
Доказательство теоремы немедленно вытекает из предыдущих результатов. Действительно, в силу теоремы 3 оценка с минимальной дисперсией обязательно должна находиться среди оценок, зависящих только от достаточной статистики S; в противном случае ее можно было бы улучшить с помощью условного математического ожидания. Но среди оценок, зависящих только от S, может быть максимум одна несмещенная. В самом деле, если таких оценок две: то функция
имеет при всех значениях математическое ожидание
что в силу полноты статистики S влечет за собой равенство нулю. Само же существование несмещенной оценки зависящей только от S, гарантируется существованием просто несмещенной оценки
Перейдем к обсуждению полученных результатов.
Условие полноты статистики S, как мы видим, сводится к единственности несмещенной оценки зависящей только от статистики S. Нам не известно общих теорем, которые давали бы простые правила проверки полноты произвольной статистики S. Однако, как мы увидим из примеров, в конкретных случаях кустарные способы обычно дают хорошие результаты.
Сравнение размерностей полной статистики S и оцениваемого параметра дает право говорить, что, как правило, статистика S должна иметь ту же размерность, что и а поскольку мы ограничились одномерным параметром то S также должна быть одномерной. Это приводит к следующим полезным определениям. Оценка называется достаточной, если она является достаточной как одномерная статистика. Аналогично, назовем оценку полной, если она является полной статистикой.
Сформулируем очевидное следствие из теоремы 4. которое удобно применять во многих частных случаях.
Следствие из теоремы 4. Если оценка несмещенная и зависит только от полной достаточной статистики S, то она имеет минимальную дисперсию.
Пример:
Пусть — выборка из генеральной совокупности, распределенной по нормальному закону с известным средним m и неизвестным средним квадратичным отклонением Нетрудно показать, что статистика
является достаточной для параметра Покажем, что она также полная. Для этого вспомним (см. параграф 4 гл. 1), что случайная величина имеет -распределение с п степенями свободы, а значит, статистика имеет плотность распределения
Пусть теперь — такая функция, что при всех Положим
Тогда
что для всех Но из теории преобразований Лапласа известно, что в этом случае оригинал а значит, и функция также должны тождественно равняться нулю, что и доказывает полноту статистики S.
Рассмотрим теперь оценку
(см. пример 12) неизвестного среднего квадратичного отклонения Эта оценка несмещенная и зависит только от полной достаточной статистики S. Поэтому по следствию из теоремы 4 она имеет минимальную дисперсию, хотя, как было показано в примере 12, и не является эффективной по Рао-Крамеру.
Пример:
Рассмотрим оценку
параметра равномерного на интервале распределения (см. пример 13). В примере 13 показано, что эта оценка несмещенная. Статистика является достаточной (см. пример 16). Покажем, наконец, что — полная статистика. Действительно, для любой функции
Отсюда, в частности, следует, что если при всех то
при всех х. Поэтому и статистика полная.
Таким образом, в силу следствия из теоремы 4 и в этом примере оценка имеет минимальную дисперсию.
Метод моментов
Пусть мы имеем выборку из генеральной совокупности с теоретической функцией распределения F(x), принадлежащей k-параметрическому семейству с неизвестными параметрами которые нужно оценить. Поскольку нам известен вид теоретической функции распределения, мы можем вычислить первые k теоретических моментов. Эти моменты, разумеется, будут зависеть от k неизвестных параметров
Суть метода моментов заключается в следующем: так как выборочные моменты являются состоятельными оценками теоретических моментов (см. пример 8), мы можем в написанной системе равенств при большом объеме выборки п теоретические моменты заменить на выборочные а затем, решая эту систему относительно найти оценки неизвестных параметров. Таким образом, в методе моментов оценки неизвестных параметров определяются из системы уравнений
Можно показать, что при условии непрерывной зависимости решения этой системы от начальных условий оценки, полученные методом моментов, будут состоятельными. Более того, справедлива следующая теорема.
Теорема:
Асимптотическая нормальность оценок, полученных методом моментов. При некоторых условиях, наложенных на семейство совместное распределение случайных величин
при сходится к (многомерному) нормальному закону с нулевыми средними и матрицей ковариаций, зависящей от теоретических моментов и матрицы
Доказательство:
Будем полагать, что выполнены следующие условия: а) параметры однозначно определяются своими моментами
б) существует теоретический момент порядка 2k (это эквивалентно существованию дисперсий у выборочных моментов
в) функция
дифференцируема по с отличным от нуля якобианом
Доказательство теоремы проведем для одномерного случая, предоставляя общий случай читателю. Оно является комбинацией следующих результатов: теоремы о дифференцируемости обратного отображения и центральной предельной теоремы. Действительно, поскольку существует дисперсия DX, то при каждом истинном значении параметра в силу центральной предельной теоремы выборочное среднее
асимптотически при распределено по нормальному закону с параметрами С другой стороны, сама оценка записывается в виде
где — обратная к функция. В силу сделанных предположений обратное отображение в окрестности точки приближенно представляет собой линейную функцию
причем Но тогда и случайная величина как приближенно линейное преобразование приближенно нормальной случайной величины распределена приближенно по нормальному закону со средним и дисперсией Это доказывает утверждение теоремы.
Пример:
Найдем методом моментов оценку неизвестной вероятности успеха в схеме Бернулли. Поскольку в схеме Бернулли только один неизвестный параметр, для его определения необходимо приравнять теоретическое математическое ожидание числа успехов в одном испытании выборочному среднему
Итак, оценка полученная методом моментов, представляет собой наблюденную частоту успехов. Свойства этой оценки были нами достаточно полно исследованы в примерах 1, 4, 7 и 10.
Пример:
Выборка произведена из генеральной совокупности с теоретической функцией распределения, имеющей гамма-плотность
с двумя неизвестными параметрами Первые два момента случайной величины X, имеющей гамма-распределение, задаются формулами:
Отсюда для определения оценок неизвестных параметров получаем систему двух уравнений:
решение которой имеет вид
Вообще говоря, в методе моментов не обязательно использовать первые k моментов. Более того, можно рассматривать моменты не обязательно целого порядка. Иногда для использования в методе моментов привлекают более или менее произвольные функции сравнивая выборочные средние
функций с теоретическими средними
Пример:
Пусть выборка произведена из нормальной генеральной совокупности с известным средним т и неизвестной дисперсией Попробуем для оценивания применить метод моментов, взяв выборочное среднее Но теоретическое среднее не зависит от параметра Это означает, что использование выборочного среднего для оценивания неизвестной дисперсии неправомочно и нужно привлекать моменты других порядков. В частности, применяя второй выборочный момент и вспоминая, что получаем оценку
Следует отметить, что оценки, полученные методом моментов, обычно имеют эффективность существенно меньше единицы и даже являются смещенными. Иногда из-за своей простоты они используются в качестве начального приближения для нахождения более эффективных оценок.
Метод максимального правдоподобия
Метод максимального правдоподобия является наиболее распространенным методом нахождения оценок. Пусть по-прежнему выборка произведена из генеральной совокупности с неизвестной теоретической функцией распределения F(x), принадлежащей известному однопараметрическому семейству Функция
в дискретном случае и
в непрерывном называется функцией правдоподобия. Отметим,что в функции правдоподобия элементы выборки являются фиксированными параметрами, а — аргументом (а не истинным значением неизвестного параметра). Функция правдоподобия по своей сути представляет собой не что иное, как вероятность (в непрерывном случае плотность распределения) получить именно ту выборку которую мы реально имеем, если бы значение неизвестного параметра равнялось Естественно поэтому в качестве оценки неизвестного параметра выбрать доставляющее наибольшее значение функции правдоподобия Оценкой максимального правдоподобия называется такое значение для которого
При практической реализации метода максимального правдоподобия удобно пользоваться не самой функцией правдоподобия, а ее логарифмом.
Уравнением правдоподобия называется уравнение
Если функция правдоподобия дифференцируема по в каждой точке, то оценку максимального правдоподобия следует искать среди значений удовлетворяющих уравнению правдоподобия или принадлежащих границе области допустимых значений . Для наиболее важных семейств уравнение правдоподобия имеет единственное решение которое и является оценкой максимального правдоподобия.
Пример:
Найдем оценку неизвестной вероятности успеха в схеме Бернулли, но теперь уже в отличие от примера 21 методом максимального правдоподобия. Поскольку если X = 0, то функцию правдоподобия можно записать так:
где — суммарное число успехов в п испытаниях. Тогда уравнение правдоподобия принимает вид
Решая это уравнение, имеем
Поскольку
то представляет собой выпуклую вверх функцию Значит, доставляет максимум функции правдоподобия т.е. является оценкой максимального правдоподобия. Эта оценка представляет собой, как и в примере 21, наблюденную частоту успехов.
Оказывается, имеется тесная связь между эффективными оценками и оценками, полученными методом максимального правдоподобия. А именно, справедлива следующая теорема.
Теорема:
Совпадение эффективной оценки с оценкой максимального правдоподобия. Если (естественно, при условиях регулярности теоремы 1) существует эффективная оценка то она является оценкой максимального правдоподобия
Доказательство теоремы 6 представляет собой дальнейшее уточнение доказательства теоремы 1. Действительно, как следует из замечания 1 к теореме 1, из существования эффективной оценки вытекает (6) и (8) Отсюда и из (4) следует равенство
Поэтому из условия строгой положительности информации I вытекает строгая положительность которая в свою очередь влечет за собой единственность решения
уравнения правдоподобия
Это решение совпадает с эффективной оценкой и задает единственный максимум функции правдоподобия
В общем случае оценка максимального правдоподобия может быть не только неэффективной, но и смещенной. Тем не менее она обладает свойством асимптотической эффективности в следующем смысле.
Теорема:
Асимптотическая эффективность оценки максимального правдоподобия. При некоторых условиях на семейство уравнение правдоподобия имеет решение, при асимптотически распределенное по нормальному закону со средним и дисперсией где I — информация Фишера.
Доказательство:
Сначала сформулируем условия теоремы (см. [9]), которые, как мы увидим далее, гарантируют возможность дифференцируемости под знаком интеграла и разложения в ряд Тейлора до первого члена:
а) для (почти) всех х существуют производные
б) при всех справедливы неравенства
где функции интегрируемы на причем M не зависит от
в) информация I конечна и положительна для всех
Обозначим через истинное значение неизвестного параметра В силу условий теоремы справедливо следующее разложение в окрестности
причем Тогда после умножения на уравнение правдоподобия можно записать в виде
где случайные величины определяются выражениями
Рассмотрим поведение при больших п. Дифференцируя (1) по получаем
Поэтому
Вернемся к уравнению (14) и воспользуемся сначала тем фактом, что при в силу закона больших чисел причем, согласно условиям теоремы, Тогда можно показать, что уравнение (14) будет в некоторой окрестности иметь асимптотически единственное решение которое к тому же определяется приближенной формулой
Величина по центральной предельной теореме, при имеет асимптотически нормальное распределение с нулевым средним и дисперсией
Поэтому оценка также асимптотически распределена по нормальному закону с параметрами
Замечание:
Доказанная теорема гарантирует, что среди всех решений уравнения правдоподобия существует по крайней мере одно обладающее свойством асимптотической эффективности в указанном смысле. Более того, такое решение асимптотически единственно в некоторой окрестности точки (т. е. вероятность того, что в этой окрестности имеется другое решение уравнения правдоподобия, с ростом п стремится к нулю) и именно оно доставляет локальный максимум функции правдоподобия в этой окрестности. Но с самого начала мы назвали оценкой максимального правдоподобия оценку, доставляющую глобальный максимум функции правдоподобия. Такая оценка, вообще говоря, может не совпадать с и даже быть неединственной. Однако если семейство распределений удовлетворяет естественному свойству разделимости, смысл которого сводится к тому, что для достаточно удаленных друг от друга распределения также достаточно хорошо отличаются друг от друга, то любая оценка максимального правдоподобия будет состоятельной, т.е. стремиться к оцениваемому параметру. Вкупе с доказанной теоремой это означает асимптотическую единственность оценки максимального правдоподобия и совпадение ее с что позволяет при асимптотическом анализе свойств оценки максимального правдоподобия говорить не об одном из решений уравнения правдоподобия или даже не об одной из оценок максимального правдоподобия, а просто об оценке максимального правдоподобия Детальный разбор этого явления можно найти в [И]. Там же показано, что для оценки близости распределений удобно использовать расстояние Кульбака-Лейблера
поскольку в силу закона больших чисел именно к расстоянию Кульбака-Лейблера при сходится с точностью до знака, постоянной
здесь — аргумент функции правдоподобия, а — истинное значение неизвестного параметра.
В случае, когда семейство зависит от нескольких неизвестных параметров при использовании метода максимального правдоподобия нужно искать максимум функции правдоподобия или ее логарифма по k аргументам Уравнение правдоподобия превращается в систему уравнений
Пример:
Выборка произведена из нормальной генеральной совокупности с неизвестными параметрами (среднее) и (дисперсия). Найдем их оценки методом максимального правдоподобия. Логарифм функции правдоподобия задается формулой
Система уравнений правдоподобия имеет вид
Таким образом,
Читателю предлагается самостоятельно показать, что доставляют максимум функции правдоподобия Оценки параметров совпадают с выборочным средним и выборочной дисперсией Отметим, что оценка неизвестного математического ожидания является эффективной (см. пример 11), чего нельзя сказать об оценке неизвестной дисперсии которая, как мы знаем, является даже смещенной.
Оказывается, однако, что если мы в качестве оценки параметра рассмотрим выборочную дисперсию то эта оценка будет уже не только несмещенной, но и иметь минимальную дисперсию среди всех несмещенных оценок параметра Последний факт вытекает из неравенства Бхаттачария [7], обобщающего неравенство Рао-Крамера, а также может быть установлен из свойств многомерных достаточных оценок [11].
Метод минимального расстояния
Суть этого метода заключается в следующем. Предположим, что любым двум функциям распределения поставлено в соответствие число
называемое расстоянием, причем Пусть теперь, как обычно, задана выборка из генеральной совокупности с теоретической функцией распределения F(x), принадлежащей параметрическому семейству Вычислим расстояние между эмпирической функцией распределения и функциями распределения из данного семейства. Оценкой, полученной методом минимального расстояния, называется такое значение для которого
т. е. такое значение которое определяет ближайшую к в смысле расстояния р функцию распределения из семейства
Приведем примеры некоторых наиболее часто встречающихся в математической статистике расстояний.
Равномерное расстояние (расстояние Колмогорова) определяется формулой
Расстояние имеет вид
Расстояние употребляется для функций распределения дискретных случайных величин принимающих одинаковые значения и задается выражением
где вероятности определяются рядами распределения случайных величин
Использование приведенных выше расстояний для получения оценок весьма сложно в вычислительном плане, и поэтому они употребляются крайне редко. Здесь мы упомянули об этих расстояниях только потому, что применение оценок, полученных с их помощью, позволяет упростить вычисление уровней значимости критериев при проверке сложных непараметрических статистических гипотез, поскольку такие оценки естественным образом связаны с соответствующими критериями (см. параграф 5 гл. 3).
Метод номограмм
Еще одним методом, позволяющим, пользуясь только номограммами (специальным образом разлинованными листами бумаги, которые в математической статистике носят название вероятностной бумаги), весьма просто и быстро оценить неизвестные параметры, является метод номограмм. Его сущность состоит в следующем. Пусть мы имеем выборку из генеральной совокупности с неизвестной теоретической функцией распределения, принадлежащей двухпараметрическому семейству Предположим теперь, что каким-то чрезвычайно простым способом удалось построить функцию распределения из семейства достаточно хорошо приближающую эмпирическую функцию распределения Тогда будут являться оценками неизвестных параметров причем в силу теоремы Гливенко-Кантелли состоятельными при весьма слабых условиях, накладываемых на семейство
Казалось бы, мы пришли к не менее сложной задаче: найти «чрезвычайно простой» способ приближения эмпирической функции распределения функцией распределения из семейства Оказывается, однако, что графики функций распределения тех семейств в которых по сути дела, связаны с параметрами «сдвига» и «масштаба» (к таким семействам относятся, например, нормальное, логнормальное и т.д.), можно с помощью некоторых нелинейных преобразований координат превратить в семейство прямых линий. Тогда, построив в этих новых координатах график эмпирической функции распределения нетрудно визуально провести прямую, которая достаточно хорошо приближает а затем уже по коэффициентам проведенной прямой найти оценки и неизвестных параметров
Практическая реализация метода номограмм происходит следующим образом. Сначала выборку преобразуют в вариационный ряд и на номограмме для соответствующего семейства откладывают точки с координатами абсциссы которых представляют собой точки скачков эмпирической функции распределения а ординаты — середины этих скачков. Затем «на глаз» проводят прямую линию, проходящую как можно ближе ко всем точкам Наконец, с помощью пояснений к номограмме по коэффициентам прямой находят оценки неизвестных параметров
Пример 26. Предполагая в примере 1 из гл. 1, что проекция вектора скорости молекул водорода распределена по нормальному закону, оценим с помощью метода номограмм неизвестное математическое ожидание и дисперсию Воспользовавшись вариационным рядом выборки, найдем координаты точек (табл.3). Отложим точки на номограмме для нормального распределения (на нормальной вероятностной бумаге) и проведем «на глаз» прямую А, задаваемую уравнением (рис. 1).
Оценка математического ожидания совпадает с точкой пересечения прямой А с осью абсцисс, т. е. Для того чтобы найти оценку дисперсии определим значение коэффициента Тогда Для сравнения приведем значения оценок этих же параметров, полученные методом максимального
правдоподобия (см. пример 18, а также пример 8 из гл. 1): Как видим, оценки весьма близки.
Следует отметить, что с помощью метода номограмм можно судить также о правильности выбора семейства Действительно, по множеству точек сразу видно, группируются они вокруг некоторой прямой или нет. Если нет, то возникают серьезные сомнения в принадлежности теоретического распределения F(x) семейству
Доверительные интервалы
Полученные в предыдущих параграфах оценки неизвестных параметров естественно называть точечными, поскольку они оценивают неизвестный параметр одним числом или точкой. Однако, как мы знаем, точечная оценка не совпадает с оцениваемым параметром и более разумно было бы указывать те допустимые границы, в которых может находиться неизвестный параметр при наблюденной выборке К сожалению, в подавляющем большинстве важных для практики случаев при любой выборке достоверная область, в которой может находиться неизвестный параметр совпадает со всей возможной областью изменения этого параметра, поскольку такую выборку мы можем получить с ненулевой вероятностью (или плотностью распределения) при каждом значении Поэтому приходится ограничиваться нахождением границ изменения неизвестного параметра с некоторой наперед заданной степенью доверия или доверительной вероятностью.
Доверительной вероятностью назовем такую вероятность что событие вероятности можно считать невозможным. Разумеется, выбор доверительной вероятности полностью зависит от исследователя, причем во внимание принимаются не только его личные наклонности, но и физическая суть рассматриваемого явления. Так, степень доверия авиапассажира к надежности самолета, несомненно, должна быть выше степени доверия покупателя к надежности электрической лампочки. В математической статистике обычно используют значения доверительной вероятности 0,9, 0,95, 0,99, реже 0,999, 0,9999 и т. д.
Задавшись доверительной вероятностью мы уже можем по выборке определить интервал в котором будет находиться неизвестный параметр Такой интервал называется доверительным интервалом (иногда также говорят «интервальная оценка») доверительной вероятности для неизвестного параметра Отметим, что доверительная вероятность а ни в коей мере не является вероятностью неизвестному параметру принадлежать доверительному интервалу поскольку, как мы предположили с самого начала, априорные сведения о параметре в частности о его распределении, отсутствуют. Когда говорят, что неизвестный параметр не может выйти за границу доверительного интервала констатируют только, что если при любом истинном значении в результате эксперимента получена выборка а затем по ней построен доверительный интервал то этот интервал с вероятностью накроет значение
Доверительные интервалы определим, следуя Ю. Нейману, опираясь на точечные оценки. По заданной оценке доверительные интервалы доверительной вероятности а можно построить различными способами. На практике обычно используют два типа доверительных интервалов: симметричные и односторонние. Ограничимся описанием процедуры построения симметричных доверительных интервалов. Односторонние доверительные интервалы находятся совершенно аналогично.
Итак, пусть у нас имеется выборка из генеральной совокупности с неизвестной теоретической функцией распределения F(x), принадлежащей однопараметрическому семейству Предположим также, что нами выбрана некоторая оценка по которой мы хотим построить симметричный доверительный интервал доверительной вероятности Для этого возьмем произвольное значение и найдем функцию распределения оценки Определим и из решения уравнений (см. рис. 2):
(напомним, что носят название -квантилей функции распределения Таким образом, при заданном оценка будет с вероятностью заключена в интервале причем вероятность попадания как влево, так и вправо от интервала имеет одно и то же значение (отсюда происходит название «симметричный»). Откладывая теперь на графике рис. 3 по оси абсцисс значение параметра а по оси ординат — соответствующие ему значения получим кривые В силу принципа невозможности события, происходящего с вероятностью 1 — а, заключаем, что все возможные пары могут находиться только внутри области G между кривыми Для окончания построения доверительного интервала остается заметить, что, получив по выборке оценку мы вправе сделать вывод: неизвестный параметр в обязан лежать внутри интервала где определяются из решения уравнений
Именно интервал и является симметричным доверительным интервалом доверительной вероятности
Пример 27. Построим симметричный доверительный интервал доверительной вероятности а для неизвестной вероятности успеха в схеме Бернулли. Естественно в качестве оценки взять наблюденную частоту
где — суммарное наблюденное число успехов (см. пример 24).
При малом объеме выборки п процедура построения доверительных интервалов трудоемка, поскольку она практически сводится к перебору значений неизвестного параметра. Поэтому существуют специальные таблицы (см. [1], табл. 5.2), которые по наблюденным значениям числа успехов и числа неудач дают границы доверительного интервала доверительной вероятности а.
При больших объемах выборки п пользуются тем фактом, что в силу интегральной теоремы Муавра-Лапласа оценка распределена приближенно по нормальному закону со средним и дисперсией Тогда решения уравнений
связаны с -квантилями (см. [1], табл. 1.3) стандартного нормального закона формулами
Учитывая, что уравнения кривых можно записать в единой эквивалентной форме
Последнее уравнение, как нетрудно видеть, представляет собой уравнение эллипса (рис. 4) (физически непонятный выход эллипса за полосу связан с тем, что при близких к нулю или единице, необходимо в соответствии с теоремой Пуассона использовать не нормальную, а пуассоновскую аппроксимацию оценки Уравнение для определения границ доверительного интервала имеет вид
откуда окончательно получаем
Пример:
Построим симметричный доверительный интервал доверительной вероятности а для неизвестного среднего нормального закона при известной дисперсии Эффективной оценкой параметра как мы знаем (пример 18), является выборочное среднее
Оценка также распределена по нормальному закону с параметрами Поэтому
т.е. представляют собой уравнения двух параллельных прямых (рис. 5). Решая уравнения получаем границы доверительного интервала или, учитывая, что
Пример:
Как и в предыдущем примере, предположим, что выборка произведена из нормальной генеральной совокупности, но с неизвестной дисперсией а среднее известно и равно т. В качестве оценки неизвестной дисперсии возьмем выборочную дисперсию
Тогда случайная величина будет иметь -распределение с п степенями свободы, а значит, решения уравнений
определяются формулами
где — а-квантиль -распределения с п степенями свободы (см. [1], табл. 2.26). Уравнения
представляют собой уравнения двух лучей, исходящих из начала координат (рис.6), и, значит, границы симметричного доверительного интервала доверительной вероятности а для неизвестной дисперсии задаются формулами
Пример:
Рассмотрим, наконец, случай, когда в выборке из нормальной генеральной совокупности неизвестны оба параметра: среднее и дисперсия В качестве их оценок воспользуемся выборочным средним
и выборочной дисперсией
(см. пример 25).
Построение доверительного интервала для неизвестного среднего начнем с определения случайной величины
которая, как говорилось в параграфе 4 гл. 1, имеет t-распределение с п — 1 степенями свободы. Обозначим через -квантили t-распределения (см. [1], табл. 3.2). Тогда значение оценки среднего с вероятностью а будет лежать в пределах
Продолжая рассуждения, как и в случае известной дисперсии, и учитывая равенство получаем окончательные выражения для границ симметричного доверительного интервала доверительной вероятности a:
Доверительный интервал доверительной вероятности а для неизвестной дисперсии строится точно так же, как и в примере 29:
При этом нужно учитывать, что квантили берутся для -распределения с степенями свободы, поскольку одна степень свободы уходит на определение неизвестного среднего
В заключение отметим, что в современной математической статистике доверительные интервалы строят так же, основываясь на критериях значимости.
Решение заданий и задач по предметам:
Дополнительные лекции по теории вероятностей:
- Случайные события и их вероятности
- Случайные величины
- Функции случайных величин
- Числовые характеристики случайных величин
- Законы больших чисел
- Статистические оценки
- Статистическая проверка гипотез
- Статистическое исследование зависимостей
- Теории игр
- Вероятность события
- Теорема умножения вероятностей
- Формула полной вероятности
- Теорема о повторении опытов
- Нормальный закон распределения
- Определение законов распределения случайных величин на основе опытных данных
- Системы случайных величин
- Нормальный закон распределения для системы случайных величин
- Вероятностное пространство
- Классическое определение вероятности
- Геометрическая вероятность
- Условная вероятность
- Схема Бернулли
- Многомерные случайные величины
- Предельные теоремы теории вероятностей
- Генеральная совокупность