авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 |
-- [ Страница 1 ] --

Федеральное агентство по образованию

Государственное образовательное учреждение высшего профессионального образования

Ухтинский государственный технический университет

В.А. Пантелеев

СТАТИСТИЧЕСКИЕ

ОСНОВЫ

МОДЕЛИРОВАНИЯ

Монография

Ухта 2008

УДК 519.28

П 16

Пантелеев, В.А.

Статистические основы моделирования [Текст] : монография / В.А.Пантелеев. – Ухта: УГТУ, 2008. – 116 с.: ил.

ISBN 978-5-88179-520-7 В книге рассматриваются методы построения математических моде лей по экспериментальным данным, а также подробный статистический анализ полученных результатов. Изложение основывается на применении аппарата теории вероятностей и математической статистики, поэтому в книге значительное внимание уделяется рассмотрению вопросов теории вероятностей, статистическому оцениванию параметров и проверке стати стических гипотез.

Книга предназначена для студентов, аспирантов, инженеров и науч ных работников, применяющих в своей работе математическое моделиро вание. Может использоваться в качестве учебника.

Рецензент: В.С. Бесков, доктор технических наук, профессор, заве дующий кафедрой Российского химико-технологического университета им. Д.И. Менделеева © Ухтинский государственный технический университет, © Пантелеев Владимир Алексеевич, ISBN 978-5-88179-520- ОГЛАВЛЕНИЕ ОГЛАВЛЕНИЕ ВВЕДЕНИЕ Глава 1 ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.1 Понятие вероятности 1.2 События и их вероятности 1.3 Условные вероятности 1.4 Формула полной вероятности 1.5 Формула Байеса 1.6 Элементы комбинаторики 1.7 Схема и формула Бернулли 1.8 Случайные величины и их описание 1.9 Числовые характеристики случайных величин 1.10 Многомерные случайные величины Глава 2 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 2.1 Генеральная совокупность и выборка 2.2 Точечные оценки 2.3 Доверительные интервалы 2.4 Проверка статистических гипотез 2.5 Сравнение двух матожиданий 2.6 Гипотезы о равенстве дисперсий 2.7 Проверка гипотез о виде распределения Глава 3 РЕГРЕССИОННЫЙ АНАЛИЗ 3.1 Описание зависимостей 3.2 Линейный регрессионный анализ 3.3 Статистический анализ оценок коэффициентов уравнения регрессии 3.4 Статистический анализ уравнения регрессии 3.5 Пример статистического анализа уравнения регрессии 3.6 Действия в случае невыполнения предпосылок регрессионного анализа 3.7 Нелинейный регрессионный анализ ЗАКЛЮЧЕНИЕ ЛИТЕРАТУРА ВВЕДЕНИЕ Моделирование – это неотъемлемая часть человеческой деятельно сти. Любой образ объекта, любое представление об объекте являются мо делью этого объекта.

Вся деятельность человека вообще (а инженера – в особенности) так или иначе связана с необходимостью принимать целесообразные решения.

Успешность принятия таких решений однозначно зависит от степени соот ветствия объектов, в отношении которых принимается решение, и пред ставления об этих объектах в голове лица, принимающего решение. Таким образом, качество модели напрямую связано с качеством (и, соответствен но, с успехом) принимаемого решения.

Вся научная и инженерная деятельность человека базируется на ка чественно наиболее совершенном виде моделирования – на математиче ском моделировании, которое представляет собой сопоставление реально му физическому объекту математической модели, которая количественно описывает интересующие нас свойства объекта.

Методы моделирования весьма разнообразны, однако их можно раз делить на теоретические и экспериментальные.

Теоретические (или аналитические) методы моделирования со стоят в построении математической модели объекта с использованием фундаментальных физических законов (главным образом – законов сохра нения) на основании теоретического анализа энергетических и массовых потоков в объекте. Эти методы преимущественно применяют при проекти ровании новых технологических объектов.

Экспериментальные методы моделирования состоят в непосредст венном, опытном определении характеристик реального объекта. Эти ме тоды в свою очередь подразделяются на активные и пассивные.

При использовании активных методов на объект наносится специ альное возмущающее воздействие, а затем регистрируется и анализируется вызванная этим возмущением реакция объекта, т.е. изменения его состоя ния. Такие методы, как правило, весьма точны, однако далеко не все объ екты допускают нанесение возмущающих воздействий, и поэтому область применения этих методов ограничена.

Пассивные методы основаны на использовании информации об из менениях входных и выходных параметров объекта в процессе его нор мальной эксплуатации, поэтому они могут применяться ко всем без ис ключения объектам.

В.А.Пантелеев -5- ВВЕДЕНИЕ Необходимо отметить, что граница между теоретическими и экспе риментальными методами достаточно условна: с одной стороны, даже са мые фундаментальные законы представляют собой не что иное как мате матические модели, полученные на основании эксперимента, а с другой стороны – результатом любого эксперимента является математическая мо дель в той или иной форме (т.к. иначе экспериментирование было бы бес цельным). Серьёзные исследования проводятся, как правило, с использо ванием как тех, так и других методов.

Ввиду того, что все используемые математические модели имеют в конечном счёте экспериментальное происхождение, они неизбежно содер жат в себе ту или иную степень неточности описания объекта. Таким обра зом, во всех наших решениях принципиально содержится некоторый эле мент неопределённости. И если в личной жизни человек может позволить себе не анализировать возможных последствий этой неопределённости при принятии своих решений (и, тем самым, вести себя сколь угодно экстрава гантно), то инженер, решениями которого являются конструкции, схемы, технологические режимы и т.д., не имеет права её игнорировать. Это об стоятельство настолько важно, что степень неопределённости часто вы ступает в качестве основания для предпочтения одного инженерного ре шения другому.

Задача математического моделирования, таким образом, состоит не только в построении математической модели объекта, но и в количествен ной оценке, связанной с этой моделью неопределённости. Решением этой задачи занимается ряд наук, таких как теория автоматического управления, математическая статистика, регрессионный анализ, планирование экспе римента и т.д. Математической основой всех этих наук является теория ве роятностей.

Математические модели принято разделять на статические и дина мические.

Статические модели описывают связь между входными и выход ными параметрами объекта в стационарном состоянии, т.е. при условии, что ни входные, ни выходные параметры не изменяются во времени. Ре ально это соответствует ситуации, когда на вход объекта подаётся посто янное, не изменяющееся во времени воздействие, а значение выходного параметра фиксируется лишь после того, как его величина установится, т.е. перестанет изменяться во времени. С математической точки зрения статическая модель представляет собой функцию, т.е. математический объект, который одному или нескольким числам (значениям входных па раметров) ставит в соответствие число (или несколько чисел), равное ве личине выходного параметра (параметров).

Динамические модели связывают вход и выход объекта в переход ных состояниях, т.е. учитывают такие, присущие каждому реальному объ В.А.Пантелеев -6- ВВЕДЕНИЕ екту, свойства, как инерционность, способность «помнить» свои предыду щие состояния и т.д. Математически динамическая модель представляет собой оператор, т.е. математический объект, который одной или несколь ким функциям времени, задающим изменение во времени входных пара метров, ставит в соответствие функцию (или несколько функций) времени, задающих изменение во времени выходного параметра (параметров). Кон кретные математические структуры, реализующие оператор, могут быть различны. Наиболее часто используются дифференциальные уравнения, передаточные функции, корреляционные и спектральные зависимости и т.д.

Таким образом, главное различие между функцией и оператором (и, соответственно, между статической и динамической моделями) состоит в том, что функция «превращает» одно число в другое, а оператор – одну функцию в другую.

Часто для описания интересующего нас объекта можно ограничиться статической моделью. Это связано с тем, что многие объекты имеют столь небольшую инерционность, что для заданных целей анализа ею можно пренебречь. В этом случае говорят о статических объектах (хотя правиль нее, конечно, говорить о моделях статики). Методам построения и анализа математических моделей таких объектов и посвящена эта книга. Однако все изложенные ниже методы могут быть использованы и при анализе объектов с ярко выраженными динамическими свойствами.

Остановимся подробнее на проблеме построения моделей статики.

Задача состоит в определении по экспериментальным данным такой функ ции, которая бы наилучшим образом описывала изучаемый объект, а также в нахождении разумных границ, внутри которых возможно такое описа ние.

Экспериментальные данные (результаты эксперимента) с математи ческой точки зрения представляют собой прямоугольную таблицу чисел, каждая строка которой состоит из значений входных и выходных парамет ров в некотором эксперименте, а число строк равно числу экспериментов, т.е. числу опытов, проделанных при различных условиях. Входные пара метры носят название факторов, а выходные – откликов.

В простейшем случае при наличии одного фактора и одного отклика результаты эксперимента могут быть представлены графически в виде то чек в двумерной системе координат (абсцисса и ордината каждой точки соответствуют значениям фактора и отклика в данном эксперименте). За дача построения математической модели в этом случае состоит в опреде лении такой функции, которая наилучшим образом этим точкам соответст вует. Вопрос о том, что представляет собой «наилучшее соответствие» да леко не так прост и очевиден, как это представляется на первый взгляд.

Нам ещё предстоит его обсуждать, однако необходимо сразу отметить, что В.А.Пантелеев -7- ВВЕДЕНИЕ решение задачи построения математической модели не единственно. Мно гочисленные усилия учёных, направленные на отыскание «самой лучшей модели» для данного эксперимента (и даже для данного объекта), привели к выводу об иллюзорности этих усилий. Такой модели не существует. Ка ждому реальному объекту можно сопоставить множество одинаково хо рошо описывающих его моделей. Поэтому при выборе вида математиче ской модели руководствуются не только соответствием модели и экспери мента (так называемой адекватностью модели), но и критерием просто ты: если нет достаточно веских физических соображений, указывающих на вид модели, то используется самая простая (как правило – полиномиаль ная) модель. Порядок полинома также определяется этим критерием: он равен минимальному порядку полинома, обеспечивающему адекватность модели.

Как уже отмечалось, математическое моделирование базируется на использовании статистических методов. Это обстоятельство и определило структуру настоящей книги.

В первой главе излагаются основы теории вероятностей, являющейся безусловной основой всех статистических методов.

Вторая глава посвящена основным методам математической стати стики, применяемым при анализе эксперимента и проверке статистических гипотез.

В третьей главе излагаются основные методы построения и анализа математических моделей статики.

Глава ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Теория вероятностей, как и другие разделы математики, развилась из потребностей практики. Подобно тому, как геометрия начиналась с вопро са «какова площадь этого участка земли?», так и теория вероятностей на чалась с вопроса «как часто будет происходить то или иное событие в длинной серии испытаний?». Для ответа на вопрос о площади участка гео метрии пришлось разработать некоторые специфические понятия, такие как треугольник, угол и т.д. Аналогично, для ответа на вопрос о частоте некоторого события А требуется ввести понятия, позволяющие связать эту частоту с частотой и свойствами некоторых других, связанных с ним, со бытий. Обобщая, можно сказать, что целью классической теории вероят ностей является отыскание методов вычисления относительных частот (или, что тоже самое, вероятностей) некоторого события по относитель ным частотам (вероятностям) связанных с ним событий.

1.1 ПОНЯТИЕ ВЕРОЯТНОСТИ Все события реального мира можно условно разделить на детерми нированные (т.е. предсказуемые точно) и недетерминированные. Услов ность этого разделения состоит в трактовке термина «точно»: если точ ность предсказания события достаточна для наших целей, то мы считаем это событие детерминированным. Например, прогноз типа «солнце взой дет завтра в седьмом часу» можно оценить как абсолютно точный, если нам достаточно только факта восхода солнца между шестью и семью часа ми, но уже результат измерения момента завтрашнего восхода не может считаться детерминированным хотя бы из-за погрешностей измерения времени, широты и долготы.

Во множестве недетерминированных событий можно выделить под множество статистически устойчивых событий, значение которых можно предсказать в среднем. Не вдаваясь в строгое определение статистически устойчивых событий, укажем одну их важную отличительную черту – они В.А.Пантелеев - 9 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ должны быть не уникальными, а массовыми. Например, высказывания ти па «данный конкретный человек проживет 74 года» или «в таком-то году произойдет извержение Этны» имеют просто неопределенный характер и к ним понятия и методы тории вероятностей не имеют никакого отношения.

Статистически устойчивыми событиями, которые изучает теория вероят ностей, являются лишь такие, в отношении которых имеет смысл не только утверждение об их неопределенности, но и возможна объективная оценка доли случаев их появления. Например, высказывания о средней продолжи тельности жизни мужчин в той или иной стране уже являются предметом рассмотрения теории вероятностей.

Само понятие вероятности в теории вероятностей является первич ным (как, например, понятие прямой в геометрии), и поэтому оно является результатом абстракции, не поддающимся однозначному исчерпывающе му определению. Современная теория вероятностей насчитывает несколь ко трактовок этого понятия, но так как в нашу задачу не входит их сравни тельный анализ, то мы ограничимся только одной из них, достаточно удобной для прикладных задач. С этой целью введем следующее понятие.

Массовой операцией объема m называется серия из m единичных однородных испытаний, в каждом из которых может либо произойти, либо не произойти некоторое событие A. Примерами массовых операций могут служить: изготовление деталей станком-автоматом (событие А – деталь бракована), подбрасывание монетки (событие А – выпадение герба) и т.д.

Вероятностью события А в данной массовой операции называется отношение среднего числа единичных операций n, в которых событие А происходит, к объему массовой операции m:

n P ( A) =. (1.1) m Часто при определении вероятности используется не выражение (1.1), а его предельное значение при m, стремящемся к бесконечности. Од нако с практической точки зрения такой предельный переход не имеет смысла, т.к., во-первых, невозможно провести бесконечное число испыта ний, и, во-вторых, невозможно обеспечить однородность очень большого числа испытаний. Поэтому мы будем пользоваться формулой (1.1), тем бо лее, что осуществление абстрактного предельного перехода не приводит к качественно новым результатам, а трактовка числа n как среднего количе ства реализаций события А подразумевает многократное осуществление данной массовой операции, что обеспечивает достаточную математиче скую строгость.

В.А.Пантелеев - 10 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.2 СОБЫТИЯ И ИХ ВЕРОЯТНОСТИ Уже из определения вероятности (1.1) видно, что она может прини мать значения в пределах только от нуля до единицы:

0 P ( A) 1. (1.2) Если событие невозможно, то его вероятность равна нулю, а если со бытие достоверно, то его вероятность равна единице. Обратные утвержде ния неверны, т.е. если вероятность события равна нулю, то оно не обяза тельно невозможно, а если вероятность равна единице, то событие не обя зательно достоверно. Например, равна нулю вероятность случайно вы брать точку математического шара, лежащую на его поверхности (т.к. объ ем поверхности шара равен нулю, а вероятность такого выбора равна от ношению объема поверхности к объему шара), но очевидно, что такое со бытие может произойти, т.е. не является невозможным.

Событию А противостоит противоположное событие A (не-А), ко торое состоит в том, что событие А не осуществилось. Если событие А происходит в среднем n раз из m, то очевидно, что событие A будет про исходить m-n раз из m. Поэтому вероятность события A равна:

mn n P ( A) = = 1 = 1 P ( A). (1.3) m m Противоположные события являются примером (частным случаем) несовместных событий, т.е. таких, у которых осуществление одного со бытия означает достоверное неосуществление всех остальных. Например, если при бросании игральной кости выпала цифра «3», то это означает, что достоверно не выпали цифры «1», «2», «4» и т.д.

Если события А и В несовместны, то с математической точки зрения это означает, что пересечение этих событий (т.е. одновременное их осуще ствление) представляет собой пустое множество (невозможное собы тие):

AI B =. (1.4) События и взаимоотношения между ними очень часто полезно ил люстрировать графически при помощи диаграммы Венна. Эта диаграмма состоит из прямоугольной области, каждая точка которой представляет один из возможных исходов опыта, а все точки внутри прямоугольника – совокупность всех возможных исходов.

В.А.Пантелеев - 11 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ А Рис. 1.1. Заштрихованная область определяет точки, относящиеся к событию А А Рис. 1.2. Заштрихованная область определяет точки, относящиеся к событию А Рис. 1.3. Вся заштрихованная область опреде В А ляет точки, относящиеся к объединению событий А и В ( A U B ), а область с двойной штриховкой соот ветствует пересечению событий A I B А Рис. 1.4. События А и В несовместны, т.к. от В сутствует область пересечения Так как множество пересечения несовместных событий пусто, а ве роятность пустого множества (невозможного события) равна нулю, то ве роятность пересечения несовместных событий равна нулю:

P(A I B) = 0. (1.5) Точки на диаграмме Венна соответствуют элементарным событиям, которые считаются равновероятными. Поэтому вероятность того или ино го события пропорциональна площади, изображающей это событие. Если же принять площадь всей фигуры (прямоугольника) равной единице, то площадь, занимаемая событием, будет точно равна вероятности этого со бытия. Из рисунка 1.3 легко определить, что вероятность объединения со бытий А и В, или, другими словами, площадь заштрихованной фигуры, бу дет равна:

P ( A U B ) = P ( A) + P ( B ) P ( A I B ). (1.6) В.А.Пантелеев - 12 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Вероятность пересечения (площадь с двойной штриховкой) вычита ется потому, что при сложении вероятностей событий А и В она входит в общую заштрихованную площадь два раза.

Формула (1.6) называется теоремой сложения вероятностей для произвольных событий.

Легко видеть, что для несовместных событий (рис. 1.4), для которых справедливо соотношение (1.5), формула (1.6) запишется:

P ( A U B ) = P ( A) + P (B ). (1.7) Формула (1.7) называется теоремой сложения вероятностей для несовместных событий. Эта формула может быть обобщена на произ вольное количество событий.

Пусть события А1, А2,…, Аn взаимно несовместны (т.е. Ai I A j = для любых неравных i и j от единицы до n). Тогда вероятность их объеди нения равна сумме вероятностей соответствующих событий:

n P U Ai = i = 1 P ( Ai ).

n (1.8) i = Если n событий Аi взаимно несовместны и, кроме того, они вместе исчерпывают все возможные исходы эксперимента, то они составляют полную группу событий. Так как в ходе эксперимента какое-нибудь из этих событий достоверно произойдет, то, очевидно, что в этом случае i =1 P ( Ai ) = 1.

n (1.9) Простейшим примером полной группы событий является пара А и не-А – они взаимно несовместны и вместе исчерпывают все исходы опыта.

Другим примером может служить игральная кость. Выпадение лю бой из граней достоверно означает невыпадение всех остальных (несовме стность), а так как какая-нибудь грань выпадет обязательно, то включение всех шести граней в полную группу событий обеспечивает исчерпание всех возможных исходов опыта.

В примере с игральной костью рассматривается шесть элементарных равновероятных событий (исходов), однако число событий в полной груп пе не обязательно равно числу элементарных исходов. Например, в том же примере можно рассмотреть полную группу, состоящую из трех событий:

событие А1, состоящее в выпадении либо «1», либо «2», событие А2, со стоящее в выпадении «3», и событие А3, состоящее в выпадении либо «4», В.А.Пантелеев - 13 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ либо «5», либо «6». События получились неравновероятными (первое име ет вероятность 1/3, второе – 1/6, а третье – 1/2), но они удовлетворяют всем условиям для полной группы.

В общем случае события, составляющие полную группу, представ ляют собой произвольные непересекающиеся подмножества множества всех возможных в опыте элементарных событий, в совокупности исчерпы вающие это множество, а очевидный произвол в конструировании полной группы позволяет весьма гибко решать вероятностные задачи.

1.3 УСЛОВНЫЕ ВЕРОЯТНОСТИ Очень важным с точки зрения практики является вопрос о вероятно сти совместного осуществления произвольных событий А и В. На него от вечает следующая теорема.

Теорема умножения вероятностей для произвольных событий Вероятность совместного осуществления (пересечения) произволь ных событий А и В равна произведению вероятности события А при усло вии достоверного осуществления события В на безусловную вероятность события В, или вероятности события В при условии достоверного осуще ствления события А на вероятность события А:

P ( A I B ) = P ( A B ) P ( B ) = P (B A ) P ( A ). (1.10) Здесь P ( A B ) и P (B A) – условные вероятности: P ( A B ) – вероят ность осуществления события А при условии, что событие В достоверно произошло, а P (B A) – вероятность осуществления события В при усло вии, что событие А достоверно произошло.

Доказательство. Пусть n – размер массовой операции. Пусть собы тие А происходит в среднем k раз из n, а событие В – m раз из k. Тогда ве роятность P ( A ) = k n, а вероятность P (B A) = m k.

Очевидно, что вероятность совместного осуществления этих собы тий равна P ( A I B ) = m n. Умножив числитель и знаменатель в этой фор муле на k, получим:

m mk = = P (B A ) P ( A ).

P(A I B) = n kn В.А.Пантелеев - 14 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Что и требовалось доказать. Совершенно аналогично доказывается и первая часть равенства (1.10).

События А и В называются независимыми (или, по-другому, взаим но-независимыми), если осуществление одного из этих событий не влияет на вероятность осуществления другого. В математическом виде это требо вание выглядит так:

P ( A B ) = P ( A ) и P (B A ) = P ( B ). (1.11) Применяя это определение к формуле (1.10), легко сделать вывод, что для независимых событий А и В вероятность их пересечения равна произведению их безусловных вероятностей:

P ( A I B ) = P ( A) P ( B ). (1.12) Обобщением формулы (1.12) является теорема умножения веро ятностей для независимых событий, которая формулируется так.

Пусть события А1, А2, …, Аn взаимно независимы. Тогда вероят ность их совместного осуществления равна произведению их безусловных вероятностей:

n () n P ( A1 I A2 I... I An ) = P I Ai = P ( A1 ) P A2 P ( An ) = P ( Ai ). (1.13) i =1 i = Рассмотрим пример. Пусть некоторая деталь бракуется по трем неза висимым показателям и при этом вероятность брака по каждому из этих показателей составляет соответственно р1, р2 и р3. Воспользовавшись тео ремой (1.13), легко определить, что для данной детали вероятность быть забракованной сразу по всем трем параметрам равна P ( A1 I A2 I A3 ) = p1 p2 p3, а вероятность того, что деталь окажется годной (т.е. не забракован ной ни по одному параметру) будет равна P ( A1 I A2 I A3 ) = (1 p1 )(1 p2 )(1 p3 ).

Отметим соотношение между несовместимыми и независимыми со бытиями. Если события А и В несовместны, то условная вероятность осу В.А.Пантелеев - 15 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ ществления одного из них при условии достоверного осуществления дру гого всегда равна нулю (как вероятность невозможного события):

P ( A B ) = P (B A) = 0, что противоречит условию независимости событий (1.11).

Таким образом, если события несовместимы, то они обязательно за висимы. Обратное утверждение – неверно, т.е. если события зависимы, то они не обязательно несовместны, однако, если события независимы, то они безусловно совместны.

1-4 ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ Формула полной вероятности является очень важным инструментом для вычисления вероятностей сложных событий.

Пусть события А1, А2, …, Аn составляют полную группу. Тогда, если известны условные вероятности осуществления произвольного события В при условии осуществления каждого из событий, составляющих полную группу, можно найти безусловную вероятность осуществления события В:

P (B ) = P (B A1 ) P ( A1 ) +... + P (B An ) P ( An ) = i = 1 P (B Ai ) P ( Ai ). (1.14) n Проиллюстрируем применение этой формулы на примерах.

Пример 1. На склад поступили резисторы трех типов: 2000 штук 1-го типа, 1000 штук – 2-го типа и 6000 штук – 3-го типа. Вероятность брака для резисторов 1-го типа равна 0,01, для резисторов 2-го типа – 0,02, а для резисторов 3-го типа – 0,001. Определить вероятность того, что взятый наугад резистор бракован.

Для решения этой задачи вначале нужно определить события, со ставляющие полную группу. Наиболее удобно сделать это так: в качестве события А1 возьмем событие, состоящее в вытаскивании наугад резистора 1-го типа, в качестве события А2 – резистора 2-го типа, а в качестве А3 – резистора 3-го типа. Легко видеть, что определенные таким образом собы тия, во-первых, несовместны, а во-вторых – исчерпывают все возможные исходы эксперимента, т.е. удовлетворяют требованиям, предъявляемым к событиям для формирования полной группы.

Легко найти безусловные вероятности событий полной группы:

В.А.Пантелеев - 16 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 2000 P ( A1 ) = =;

2000 + 1000 + 6000 1000 P ( A2 ) = =;

2000 + 1000 + 6000 6000 P ( A3 ) = =.

2000 + 1000 + 6000 Вероятность вынуть бракованный резистор (событие В) при условии, что вынут резистор первого типа, известна: P (B A1 ) = 0,01. Соответст вующие условные вероятности для других событий из полной группы:

P (B A2 ) = 0,02 и P (B A3 ) = 0,001.

По формуле полной вероятности окончательно получаем:

2 1 2 P (B ) = 0,01 + 0,02 + 0,001 = 0,00511.

9 9 3 Пример 2. В двух ящиках лежат шары: в первом восемь черных и два белых, а во втором – четыре черных и пять белых. Из первого ящика во второй наугад (не глядя) переносится один шар, после чего второй ящик перетряхивается, и из него достается один шар. Какова вероятность, что он белый?

Вновь решение начинается с определения событий, составляющих полную группу. Возьмем в качестве события А1 перенесение из первого ящика во второй белого шара, а в качестве события А2 – черного. Легко видеть, что эти события удовлетворяют условиям полной группы. Безус ловные вероятности этих событий очевидно равны вероятностям достава ния из первого ящика соответственно белого или черного шара, поэтому P ( A1 ) = 0,2 и P ( A2 ) = 0,8.

Если произошло событие А1 (т.е. во второй ящик перенесен белый шар), то во втором ящике стало шесть белых и четыре черных шаров, и по этому вероятность осуществления события В (вытаскивания белого шара из второго ящика) будет равна P (B A1 ) = 0,6. Аналогично для события А (перенесения черного шара) P (B A2 ) = 0,5.

По формуле полной вероятности получим P (B ) = 0,6 0,2 + 0,5 0,8 = 0,52.

В.А.Пантелеев - 17 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.5 ФОРМУЛА БАЙЕСА Формула Байеса применяется очень широко. Важнейшими ее прило жениями являются различные виды медицинской и технической диагно стики, т.к. эта формула позволяет определять вероятности причин по дан ному (наступившему) следствию.

Суть формулы определяется следующей теоремой.

Теорема Байеса. Пусть события А1, А2, …, Аn составляют полную группу. Пусть также имеется некоторое событие В, имеющее ненулевую вероятность. Тогда P (B Ai ) P ( Ai ) P ( Ai B ) =. (1.15) ( )() j =1 P B A j P A j n Доказательство. По теореме умножения вероятностей для произ вольных событий (1.10) можно записать:

P ( Ai I B ) = P ( Ai B ) P (B ) = P (B Ai ) P ( Ai ).

Немного преобразовав правое равенство и расписав вероятность со бытия В по формуле полной вероятности, получим искомое доказательст во:

P (B Ai ) P ( Ai ) P (B Ai ) P ( Ai ) P ( Ai B ) = =.

P (B A ) P (A ) P (B ) n j j j = Рассмотрим применение формулы.

Пример 1. Пусть некоторый прибор состоит из двух независимо ра ботающих узлов, и работоспособность каждого из них безусловно необхо дима для работоспособности прибора в целом. Вероятность безотказной работы первого узла в течение некоторого времени to равна р1, а второго узла – р2. Прибор испытывался в течение времени to и отказал. Найти веро ятность того, что отказал первый узел, а второй остался работоспособным.

Выберем полную группу событий следующим образом: А1 – оба узла работоспособны, А2 – первый узел отказал, а второй работоспособен, А3 – первый узел работоспособен, а второй отказал, А4 – отказали оба узла. От каз прибора в целом обозначим через В. Рассчитаем вероятности событий:

В.А.Пантелеев - 18 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ P (B A1 ) = 0 ;

P ( A1 ) = p1 p2 ;

P (B A2 ) = 1;

P ( A2 ) = (1 p1 ) p2 ;

P (B A3 ) = 1;

P ( A3 ) = p1 (1 p2 );

P (B A4 ) = 1;

P ( A4 ) = (1 p1 )(1 p2 ).

По условию задачи нас интересует вероятность события А2 при усло вии осуществления события В. По формуле Байеса находим:

1 (1 p1 ) p P ( A2 B ) =.

0 p1 p2 + 1 (1 p1 ) p2 + 1 p1 (1 p2 ) + 1 (1 p1 )(1 p2 ) Совершенно аналогично можно рассчитать условные вероятности для всех остальных событий полной группы. Такой пересчет имеет очень большое значение для диагностики. Безусловные вероятности событий, со ставляющих полную группу, рассчитаны без учета события В, до опыта, и поэтому называются априорными (от латинского a priori – из предыдуще го), а условные вероятности, пересчитанные с учетом новой информации (события В), называются апостериорными (от латинского a posteriori – из последующего). Пересчет вероятностей причин (событий, составляющих полную группу) в зависимости от новой информации (симптомов болезни, результатов анализов и т.д.), которая здесь обозначается как событие В, и составляет суть различных видов диагностик, при которых по мере появ ления новой информации уменьшается вероятность одних причин и увели чивается вероятность других до тех пор, пока не отсеется все несущест венное и причин останется немного (а, как правило, – одна).

Еще одно из многочисленных приложений формулы Байеса рассмот рим на следующем примере.

Пример 2. Слегка изменим формулировку задачи в примере 2 из раз дела 1.4. Пусть также в двух ящиках лежат шары – в первом восемь чер ных и два белых, а во втором – четыре черных и пять белых. Из первого ящика во второй наугад (не глядя) переносится один шар, после чего вто рой ящик перетряхивается, и из него достается один шар, который оказал ся белым. Какова вероятность того, что из первого ящика во второй был переложен черный шар?

По-прежнему в качестве события А1 возьмем перенос из первого ящика во второй белого шара, а в качестве события А2 – черного. Событи ем В также будет доставание из второго ящика белого шара. Все нужные вероятности рассчитаны в разделе 1.4, поэтому можно сразу записать:

В.А.Пантелеев - 19 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ P (B A2 ) P ( A2 ) 0,5 0, P ( A2 B ) = = 0,7692.

P (B ) 0, 1-6 ЭЛЕМЕНТЫ КОМБИНАТОРИКИ Часто встречаются ситуации, при которых исходы эксперимента равновероятны. В этом случае вероятность какого-либо события будет равна просто отношению числа исходов, соответствующих данному собы тию, к общему числу исходов. Однако часто общее число исходов (как и число исходов, соответствующих данному событию) настолько велико, что их прямой подсчет становится либо крайне трудной, либо вообще невы полнимой задачей. В этом случае очень эффективно применение методов комбинаторики. Кроме того, эти методы, разумеется, широко применяются и просто для определения числа возможных исходов, состояний и т.д.

Основой комбинаторики является базовый принцип подсчета, кото рый формулируется следующим образом.

Пусть имеется k независимых операций, и при этом i-я операция имеет ni исходов (i меняется от 1 до k). Тогда общее количество N исходов в такой системе будет равно произведению числа исходов всех операций:

k N = n1 n2 nk = ni. (1.16) i = Формула (1.16) достаточно очевидна, но, тем не менее, мы проиллю стрируем ее на простом примере. Пусть первой операцией будет бросание игральной кости (6 исходов), второй операцией – остановка шарика на ру летке в казино (37 исходов), третьей – бросание монеты (2 исхода). Тогда общее количество разных исходов равно 6 37 2 = 444.

Воспользуемся базовым принципом подсчета числа исходов в основ ных комбинаторных схемах. Первой их таких схем рассмотрим размеще ния. Примером такой схемы может быть такая ситуация: имеется группа из 10 человек, трое из которых должны быть командированы в три разных города. Спрашивается, сколькими способами это можно осуществить, если не существует никаких предпочтений ни по отношению к личностям, ни к городам? Мы решим эту задачу ниже, сейчас сформулируем общую поста новку задачи схемы размещения.

Пусть имеется n различных объектов, k из которых нужно размес тить по разным местам (n k). Сколькими способами это можно реализо вать?

В.А.Пантелеев - 20 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Для решения этой задачи воспользуемся базовым принципом под счета. В качестве первой операции возьмем заполнение первого из k мест.

Очевидно, что эта операция может быть реализована n способами. Вторая операция будет состоять в заполнении второго места. Она может быть реа лизована уже (n – 1) способом (т.к. один объект уже распределен на первое место). Аналогично третья операция (заполнение третьего места) может быть реализована (n – 2) способами и т.д.

Окончательно, перемножая количества реализаций в соответствии с базовым принципом подсчета, получим для количества размещений n объ ектов по k местам:

An = n(n 1)(n 2 ) (n k + 1).

k (1.17) Количество размещений обозначается буквой А по английскому сло ву arrangement – размещение.

Формулой (1.17) можно пользоваться непосредственно, но гораздо чаще для ее записи используется факториал. Напомним, что факториалом числа n называется произведение всех целых чисел от единицы до n:

n! = 1 2 3 (n 1) n. (1.18) Заметим, что по определению факториала 1! = 1 и 0! = 1.

С использованием выражения (1.18) формула (1.17) для количества размещений запишется:

n!

k An =. (1.19) (n k )!

Если теперь рассмотреть приведенную выше задачу с командирова нием трех из десяти сотрудников в три разных города, то ответ будет:

10! 1 2 3 4 5 6 7 8 9 A10 = = = 720 способов.

1 2 3 4 5 6 7!

Следующей важной комбинаторной схемой являются перестановки, которые являются частным случаем размещений при условии, что n = k:

n!

Pn = An = = n!

n (1.20) (n n)!

В.А.Пантелеев - 21 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Количество перестановок обозначается буквой Р по первой букве английского слова permutation – перестановка. В обозначении по понят ным причинам присутствует только один индекс.

Теперь рассмотрим еще одну важную комбинаторную схему, в кото рой также выбираются k объектов n, но они помещаются в одно и то же место. Такая схема носит название комбинации, а их количество обозна k чается С n (от английского – combination). Если, например, рассмотреть приведенную выше задачу с командированием, то для трансформации ее к новым условиям нужно указать, что командируемые направляются в один город с одинаковыми поручениями и без выделения старшего.

Сопоставляя комбинации и размещения, легко видеть, что число комбинаций будет меньше, т.к. каждому исходу в схеме комбинаций будет соответствовать Pk исходов в схеме размещений (количество перестано вок k объектов). Отсюда следует, что число комбинаций будет равно:

k An n!

С= = k. (1.21) Pk k ! (n k )!

n Рассмотрим пример. Пусть в ящике находится 10 электрических ба тареек, 4 из которых бракованы. Если из ящика наугад вынимаются 4 бата рейки, то какова вероятность, что а) среди отобранных будет две бракованных батарейки?

б) среди отобранных будет как минимум две бракованных батарей ки?

Вначале найдем общее число способов отобрать 4 батарейки из возможных:

10 9 8 10!

N = C 10 = = = 210.

4!6! 1 2 3 Две бракованных батарейки из четырех можно вынуть C 4 = 6 спо собами, а две небракованных их шести – C 62 = 15 способами. Поэтому, в соответствии с базовым принципом подсчета, число исходов, благоприят ствующих событию «а», будет равно: N 2 = 6 15 = 90.

Так как вероятность равна отношению числа благоприятствующих событию исходов к общему числу исходов, то вероятность события в пер вом вопросе будет:

В.А.Пантелеев - 22 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ N 2 C 4 C 90 P (2 бракованных ) = = = =.

N 210 C Событие, о котором идет речь во втором вопросе, может произойти в результате объединения событий «2 бракованных», «3 бракованных» и « бракованных». Соответствующие вероятности равны:

3 C 4 C6 4 6 P (3 бракованных ) = = = ;

210 C 4 C 4 C6 1 1 P (4 бракованных ) = = =.

210 C Перечисленные события являются несовместными, поэтому вероят ность их объединения по теореме сложения вероятностей будет равна:

C 4 C 62 + C 43 C 61 + C 4 C 6 90 + 24 + 1 2 4 P= = =.

210 C Формула (1.21) может быть обобщена на случай, когда n объектов размещаются по k местам таким образом, что r1 объектов попадают в пер вое место, r2 объектов – во второе,…, rk объектов – в k-е, и при этом r1 + r2 + L + rk = i = 1 ri = n.

k Тогда общее количество способов такого размещения определится формулой:

n! n!

=k. (1.22) r1 !r2 !L rk !

ri i = Легко видеть, что формула (1.21) является частным случаем форму лы (1.22) при k = 2.

В.А.Пантелеев - 23 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.7 СХЕМА И ФОРМУЛА БЕРНУЛЛИ Схемой Бернулли называется система из n независимых испытаний, в каждом из которых могут иметь место «успех» или «неудача» с постоян ными вероятностями. Другими словами, схема Бернулли представляет со бой n-кратное повторение опыта, который может иметь только два исхода, и при этом вероятности каждого из исходов не меняются от опыта к опыту.

Для удобства один из исходов обозначается как «успех», а другой – как «неудача».

Очевидно, что число «успехов» в схеме Бернулли может изменяться от нуля до n. Обозначим переменную величину числа «успехов» в схеме Бернулли через µ n. Показано, что вероятность того, что число «успехов»

µn будет равно некоторому конкретному числу k, равна:

P {µ n = k } = C n p k (1 p ) n k k, (1.23) где p – вероятность «успеха» в единичном испытании, а n!

Cn = k – биномиальный коэффициент или, что то же самое, число k ! (n k )!

сочетаний из n по k.

Выражение (1.23) носит название формулы Бернулли.

Пример. Автомат выпускает изделия по схеме Бернулли, т.е. вероят ность брака при изготовлении одного изделия не меняется со временем и равна p. Выпущено три изделия. Найти вероятность того, что одно из этих изделий (любое) браковано.

Эту задачу можно решать разными способами. Например «лобовое»

решение состоит в том, чтобы найти вероятности всех исходов, удовлетво ряющих условию задачи. В нашем случае таких исходов может быть три:

1) первое изделие браковано, а второе и третье – небракованы;

2) второе изделие браковано, а первое и третье – нет;

3) третье изделие браковано, а первое и второе – нет.

Очевидно, что все перечисленные исходы представляют собой вза имно-несовместные события, и поэтому искомая вероятность будет равна сумме вероятностей этих трех исходов:

p( 1 p )(1 p ) + (1 p ) p(1 p ) + (1 p )(1 p ) p = 3 p(1 p ).

Аналогичный результат можно гораздо быстрее получить с помо щью формулы Бернулли, если назвать «успехом» получение бракованной детали:

В.А.Пантелеев - 24 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ P {µ 3 = 1} = C 3 p 1 (1 p ) = 3 p(1 p ).

31 В реальной жизни много ситуаций, когда n и k достаточно велики (свыше нескольких десятков). Тогда количество возможных исходов вы ражается астрономическими числами, и использование формулы Бернулли остается единственной возможностью получить результат.

Учитывая, что исходы, соответствующие разному числу «успехов», можно записать очевидные следствия из формулы Бернулли.

Вероятность того, что число «успехов» будет не больше m:

P {µ n m} = k = 0 C n p k (1 p ) = 1 k = m + 1 C n p k (1 p ) m n n k n k k k. (1. ) Вероятность того, что число «успехов» будет больше m:

P {µ n m} = k = m + 1 C n p k (1 p ) = 1 k = 0 C n p k (1 p ) n m n k n k k k. (1.25) 1.8 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ОПИСАНИЕ Величина, значение которой не может быть предсказано в точности до тех пор, пока не произведен эксперимент, называется недетерминиро ванной.

Во множестве недетерминированных величин можно выделить под множество таких величин, обладающих статистической устойчивостью, значение которых можно предсказать в среднем. Такие величины называ ются случайными.

Понятие статистической устойчивости предполагает возможность (хотя бы гипотетическую) многократного повторения аналогичного экспе римента. Поэтому, например, дата смерти конкретного человека в силу своей уникальности будет только непредсказуемой (не случайной), в то время как продолжительность жизни в некоторой стране уже можно рас сматривать как случайную величину.

Для описания детерминированной величины (т.е. константы) доста точно указать ее значение. Случайная же величина по определению может принимать множество значений, поэтому для ее описания, во-первых, не обходимо задать это множество, а во-вторых, указать, с какими относи В.А.Пантелеев - 25 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ тельными частотами (вероятностями) случайная величина будет прини мать те или иные значения из этого множества.

Исчерпывающим описанием любой случайной величины является функция распределения.

Обозначим через некоторую случайную величину, а через x – про извольное действительное число. Вероятность того, что примет значение, меньшее, чем x, называется функцией распределения вероятностей слу чайной величины :

F ( x ) = P { x}. (1.26) В дальнейшем во избежание недоразумений условимся случайные величины преимущественно обозначать греческими буквами, а принимае мые ими значения – строчными латинскими.

Обобщая сказанное, можно дать такое определение: случайной вели чиной называется такая величина, значение которой нельзя определить за ранее, и для которой существует функция распределения.

Свойства функции распределения 1. Так как функция распределения представляет собой вероятность, то она изменяется от нуля до единицы: 0 F ( x ) 1.

2. Функция распределения является неубывающей функцией, т.е. из того, что x2 x1, следует, что F ( x 2 ) F ( x 1 ), что в математической записи выглядит как x 2 x 1 F ( x 2 ) F ( x 1 ).

3. Вероятность того, что случайная величина находится в интервале от x1 до x2, равна разности значений функции распределения от этих аргу ментов: P {x 1 x 2 } = F ( x 2 ) F ( x 1 ).

4. Значение функции распределения в минус бесконечности равно нулю: F ( ) = 0.

5. Значение функции распределения в плюс бесконечности равно единице: F ( ) = 1.

В зависимости от свойств множества значений случайные величины подразделяются на дискретные и непрерывные.

Дискретной называется такая случайная величина, множество зна чений которой либо конечно, либо счётно.

Непрерывной называется такая случайная величина, множество зна чений которой несчётно.

Счётным называется такое бесконечное (т.е. имеющее бесконечное количество элементов) множество, каждому элементу которого можно взаимнооднозначно сопоставить число из натурального ряда, а несчётным – бесконечное множество, для пересчета элементов которого (взаимноод В.А.Пантелеев - 26 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ нозначного сопоставления) не хватит чисел натурального ряда. Эти поня тия подробно анализируются в теории множеств. Здесь же в качестве ил люстрации укажем, что примерами счётных множеств могут служить чис ла натурального ряда, все нечётные числа, все рациональные числа и т.д., примерами несчётных множеств – все числа, заполняющие отрезок веще ственной числовой оси, все точки плоскости и т.д.

Для исчерпывающего описания дискретной случайной величины, кроме функции распределения, можно использовать функцию массы.

Функция массы – это перечень значений x 1, x 2,L, принимаемых случайной величиной, которым сопоставлены вероятности p1, p2,L, с ко торыми эти значения принимаются. Функция массы может быть задана при помощи таблицы, формулы и т.д.

Зная функцию массы, можно определить функцию распределения:

F ( x ) = pk, где суммирование производится по всем индексам, для которых xk x.

Следует отметить, что функция распределения любой дискретной ве личины разрывна, т.к. изменяется скачками при x = xk, увеличиваясь на ве личину pk.

Рассмотрим примеры дискретных случайных величин.

Биномиальная случайная величина µn. Представляет собой число успехов в схеме Бернулли из n испытаний с постоянной вероятностью ус пеха в каждом испытании, равном р. Множество Х ее значений конечно и состоит из n+1 элементов:

X = {0, 1, 2, L, n}.

Функция массы, определяющая вероятность, с которой случайная величина µn принимает произвольное значение k из множества Х, равна:

P (k ) = C n p k (1 p ) n k k. (1.27) Пуассоновская случайная величина. Представляет собой предель ный случай биномиальной случайной величины при n и p 0.

Множество значений пуассоновской случайной величины бесконечно (счётно):

X = {0, 1, 2, L, }, В.А.Пантелеев - 27 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ а функция массы определяется по формуле:

e k P (k ) =, (1.28) k!

где положительная величина является параметром распределения.

Для непрерывных случайных величин также наряду с функцией рас пределения имеется еще один способ исчерпывающего описания – функ ция плотности распределения, которая представляет собой производную от функции распределения:

dF ( x ) (x) =. (1.29) dx Свойства функции плотности распределения 1. Функция плотности всегда неотрицательна ( x ) 0, что с учетом (1.29) следует из того, что функция распределения – неубывающая.

x 2. F ( x ) = (z )dz 3. Вероятность того, что случайная величина находится в интервале x от x1 до x2, равна: P {x 1 x 2 } = ( x )dx.

x + ( x )dx = 1.

4. Условие нормировки:

Рассмотрим примеры непрерывных случайных величин.

Равномерная случайная величина. Представляет собой непрерыв ную случайную величину, равномерно распределенную на некотором ин тервале [a, b ]. Она не может принимать значений вне этого интервала, а внутри интервала все значения равновероятны. Поэтому функция плотно сти распределения равномерной случайной величины имеет вид:

[] (x) = b a, x a, b (1.30) 0, x [a, b] В.А.Пантелеев - 28 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Воспользовавшись свойством 2 функции плотности распределения, легко найти выражение для функции распределения равномерной случай ной величины:

0, x a;

xa, x [a, b];

F (x) = (1.31) ba 1, x b.

Нормальная (гауссовская) случайная величина. Эта случайная величина определена на всей числовой оси – от минус бесконечности до плюс бесконечности. Функция плотности ее распределения имеет вид:

( x µ ) 1 (x) = 2 e, (1.32) 2 а функция распределения:

( z µ ) x 1 F (x) = e 2 dz. (1.33) 2 Постоянные величины µ и 2 являются параметрами распределения.

Их смысл будет обсуждаться позднее.

Если случайная величина распределена по нормальному закону с параметрами µ и 2, то это принято обозначать как ~ N (µ, 2 ).

Нормальный закон распределения, описанный великим Карлом Фридрихом Гауссом (1777 – 1855), находит широчайшее применение при описании процессов самой различной природы. Исключительная важность нормального закона распределения определяется центральной предель ной теоремой Александра Михайловича Ляпунова (1901): если имеется большое число произвольно распределенных случайных величин, ни одна из которых не превосходит своим разбросом других, то сумма этих слу чайных величин распределена асимптотически по нормальному закону.

В реальной жизни, с ее всеобщей связью явлений, любая измеряемая или наблюдаемая величина испытывает влияние бесчисленного множества факторов, и поэтому является суммой огромного числа влияющих вели чин. Поэтому для громадного количества наблюдаемых и измеряемых ве личин выполняются условия центральной предельной теоремы, что приво дит к тому, что нормальный закон так широко распространен в природе и, соответственно, так важен при проведении исследований.


В.А.Пантелеев - 29 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.9 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Функция массы или плотность распределения, а также функция рас пределения, как уже указывалось, являются исчерпывающими способами описания случайных величин. Однако нередки случаи, когда такие спосо бы описания являются избыточными, и можно обойтись более простыми средствами. Этой цели служат числовые характеристики, среди которых наиболее важными являются математическое ожидание, дисперсия и мо менты.

Математическое ожидание представляет собой средневзвешенное значение случайной величины. Формулы для его расчета у дискретных и непрерывных случайных величин различны.

Если – дискретная случайная величина, принимающая значения x 1, x 2, L с вероятностями p1, p 2, L, то ее математическое ожидание рав но:

M { } = x k pk, (1.34) где суммирование производится по всем значениям, принимаемым слу чайной величиной.

Если – непрерывная случайная величина с плотностью распреде ления (x), то ее матожидание будет:

+ M { } = x ( x )dx. (1.35) Важно отметить, что математическое ожидание случайной величины не является случайной величиной. Это – число, константа.

Свойства математического ожидания 1. Математическое ожидание константы равно самой константе:

M {c} = c. (1.36) 2. Константа может быть вынесена из-под знака математического ожидания:

M {c } = cM { }. (1.37) 3. Математическое ожидание суммы случайных величин равно сум ме соответствующих матожиданий:

В.А.Пантелеев - 30 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ M { 1 + 2 + L + n } = M { 1 } + M { 2 } + L + M { n } (1.38) или то же самое в сокращенной записи:

{ } i = i = 1 M { i }.

n n M i = 4. Математическое ожидание произведения взаимно-независимых случайных величин равно произведению соответствующих матожиданий:

n n M { 1 2 L n } = M { 1 }M { 2 }L M { n } M i = M { i }. (1.39) i=1 i= Найдем математические ожидания уже рассмотренных случайных величин.

Биномиальная случайная величина. Так как эта случайная вели чина дискретна, то её математическое ожидание нужно находить по фор муле (1.34):

M {µ n } = k = 0 kC n p k (1 p ) n n k k, (1.40) однако прямое использование этой формулы несколько громоздко, и по этому воспользуемся некоторыми упрощающими процедурами.

Рассмотрим дискретную случайную величину, которая принимает значение 1 с вероятностью p и значение 0 с вероятностью 1-p. Эта величи на, очевидно, соответствует однократному испытанию в схеме Бернулли.

Найдем ее матожидание по формуле (1.34):

M { } = 1 p + 0 (1 p ) = p. (1.41) Биномиальная случайная величина µn (число успехов в схеме Бер нулли из n испытаний) может быть записана как сумма n случайных вели чин :

µn = 1 + 2 + L + n. (1.42) Воспользовавшись третьим свойством матожидания (1.38), оконча тельно получим:

M {µ n } = M { 1 + 2 + L n } = M { 1 } + M { 2 } + L + M { n } = np. (1.43) В.А.Пантелеев - 31 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Желающие могут самостоятельно убедиться, что результат, полу ченный по формуле (1.40), будет тем же самым.

Пуассоновская случайная величина. Здесь мы напрямую восполь зуемся формулой (1.34) с учетом того, что суммирование производится до бесконечности:

k k k k k M { } = k = 0 e = k =1 e = e k =. (1.44) (k 1)!

k! k!

Сделав замену переменных n = k-1, получим:

n M { } = e n = 0 n! = e e =.

(1.45) Равномерная случайная величина является непрерывной. Поэтому ее матожидание определяется по формуле (1.35):

+ x2 b a + b b xdx M { } = x ( x )dx = b a 2(b a ) a = 2.

= (1.46) a Нормальная случайная величина также является непрерывной, поэтому ее матожидание находится по формуле:

( x µ ) + 1 M { } = xe dx = µ.

2 (1.46) 2 Следует отметить, что взятие интеграла (1.46) является не слишком простой задачей, поэтому процедура расчёта здесь опускается и приводит ся только конечный результат.

Дисперсией произвольной случайной величины по определению является математическое ожидание квадрата отклонения этой случайной величины от своего матожидания, т.е.:

{ } D{ } = M ( M { }).

(1.47) Выражение (1.47) можно переписать в другом виде:

В.А.Пантелеев - 32 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ { }= D{ } = M 2 2M { } + ( M { }) (1.48) { } 2 M { }M { }+ (M { }) { } (M { }) 2 =M =M 2.

При выводе формулы (1.48) не было использовано никаких дополни тельных предположений кроме вышеприведенных свойств математическо го ожидания. Поэтому формула (1.48) наряду с формулой (1.47) может рас сматриваться как определение дисперсии.

Найдем формулу для расчета дисперсии дискретной случайной вели чины по формуле (1.47):

D{ } = ( x k M { }) pk.

(1.49) Аналогичная формула с использованием (1.49):

D{ } = x k pk ( M { }) = x k pk ( x k pk ).

2 2 (1.50) Найдем соответствующие формулы расчета дисперсии непрерывной случайной величины. Вначале используем формулу (1.47):

+ D{ } = ( x M { }) ( x )dx.

(1.51) А теперь используем формулу (1.48):

+ + + D{ } = x ( x )dx ( M { }) = x ( x )dx x ( x )dx.

2 (1.52) Свойства дисперсии. Их очень легко доказать, если воспользовать ся свойствами математического ожидания.

1. Дисперсия константы равна нулю:

D{c} = 0. (1.53) 2. Константу можно вынести из-под знака дисперсии, но при этом она возводится в квадрат:

D{c } = c 2 D{ }. (1.54) В.А.Пантелеев - 33 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 3. Если случайные величины взаимно-независимы, то дисперсия их суммы или разности равна сумме соответствующих дисперсий:

D{ ± } = D{ } + D{ };

(1.55) { } D k = 1 k = k = 1 D{ k }.

n n Дисперсия, также как и матожидание, является неслучайной величи ной, константой. Она характеризует разброс случайной величины относи тельно математического ожидания. Чем больше этот разброс, тем больше дисперсия, и наоборот, при уменьшении дисперсии величина становится «менее случайной», и в пределе, при нулевой дисперсии, она просто пре вращается в константу, неслучайную величину.

Следует отметить, что в то время как математическое ожидание име ет размерность, равную размерности случайной величины, дисперсия име ет размерность квадрата случайной величины.

Определим дисперсии уже рассмотренных случайных величин.

Биномиальная случайная величина. Для ее определения восполь зуемся уже определенной нами величиной. Найдем величину ее диспер сии по формуле (1.49):

D{ } = k = 1 ( x k M { }) pk = (1 p ) p + (0 p ) (1 p ) = p(1 p ). (1.56) 2 2 2 Теперь найдем то же самое по формуле (1.50):

D{ } = 1 2 p + 0 2 (1 p ) p 2 = p(1 p ). (1.57) Как и следовало ожидать, результаты получились тождественными.

По определению схемы Бернулли, опыты, составляющие ее, являют ся независимыми. Следовательно, величины 1, 2, …, n являются взаим но-независимыми, и для определения дисперсии биномиальной величины µn можно воспользоваться третьим свойством дисперсии (1.55):

D{µ n } = D{ 1 + 2 + L + n } = nD{ } = np (1 p ). (1.58) Пуассоновская случайная величина. Для расчета ее дисперсии воспользуемся, например, формулой (1.50):

В.А.Пантелеев - 34 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ { } = = 0 k e 2 = e = 1 k 2.

k 2k (1.59) D (k 1)!

k!

k k В формуле (1.59) рассмотрим сумму, в которой произведем замены переменных n = k-1 и m = n-1:

(k 1 + 1 ) k k 1 m k 1 n k = 1 (k 1)! = k = 1 (k 1)! = m = 0 m! + n = 0 n! = ( + 1)e. (1.60) Подставив выражение (1.60) в формулу (1.59), получим:

D{ } = e ( + 1)e 2 =. (1.61) Дисперсия и матожидание пуассоновской случайной величины ока зались равными. На первый взгляд этот результат противоречит требова нию размерности (размерность дисперсии равна квадрату размерности ма тожидания). Однако размерность величины всегда равна нулю, т.к. по су ти своей – это среднее число успехов в схеме Пуассона, а нуль и квадрат нуля – это то же самое.

Равномерная случайная величина. Это непрерывная величина, по этому для расчета ее дисперсии сначала воспользуемся формулой (1.51):

2 a+b a+b b b x x (b a )2.

2 D( ) = dx = = (1.62) 3(b a ) ba a a Формула (1.52) дает, естественно, тот же результат:

b x 2 dx (a + b ) (a + b )2 = (b a )2.

b x D{ } = = (1.63) 3(b a ) ba 4 4 a a Нормальная случайная величина. Здесь мы вновь не будем прово дить вычислений, предоставив право читателю поверить на слово, что при использовании как формулы (1.51), так и формулы (1.52), результат будет тождественным:

В.А.Пантелеев - 35 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ ( x µ )2 ( x µ ) + + 1 D{ } = (x µ ) x dx µ 2 = 2. (1.64) dx = 2 2 2 e e 2 2 Моменты случайных величин Начальным моментом r-го порядка случайной величины называ ется математическое ожидание этой случайной величины в степени r:

a r = M { r }.

(1.65) Для дискретных случайных величин формула для расчета начальных моментов будет выглядеть:

a r = x k pk, r (1.66) а для непрерывных + x ( x )dx.

ar = r (1.67) Легко видеть, что начальный момент первого порядка – это просто математическое ожидание случайной величины.

Рассмотрим случайную величину o = M { }. (1.68) Она называется центрированной случайной величиной. Легко ви деть, что её математическое ожидание всегда равно нулю, а её дисперсия всегда равна дисперсии нецентрированной случайной величины :

o o D = D{ }.

M = 0 ;

(1.69) Центральным моментом порядка r случайной величины называ ется начальный момент r-го порядка от центрированной случайной вели o чины :

{ } or m r = M = M ( M { }).

r (1.70) В.А.Пантелеев - 36 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Формула для расчета центральных моментов дискретной случайной величины:

m r = ( x k M { }) pk, r (1.71) а непрерывной:


+ ( x M { }) ( x )dx.

r mr = (1.72) Легко видеть, что первый центральный момент любой случайной ве личины всегда равен нулю:

m 1 = M { M { }} = M { } M { } = 0, а второй центральный момент – это дисперсия:

{ } m 2 = M ( M { }) = M { 2 } ( M { }) = a 2 a 1 = D{ }.

2 Центральные моменты более высоких порядков используются для получения дополнительных характеристик случайных величин. Среди них наибольшее применение находят асимметрия (косость) и эксцесс.

Асимметрия характеризует степень отклонения зеркальной симмет рии относительно математического ожидания функции массы или функ ции плотности распределения. Она рассчитывается по формуле:

m g1 =. (1.73) m Все моменты, как центральные, так и начальные, имеют размерность, равную размерности случайной величины в степени, равной порядку мо мента. Асимметрия, как легко видеть, является величиной безразмерной.

Если асимметрия равна нулю, то соответствующее распределение строго симметрично относительно своего математического ожидания. Ес ли положительна, то распределение имеет крутой левый склон и пологий – правый. Если отрицательна, то наоборот: пологий левый склон и крутой – правый.

В.А.Пантелеев - 37 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ g1 = 0 g1 g1 Рис.1.5. Распределения с разной асимметрией.

Эксцесс характеризует степень отклонения формы кривой плотности распределения от кривой плотности нормального распределения и рассчи тывается по формуле:

m g2 = 3. (1.74) m Эксцесс также является безразмерной величиной. Для нормального распределения он равен нулю. Для распределений с острой вершиной и длинными «хвостами» эксцесс положителен. Наоборот, для распределе ний, имеющих плоскую (или «проваленную») вершину, эксцесс отрицате лен.

g2 g2 = g2 Рис. 1.6. Распределения с различным эксцессом В.А.Пантелеев - 38 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Часто используются еще две характеристики случайных величин:

медиана и мода.

Медиана – это такое число Me, которое удовлетворяет усло вию F ( Me ) = 1 2, т.е. представляет такое значение аргумента функции распределения, при котором функция распределения равна 0,5. Так как та кое значение аргумента не всегда существует, то математически строго это условие записывается так:

1 F ( Me ) F ( Me + 0 ) ;

. (1.75) 2 Любая случайная величина имеет хотя бы одну медиану. Если F ( x ) = 1 2 для всех x из замкнутого интервала, то каждая точка этого ин тервала представляет собой медиану. Например, для дискретной случай ной величины, принимающей значение 0 с вероятностью 0,25, значение 1 – с вероятностью 0,25, и значение 3 – с вероятностью 0,5, медианой будет любая точка в интервале от 1 до 3.

Если случайная величина непрерывна, и ее функция распределения монотонна, то медиана единственна. Если распределение симметрично, и его медиана единственна, то она совпадает с математическим ожиданием.

Пример – нормальное распределение.

Мода для непрерывной случайной величины – это любая точка xo, в которой функция плотности распределения (x) достигает максимума. Мо да определяется также и для дискретных распределений: если значения xk случайной величины с функцией массы pk = P { = x k } расположены в порядке возрастания, то точка xm называется модой, если p m p m 1 и pm pm + 1.

Распределения с одной модой называются унимодальными (или од новершинными), с двумя модами – бимодальными, а с большим числом мод – мультимодальными. Наиболее важными в теории вероятностей и математической статистике являются унимодальные распределения. Если распределение унимодально и симметрично, то его мода совпадает с мате матическим ожиданием и медианой.

1.10 МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ В большинстве практических задач результаты исследования описы ваются не одной, а двумя или даже значительно большим количеством случайных величин, которые представляют собой параметры, характери В.А.Пантелеев - 39 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ зующие различные стороны часто очень сложного и многостороннего тех нологического или другого процесса.

Рассмотрим совокупность из n случайных величин произвольной природы 1, 2,K, n. Такая совокупность называется многомерной слу чайной величиной или, что то же самое, случайным вектором размер ности n:

= 2. (1.76) M n Термин «случайный вектор» имеет вполне очевидный геометриче ский смысл: каждую из случайных величин i можно рассматривать как координату некоторой точки n-мерного пространства, а сама эта точка и будет представлять собой n-мерный вектор. Различные наборы случайных величин – координат будут определять различные точки в n-мерном про странстве или различные реализации случайного вектора.

Основной характеристикой случайного вектора является многомер ная функция распределения, которая определяется следующим образом:

F ( x 1, x 2,K, x n ) = P { 1 x 1, 2 x 2, K, n x n }. (1.77) Очевидно, что определение одномерной функции распределения (1.26) представляет собой частный случай определения (1.77) при n = 1.

Если существует такая функция ( x 1, x 2, K, x n ), которая при лю бых x 1, x 2, K, x n удовлетворяет равенству xn x1 x F ( x 1, x 2,K, x n ) = L (z 1, z 2,K, z n )dz 1 dz 2 L dz n, (1.78) то эта функция называется функцией плотности распределения случай ного вектора или многомерной функцией плотности распределения.

Свойства многомерной плотности распределения.

1. Многомерная плотность всегда неотрицательна:

( x 1, x 2,K, x n ) 0. (1.79) В.А.Пантелеев - 40 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 2. Вероятность попадания точки в некоторую произвольную об ласть n-мерного пространства G равна:

L ( x 1, x 2,K, x n )dx1 dx 2 L dx n.

P { G} = (1.80) G 3. Условие нормировки:

+ + + L ( x1, x 2,K, x n )dx1 dx 2 L dx n = 1. (1.81) 4. Для произвольной функции y = y ( 1, 2,K, n ) от координат слу чайного вектора можно вычислить её математическое ожидание по форму ле:

+ + + M {y ( 1,K, n )} = L y( x1,K, x n ) ( x1,K, x n )dx1 L dx n. (1.82) Формулой (1.82) можно воспользоваться, в частности, для нахожде ния математического ожидания любой отдельной компоненты k случай ного вектора. Для этого нужно просто положить y ( 1,K, n ) = k :

+ + + M { k } = L x k ( x1, x 2,K, x n )dx1 dx 2 L dx n. (1.83) Моменты многомерных случайных величин. Моментом порядка r1 + r2 + L + rn случайного вектора относительно точки ( x 1, x 2,K, x n ) называется величина { } M ( 1 x 1 ) 1 ( 2 x 2 ) 2 L ( n x n ) n, r r r (1.84) где все rk представляют собой целые неотрицательные числа.

В частности, если все xk равны нулю, то момент называется началь ным:

{ } a r1 r2 Lrn = M 1r1 2r2 L nn.

r (1.85) Начальный момент первого порядка можно получить только в том случае, если все rk, кроме одного, будут равны нулю, а этот один будет ра В.А.Пантелеев - 41 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ вен единице. Отсюда следует, что начальный момент первого порядка сов падает с математическим ожиданием одной из компонент случайного век тора:

a 0023 00L0 = M { 10 2 L k0 1 k1 k0+ 1 L n } = M { k }.

0 (1.86) 1L k Достаточно очевидно, что у n-мерного случайного вектора сущест вует n различных начальных моментов первого порядка.

Момент называется центральным, если все точки xk в выражении (1.84) представляют собой математические ожидания соответствующих компонент:

o r1 o r2 o rn = M 1 2 L n, (1.87) m r1 r2 Lrn o где k = k M { k }, т.е. x k = M { k }.

Можно сказать, что центральный момент любого порядка всегда ра вен начальному моменту того же порядка от центрированных компонент случайного вектора.

Центральных моментов первого порядка также существует n штук, и также каждый из них равен математическому ожиданию центрированной компоненты случайного вектора, т.е. нулю.

В случае многомерных распределений особый интерес представляют центральные моменты второго порядка, которые называются ковариация ми:

o o Cov{ k, m } = m 0023 0L010L0 = M k m = 1L (1.88) k 14 4 m = M {( k M { k })( m M { m })}.

Легко видеть, что если k = m, то ковариация совпадает с дисперсией соответствующей компоненты случайного вектора:

{ } Cov { k, k } D{ k } = M ( k M { k }).

(1.89) Как k, так и m, могут меняться от единицы до n. Поэтому общее чис ло ковариаций равно n2. Совокупность всех ковариаций определяет дис персионную матрицу случайного вектора:

В.А.Пантелеев - 42 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ L Cov{ 1, n } D{ 1 } Cov{ 1, 2 } Cov{, } L Cov{ 2, n } D{ 2 } D{ } =.

2 (1.90) M M L M Cov{ n, 1 } Cov{ n, 2 } D{ n } L Дисперсионную матрицу иногда называют ковариационной матри цей или матрицей дисперсий-ковариаций. Эти термины тождественны по сути и соответствуют одному и тому же понятию.

Дисперсионная матрица является квадратной матрицей размера [nn] и представляет собой многомерный аналог дисперсии, откуда и вы текает ее обозначение в формуле (1.90).

Таким образом, можно сказать, что математическое ожидание n мерного случайного вектора представляет собой вектор-столбец размера [n 1] M { 1 } M { } M { } = M =, (1.91) M M M { n } n а его дисперсия – квадратную матрицу размера [n n].

Из формулы (1.88) очевидно, что Cov { k, m } = Cov { m, k }, откуда сразу же следует, что дисперсионная матрица всегда симметрична, т.е. не меняется при транспонировании (замене строк матрицы её столбцами):

D{ } = D{ }, T (1.92) где Т – символ транспонирования.

Ковариация разных компонент случайного вектора характеризует степень линейной статистической связи между случайными величинами, являющимися этими компонентами. В том случае, если эти случайные ве личины независимы, соответствующие ковариации будут равны нулю. А если все компоненты случайного вектора независимы, то его дисперсион ная матрица будет диагональной, т.е. все компоненты матрицы, не лежа щие на главной диагонали, будут равны нулю.

Характеризовать статистическую связь при помощи ковариации не очень удобно, т.к., во-первых, ковариация является величиной размерной с размерностью, равной произведению размерностей входящих в нее слу В.А.Пантелеев - 43 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ чайных величин, а, во-вторых – численное значение ковариации зависит от величин дисперсий этих случайных величин и само по себе не дает коли чественного представления о силе статистической связи. Поэтому для чис ленной характеристики линейной статистической связи между случайны ми величинами более часто применяется коэффициент парной корреля ции:

Cov{ k, m } R{ k, m } =. (1.93) D{ k } D{ m } Коэффициент корреляции уже является величиной безразмерной и по модулю не превосходит единицы:

1 R{ k, m } 1. (1.94) При этом, если случайные величины независимы, то коэффициент корреляции равен нулю, а если они связаны между собой линейно, то ко эффициент корреляции равен ± 1.

Докажем последнее утверждение. Линейная связь между двумя слу чайными величинами и означает, что одна из них может быть выражена через другую линейно: = a + b, где a и b – некоторые неслучайные чис ла, константы.

Найдем вначале центрированное значение :

o o = M { } = a + b M {a + b} = a + b aM { } b = a.

(1.95) Подставим соотношение (1.95) в выражение (1.93):

o o M a aD{ } a R{, } = = = = ±1. (1.96) a 2 ( D{ }) a o 2 o 2 M M a В формуле (1.96) +1 соответствует значению a 0, т.е. ситуации, ко гда при увеличении одной случайной величины пропорционально увеличи вается и другая, а -1 соответствует значению a 0, т.е. пропорционально му уменьшению одной случайной величины с увеличением другой.

В.А.Пантелеев - 44 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ В промежуточных случаях, а также при наличии функциональной (но не линейной) связи между случайными величинами, коэффициент кор реляции может принимать любые значения из диапазона (1.94).

Совокупность всех коэффициентов парной корреляции случайного вектора образует корреляционную матрицу, по структуре аналогичную дисперсионной:

L R{ 1, n } R{ 1, 2 } R{, } L R{ 2, n } R{ } =.

2 (1.97) M M L M R{ n, 1 } R{ n, 2 } L Корреляционная матрица также симметрична, а на ее главной диаго нали расположены единицы. Очевидно, что корреляционная матрица слу чайного вектора с независимыми компонентами является единичной мат рицей.

При анализе многомерных случайных величин как правило исполь зуется матричный аппарат, который позволяет в компактной форме запи сывать громоздкие соотношения. Запишем, например, выражение для цен трированного случайного вектора:

1 M { 1 } o M { } o o = 2.

= M { } = 2 (1.98) M o M n M { n } n Если перемножить центрированный случайный вектор на самого се бя в транспонированном виде, то получится квадратная матрица размером [n n]:

o o o o o o o 1 1 1 2 L 1 n 1 o o o o o o o 2 1 2 2 L 2 n. (1.99) oT o o o o = 2 1 2 L n = M M M M L o o o o o o o n n 1 n 2 L n n В.А.Пантелеев - 45 - ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Очевидно, что математическое ожидание этой матрицы равно дис персионной матрице. Поэтому выражение (1.90) в матричном виде может быть записано:

o o T { } D{ } = M = M ( M { })( M { }).

T (1.100) Глава ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Математическая статистика теснейшим образом связана с теорией вероятностей, однако её задачи прямо противоположны задачам теории вероятностей. Основная задача теории вероятностей, как науки, состоит в том, чтобы по известным вероятностям, функциям распределения, число вым характеристикам и т.д. одних случайных величин определить вероят ности, функции распределения, числовые характеристики и т.д. других случайных величин. При этом в рамках теории вероятностей не обсужда ется источник этих известных сведений. Некоторые из них могут постули роваться из соображений симметрии (как, например, равновероятность выпадения каждой из граней игральной кости), другие – из других сообра жений, но в любом случае эти точные сведения в теории вероятностей считаются данными. Напротив, в математической статистике эти исходные данные (вероятности, функции распределения, числовые характеристики и т.д.) считаются неизвестными, и основной задачей математической стати стики является их оценка по экспериментальным данным. Легко видеть, что задачи математической статистики отражают задачи эксперименталь ной науки вообще, и именно поэтому математическая статистика является основой любого серьезного экспериментального исследования.

2.1 ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА Фундаментальным понятием математической статистики является понятие генеральной совокупности, которая определяется как множество всех значений, которые может принимать некоторая случайная величина.

Генеральная совокупность может быть конечной (например, когда речь идет о каких-либо характеристиках определенной партии товара) или бес конечной (когда количество значений, которые может принимать случай ная величина, теоретически бесконечно). В любом случае предполагается, что генеральная совокупность описывается некоторой неизвестной иссле дователю функцией распределения. Другими словами, мы предполагаем, В.А.Пантелеев - 47 - ЭЛЕМЕНТЫ МАТСТАТИСТИКИ что эта функция распределения существует, но мы ничего о ней не знаем.

Задачей математической статистики является, как уже отмечалось, оценка этой функции распределения и (или) отдельных ее параметров по экспери ментальным данным. Поэтому главным инструментом математической статистики, как науки о правилах обоснованных выводов из эксперимен тальных данных, является выборка.

Выборкой размера n из генеральной совокупности, описываемой функцией распределения F(x), называется набор из n независимых случай ных величин 1, 2, K, n, имеющих одну и ту же функцию распределения F(x).

Как видно, понятие выборки физически соответствует n независи мым измерениям одной и той же величины. При этом подчеркнем, что для того, чтобы эти измерения были выборкой, необходимо, чтобы они удов летворяли двум условиям:

1) они должны быть независимыми, т.е. результаты одного экспери мента не должны каким-либо способом влиять на результаты остальных экспериментов;

2) все они должны описываться одним и тем же законом распределе ния, т.е. 1, 2, K, n ~ F ( x ).

2.2 ТОЧЕЧНЫЕ ОЦЕНКИ Точечные оценки используются для оценки отдельных параметров функции распределения. Они представляют собой некоторую функцию выборки, которая называется статистикой.

Пусть а – некоторый неизвестный нам параметр функции распреде ления (математическое ожидание, дисперсия, момент и т.д.). Для его оце нивания производится эксперимент, в ходе которого определяется n ре зультатов измерения: 1, 2, K, n. Затем по этим результатам произво дится вычисление оценки величины а по заранее заданной формуле (стати стике):

a = f ( 1, 2,K, n ).

€ (2.1) Отметим принципиально важный смысл «крышечки», которая в формуле (2.1) появилась над параметром а. Сама по себе величина а – нам неизвестна, но она неслучайна, она является константой. В то же время ее оценка по формуле (2.1), статистика, представляет собой функцию слу В.А.Пантелеев - 48 - ЭЛЕМЕНТЫ МАТСТАТИСТИКИ чайных величин 1, 2, K, n и, в силу этого, безусловно является случай ной величиной. Таким образом, если а представляет собой истинное (хотя € и неизвестное) значение параметра, то a – это статистика, оценка, которая является представлением исследователя о величине а, полученном на ос новании обработки экспериментальных данных.

Важно отметить, что один и тот же параметр может оцениваться при помощи различных статистик. В связи с этим весьма важной представляет ся проблема выбора таких статистик (функций выборки), которые описы вали бы оцениваемый параметр наилучшим образом. Разумеется, что для проведения обоснованного выбора необходимы критерии, определяющие, какая оценка (статистика) лучше, а какая – хуже. Наиболее часто приме няются три таких критерия: несмещенность, состоятельность и эффек тивность.

1. Оценка называется несмещенной, если при любом объеме выбор ки математическое ожидание оценки равно оцениваемому параметру:

M {a} = M { f ( 1, 2,K, n )} = a.

€ (2.2) 2. Оценка называется состоятельной, если равна единице вероят ность того, что при неограниченном увеличении объема выборки n модуль разности между оценкой и оцениваемым параметром будет меньше сколь угодно малого положительного числа :

lim P {a n a } = 1, 0.

€ (2.3) n 3. При сравнении двух оценок одного и того же параметра более эф фективной будет та, которая обладает меньшей дисперсией. Говорят так же, что оценка является эффективной, если она имеет наименьшую дис персию по сравнению со всеми возможными оценками данного параметра.

Рассмотрим статистику для оценки математического ожидания.

Наиболее часто в качестве такой статистики используется арифметиче ское среднее:

( 1 + 2 + L + n ) = 1 n = 1 k.

^ M { } = = (2.4) n nk Покажем, что эта статистика является несмещенной. Для этого най дем её математическое ожидание и воспользуемся свойствами матожида ния (1.36) – (1.38):

В.А.Пантелеев - 49 - ЭЛЕМЕНТЫ МАТСТАТИСТИКИ 1 n 1n M { } = M k = 1 k = k = 1 M { k }. (2.5) n n По определению выборки все k описываются одной и той же функ цией распределения. Поэтому все математические ожидания в формуле (2.5) равны между собой, и эту формулу можно переписать:

1n M { } = k = 1 M { k } = n n M { } = M { }. (2.6) n В левой части формулы (2.6) мы видим математическое ожидание оценки, а в правой – оцениваемый параметр. Следовательно, арифметиче ское среднее является несмещенной оценкой математического ожидания.

Найдем дисперсию среднеарифметического. При этом, с одной сто роны, учтём, что по определению выборки все k независимы и описыва ются одной и той же функцией распределения, а с другой – воспользуемся свойствами дисперсии (1.53) – (1.55):



Pages:   || 2 | 3 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.