авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 |
-- [ Страница 1 ] --

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

имени М.В. ЛОМОНОСОВА

Научно-исследовательский институт ядерной физики

имени Д.В. Скобельцына

П.В.

Короленко, М.С. Маганова

Основы статистических методов

в оптике

Москва

2010

УДК 535

ББK 22.34я73-1

К68

Короленко П. В., Маганова М. С.

К68 Основы статистических методов в оптике : Учебное пособие / П. В.

Короленко, М. С. Маганова — М. : Университетская книга, 2010. — 164 с. : табл., ил.

ISBN 978-5-91304-126-5 Кратко изложены вероятностно-статистические методы, наиболее часто используемые в оптике при анализе стохастических процессов. Наряду с изложением общетеоретических вопросов, приводятся конкретные примеры применения статистического под хода при изучении и моделировании оптических явлений, а также при обработке данных наблюдений.

Для студентов и аспирантов, специализирующихся в области физической и статистической оптики.

УДК ББK 22.34я73- Учебное издание Павел Васильевич Короленко Мария Сергеевна Маганова ОСНОВЫ СТАТИСТИЧЕСКИХ МЕТОДОВ В ОПТИКЕ Учебное пособие Работа поступила в ОНТИ 02.04. Подп. в печать 20.05.2010. Формат 6084 /16. Бумага офсетная.

Печать цифровая. Тираж 150 экз. Заказ № Т-096.

Отпечатано с диапозитивов, предоставленных автором, в типографии «КДУ».

Тел./факс (495) 939-44-91;

www.kdu.ru;

e-mail: press@kdu.ru © МГУ, 2010.

© НИИЯФ МГУ, 2010.

© П. В. Короленко, М. С. Маганова, 2010.

© Издательство КДУ, ISBN 978-5-91304-126-5 обложка, 2010.

Оглавление ОГЛАВЛЕНИЕ.............................................................. ПРЕДИСЛОВИЕ............................................................ ВВЕДЕНИЕ..................................................................... ГЛАВА I. СЛУЧАЙНЫЕ ДЕЙСТВИТЕЛЬНЫЕ ВЕЛИЧИНЫ................................................................. 1.1. Функция и плотность распределения вероятностей............................................................. 1.2. Средние значения и моменты случайных величин, параметры распределений....................... 1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения... 1.4. Биномиальное распределение и распределение Пуассона.......................................... 1.5. Другие плотности распределения вероятностей............................................................. 1.6. Оценка отклонения анализируемого распределения от нормального. Асимметрия и эксцесс....................................................................... 1.7. Характеристическая функция........................... 1.8. Центральная предельная теорема..................... 1.9. Совместные распределения случайных величин. Условные функции распределения и плотность распределения вероятностей.

................ 1.10. Плотность распределения вероятностей суммы (разности) двух случайных величин.......... 1.11. Корреляционный момент, коэффициент корреляции................................................................ ГЛАВА II. СЛУЧАЙНЫЕ КОМПЛЕКСНЫЕ ВЕЛИЧИНЫ................................................................. 2.1. Описание случайной комплексной переменной................................................................ 2.2. Общая характеристика суммы случайных фазоров...................................................................... 2.2.1. Исходные предположения......................... 2.2.2. Распределение длины и фазы результирующего фазора..................................... 2.3. Некоторые частные случаи суммирования случайных фазоров.................................................... 2.3.1. Постоянный фазор и сумма случайных фазоров.................................................................. 2.3.2. Большой постоянный фазор и малая сумма случайных фазоров................................... ГЛАВА III. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ............................................................. 3.1. Выборки.............................................................. 3.2. Выборочная дисперсия...................................... 3.3. Доверительный интервал................................... 3.4. Аппроксимация экспериментальных данных и линейная регрессия................................................ 3.5. Проверка статистических гипотез.................... ГЛАВА IV. АНАЛИЗ СЛУЧАЙНЫХ ПРОЦЕССОВ................................................................ 4.1. Общие характеристики случайных процессов.

Стационарные и эргодические процессы............... 4.2. Измерение параметров случайных процессов................................................................... 4.3. Корреляционная и структурная функции........ 4.4. Свойства автокорреляционных функций......... 4.5. Измерение автокорреляционных функций...... 4.6. Взаимные корреляционные функции............... 4.7. Энергетический спектр стационарного случайного процесса............................................... 4.8. Марковский и винеровский процессы........... 4.9. Белый шум........................................................ 4.10. Преобразование случайных сигналов временными фильтрами.......................................... ДОПОЛНЕНИЕ. ИСПОЛЬЗОВАНИЕ ПРОГРАММНОГО ПАКЕТА MATHCAD В СТАТИСТИЧЕСКИХ РАСЧЕТАХ....................... ПРИЛОЖЕНИЯ......................................................... Приложение 1. Прохождение излучения через случайно неоднородные среды............................. Приложение 2. Статистическая модель оптических шумов.................................................. Приложение 3. Теория фотоотсчетов................... Приложение 4. Применение центральной предельной теоремы в оптике............................... Приложение 5. Спекл-эффекты при когерентном формировании изображения........... Приложение 6. Применение методов математической статистики в обработке наблюдений............................................................. Приложение 7. Обнаружение периодического сигнала..................................................................... Приложение 8. Теория когерентности.................. Приложение 9. Сравнение характеристик временных и пространственных фильтров.......... ЛИТЕРАТУРА........................................................... ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ............................... Предисловие Предисловие В настоящее время уровень подготовки исследова телей в области физической оптики во многом опреде ляется степенью освоения ими вероятностно-стати стических методов анализа. Без владения этими мето дами невозможно изучение важных разделов оптики, таких, в частности, как теория когерентности и фото отсчетов, оптика случайно-неоднородных сред, спекл интерферометрия, обработка информации, оптические измерения.

Известно, что учебные программы по математике физических факультетов классических университетов включают курс теории вероятностей с элементами ма тематической статистики. Однако практика работы со студентами на старших курсах в процессе освоения ими материалов спецкурсов, выполнения спецпракти кумов, подготовки курсовых и дипломных работ пока зывает, что полученные знания оказываются либо не достаточными, либо слабо закрепленными. Несмотря на большое число учебных пособий по теории вероят ностей и математической статистике, студентам часто бывает сложно с их помощью восполнить и дополнить знания. Это связано с дефицитом времени в процессе интенсивной специализации и с недостаточной адап тацией большинства существующих руководств к за дачам современной физической оптики. Кроме того, многие известные пособия весьма слабо освещают, а иногда и полностью обходят вопросы, относящиеся к реализации рассматриваемых методов на основе со временных компьютерных технологий.

Аппарат теории вероятностей и математической статистики обычно используется для анализа случай ных процессов, течение которых обусловлено боль шим числом трудно учитываемых или неконтроли руемых факторов. Это не позволяет определить точ ные значения параметров развивающегося процесса.

Существует возможность оценить лишь вероятности принятия параметрами определенных значений. В по следнее время вероятностно-статистические методы стали широко использоваться для описания развития в системах детерминированного хаоса. Он связан с вы сокой чувствительностью динамики системы к зада нию начальных условий. Несмотря на различие физи ческой природы случайных и хаотических процессов, их изучение возможно на основе общих статистиче ских подходов. Во избежание лишних оговорок в ходе изложения материала, мы в дальнейшем будем отно сить такие процессы к обобщающему классу стохас тических процессов.

Статистические методы анализа обладают особен ностью, которую необходимо учитывать при их прак тической реализации. Они требуют, как правило, больших объемов вычислений. Однако сейчас, когда уровень развития вычислительной техники и про граммного обеспечения очень высок, это не может служить сколь-нибудь серьезным препятствием.

Почти любой современный персональный компьютер позволяет решать большое число статистических задач с использованием возможностей, заложенных в легко доступных программных пакетах, таких, например, как MathCAD или MathLAB. Это обстоятельство под толкнуло авторов привести некоторые сведения и ил люстрации, относящиеся к компьютерным вычисле ниям, а также на примерах показать некоторые воз можности, которые предоставляет вычислительная среда MathCAD.

У читателя существует возможность расширить и дополнить содержащийся в пособии материал, вос Предисловие пользовавшись приведенным в хронологическом по рядке перечнем монографий, научных справочников, учебников и учебных пособий по статистическому анализу. В него вошли преимущественно литератур ные источники, материал которых в той или иной сте пени использовался при написании пособия. Авторы старались не перегружать разделы, посвященные об щим вопросам, разнообразными иллюстрациями и примерами, и вынесли их в приложения. Конечно, рассмотренные там примеры из-за ограниченности объема книги не могут дать полного представления о реализации статистических методов в оптических ис следованиях. Авторы рассчитывают, что указанный недостаток читатели восполнят самостоятельной рабо той с литературными источниками.

Введение Важную роль в теории вероятностей и математи ческой статистике играет понятие случайной вели чины. Его можно связать со случайной функцией вре мени, описывающей структуру стохастических сигна лов, регистрируемых в процессе наблюдения за разно образными физическими процессами. Значащие точки таких сигналов представляют собой набор случайных величин.

Предположим, что в результате некоторого опыта реализована случайная функция времени x(t ), пример которой приведен на рис. В.1. Естественно, в практи ческих случаях такая реализация является лишь одной из бесконечного множества потенциально сущест вующих. Совокупность всех этих реализаций форми рует случайный процесс, обозначаемый в дальнейшем как X (t ) = {x(t )}. Если для него определены вероятностные характеристики, то эту совокупность называют ансамблем. Любой член ансамбля (напри мер, x(t ) ) представляет собой выборочную функцию, и ее значение в некоторый определенный момент вре мени, например, t1, является случайной величиной, обозначаемой X (t1 ) или просто X 1. Таким образом, X 1 = x(t1 ), если x(t ) – отдельная наблюдаемая выборочная функция (реализация) случайного процесса X (t ).

Следует отметить, что, во-первых, в каждый мо мент времени фигурирует своя случайная величина, во-вторых, случайный характер, о котором здесь гово рится, наблюдается по всему ансамблю при переходе от одной выборочной функции к другой. Аналогичный характер может наблюдаться и при переходе от одного Введение момента времени к другому. В связи с этим вероятно стное описание случайных величин одновременно может служить вероятностным описанием случайного процесса или некоего сигнала, характеризующего происходящие в изучаемой системе изменения. Тем не менее, в ходе изложения материала мы сначала рас смотрим свойства случайных величин, а затем перей дем к анализу случайных процессов.

Рис. В.1. Реализация случайной функции времени.

1.1. Функция и плотность распределения вероятностей Глава I. Случайные действительные величины 1.1. Функция и плотность распределения вероятностей Случайной называется величина, наблюдаемые значения которой зависят от случайных причин. Эти значения могут представлять собой либо непрерывный континуум, либо набор дискретных значений.

Целесообразно отличать случайные величины, принимающие лишь отдельные, изолированные зна чения, от тех, возможные значения которых сплошь заполняют некоторый промежуток.

Дискретной называют случайную величину, кото рая принимает отдельные, изолированные возможные значения с определенными вероятностями. Число воз можных значений дискретной случайной величины может быть конечным или бесконечным. Если подоб ная величина может принимать лишь целые неотрица тельные значения, она называется целочисленной.

Законом распределения (рядом распределения) дискретной случайной величины называется совокуп ность всех ее возможных значений x1, x2, K, xn и веро ятностей P( x1 ), P( x2 ), K, P(xn ) появления каждого из них. Пример графического представления закона рас пределения дискретной случайной величины приведен на рис. 1.1.1, а.

Случайная величина называется непрерывной, если она может принимать любые значения из некоторого ограниченного или неограниченного интервала. Такая величина имеет несчетное множество возможных зна чений, которые сплошь заполняют некоторый интер вал числовой оси или всю числовую ось.

Глава I. Случайные действительные величины Случайная ве личина характери зуется полностью, если указаны веро ятности, с кото рыми она может принимать те или иные значения. Эти вероятности можно описать с помощью функций их рас пределения.

Если X – слу чайная величина, а x – любое ее значе ние, то функция распределения ве роятностей (часто Рис. 1.1.1. Примеры закона (а) и функ ции (б) распределения вероятностей ее называют просто функцией распреде дискретной случайной величины.

ления) определяется как вероятность P события, заключающегося в том, что наблюдаемая случайная величина меньше или равна допустимому ее значению x, т.е.

F X ( x ) = P ( X x ).* (1.1.1) Функция распределения вероятностей FX ( x ) обла дает следующими свойствами:

0 FX ( x ) 1, x, 1) FX ( ) = 0, FX ( ) = 1, 2) * В пособии принята тройная нумерация формул: глава, параграф, формула. При ссылках внутри параграфа указывается только номер формулы.

1.1. Функция и плотность распределения вероятностей FX (x ) не уменьшается при возрастании x, 3) P( x1 X x2 ) = FX ( x2 ) FX (x1 ).

4) Примеры функции распределения вероятностей дискретной и непрерывной величин приведены, соот ветственно, на рис. 1.1.1, б и рис. 1.1.2, а.

Наряду с функцией распределения вероятностей непрерывную случайную величину принято характе ризовать также функцией плотности распределения вероятностей (плотностью вероятностей). Эта функция, дифференциал которой равен f X (x )dx = P( x X x + dx ). (1.1.2) Соотношение (2) означает, что дифференциал f X ( x )dx представляет вероятность того, что случайная величина X лежит в диапазоне значений между x и x + dx.

Плотность распределения вероятностей f X ( x ) обладает следующими свойствами:

1) f X ( x ) 0, x, f (x )dx = 1, 2) X x f (u )du = F (x ), 3) (1.1.3) X X x f (x )dx = P(x X x2 ).

4) X x На рис. 1.1.2, б показано поведение плотности рас пределения для непрерывной величины.

На практике оценка плотности вероятности осу ществляется путем построения гистограммы. Гисто грамма – ступенчатая фигура, показывающая долю Глава I. Случайные действительные величины состояний процесса p(n ), когда характеризующая его случайная величина прини мает значения в интервале от (n 1 2 ) до (n + 1 2 ) ( n = 0, ± 1, ± 2, …), где параметр определяет задаваемую величину интервала. При построении гистограммы по оси ординат откладывается величина p(n ), а по оси абсцисс – значение n.

Выборочной оценкой плотности вероятности Рис. 1.1.2. Примеры функции является функция распределения (а) и плотно f X (n ) = p(n ). (1.1.4) сти распределения (б) вероятностей непрерывной случайной величины.

1.2. Средние значения и моменты случайных величин, параметры распределений Важной характеристикой случайной величины яв ляется ее среднее значение X, определяемое следую щим образом*:

X = E[X ] = xf (x )dx. (1.2.1) Мы будем опускать индекс при функции f (x ), если ясно, к * какой случайной величине она относится.

1.2. Средние значения и моменты случайных величин, параметры распределений Величина E [ X ] называется математическим X. Помимо символа E [X ] для ожиданием статистического усреднения мы будем в дальнейшем, исходя из удобства записи формул, также использо вать обозначение X.

Математическое ожидание обладает следующими свойствами:

1. Постоянный множитель выносится за знак ма тематического ожидания, E [cX ] = c E [X ].

2. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий, E [ X + Y ] = E [ X ] + E [Y ].

3. Математическое ожидание произведения неза висимых случайных величин равно произведению их математических ожиданий, E [X Y ] = E [X ] E [Y ].

С помощью выражения (1) может быть найдено математическое ожидание любой функции от x :

E [g ( X )] = g (x ) f (x )dx. (1.2.2) Особое значение при проведении статистического анализа имеют функции вида g (x ) = x n. Они входят в общее выражение для так называемых начальных моментов случайной величины:

[ ] x f (x )dx.

Xn =E Xn = n (1.2.3) [] Самыми важными из моментов E X n случайной величины X являются начальный момент 1-го порядка (при n = 1 ), равный математическому ожида нию (1), и момент 2-го порядка (при n = 2 ), посредст Глава I. Случайные действительные величины вом которого находится средний квадрат случайной величины, [ ]= x f ( x )dx.

X =E X 2 2 (1.2.4) Важное значение имеют центральные моменты, представляющие собой моменты разности случайной величины X и ее математического ожидания X. Так, центральный момент n -го порядка µ n имеет вид ( ) n µn = X X = [( ) ] = (x X ) (1.2.5) + f ( x )dx.

n =E XX Первый центральный момент (для n = 1 ) равен, ес тественно, нулю, а второй центральный момент (для n = 2 ) настолько важен, что получил даже собствен ное название – дисперсии. В литературе для нее используются обозначения X, D[X ] или Var[ X ].

Таким образом, ( ) µ 2 = X = D[X ] = Var[X ] = X X = (1.2.6) + (x X ) f (x )dx.

= Дисперсию можно определить и по-другому, если воспользоваться правилом для нахождения математи ческого ожидания суммы случайных величин:

E [X 1 + X 2 + K + X m ] = E [X 1 ] + E [X 2 ] + K + E [X m ].

Таким образом, 1.2. Средние значения и моменты случайных величин, параметры распределений [ ][ ] X = E ( X X ) = E X 2 2 XX + (X 2 ) = [] = E X 2 2 E [X ]X + ( X ) = (1.2.7) = X 2 2 X X + (X ) = X 2 (X ).

2 То есть, дисперсия равна разности между средним квадратом случайной величины и квадратом ее мате матического ожидания. Ее физический смысл состоит в том, что она определяет среднюю интенсивность флуктуаций.

Дисперсия обладает следующими свойствами:

1. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат: D[cX ] = c 2 D[ X ].

2. Дисперсия суммы независимых случайных ве личин равна сумме их дисперсий:

D[X + Y ] = D[X ] + D[Y ].

3. Дисперсия случайной величины не изменится, если к ней прибавить постоянную: D[X + c ] = D[x ].

4. Если случайные величины X и Y независимы, [][] то D[X Y ] = E X 2 E Y 2 (E [X ]) (E [Y ]).

2 Величина X – значение квадратного корня из дисперсии – называется стандартным или средним квадратическим отклонением.

При весьма общих условиях набор моментов пол ностью определяет распределение вероятностей.

Встречается немало случаев, когда проще найти пол ный набор моментов неизвестного распределения, чем непосредственно само распределение. В таких случаях распределение удается построить исходя из набора данных моментов.

Моменты являются общими (интегральными) ха рактеристиками. Наряду с ними используются пара метры, которые характеризуют отдельные значения Глава I. Случайные действительные величины функции распределения. К ним в первую очередь от носят такие понятия как медиана, мода и размах.

Медианой Me[ X ] случайной величины X называ xp, ется такое ее значение для которого P{X x p } = P{X x p } = 1 2, т.е. вероятности того, что величина X будет меньше x p или больше x p, одина ковы.

Модой Mo[X ] дискретной случайной величины X называется ее значение, принимаемое с наибольшей вероятностью по сравнению с двумя соседними значе ниями. Для непрерывной случайной величины Mo[ X ] определяется точкой максимума (локального) плотно сти вероятностей f X ( x ). Если мода единственна, то распределение случайной величины называется унимодальным, в противном случае – полимодальным.

Размахом Ra[X ] случайной величины называется разность между максимальным и минимальным ее значениями, Ra[X ] = xmax xmin.

Помимо рассмотренных выше числовых характе ристик случайной величины нашли применение так называемые квантили.

Квантилем x p распределения случайной вели чины X с функцией распределения вероятностей FX ( x ) называется решение уравнения FX (x p ) = P. (1.2.8) Иными словами квантиль x p есть такое значение P (X x p ) = P.

случайной величины X, что Вероятность P, задаваемая в процентах, дает название соответствующему квантилю;

например, x0, 1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения называется 20%-ым квантилем. 50%-й квантиль представляет собой медиану случайной величины.

1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения Среди различных возможных распределений веро ятностей особое место занимает нормальное распреде ление (распределение Гаусса). Оно служит хорошей математической моделью для целого ряда наблюдае мых явлений и в статистическом смысле может быть полностью описано при помощи только первого и вто рого моментов. Важно отметить, что любые линейные комбинации гауссовских случайных величин также являются гауссовскими.

Нормальная (гауссовская) плотность распределе ния вероятностей имеет вид ( ), x X f (x ) = exp, 2 2 (1.3.1) при x +.

где X – математическое ожидание, 2 – дисперсия.

Графики плотности и функция распределения вероят ностей гауссовской случайной величины показаны на рис. 1.3.1, а и б, соответственно. Из них видно, что плотность распределения вероятностей гауссовской случайной величины имеет только один симметрично расположенный максимум, который соответствует ма тематическому ожиданию. Ширина нормальной плот ности вероятностей прямо пропорциональна среднему квадратическому (стандартному) отклонению. На уровне 0,607 от максимального значения функции f X ( x ) она равна 2 X. Максимум нормальной плотно Глава I. Случайные действительные величины сти распределения вероятностей обратно пропорцио нален стандартному отклонению.

Рис. 1.3.1. Плотность вероятностей (а) и функция распределения (б) гауссовской случайной величины.

Соответствующая функция распределения вероят ностей не сводится к простой математической фор муле. Впрочем, ее можно описать посредством ши роко известных табулированных функций, учитывая связь между функцией распределения и плотностью распределения вероятностей гауссовской случайной величины:

x F (x ) = f (u ) du = (1.3.3) ( ) du.

uX x exp = 2 Обычно табулируют функцию нормированного гаус совского распределения вероятностей, характеризуе мого математическим ожиданием, равным нулю, и дисперсией, равной единице (т.е. X = 0, = 1 ). Ее обозначают через ( x ) и определяют следующим образом:

1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения x ( ) (x ) = exp u 2 du.

(1.3.4) Часто используется функция Q(x ), связанная c функцией ( x ), соотношением Q(x ) = 1 (x ). (1.3.5) В литературе можно встретить различные обозна чения для функции ( x ) и Q( x ). Некоторые авторы используют запись erf ( x ) = ( x ), (1.3.6) где erf ( x ) – функция ошибок, и erfc( x ) = Q( x ), где erfc( x ) – обратная функция ошибок.

Однако другие авторы определяют функцию ошибок как x exp ( u )du.

erf ( x ) = (1.3.7) Указанные различия следует учитывать при использо вании приводимых в литературе соотношений.

Дополнительную графическую иллюстрацию к за висимостям, представленным на рис. 1.3.1, дает рисунок 1.3.2.

Особая важность гауссовского распределения слу чайной величины помимо тех причин, о которых было сказано выше, обусловлена еще и тем, что непосредст венно с ним связан ряд часто встречающихся на прак тике распределений. Среди них отметим логарифми Глава I. Случайные действительные величины чески нормальное распределение и распределение Рэлея.

Для характеристики логарифмически нормального распределения рассмотрим две случайные величины X и Y, удовлетворяющие соотношению Y = ln X (или, что эквивалентно, X = exp(Y ) ), и предположим, Рис. 1.3.2. Другие графические представления функции нормального распределения вероятностей. По оси абсцисс x X (a) и величина x X (б).

отложена величина что Y представляет собой гауссовскую случайную величину с математическим ожиданием Y и дисперсией Y. Несложно показать, что плотность распределения вероятностей X имеет вид ( ), exp ln x Y x 0, f X ( x ) = 2 x (1.3.8) 2 Y Y x 0.

0, 1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения Это и есть логарифмически нормальная плотность распределения вероятностей. На рис. 1.3.3 показан общий вид графиков для различных значений.

Рис. 1.3.3. Логарифмически нормальное распределение Y = 1, a) = 0,2, б) 0,3, в) 0,5.

На практике чаще бывает удобнее вместо выражения (8) использовать другое представление:

(ln x µ ) f X (x ) = exp, (1.3.9) 2 2x ( ) X где µ = ln, = ln 1 + X.

1 + X Математическая ожидание и дисперсия находятся, как обычно, и имеют вид ( ) X = exp Y + Y 2, (1.3.10) Глава I. Случайные действительные величины () 2 Y + Y. (1.3.11) 2 X = [exp Y 1] exp Логарифмическая нормальная функция распреде ления вероятностей не может быть записана через элементарные функции. Если необходимо выполнить расчеты с применением этого распределения, обычно приходится прибегать к численному интегрированию.

К нормальному и логарифмически нормальному распределению вероятностей часто приходится обра щаться при анализе флуктуационной структуре световых пучков (см. приложение 1).

Распределение Рэлея играет важную роль при ана лизе амплитудных значений случайных световых ко лебаний. Оно также встречается при наведении лазер ных пучков на мишень, если разбросы (отклонения от мишени) в каждом из двух взаимно перпендикуляр ных направлений независимы и распределены по нор мальному закону. Таким образом, если начало прямо угольной системы координат считать целью, а разброс по осям обозначить через X и Y, то промах будет вы ( ) глядеть как R = X 2 + Y 2. Если X и Y – независи мые гауссовские случайные величины с нулевыми ма тематическими ожиданиями и одинаковыми диспер сиями 2, то плотность вероятностей для R запи шется в виде ( )( ) r 2 exp r 2 2 2 r 0, f R (r ) = (1.3.12) r 0.

0, Это и есть рэлеевская плотность распределения вероятностей, ее графики для различных значений дисперсии 2 показаны на рис. 1.3.4. Обратите внима ние на то, что максимум этой функции соответствует 1.3. Нормальное (гауссовское) распределение вероятностей и связанные с ним распределения стандартному отклонению, и что она несимметрична относительно этого значения.

Рис. 1.3.4. Рэлеевская плотность распределения вероятностей.

Математическое ожидание случайной величины, распределенной по закону Рэлея, легко определяется и равно ( )( ) R = rf R (r ) dr = r 2 2 exp r 2 2 2 dr = (1.3.13) 0 = ( 2), а средний квадрат имеет вид ( )( ) R 2 = r 2 f R (r ) dr = r 3 2 exp r 2 2 2 dr = (1.3.14) 0 = 2 2.

Глава I. Случайные действительные величины При этом дисперсия случайной величины R равна R = R 2 (R ) = (2 2 ) 2 = 0,429 2. (1.3.15) Полученное значение (15) отличается от дисперсии гауссовых случайных величин, из которых получена рассматриваемая величина. В отличие от гауссовских, для случайной величины, определенной по закону Рэлея, и математическое ожидание, и дисперсия зави сят от одного и того же параметра 2, в результате чего они не могут изменяться независимо друг от друга.

Функция распределения вероятностей для рэлеев ской величины находится непосредственно из соот ветствующей плотности вероятностей, которая легко интегрируется. Таким образом, r ( )( ) FR (r ) = u 2 exp u 2 2 2 du, r 0, = r 0, 0, (1.3.16) ( ) 1 exp r 2, r 0, 2 = r 0.

1.4. Биномиальное распределение и распределение Пуассона Важную роль при анализе оптических явлений иг рают биномиальное и пуассоновское распределения дискретных целочисленных случайных величин. Для их характеристики рассмотрим n независимых испыта ний, в каждом из которых некое событие A может либо появиться, либо не появиться. Вероятность на ступления события во всех испытаниях постоянна, и равна p (соответственно, вероятность непоявления q = 1 p ). Рассмотрим в качестве случайной величины 1.4. Биномиальное распределение и распределение Пуассона X число появления события A в этих испытаниях.

Чтобы найти закон распределения величины X, опре делим возможные значения X и их вероятности. Оче видно, событие A в n реализациях может либо не появиться, либо появиться 1 раз, либо 2 раза,… либо n раз. Таким образом, величине X ставится в соответствие следующие значения: x1 = 0, x2 = 1, x3 = 2, …, xn +1 = n. Вероятности этих возможных значений можно найти, воспользовавшись формулой Бернулли:

Pn (k ) = C n p k q n k, k (1.4.1) n!

где k = 0, 1, 2,K n, а коэффициент C n = k обоз k!(n k )!

начает число сочетаний из n элементов по k.

Формула (1) и задает биномиальный закон распре деления. При таком распределении математическое ожидание X = np, дисперсия D[ X ] = npq.

Будем считать, что при очень большом числе ис пытаний, в каждом из которых вероятность события A очень мала, событие наступит ровно k раз, при этом произведение np сохраняет постоянное значе ние, а именно np =. Это означает, что среднее число появления события в различных сериях испытаний, то есть при различных значениях n, остается неизмен ным. При таких допущениях закон распределения будет иметь вид Pn (k ) = k e k!. (1.4.2) Формула (2) будет характеризовать закон распределения Пуассона, справедливый для массовых Глава I. Случайные действительные величины ( n велико) и редких ( p мало) событий. В такой ситуа ции X = D[ X ] =.

Пример использования биномиального и пуассо новского распределения в оптике приведены в приложениях 2 и 3.

1.5. Другие плотности распределения вероятностей Кроме отмеченных выше распределений вероятно стей случайных величин, в ходе решения задач не редко приходится встречаться и с другими. Среди них следует выделить равномерное распределение. На практике оно встречается, если среди принимаемых случайными величинами значений нет каких-либо предпочтительных.

Если значения случайной величины Х изменя ются в области x1 x x2, то плотность равномерного распределения вероятностей имеет вид 1 ( x x ), x1 x x2, f X (x ) = 2 1 (1.5.1) x x1, x x2.

0, Не сложно показать, что X = ( x1 + x2 ) 2, (1.5.2) X = ( x2 x1 ) 12.

2 (1.5.3) Функция распределения вероятностей рассматривае мой случайной величины, получаемая путем интегри рования плотности вероятностей, определяется формулой x x1, 0, FX ( x ) = (x x1 ) (x2 x1 ), x1 x x2, (1.5.4) x x2.

1, 1.5. Другие плотности распределения вероятностей Плотность равномерного распределения вероятно стей часто используется при рассмотрении гармониче ских сигналов со случайной фазой. Например, если подобный сигнал в виде лазерного пучка передается из одного места в другое, его фаза в точке приема мо жет считаться случайной. Поскольку отсутствует фи зическая причина, в соответствие с которой следовало бы одно из значений фазы предпочесть другим, обычно полагают, что фаза распределена равномерно в пределах 2. Если сигнал с частотой, является функцией времени t, x(t ) = cos( t ), то в этом слу чае фаза, являясь случайной величиной, будет характеризоваться плотностью вероятностей 1 2, 0 2, f () = (1.5.5) 0, 2.

0, При этом математическое ожидание будет равно =, а дисперсия примет значение = 2 3.

При анализе оптических процессов часто встреча ется экспоненциальное распределение. Как было отме чено при рассмотрении равномерного распределения, события с произвольными моментами наступления часто считаются равновозможными. Таким образом, если средний промежуток времени между наступле нием событий обозначать через, то вероятность на ступления события на интервале t, меньшем, бу дет равняться просто t, независимо от того, как расположен рассматриваемый интервал. Исходя из та кого предположения, найдем функцию распределения вероятностей временного интервала между событиями.

Рассмотрим рис. 1.5.1. Пусть некое событие про изошло в момент t0 и необходимо определить вероят Глава I. Случайные действительные величины ность того, что следующее событие произойдет в произвольный момент времени, расположенный между t 0 + и t 0 + + t (события отмечены звездочками). Обозначая функцию распределения Рис. 1.5.1. Временной интервал между событиями.

вероятностей случайной величины через F (), запишем величину искомой вероятности просто как F ( + t ) F (). Но вероятность того, что событие произойдет в интервале t, должна одновременно равняться произведению вероятностей двух независи мых событий: «событие не произошло в промежутке от t0 до t 0 + » и «событие произошло в промежутке от t 0 + до t 0 + + t ». Поскольку 1 F ( ) – это вероятность того, что событие не произойдет в интер вале между t0 и t 0 +, а t – вероятность того, что оно произойдет на промежутке t, можно записать F ( + t ) F ( ) = [1 F ( )](t ). (1.5.6) Поделив левую и правую части полученного вы ражения на t и устремив t к нулю, получим [F ( + t ) F ()] = dF () = 1 F ().

lim (1.5.7) t d t 1.5. Другие плотности распределения вероятностей Решая полученное дифференциальное уравнение, найдем искомое распределение вероятностей F () = 1 exp, 0. (1.5.8) (Постоянная интегрирования находится с учетом на чального условия F (0 ) = 0, поскольку не может быть меньше нуля.) Дифференцируя (8), получим выражение для плотности распределения вероятностей временного интервала между событиями. Таким образом, 1 exp 0, f () = (1.5.9) 0.

0, Эта функция называется плотностью экспоненци ального распределения вероятностей, и на рис. 1.5. Рис. 1.5.2. Экспоненциальная плотность распределения вероятностей.

Глава I. Случайные действительные величины приведены ее графики для двух различных значений среднего временного интервала.

В заключение данного раздела приведем без под робных комментариев ряд распределений, которые также достаточно часто встречаются при проведении статистического анализа данных.

Распределения вероятностей дискретных величин:

Распределение Бернулли (частный случай биномиального распределения) P( x ) = p x (1 p ) 1 x, x = 0, 1, 2K, X = p, X = p(1 p ).

Распределение Паскаля P( x ) = C xm1 p m q x m, x = m, m + 1, m + 2K, m 1 – целое, 0 p 1, q = 1 p, X = mp 1, X = mqp 2.

Распределения вероятностей непрерывных величин:

Бета-распределение (u + v ) u x u f X (x ) = x (1 + x ) u + v =, B(u, v ) (1 + x ) (u )(v ) u +v x 0, u 0, v 0, u (u + v 1) u X=, v 1, X =, v 2.

(v 1)2 (v 2) v Распределение Максвелла x 2x 2 f X (x ) =, a 0, 2a e a 3 1.5. Другие плотности распределения вероятностей 3 8 2, X = X = 2a a.

Распределение Коши [ ] a f X (x ) = a 2 + (x b ), x, a 0, b.

Математическое ожидание и дисперсия не определены.

Распределение Эрланга exp( ax ) f X (x ) = a n x n 1, x 0, (n 1)!

a 0, n = 1, 2,..., X = na 1, X = na 2.

Гамма-распределение 1 x f X (x ) = x e, x 0, 0, 0, ( ) X=, X = 2.

Распределение Лапласа a f X (x ) = exp( a x b ), x, b, a 0, X = b, X = 2a 2.

Глава I. Случайные действительные величины Распределение Вейбулла ( ) f X (x ) = abx b 1 exp ax b, x 0, a 0, b 0, ( ) X = (1 a ) 1 + b ((1 + 2b ) [(1 + b )] ).

X = (1 a ) 2 2b 1 Особым образом выделим распределения, используемые в математической статистике.

2 -распределение Пирсона n n n 1 x f X ( x ) = 2 2 x 2 exp, x 0, n = 1, 2,..., 2 X = n, X = 2n.

t -распределение Стьюдента + + 2 1 + t 2, t, f (t ) = – положительное целое число, T = 0, T =, 2.

F -распределение Фишера-Снедекора u + u u u 2 2 1 u f (x ) = x 1 + x, x 0, u v B, 2 u, – целые положительные числа, 1.6. Оценка отклонения анализируемого распределения от нормального. Асимметрия и эксцесс 2 2 (u + 2 ) X=, 2;

X =, 4.

u ( 2 ) ( 4 ) 2 1.6. Оценка отклонения анализируемого распределения от нормального. Асимметрия и эксцесс При определении плотностей распределений веро ятностей реальных случайных величин приходится убеждаться, что часто в графическом представлении они имеют колоколообразный вид. При изучении та ких распределений, возникает необходимость количе ственно оценить их отличие от нормального. С этой целью вводят специальные характеристики, в частно сти, асимметрию и эксцесс. Для нормального распре деления эти характеристики равны нулю. Поэтому если асимметрия и эксцесс имеют небольшие значе ния, предполагается близость этого распределения к нормальному. Наоборот, большие значения этих двух параметров указывают на значительное отклонение от нормального.

Как оценить асимметрию? Можно доказать, что для симметричного распределения (график такого распределения симметричен относительно прямой x = E [X ] ) каждый центральный момент нечетного по рядка равен нулю. Для несимметричных распределе ний центральные моменты нечетного порядка от личны от нуля. Поэтому любой из этих моментов (кроме момента первого порядка, который равен нулю для любого распределения) может служить для оценки асимметрии. Проще всего выбрать момент третьего порядка µ 3. Однако принять его для оценки асиммет рии неудобно из-за его зависимости от единиц изме рения случайной величины. Для устранения этого не Глава I. Случайные действительные величины достатка, µ 3 делят на 3, получая безразмерную характеристику.

Асимметрией распределения называют отношение центрального момента третьего порядка к кубу сред него квадратичного отклонения:

µ AS =. (1.6.1) Асимметрия положительна, если «длинная часть»

кривой распределения расположена справа от матема тического ожидания, и отрицательна, если она распо ложена слева от математического ожидания.

На практике определяют знак асимметрии по рас положению кривой распределения относительно моды (точки максимума функции плотности распределения вероятностей): если «длинная часть» кривой располо жена правее моды, то асимметрия положительна (рис. 1.6.1, а), если слева – отрицательна (рис. 1.6.1, б).

Рис. 1.6.1. Плотности распределения вероятностей при положительном (а) и отрицательном (б) коэффициентах асимметрии.

1.6. Оценка отклонения анализируемого распределения от нормального. Асимметрия и эксцесс Для оценки крутизны, т.е. большего или меньшего подъема, кривой изучаемого распределения по срав нению с нормальным, пользуются характеристикой – эксцессом.

Эксцессом распределения называют характери стику, которая определяется равенством ( ) E = µ 4 4 3. (1.6.2) Для нормального рас пределения µ 4 4 = 3 ;

то есть, эксцесс равен нулю.

Поэтому если эксцесс не которого распределения отличен от нуля, то кри вая этого распределения отличается от нормаль ной: если эксцесс поло жительный, то график имеет более высокую и «острую» вершину, чем нормальная кривая (рис. 1.6.2, а), а если от рицательный, то он ниже и «площе», чем нормаль ная кривая (рис. 1.6.2, б).

При этом предполагается, что нормальное и изучаемое распределение имеют одинаковые мате Рис. 1.6.2. Плотности распреде матические ожидания и ления вероятностей при поло жительном (а) и отрицательном дисперсии.

(б) эксцессах. Пунктир – нормальная кривая.

Глава I. Случайные действительные величины 1.7. Характеристическая функция Пусть дана непрерывная случайная величина X и соответствующая ей плотность вероятности f X ( x ).

Для ряда задач удобно ввести функцию от пере менной u, которая представляет собой математиче ское ожидание величины e jux. Она называется характеристической функцией случайной величины X. По определению, эта функция (u ) равна (u ) = e = e jux f X (x )dx.

jux (1.7.1) Здесь j = 1 – мнимая единица.

Из свойств интеграла Фурье следует обратная формула f X (x ) = (u ) e jux du.

(1.7.2) Введение характеристической функции связано с тем, что ее последовательные производные, в которых положено u = 0, представляют собой, с точностью до коэффициента ± j, начальные моменты того же по рядка. Действительно, (0) = f (x )dx = 1, X (0) = j xf X ( x )dx = j X, (1.7.3) M ( r ) (0 ) = j r x r f X ( x )dx = j r X r.

1.8. Центральная предельная теорема Если характеристическая функция случайной ве личины известна, то для определения моментов целе сообразно воспользоваться соотношениями (3), а не интегрировать функцию плотности распределения вероятностей.

1.8. Центральная предельная теорема В ходе анализа статистических характеристик встречающихся на практике разнообразных случайных физических величин можно убедиться в том, что чаще всего их функции распределения оказываются близ кими к нормальным. Чем это объясняется? Ответ на тот вопрос дает центральная предельная теорема, доказанная А.М. Ляпуновым. Ее смысл передает сле дующая формулировка: если случайная величина X представляет собой сумму очень большого числа вза имно независимых случайных величин, влияние каж дой из которых на всю сумму ничтожно мало, то X имеет распределение близкое к нормальному. По скольку флуктуации любой физической величины яв ляются следствием наложения многочисленных слу чайных факторов (колебания температуры, влажности, давления и т.д.), центральная предельная теорема дает правильный ориентир в оценке характера распределе ния вероятностей.

Центральную предельную теорему можно сфор мулировать более строго. Пусть X 1, X 2, …, X n – не зависимые случайные переменные с произвольными распределениями (не обязательно одинаковыми), имеющими средние значения X 1, X 2, …, X n и 2 2 дисперсии 1, 2, …, n. Кроме того, пусть Z – случайная переменная, которая определяется следую щим образом:

Глава I. Случайные действительные величины Xi Xi n Z=. (1.8.1) i n i = Тогда при стремлении случайных переменных n к бесконечности плотность распределения f Z (z ) стре мится к гауссовой нормальной плотности:

z 1 lim f Z (z ) = e. (1.8.2) n В указанной выше формулировке центральная предельная теорема выполняется, если существуют два положительных числа p и q, такие, что при всех i i p, E X i X i q.

Теорема нашла использование при решении мно гих оптических задач. При этом следует отметить, что не всегда в этих задачах присутствуют случайные факторы. Часто центральная предельная теорема реа лизуется в детерминированных процессах, сопряжен ных с прохождением оптического излучения через систему многочисленных оптических элементов.

Примеры таких процессов приведены в приложении 4.

1.9. Совместные распределения случайных величин. Условные функции распределения и плотность распределения вероятностей При изучении разнообразных явлений часто при ходится иметь дело с несколькими случайными вели чинами. На системы случайных величин могут быть распространены все основные понятия и определения, относящиеся к отдельным случайным величинам. В 1.9. Совместные распределения случайных величин. Условные функции распределения и плотность распределения вероятностей дальнейшем мы ограничимся анализом системы из двух величин X и Y.

Определим двумерную (совместную) функцию рас пределения вероятностей случайных величин X и Y как вероятность события, при котором случайная ве личина X принимает значение, меньшее или рав ное x, и случайная величина Y принимает значение, меньшее или равное y, т.е.

F ( x, y ) = P ( X x, Y y ). (1.9.1) А двумерную (совместную) плотность распределения вероятностей f ( x, y ), будем считать равной производной функции F ( x, y ). Поскольку F (x, y ) зависит от двух независимых переменных x и y, дифференцирование нужно выполнять по обеим переменным. Таким образом, 2 F ( x, y ) f ( x, y ) =, (1.9.2) x y где порядок дифференцирования может быть любой.

При этом элемент вероятности можно записать в виде f ( x, y )dxdy = P( x X x + dx, y Y y + dy ). (1.9.3) Дадим теперь определение условной функции вероятности случайной величины X при условии, что произошло событие M. Эта функция обозначается F (x M ) и определяется выражением P{X x, M } F (x M ) = P{X x M } =, P (M ) (1.9.4) P(M ) 0, Глава I. Случайные действительные величины где {X x, M } – событие, заключающееся в появле нии любого из исходов, таких, что X ( ) x и M, причем X ( ) – значение случайной величины X, принимаемое ей, если исход опыта есть.

Условные функции распределения и плотности ве роятностей связаны между собой так же, как и обыч ные, то есть, если производная существует, то dF (x M ) f (x M ) =. (1.9.5) dx Событие M можно связать со случайной величи ной Y. В частности, обозначив через M наступление события {Y y}. По определению условной функции распределения вероятностей (4), следует, что P[ X x, M ] F (x, y ) FX (x Y y ) = =. (1.9.6) P (M ) FY ( y ) Если через M обозначить событие {y1 Y y 2 }, то из (4) следует, что F (x, y 2 ) F ( x, y1 ) FX (x y1 Y y 2 ) =. (1.9.7) FY ( y 2 ) FY ( y1 ) Обычно условную плотность распределения вероятно стей записывают в виде F (x Y = y ) f ( x, y ) f X (x Y = y ) = =. (1.9.8) fY ( y ) x Меняя местами случайные величины X и Y, получим f ( x, y ) fY (y X = x ) =. (1.9.9) f X (x ) 1.10. Плотность распределения вероятностей суммы (разности) двух случайных величин В связи с широким применением формул (8) и (9), удобно пользоваться сокращенной записью. Поэтому если не возникает двусмысленности, то f X (x y ) и f Y ( y x ) в последующем будем записывать в виде f ( x, y ) f (x y ) =, (1.9.10) fY ( y ) f ( x, y ) f (y x) =, (1.9.11) f X (x ) Исключая из (10) и (11) f ( x, y ), сразу получим fY ( y ) f ( y x ) = f (x y ). (1.9.12) f X (x ) Формула (12) известна, как формула Байеса.

1.10. Плотность распределения вероятностей суммы (разности) двух случайных величин При рассмотрении задачи о нахождении плотности распределения вероятностей суммы (разности) двух случайных величин будем считать, что эти величины являются статистически независимыми.

Пусть случайная величина Z является суммой случайных величин X и Y с плотностями распределе ния вероятностей, соответственно, f X ( x ) и f Y ( y ). Для нахождения плотности распределения вероятностей f Z ( z ) случайной величины Z = X + Y воспользуемся рис. 1.10.1. Функцию распределения вероятностей FZ (z ) = P(Z z ) = Z, случайной величины = P( X + Y z ), можно получить, проинтегрировав двумерную плотность вероятностей f ( x, y ) по об Глава I. Случайные действительные величины ласти, расположенной под прямой x + y = z. Для лю бого заданного y значение x должно быть таким, чтобы выполнялось условие x z y. Таким образом, z y f (x, y )dxdy.

FZ ( z ) = (1.10.1) В силу статистической независимости величин X и Y, их совместная плотность распределения вероятно стей представима в виде произведения двух сомножи телей. Тогда (1) примет вид z y FZ (z ) = f (x ) f ( y )dxdy = X Y (1.10.2) z y f ( y ) f (x )dxdy.

= Y X Плотность распределения вероятностей случайной ве личины Z = X + Y можно найти, продифференцировав FZ ( z ) по z. Таким образом, dFZ ( z ) f Z (z ) = = f Y ( y ) f X (z y )dy, (1.10.3) dz поскольку переменная z фигурирует только в верхнем пределе второго интеграла. Выражение (3) указывает на то, что f Z (z ) представляет собой свертку одновре менных плотностей распределения вероятностей слу чайных величин X и Y.

Таким образом, FZ ( z ) представима не только в виде (1), но и как 1.11. Корреляционный момент, коэффициент корреляции zx FZ ( z ) = f (x, y )dxdy. (1.10.4) Выполнив те же действия, что и при выводе формулы (3), находим FZ ( z ) = f (x ) f (z x )dx. (1.10.5) X Y Следовательно, свертку можно выполнять, исполь зуя любую из двух эквивалентных формул (4) и (5).

1.11. Корреляционный момент, коэффициент корреляции При описании системы двух случайных величин большое значение имеет оценка корреляционного мо мента и коэффициента корреляции.

Корреляционным моментом (или ковариацией) µ XY двух случайных величин X и Y называют математическое ожидание произведения отклонений этих величин:

µ XY = M {[X M ( X )] [Y M (Y )]} = (1.11.1) = cov( X, Y ).

Корреляционный момент равен нулю, если X и Y независимы (некоррелированные);

если корреляцион ный момент отличен от нуля, X и Y – зависимые (коррелированные) величины.

Ковариация обладает следующими свойствами:


1. Ковариация симметрична, µ XY = µYX.

2. Дисперсия случайной величины есть ее кова 2 риация с самой собой, µ XX = X, µ YY = Y.

3. Дисперсия суммы (разности) двух случайных величин равна сумме их дисперсий плюс (минус) уд Глава I. Случайные действительные величины военная ковариация этих случайных величин, D[X ± Y ] = D[X ] + D[Y ] ± 2µ XY.

4. Постоянный множитель можно вынести за знак ковариации, cov(cX, Y ) = c cov( X, Y ) = cov( X, cY ).

5. Ковариация не изменится, если к одной из случайных величин (или к обеим сразу) прибавить постоянную, cov( X + c, Y ) = cov( X, Y ) = cov( X, Y + c ) = = cov( X + c, Y + c ).

6. Ковариация двух случайных величин по абсо лютной величине не превосходят произведения их средних квадратичных отклонений, µ XY X Y.

Из определения корреляционного момента сле дует, что он имеет размерность, равную произведению размерности величин X и Y. Другими словами, вели чина корреляционного момента зависит от единиц из мерения. По этой причине для одних и тех же величин корреляционный момент имеет различные значения в зависимости от единиц измерения. Для устранения этого недостатка используют иную числовую характе ристику – коэффициент корреляции.

Коэффициентом корреляции rXY случайных вели чин X и Y называют отношение корреляционного момента к произведению средних квадратичных от клонений этих величин:

µ rXY = XY. (1.11.2) X Y При таком определении rXY является безразмерной величиной, не превосходящей единицы, т.е. rXY 1.

2.1. Описание случайной комплексной переменной Глава II. Случайные комплексные величины 2.1. Описание случайной комплексной переменной При изучении процессов стохастизации волн часто приходится рассматривать случайные переменные, ко торые принимают комплексные значения. (Действи тельная часть переменной может, например, обозна чать интенсивность или амплитуду, а мнимая – фазу волны). Поэтому будет полезным кратко изложить ме тоды, использующие для описания комплексные слу чайные переменные.

В основе определения комплексной случайной пе ременной, как и любой случайной величины, лежат пространство событий {A} и множество соответствую щих вероятностей P( A). Если каждому событию A поставить в соответствие некоторое комплексное число u( A), то множеством возможных комплексных чисел с соответствующими мерами вероятностей будет определяться комплексная случайная переменная U.

Для математического описания статистических свойств случайной переменной U удобнее всего пользоваться совместными статистическими свойства ми действительной и мнимой частей. Так, если U = R + jI – комплексная случайная переменная, ко торая может принимать конкретные комплексные зна чения u = r + ji ( j = 1 ), то для полного описания переменной U нужно указать или совместную функ цию распределения переменных R и I FU (u ) = FRI (r, i ) = P{R r, I i}, (2.1.1) Глава II. Случайные комплексные величины или совместную плотность распределения вероятно стей переменных R и I 2 FRI (r, i ) f U (u ) = f RI (r, i ) =, (2.1.2) ri Если имеется n комплексных случайных перемен ных U1, U 2, …, U n, которые принимают конкретные значения u1 = r1 + ji1, u 2 = r2 + ji2, …, то совместная функция распределения вероятностей может быть записана в виде FU (u ) = P{R1 r1,..., Rn rn, I1 i1,..., I n in }, (2 1.3) где рассматриваемая вероятность есть совместная ве роятность того, что все указанные в фигурных скобках события имеют место, а аргумент функции FU пред ставляет собой матрицу-столбец с n комплексными элементами u u u = 2. (2.1.4) M u n Совместной функции распределения FU (u ) соответст вует ее совместная плотность 2n действительных переменных {r1, r2,..., rn, i1, i2,..., in } 2 n FU (u ) pU (u ) =. (2.1.5) r1...rn i1...in 2.2. Общая характеристика суммы случайных фазоров 2.2. Общая характеристика суммы случайных фазоров Во многих областях физики, и в частности в оп тике, приходится иметь дело с комплексными случай ными переменными, представляющими собой сумму многих малых “элементарных” комплексных вкладов.

В роли таких комплексных чисел часто выступают фазоры, характеризующие амплитуду и фазу возмуще ния монохроматической или квазимонохроматической волны. Фазоры можно рассматривать как частный случай рассматриваемых во многих руководствах по статистической физике случайных векторов. Ком плексное сложение большого числа малых независи мых фазоров выполняется, например, при вычислении полной комплексной амплитуды волны, которая фор мируется при рассеянии на совокупности малых неза висимых рассеивателей. Рассмотрим свойства сумм комплексных случайных переменных, которые будем называть суммами случайных фазоров.

2.2.1. Исходные предположения Рассмотрим сумму очень большого числа N фазо ров, при этом пусть k -й фазор имеет случайную длину ak N и случайную фазу k. Результирую щий фазор с длиной a и фазой определяется следующим образом (рис. 2.2.1):

1N k e jk.

a = ae j= (2.2.1) N k= Для упрощения анализа сделаем ряд предположе ний, которые, как правило, выполняются на практике.

1. Амплитуда k N и фаза k элементарного фа зора с номером k статистически независимы друг от Глава II. Случайные комплексные величины друга, а также от амплитуд и фаз всех других элементарных фазоров.

2. Случайные переменные k при всех k имеют одинаковые распределения вероятностей со средним значением и вторым моментом 2.

3. Фазы k распределены однородно на интервале (, ).

Рис. 2.2.1. Суммирование случайных фазоров.

Пусть действительная и мнимая части r и i результирующего фазора имеют вид ( ) 1N k cos k, r = Re a e j = N k = (2.2.2) ( ) 1N k sin k.

j i = Im a e = N k = 2.2. Общая характеристика суммы случайных фазоров Учитывая, что r и i представляют собой суммы мно гих независимых случайных вкладов, мы приходим к выводу, что в силу центральной предельной теоремы r и i будут приблизительно гауссовскими случай ными переменными при больших значениях N.

Сделанные предположения дают возможность опреде лить основные статистические характеристики r и i.

Среднее значение действительной и мнимой частей r и i вычисляют следующим образом:

N r= cos k = k N k = N = cos k = N cos, k N k = (2.2.3) N i= sin k = k N k = N = sin k = N sin.

k N k = Здесь мы воспользовались тем, что k и k незави симы и распределены одинаково при всех k. Но, кроме того, согласно предположению 3, случайная пе ременная однородно распределена на интервале (, ), что приводит к равенству cos = sin = 0, а отсюда к равенству r =i = 0. (2.2.4) Таким образом, оказывается, что действительная и мнимая части имеют нулевые средние значения.

2 Чтобы вычислить дисперсии r и i, достаточ но найти вторые моменты r 2 и i 2 (так как r = i = 0 ).

Поскольку амплитуды и фазы независимы, напишем Глава II. Случайные комплексные величины 1NN k n cos k cos n, r2 = N k =1 n = (2.2.5) 1NN i = k n sin k sin n.

N k =1 n = Кроме того, выполняется соотношение 0, при k n, cos k cos n = sin k sin n = 1 2, при k = n, вытекающее снова из однородного распределения фаз.

Таким образом, имеем r 2 = i2 = = 2. (2.2.6) В оптических задачах при суммировании боль шого числа случайных фазоров, характеризующих обычно комплексные амплитуды световых волн, дей ствительные и мнимые части суммы (соответственно R и I ) можно считать независимыми случайными ве личинами, подчиняющимися, согласно центральной теореме (см. (1.8.1) и (1.8.2)), нормальному закону.

При этом совместная плотность распределения дейст вительной и мнимой частей суммы случайных фазоров имеет вид r 2 + i f RI (r, i ) = f R (r ) f I (i ) = exp, (2.2.7) 22 где 2 =. (2.2.8) 2.2. Общая характеристика суммы случайных фазоров 2.2.2. Распределение длины и фазы результирующего фазора В предыдущем параграфе мы говорили о совмест ном распределении действительной и мнимой частей суммы случайных фазоров. Но во многих приложе ниях больший интерес представляет распределение длины a и фазы результирующего фазора:

a = r 2 + i2, (2.2.9) i = arctg.

r Обратные функции имеют вид r = a cos, (2.2.10) i = a sin, а соответствующий якобиан r r = cos a sin = a. (2.2.11) J = a i i sin a cos a r r.

Напоминаем, что J det a i i a Таким образом, мы имеем совместную плотность распределения f A (a, ) = f RI (r = a cos, i = a sin )a, (2.2.12) т.к. f A = f RI J. Распределение (12) в силу формулы (7) переходит в Глава II. Случайные комплексные величины a a f A (a, ) = 22 e, при 0, a 0, (2.2.13) 0, при прочих.

На основе выражения (13) могут быть найдены марги нальные (безусловные) плотности распределения ам плитуды и фазы. Интегрируя его сначала по углу, получаем a a + f A (a ) = f A (a, )d = 2 e, при а 0, (2.2.14) 0, при прочих.

Эта функция соответствует рэлеевской плотности рас пределения, рассмотренной в разделе 1.3.

В оптических задачах, где в роли фазора высту пает комплексная амплитуда световых колебаний, на ряду с плотностями распределения амплитуды и фазы большую роль играет плотность распределения квад рата амплитуды – интенсивности. Обозначая интен сивность через I и используя соотношения (8) и (14), получаем для плотности распределения интенсивно сти выражение I f (I ) = I 0 exp.

(2.2.15) I Здесь I 0 – средняя интенсивность, равная I 0 = 2.

Соответствующее среднее значение и дисперсия равны, a = 2 2.

a= (2.2.16) 2 2.3. Некоторые частные случаи суммирования случайных фазоров Для нахождения плотности распределения фазы, проинтегрируем выражение (13) по a. Получим 1 a a f () = 2 2 e da, при, (2.2.17) 0, при прочих.

Поскольку получили в результате интеграл от рэлеевской плотности распределения, он должен быть равен единице. Отсюда следует, что фаза суммы (, ), фазоров, распределенная на отрезке однородна, т.е.

, при, f () = 2 (2.2.18) 0, при прочих.

Заметим, что совместная плотность распределения f A (a, ) может быть представлена в виде простого произведения маргинальных плотностей распределе ния f A (a ) и f (). Следовательно, A и являются независимыми случайными переменными.


2.3. Некоторые частные случаи суммирования случайных фазоров 2.3.1. Постоянный фазор и сумма случайных фазоров Рассмотрим теперь результат сложения известного постоянного фазора и суммы случайных. Без потери общности можно считать, что известный фазор явля ется действительным и положительным и имеет длину s (этого всегда можно добиться соответствующим вы бором начала отсчета фазы). На рис. 2.3.1 приведена Глава II. Случайные комплексные величины графическая иллюстрация получения комплексная суммы.

Действительная часть результирующего фазора равна N r = s+ cos k, (2.3.1) k N k = а мнимая часть – N i= sin k. (2.3.2) k N k = Рис. 2.3.1. Сумма постоянного фазора и суммы случайных фазоров.

Таким образом, единственным следствием добавления известного фазора к случайной сумме фазоров является изменение величины действительной части результата. В пределах больших N совместное 2.3. Некоторые частные случаи суммирования случайных фазоров распределение величин R и I остается приблизитель но гауссовским, но изменяется среднее значение, т.е.

(r s )2 + i f RI (r, i ) = exp. (2.3.3) 2 2 2 Как и прежде, сосредоточимся на распределении длины a и фазы результирующего фазора.

Преобразование к полярным координатам совпадает с рассмотренным выше и якобиан преобразования оста ется равным A, так что совместная плотность распределения a (a cos s ) + (a sin ) 2 a 0, 2 f A (a, ) = 22 e,, (2.3.4) 0, при прочих.

Чтобы найти маргинальную плотность распределения A, следует осуществить интегрирование f A (a ) = f (a, )d = A a2 + s2 as a exp 2 cos d.

exp = 2 2 2 ( ) Интеграл может быть представлен в виде 2I 0 as 2, где I 0 – модифицированная функция Бесселя первого рода нулевого порядка. Таким образом, получаем выражение a a 2 + s 2 as 2 exp I 0, при a 0, f A (a ) = 2 2 2 (2.3.5) 0, при прочих.

Глава II. Случайные комплексные величины Эта функция называется обобщенной функцией распределения Рэлея или райсовской плотностью распределения вероятностей.

Рис. 2.3.2. Плотность распределения амплитуды A суммы, состоящей из постоянного фазора (длиной s ) и суммы случайных фазоров (дисперсия 2 ). Параметр k = s.

На рис. 2.3.2 представлены зависимости величины f A (a ) от a при разных значениях параметра k = s. При увеличении модуля известного фазора плотность распределения изменяется от рэлеевской плотности до рассматриваемой далее (раздел 2.3.2) приблизительно гауссовской плотности со средним значением, равным s.

Представляют интерес два момента распределе ния, характеризуемого маргинальной плотностью (5).

Это – среднее значение a 2 + s 2 as a a= exp I 0 da (2.3.6) 2 2 2 и второй момент 2.3. Некоторые частные случаи суммирования случайных фазоров a 2 + s 2 as a a2 = exp I 0 da. (2.3.7) 2 2 2 Вычисление интегралов приводит к следующим формулам:

k 2 4 k 2 k 2 k 2 k 1 + I 0 + I1, a= e (2.3.8) 2 4 2 2 [ ] a 2 = 2 2 + k 2, (2.3.9) где I 0 и I1 – модифицированные функции Бесселя первого рода нулевого и первого порядков, соответственно.

Чтобы найти плотность распределения f () вероятностей для фазы, следует вычислить f () = f A(a, )da.

Интегрирование приводит к следующему результату:

k 2 sin e k 2 k cos f () = (k cos ), (2.3.10) + exp 2 2 где b (b ) = e dy.

y2 (2.3.11) График функции f () при разных значениях k = s представлен на рис. 2.3.3. При k = 0 распределение однородно, а с увеличением k появляется пик плотности распределения, который сужается, сходясь Глава II. Случайные комплексные величины к -функции при = 0, т.е. при значении, равном фазе постоянного фазора.

Рис. 2.3.3. Плотность распределения f () суммы постоянного фазора и случайных фазоров. Параметр k = s.

2.3.2. Большой постоянный фазор и малая сумма случайных фазоров Если известный фазор по модулю значительно больше суммы случайных фазоров, то определение их общей суммы значительно упрощается. Будем считать, что s (или k 1 ). При таких допущениях сово купность случайных фазоров можно рассматривать в виде малого “облака”, центр которого совпадает с концом известного фазора (рис. 2.3.4). В этом случае с очень большой вероятностью длина результирующей суммы будет намного меньше длины известного фа зора. Вследствие этого изменения длины a полного результирующего фазора определяются действитель ной частью суммы, а изменения фазы – ее мнимой 2.3. Некоторые частные случаи суммирования случайных фазоров Рис. 2.3.4. Постоянный фазор большой длины s и малое “шумовое облако”.

частью, ортогональной известному фазору. Поскольку действительная часть суммы является гауссовской функцией с нулевым средним значением, можно счи тать, что (a s ) f A (a ) exp, s. (2.3.12) При s i tg, (2.3.13) s и k k f () exp. (2.3.14) 2 2 При этом a = s, a = 2, = 0, = 1 k 2 = = 2 s 2.

Наиболее характерными, с точки зрения оптиче ских приложений теории фазоров, являются задачи Глава II. Случайные комплексные величины прохождения излучения через случайные экраны и не однородные среды. Важную роль сыграли рассмот ренные в этой главе теоретические представления для объяснения причин появления и свойств спекл структуры световых полей в оптических изображениях объектов (приложение 5).

3.1. Выборки Глава III. Элементы математической статистики 3.1. Выборки Рассмотрим основные понятия теории выборок.

Всю совокупность экспериментальных данных будем называть генеральной совокупностью (ее число элементов N называют объемом). Часть генеральной совокупности, случайно выбранной из нее, называют выборкой. Для того чтобы по данным выборки можно было судить об интересующем признаке генеральной совокупности, необходимо, чтобы элементы выборки точно его представляли. Иными словами она должна быть репрезентативной.

В силу закона больших чисел можно утверждать, что выборка будет репрезентативной, если осущест вить ее случайно: каждый элемент выборки извлечен случайно из генеральной совокупности и все элементы имеют одинаковую вероятность быть отобранными.

Пусть из генеральной совокупности извлечена вы борка, причем x1 в ней встречается n1 раз, x2 – n n = n. Фиксируемые значения раза, xk – nk раз и i xi называются вариантами, а последовательность вариант, записанных в возрастающем порядке, – вариационным рядом. Числа ni называют частотами, а их отношения к объему выборки – ni n = Wi – относительными частотами.

Выборка, содержащая n элементов, характеризу ется различными параметрами, но один из наиболее важных – выборочное среднее, определяемое формулой Глава III. Элементы математической статистики 1n xi, x= (3.1.1) n i = где xi – значения элементов выборки. Можно считать, что совокупность значений xi представляет собой слу чайную величину X с некоторой плотностью распределения вероятностей f X ( x ).

Обычно требуется описать статистические свой ства произвольных случайных выборок, а не какой-то одной из них. В этом случае выборочное среднее, так же как и элементы выборки, рассматриваются как слу чайные величины. При этом выборочное среднее определяется с помощью выражения ) 1n X = Xi, (3.1.2) n i = X i – случайная величина с плотностью где распределения вероятностей f (x ), принадлежащая ге неральной совокупности. В дальнейшем мы будем по прежнему обозначать случайные величины и прини маемые ими значения соответственно прописными и строчными буквами.

Среднее значение для генеральной совокупности, из которой производится выборка, будем называть генеральным средним и обозначать X. Можно ожи дать, что выборочное среднее не будет заметно отли чаться от генерального среднего. Поскольку обычно выборочное среднее является случайной величиной, для него можно найти математическое ожидание ) 1 n 1n 1n E X = E X i = E [ X i ] = X i = X. (3.1.3) n i =1 n i =1 n i = 3.1. Выборки Таким образом, математическое ожидание выбо рочного среднего равно генеральному, т.е. является несмещенной оценкой генерального среднего. Широко употребляющийся в математической статике термин несмещенная оценка, означает, что математическое ожидание оценки параметра равно математическому ожиданию параметра.

Отметим, что выборочное среднее представляет собой случайную величину. Принимаемые им значе ния для конкретных реализаций (эмпирическое выбо рочное среднее) флуктуирует около значения генерального. Величину этих отклонений характери зует дисперсия выборочного среднего.

Пусть объем выборки много меньше объема гене ральной совокупности, т.е. n N. Будем также счи тать, что при формировании выборок характеристики всей совокупности экспериментальных данных не ме няются. Такое предположение эквивалентно условию N =.

Для определения дисперсии выборочного среднего ) (выборочной дисперсии) D X, найдем разность ме жду средним квадратом и квадратом математического ) ожидания случайной величины X, которое, как было установлено выше, равно генеральному среднему X :

) () 2n n D X = E 1 X i X j ( X ) = n i =1 j = (3.1.4) ( n ) E[X X ] (X ).

2n n = i j i =1 j = Поскольку X i и X j – параметры элементов гене ральной совокупности, при i j их можно считать Глава III. Элементы математической статистики статистически независимыми случайными величи нами. Следовательно, X 2, i = j, [ ] E Xi X j = (X ), i j.

С учетом этого соотношения (4) принимает вид [ ] ) ( )( D X = (1 n ) n X 2 + n 2 n X ) ( X ) = 2 (3.1.5) ( ) = X 2 (X ) n = 2 n, где 2 – дисперсия генеральной совокупности (гене ральная дисперсия). Из последнего выражения видно, ) что с ростом n величина D X уменьшается. Таким образом, увеличение объема выборки приводит к по вышению точности оценки генерального среднего, по скольку математическое ожидание выборочного сред него всегда равно генеральному среднему независимо ) от объема выборки, а выборочная дисперсия D X при увеличении n уменьшается.

3.2. Выборочная дисперсия Во избежание дублирования обозначений, будем использовать для выборочной дисперсии символ S 2.

Так, S 2 для выборки, состоящей из случайных вели чин X 1, X 2, …, X n, равна )2 n n n S = (1 n ) X i X = (1 n ) X i(1 n ) X j. (3.2.1) i =1 i =1 j = 3.2. Выборочная дисперсия Последний член в квадратных скобках в правой части этого выражения есть выборочное среднее, та ким образом, выборочная дисперсия представляет со бой среднее значение квадрата разности случайных величин и выборочного среднего.

Раскрыв в (1) скобки и определив математические ожидания каждого члена суммы, после ряда преобра зований получаем [] 2 (n 1) E S2 =, (3.2.2) n где 2 – генеральная дисперсия. Математическое ожи дание выборочной дисперсии не равно генеральной дисперсии, значит это смещенная оценка. Ситуация меняется, если перейти к исправленной дисперсии s ) 1 n s = S n (n 1) = X i X. (3.2.3) 2 n 1 i =1 Исправленная дисперсия – несмещенная оценка (ее математическое ожидание равно генеральной дисперсии).

Формулы (2) и (3) справедливы для генеральной совокупности бесконечно большого объема. Если же объем генеральной совокупности ограничен и равен N, то 2 N (n 1) [] E S2 =. (3.2.4) n( N 1) Мы опять получили смещенную оценку. Смеще ние устранимо, если s 2 определить как s 2 = S 2 n(N 1) N (n 1). (3.2.5) Глава III. Элементы математической статистики Таким образом, при N формулы (4) и (5) сво дятся к (2) и (3).

Выполнив ряд дополнительных преобразований, можно получить формулы для дисперсии оценок вы борочной дисперсии. Они имеют вид []( ) D S 2 = µ4 4 n, (3.2.6) где [( )] µ4 = E X X (3.2.7) представляет собой генеральный центральный момент 4-го порядка. С учетом формул (2) и (3) [] ( ) (n 1) D s 2 = n µ4 4. (3.2.8) 3.3. Доверительный интервал В математической статистике важным является понятие доверительного интервала. Хотя этот термин чаще используется в теории оценок, удобнее обсудить его здесь применительно к функциям распределения выборочного среднего. Определенное выше выбороч ное среднее представляет собой точечную оценку, по скольку ему приписывается единственное значение.

Кроме того, можно использовать интервальную оценку, утверждающую, что оцениваемый параметр с определенной вероятностью принимает значение, ле жащее в заданном интервале, называемом доверительным.

Интервал, в пределы которого оценка попадает с вероятностью q 100%, называется q% -ым довери тельным интервалом. Границы этого интервала назы ваются доверительными, а q – доверительным уровнем.

3.3. Доверительный интервал Для выборочного среднего доверительный интер вал определяется следующим образом:

) k k X XX+, (3.3.1) n n где k – постоянная, связанная с q и плотностью рас пределения вероятностей f ) ( x ) случайной величины X ) X. С уровнем интервал связан соотношением X + k f ) ( x )dx.

q = 100 (3.3.2) X X k Если f ) ( x ) подчиняется нормальному закону, то X q зависимость k от представима в виде таблицы 3.3.1.

Таблица 3.3.1. Ширина доверительного интервала для гауссовского распределения k q, % 90 1, 95 1, 99 2, 99,9 3, 99,99 3, Эта таблица удобна для практического примене ния. Задавая доверительный уровень q, из нее можно найти постоянную k, а затем по известным величинам X,, n – границы доверительного интервала.

Глава III. Элементы математической статистики 3.4. Аппроксимация экспериментальных данных и линейная регрессия Задача, связанная с подбором математического выражения, описывающего связь между эксперимен тальными данными, называется аппроксимацией. Само математическое выражение называют уравнением рег рессии (регрессией), а соответствующую кривую линией регрессии.

На рис. 3.4.1 показаны отклонения d i, i = 1, 2,..., n линии регрессии от точек, соответствующих значе ниям, принимаемым случайными величинами X и Y.

Рис. 3.4.1. Отклонение линии регрессии от экспериментальных данных на диаграмме рассеяния.

Одним из широко принимаемых на практике кри териев оптимальности регрессии является критерий 3.4. Аппроксимация экспериментальных данных и линейная регрессия минимума суммы квадратов. В соответствии с этим критерием наилучшее согласование линии регрессии с результатами измерения достигается при выполнении условия 2 2 d1 + d 2 + L + d n = min. (3.4.1) Его применение позволяет при определении линии регрессии использовать хорошо известный метод наименьших квадратов, обеспечивающий построение линии регрессии, характеризуемой минимальным средним квадратом ее отклонения от результатов экс перимента. Обратите внимание на то, что критерий минимума среднего квадрата предполагает равенство вклада в выражение (1) отклонений, отличающихся лишь знаком, а также определяет, что большие по аб солютной величине отклонения входят в (1) с боль шим собственным весом.

После определения критерия оптимальности рег рессии следует перейти к выбору типа уравнения рег рессии. Чаще используется тип уравнения на основе полинома вида y = a + bx + cx 2 + L + kx j. (3.4.2) Существует возможность построить зависимость, описываемую полиномом (n 1) -ой степени и проходящую через все точки, однако, такой способ обычно не используется, поскольку не приводит к сглаживанию кривой, хотя этот график будет прохо дить через все заданные точки и сумма квадратов от клонений будет равна 0. Поскольку результаты изме рений, как правило, случайны, предпочтительно ап проксимировать их средние значения. Поэтому обычно используют полиномы первой и второй сте Глава III. Элементы математической статистики пени. В этом разделе мы ограничимся первой степе нью, чтобы сохранить простоту описания существен ных аспектов метода. Метод аппроксимации полино мом первой степени называются линейной регрессией.

Уравнение линейной регрессии имеет вид y = a + bx, (3.4.3) в котором следует определить значения a и b, удовлетворяющие (1). Для этого запишем (1) в форме n [ y (a + bx )] = min. (3.4.4) i i i = Для минимизации (4), продифференцируем его по a и по b и приравняем производные нулю. В резуль тате получим систему уравнений n n n n n y = an + b xi, x y = a xi + bn xi, i i i i =1 i =1 i =1 i =1 i = решив которую, найдем искомые значения a и b :

n n n n yi xi xi yi a= = i =1 i =1 i =1 i = n n n x xi (3.4.5) i i = i = n n = (1 n ) yi (b n ) xi, i =1 i = n n n n xi yi xi yi b= i =1 i =1 i =. (3.4.6) n n n xi2 xi i = i = 3.5. Проверка статистических гипотез Хотя формулы (5) и (6) достаточно сложны, значе ния a и b нетрудно вычислить с помощью компьютера.

3.5. Проверка статистических гипотез Статистической называют гипотезу о виде неиз вестного распределения, или о параметрах известных распределений. Например, статистическими являются гипотезы:

1) генеральная совокупность распределена по закону Пуассона;

2) дисперсии двух нормальных совокупностей равны между собой.

В первой гипотезе сделано предположение о виде не известного распределения, во второй – о параметрах двух известных распределений.

Нулевой (основной) называют выдвинутую гипо тезу H 0. Конкурирующей (альтернативной) называют гипотезу H1, которая противоречит нулевой.

Для проверки нулевой гипотезы используют спе циально подобранную случайную величину, распреде ление которой известно. Эту величину обозначают че рез U или Z, если она распределена нормально, F или v 2 – по закону Фишера-Снедекора, T – по закону Стьюдента, 2 – по закону «хи-квадрат». В тех слу чаях, когда конкретный вид распределения несущест венен, использующуюся случайную величину, в целях общности, будем обозначать через K.

Статистическим критерием (или просто крите рием) называют случайную величину K, которая слу жит для проверки нулевой гипотезы.

Например, если проверяют гипотезу о равенстве дисперсий двух нормальных генеральных совокупно Глава III. Элементы математической статистики стей, то в качестве критерия K принимают отношение исправленных выборочных дисперсий:

2 F = s1 s2. (3.5.1) Эта величина случайная, потому что в различных опы тах дисперсии принимают разные заранее неизвестные значения, и распределена по закону Фишера Снедекора.

Для проверки гипотезы по данным выборок вы числяют частные значения входящих в критерий вели чин и таким образом получают частное (наблюдаемое) значение критерия. Вычисленное по выборкам значе ние критерия называют наблюдаемым значением K.

После выбора определенного критерия множество всех его возможных значений разбивают на два непе ресекающихся подмножества. Одно из них содержит значения критерия, при которых нулевая гипотеза от вергается, а другая – при которых она принимается.

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Область принятия гипотезы (областью допусти мых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Исходя из этих представлений, основный принцип проверки статистических гипотез можно сформулиро вать так: если наблюдаемое значение критерия при надлежит критической области – гипотезу отвергают, если наблюдаемое значение критерия принадлежит области принятия гипотезы – гипотезу принимают.

Критическими точками (границами) k кр назы вают точки, отделяющие критическую область от об ласти принятия гипотезы.

3.5. Проверка статистических гипотез Различают односто роннюю (правосторон нюю и левостороннюю) и двухстороннюю крити ческие области.

Правосторонней на зывают область, опреде ляемую неравенством K k кр (рис. 3.5.1, а), где – положительное k кр Рис. 3.5.1. Расположение крити число.

Левосторонней назы- ческих областей.

вают область, определя емую неравенством K k кр, где k кр – отрицательное число (рис. 3.5.1, б).

Односторонней называют правостороннюю или левостороннюю критические области.

Двухсторонней называют область (рис. 3.5.1, в), определяемую неравенствами K k1, K k 2, где k 2 k1.

Рассмотрим процедуру нахождения критических областей. Начнем с правосторонней. Зададимся доста точно малой вероятностью – уровнем значимости.



Pages:   || 2 | 3 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.