авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 2 | 3 ||

«ФЕДЕРАЛЬНОЕ АГЕНСТВО СВЯЗИ Государственное образовательное учреждение высшего профессионального образования ПОВОЛЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ТЕЛЕКОММУНИКАЦИЙ И ...»

-- [ Страница 4 ] --

гипотез и предложите какую-либо процедуру проверки. В чем состоят ошибки первого и второго рода?

Урна содержит большое количество белых и черных 3.

шаров, 100 раз производится следующее действие: из урны наугад достается шар, фиксируется его цвет, затем шар опускается обратно в урну, после чего шары перемешиваются.

Оказалось, что 67 раз достали белый шар. 33 раза - черный.

Можно ли на 5%-м уровне значимости принять гипотезу о том, что доля белых шаров в урне составляет 0,6?

Обычно применяемое лекарство снимает 4.

послеоперационные боли у 80% пациентов. Новое лекарство, применяемое для тех же целей, помогло 90 пациентам из первых 100 оперированных. Можно ли на уровне значимости = 0, считать, что новое лекарство лучше? А на уровне = 0,01?

Игральный кубик бросили 60 раз, при этом числа 1, 2, 3, 5.

4,5, 6 выпали соответственно 12, 9, 13, 11, 8, 7 раз. Можно ли на 5%- м уровне значимости отвергнуть гипотезу о симметричности кубика?

Трое рабочих работают на трех одинаковых станках. В 6.

конце смены первый рабочий изготовил 60 деталей, второй - 80, третий -100 деталей. Можно ли на уровне значимости = 0, принять гипотезу о том, что производительности труда первых двух рабочих равны между собой и в 2 раза меньше производительности третьего рабочего?

Используя критерий Пирсона, при уровне значимости 7.

0.05 установить, случайно или значимо расхождение между эмпирическими частотами ni и теоретическими частотами ni', которые вычислены, исходя из гипотезы о нормальном распределении генеральной совокупности Х:

ni 5 10 20 8 ni' 6 14 18 7 Лекция Регрессивный анализ В практике экономических исследований очень часто имеющие данные нельзя считать выборкой из многомерной нормальной совокупности. В этих случаях пытаются определить поверхность, которая дает наилучшее приближение к исходным данным. Соответствующие методы приближения получили название регрессивного анализа. В регрессивном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) неслучайной независимой переменной X. Две случайные величины X и Y могут быть связаны либо функциональной зависимостью, либо статистической, либо быть независимыми.

При функциональной зависимости каждому значению переменной X соответствует вполне определенное значение переменной Y. Строгая функциональная зависимость реализуется редко, т.к. обычно величины подвержены еще действию различных случайных факторов. Тогда каждому значению одной переменной соответствует не какое-то определенное, а множество возможных значений другой переменной. Это статистическая (вероятностная, стохастическая) зависимость.

Корреляционной зависимостью между двумя случайными величинами, называется функциональная зависимость между значениями одной из них условным математическим ожиданием другой.

Рассмотрим двумерную случайную величину ( X, Y ), где X и Y - зависимые случайные величины. Представим величину Y в виде линейной функции X :

Y g ( X ) aX b, где a и b - параметры, подлежащие определению.

Это можно сделать различными методами, наиболее употребительный из них – метод наименьших квадратов.

g ( X ) aX b Функцию называют наилучшим приближением Y в смысле метода наименьших квадратов, если M [Y g ( X )] математическое ожидание принимает наименьшее возможное значение.

Функцию g ( x) называют линейной среднеквадратической регрессией Y на X.

Теорема Линейная среднеквадратическая регрессия Y на имеет вид X y g ( X ) my ( X mx ), x где mx M [ X ], my M [Y ], x D[ X ], y D[Y ], -коэффициент корреляции величин Y и X.

y Коэффициент - коэффициент регрессии Y на X, а x прямая называется прямой среднеквадратической регрессии Y на X.

y m y y ( x mx ) x Аналогично можно получить прямую среднеквадратической регрессией X на Y :

x x mx ( y my ).

y Если коэффициент корреляции 1, то обе прямые регрессии совпадают.

Для отыскания уравнений регрессии необходимо знать закон распределения двумерной случайной величины ( X, Y ).

На практике обычно располагают выборкой пар значений ( xi, yi ) ограниченного объема. В этом случае речь может идти об оценке функции регрессии по выборке.

В качестве оценок условных математических ожиданий, принимают условные средние, которые находят по выборочным данным.

Условным средним Yx называют среднее арифметическое X x.

наблюдавшихся значений Y, соответствующих Например, если при x1 2 величина Y приняла значения 5 6 y1 5, y2 6, y3 10, то условное среднее Yx1 7.

Уравнения Yx g * ( x ) или X y * ( y ) называются выборочными уравнениями регрессии, g * ( x) и * ( y ) - выборочными функциями регрессии, а их графики выборочными линиями регрессии.

Метод наименьших квадратов для получения уравнения выборочной линии регрессии Обычно для получения уравнения выборочной линии регрессии Yx b0 b1 x b2 x 2... bm x m X y c0 c1 y c2 y 2... cm y m или используется метод наименьших квадратов.

Мы рассмотрим линейную регрессию, уравнение которой Y b b x.

0 Неизвестные параметры b0 и b1 выбираются таким образом, чтобы.

n S ( yi (b0 b1 xi )) min i Методом наименьших квадратов находим значения коэффициентов b0 и b n n (X X ) (Yi Y ) i b1 i 1 i n (X X ) i i b0 Y b1 X.

Угловой коэффициент b можно представить как n (Y Y ) i SY i b1 rr SX n (X X ) i i где r - выборочный коэффициент корреляции, 1n 1n ( X i X )2, SY 2 n 1 (Yi Y )2.

SX n 1 i 1 i b1 - выборочный коэффициент регрессии Y на X. Он показывает, на сколько в среднем изменяется переменная X при увеличении переменной X на одну единицу.

Линейный регрессионный анализ Термином линейный регрессионный анализ обозначают прогнозирование одной переменной на основании другой, когда между этими переменными существует линейная взаимосвязь.

Y b0 b1 X Разности между фактически полученными значениями Y и вычисленными по уравнению регрессии соответствующими значениями прогнозов Y называются отклонениями e Y Y.

Величины прогноза являются моделируемыми значениями данных, а отклонения показывают отличия от модели.

Пример Анализ зависимости между ценами и объемам продаж молока фермера. Значение выборочного коэффициента корреляции r 0.86. Уравнение регрессии Задачами регрессионного анализа являются:

установление формы зависимости между переменными;

оценка функции регрессии;

оценка неизвестных значений (прогноз значений) зависимой переменной.

В регрессионном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) независимой переменной X.

также называется функцией отклика, выходной, результирующей, эндогенной переменной;

X - входной, объясняющей, предсказывающей, предикторной, экзогенной переменной, фактором, регрессором.

Линейная зависимость может быть представлена в виде модельного уравнения регрессии M [Y X ] 0 1 x.

В силу воздействия неучтенных случайных факторов отдельные наблюдения y будут в большей или меньшей степени отклоняться от функции регрессии.

g ( x) 0 1 x В этом случае уравнение взаимосвязи двух переменных (парная регрессионная модель) может быть представлено в виде Y 0 1 X.

Отклонения (возмущения, остатки) предполагаются независимыми и нормально распределенными N (0, 2 ).

Неизвестными параметрами являются 0, 1 и 2.

Оценкой модели Y 0 1 X по выборке является уравнение регрессии y b0 b1 x.

Параметры этого уравнения b0 и b1 определяются по методу наименьших квадратов.

Воздействие случайных факторов и ошибок наблюдений определяется с помощью остаточной дисперсии 2.

Оценкой дисперсии является выборочная остаточная дисперсия s 2 :

n n Yi Yi ei i 1 i s2, n2 n где Y - значение Y, найденное по уравнению регрессии;

i ei Yi Yi - выборочная оценка возмущения. Число степеней свободы n 2, т.к. две степени свободы теряются при определении двух параметров b и b1.

0Y n e i s i Величина называется стандартной ошибкой n оценки и демонстрирует величину отклонения точек исходных данных от прямой регрессии.

Поскольку, как правило, требуется, чтобы прогноз был как можно более точным, значение s должно быть как можно меньшим.

Пример Для данных продажи молока s 2.72. Для величины Y, принимающей значения от 3 до18, значение s довольно велико.

Чтобы получить точечный прогноз, или предсказание для данного значения X, надо просто вычислить значение функции регрессии в точке X.

Пример Фермер хочет получить прогноз количества молока, которое будет продано при цене 1.63 рублей за литр:

Y 32.14 14.54 X Y 32.14 14.54 1.63 8. Конечно, реальные значения величины Y не лежат в точности на регрессионной прямой. Есть два источника неопределенности в точечном прогнозе, использующем уравнение регрессии.

1. Неопределенность, обусловленная отклонением точек данных от выборочной прямой регрессии.

2. Неопределенность, обусловленная отклонением выборочной прямой регрессии от регрессионной прямой генеральной совокупности.

Интервальный прогноз значений переменной можно построить так, что при этом будут учтены оба источника неопределенности.

Суммарная дисперсия sY s 2 sY, где sY - стандартная ошибка прогноза, s - стандартная ошибка оценки, sY - стандартная ошибка функции регрессии.

Величина измеряет отклонение выборочной прямой sY регрессии от регрессионной прямой генеральной совокупности и вычисляется для каждого значения X как.

1 ( X X ) sY2 s 2 n.

n ( X i X ) i sY зависит от значения X, для которого прогнозируется величина Y. Величина sY будет минимальна, когда X X, а по мере удаления X от X, будет возрастать.

Стандартная ошибка прогноза ( X X ) sY s 1 n ( X i X ) n i Границы интервала прогноза величины с надежностью 1 будут равны Y t s, где статистика t имеет Y k n 2 степенями свободы.

распределение Стьюдента с Пример Найдем стандартную ошибку прогноза в точке X 1.63 с надежностью 0.95.

s 2.72, X 1.44, Ранее было получено n (X X ) 2 0.824.

i i 1 (1.63 1.44) sY 2.72 1 2.91.

10 0. При X 1.63 значение Y 8.44.

Находим интервал прогноза Y t sY 8.44 2.306 2.91 8.44 6. или 1.73 Y 15. Построенные аналогичным образом интервалы значений прогноза по всем значениям X имеют вид:

Интервал прогноза очень велик, это связано с тем, что исходная выборка мала, а значение s сравнительно велико.

Прогноз значений зависимой переменной по уравнению регрессии оправдан, если значение объясняющей переменной не выходит за диапазон ее значений по выборке (причем тем более точный, чем ближе X к X ).

Экстраполяция кривой регрессии, т.е. использование вне пределов обследованного диапазона значений объясняющей переменной может привести к значительным погрешностям.

Проблемы применения метода линейной регрессии 1. Если истинная взаимосвязь не линейная, нельзя использовать для прогноза прямую линию. Большинство компьютерных программ не предупреждают об этом.

2. Экстраполяция за пределы имеющихся данных потенциально опасна. Вы не располагаете информацией, чтобы отбросить другие возможности.

3.Резко отклоняющееся значение может серьезно повлиять на результаты регрессионного анализа.

4. Большое значение имеет то, какая из двух переменных прогнозируется, а какая служит основанием для прогноза.

Каждому из этих подходов соответствует своя линия регрессии.

Две линии регрессии сближаются, когда уменьшается фактор случайности точки данных приближаются к прямой линии.

Основные предпосылки статистической модели линейной регрессии Y 0 1 X 1.Зависимая переменная Y есть величина случайная, а объясняющая переменная X - величина неслучайная.

2. Математическое ожидание возмущения M [ ] 0, дисперсия D[ ] 2. Возмущения являются нормально распределенными. Для заданного значения X генеральная совокупность значений Y имеет нормальное распределение относительно регрессионной прямой совокупности.

На практике приемлемые результаты получаются и тогда, когда значения Y имеют нормальное распределение лишь приблизительно.

3. Разброс генеральной совокупности данных относительно регрессионной прямой совокупности остается постоянным всюду вдоль этой прямой (дисперсия зависимой переменной Y остается постоянной: D[Y ] 2 ).

4 Возмущения, а, следовательно? и значения Y независимы между собой.

Уравнение взаимосвязи двух переменных (парная регрессивная модель) может быть представлена y x где - случайная переменная, характеризующая отклонение от функции регрессии. - называют возмущением.

Рассмотрим линейный регрессивный анализ, для которого функция x линейна M (Y ) 0 1 X Если для оценки параметров линейной функции взята выборка, то парная линейная регрессионная модель имеет вид Yi 0 1 X Задачи регрессионного анализа Цель регрессионного анализа состоит в определении общего вида уравнения регрессии, построении статистических оценок неизвестных параметров, входящих в уравнение регрессии и проверке статистических гипотез о регрессии.

Корреляционный анализ позволяет устанавливать неслучайность (значимость) изменения наблюдений Yi и степень их зависимости от случайных величин X.

Регрессионный анализ представляет собой следующий этап статистического анализа.

Определяются точные количественные характеристики изменения Y. Статистическая связь Y и X сводится к строгим (неслучайным) соотношениям.

На данном этапе решаются следующие основные задачи:

выбор общего вида функции регрессии f x, отбор, если необходимо, наиболее информативных факторов;

оценивание параметров уравнения регрессии (1,..... n ) анализ точности полученного уравнения регрессии, связанный с построением доверительных интервалов для коэффициентов регрессии, т.е. компонент вектора (1,..... n ), для условного среднего отклика Y ( X ) и для прогнозов наблюдений отклика Y ( X ) при значениях факторов X ( X 1,....... X n ).

1. Возмущения есть случайная величина, а объясняющая переменная – неслучайная величина.

2. Математическое ожидание возмущения равно нулю M ( i ) 3. Дисперсия возмущения постоянна для любого i :

D( i ) 4. Возмущения не коррелированны (независимы) M ( i j ) 0 ;

i j 5. Возмущения есть нормально распределенная случайная величина.

Для получения уравнений регрессий достаточно 1-4 условий, 5 условие для оценки точности уравнений регрессии и его параметров Пусть требуется исследовать зависимость Y ( X ), величины X и Y измеряются в одном эксперименте.

Восстановим Y ( X ) по результатам измерений. Точное представление Y ( X ) невозможно. Будем искать приближенную зависимость по методу наименьших квадратов. Y ( X ) g ( x), называется наилучшим приближением, если g (x) M Y g (x) принимает наименьшее значение.

Рассмотрим функцию g ( x) AX B которая наилучшим образом приближает X к Y.

Введем обозначения m1 M X, m2 M Y, 1 2 D X 2 2 DY, - корреляционный момент, k- коэффициент корреляции этих величин.

Будем искать Y ( X ) g ( x) AX BY Найти такие A и B, что Ф( A, B) M [Y AX B] принимает наименьшее значение:

Ф( A, B) M [Y AX B ] M [Y 2 ] B 2 A2 M [ X ]2 2 BM [Y ] 2 AM [ XY ] 2 AMB[ X ] 2 m2 B 2 A2 (1 m12 ) 2 Bm 2 2 A( m1 m2 ) 2 ABm Исследуем на экстремум Ф = 2[ A( 12 m12 ) ( m1 m2 ) Bm1 ] А Ф = 2[m2 B Am1 ] А Коэффициент A - коэффициент регрессии. Прямая y m2 x m k – прямая регрессии.

2 Воздействие неучтенных факторов и ошибок наблюдений в модели определяется с помощью остаточной дисперсии.

Минимум равен 2 (1 k 2 ) – остаточная дисперсия, которая характеризует величину ошибки, допускаемой при использовании приближенного равенства Y g ( x) AX B.

Пример Найти выборочное уравнение прямой линии регрессии: а) Y на X, б) X на Y, если известны: выборочные средние x 3,6, y 4, выборочные дисперсии D x 0,04, D y 0,25, выборочный коэффициент корреляции rB 0,6.

Решение а) Выборочное уравнение прямой линии регрессии Y на X имеет вид y x x, y y rB x где x Dx, y D y.

Поскольку x 0,04 0,2, y 0,25 0,5, получаем уравнение 0, x 3,6, y 4 0, 0, или y 1,5 x 1,4.

б) Согласно выборочному уравнению прямой линии регрессии X на Y :

x y y.

x x rB y 0, y 4, Поэтому получаем или x 3,6 0, 0, x 0,24 y 2, Многомерная нормальная регрессионная модель Когда одна случайная переменная реагирует на изменение другой изменением своего закона распределения, речь идет о так называемой стохастической связи.

Частный случай такой связи - когда условное математическое ожидание одной случайной переменной является функцией значения, принимаемого другой случайной переменной, т.е.

M (Y / x) f ( x), где f x - теоретическая (истинная) функция или модель регрессии Y относительно X.

Статистические связи исследуются по выборкам ограниченного объема. На основании этих данных выполняют поиск подходящих аппроксимаций для f (x). Чтобы выяснить, как значение одной случайной переменной, в среднем, изменяется в зависимости от того, какие значения принимает другая случайная переменная, используют условное среднее значение y (x), которое является выборочной оценкой условного математического ожидания, а соответствующее выражение эмпирической функцией регрессии.

Практическое значение знания регрессионной зависимости между случайными переменными X и Y заключается в возможности прогнозирования значения зависимой случайной переменной Y, когда независимая случайная переменная X принимает определенное значение. Прогноз не может быть безошибочным, однако можно определить границы вероятности ошибки прогноза.

Вариация зависимой переменной и коэффициент детерминации Рассмотрим вариацию (разброс) значений Tss yi относительно среднего значения y n y)2.

( yi Tss = i Обозначим yi предсказанные с помощью функции регрессии значения y i : y a b xi.

n Rss = ( yi y ) означает величину разброса, которая i b ).

обусловлена регрессией (ненулевым значением наклона n Ess = ( yi yi ) означает разброс за счет случайных i отклонений от функции регрессии.

Оказывается, Tss Rss E ss, - полный разброс равен сумме разбросов за счет регрессии и за счет случайных отклонений.

Rss Величина – это доля вариации значений yi, Tss обусловленной регрессией (т.е. доля закономерной изменчивости в общей изменчивости).

Определение Коэффициент детерминации – статистика 1 E ss R R 2 ss Tss Tss показывающая, какая доля дисперсии результативного признака объясняется влиянием объясняющих переменных.

Если R 2 0, это означает, что регрессия ничего не дает, т.е.

знание x не улучшает предсказания для y по сравнению с тривиальным yi y. Другой крайний случай R 2 1 означает точную подгонку: все точки наблюдений лежат на регрессионной прямой. Чем ближе к 1 значение R 2, тем лучше качество подгонки. Линейная регрессия имеет следующие общие свойства:

1. Чем ближе значение коэффициента детерминации к 1, тем ближе модель к эмпирическим наблюдениям.

2. С увеличением количества объясняющих переменных увеличивается R2.

Контрольные вопросы Что показывает коэффициент регрессии?

1.

Что показывает коэффициент корреляции?

2.

В чем отличие корреляционной зависимости от 3.

функциональной?

4. Каким методом определяются параметры линейной регрессии?

5. При каких значениях коэффициента регрессии зависимость случайных величин является:

а) прямой;

б) обратной?

Чем занимается регрессионный анализ?

6.

Перечислите свойства линейной регрессии.

7.

Запишите уравнение регрессии.

8.

Отчего зависит наклон линии регрессии?

9.

Что показывает коэффициент детерминации?

10.

В чем отличие многомерной от линейной регрессии?

11.

Лекция Статистические оценки параметров распределения Результаты измерений могут рассматриваться законченными, только когда они сопровождаются статистической оценкой полученных данных, поскольку никогда не бывает 100% уверенности в точности определенных значений.

Для статистической оценки параметров распределения используют средние значения разных степеней отклонений отдельных величин признака от его средней арифметической величины. Эти показатели называют центральными моментами распределения порядка, соответствующего степени, в которую возводятся отклонения Получив статистические оценки параметров распределения (выборочное среднее, выборочную дисперсию и т.д.), нужно убедиться, что они в достаточной степени служат приближением соответствующих характеристик генеральной совокупности.

Определим требования, которые должны при этом выполняться.

Определение Статистическая оценка неизвестного параметра теоретического распределения - функция от наблюдаемых случайных величин.

Пусть - статистическая оценка неизвестного параметра * теоретического распределения. Извлечем из генеральной совокупности несколько выборок одного и того же объема n и вычислим для каждой из них оценку параметра :

*,2,,k * * Тогда оценку можно рассматривать как случайную * величину, принимающую возможные значения *,2,,k.

* * Если математическое ожидание не равно оцениваемому * параметру, мы будем получать при вычислении оценок систематические ошибки одного знака (с избытком, если M *, и с недостатком, если M * ).

Следовательно, необходимым условием отсутствия систематических ошибок является требование M.

* Определение Статистическая оценка называется * несмещенной, если ее математическое ожидание равно оцениваемому параметру при любом объеме выборки:

M * Определение Статистическая оценка называется смещенной оценкой, если математическое ожидание не равно оцениваемому параметру.

Однако несмещенность не является достаточным условием хорошего приближения к истинному значению оцениваемого параметра. Если при этом возможные значения могут * значительно отклоняться от среднего значения, то есть дисперсия велика, то значение, найденное по данным одной * выборки, может значительно отличаться от оцениваемого параметра. Следовательно, требуется наложить ограничения на дисперсию.

Определение Статистическая оценка называется эффективной, если она при заданном объеме выборки n имеет наименьшую возможную дисперсию.

Эффективность оценки зависит от вида распределения.

Можно доказать, что если случайная величина имеет нормальное распределение, то оценка математического ожидания X является и эффективной. При рассмотрении выборок большого объема к статистическим оценкам предъявляется еще и требование состоятельности. Естественно потребовать от оценки *, чтобы при увеличении числа опытов n она приближалась к искомому параметру Определение Состоятельной называется статистическая оценка, которая при n стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при n ее дисперсия стремится к 0).

lim P{ * } 1.

n Замечание Т.е чем больше объем выборки, тем больше вероятность того, что ошибка оценки будет очень мала.

Убедимся, что среднее арифметическое значение x B представляет собой несмещенную оценку математического ожидания M x.

xB Будем рассматривать как случайную величину, а x1, x2,, xn, то есть значения исследуемой случайной величины, составляющие выборку, – как независимые, одинаково распределенные случайные величины X 1, X 2,, X n, имеющие математическое ожидание a. Из свойств математического ожидания следует, что:

X X X n M X B M 1 a n Но, поскольку каждая из величин X 1, X 2,, X n имеет такое же распределение, что и генеральная совокупность, a M X, то есть M X B M X, что и требовалось доказать.

Выборочное среднее является не только несмещенной, но и состоятельной оценкой математического ожидания.

Если предположить, что X 1, X 2,, X n имеют ограниченные дисперсии, то из теоремы Чебышева следует, что их среднее арифметическое, то есть X B, при увеличении n стремится по вероятности к математическому ожиданию каждой их величин, то есть к M X.

Следовательно, выборочное среднее есть состоятельная оценка математического ожидания.

В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой дисперсии генеральной совокупности. Можно доказать, что n M DB Dr, n где Dr – истинное значение дисперсии генеральной совокупности.

Можно предложить другую оценку дисперсии – исправленную дисперсию s 2, вычисляемую по формуле:

k ni x i x B n D B i s.

n 1 n Такая оценка будет являться несмещенной.

Ей соответствует исправленное среднее квадратическое отклонение k ni xi x B s s2 i.

n n называется поправкой Бесселя.

Множитель n Определение Оценка некоторого признака называется асимптотически несмещенной, если для выборки x1, x2,, xn x x xn X lim 1 n n где X – истинное значение исследуемой величины.

Пример Пусть в n испытаниях Бернулли событие A произошло m раз. В качестве оценки вероятности p m m. Т.е. p, * принимается частота события. Будет n n ли * несмещенной?

Решение Т.к. случайная величина ( w) m имеет M [ ] np, то m 1 M [ * ] M [ ] M [ m] np p.

n n n Частота события является несмещенной оценкой.

Метод наибольшего правдоподобия Пусть X – дискретная случайная величина, которая в результате n испытаний приняла значения x1, x2,, xn.

Предположим, что нам известен закон распределения этой величины, определяемый параметром, но неизвестно численное значение этого параметра. Найдем его точечную оценку.

Пусть p( xi, ) – вероятность того, что в результате испытания величина X примет значение xi. Назовем функцией X правдоподобия дискретной случайной величины функцию аргумента, определяемую по формуле:

L x1, x2, xn, p( x1, ) p( x2, ) p( xn, ) Тогда в качестве точечной оценки параметра принимают такое его значение * x1, x2, xn, при котором функция правдоподобия достигает максимума. Оценку * называют оценкой наибольшего правдоподобия.

Поскольку функции L и ln L достигают максимума при одном и том же значении, удобнее искать максимум ln L – логарифмической функции правдоподобия. Для этого нужно:

d ln L ;

1) найти производную d 2) приравнять ее нулю (получим так называемое уравнение правдоподобия) и найти критическую точку;

d 2 ln L 3) найти вторую производную если она, d отрицательна в критической точке, то это – точка максимума.

Достоинства метода наибольшего правдоподобия:

1) полученные оценки состоятельны (хотя могут быть смещенными), распределены асимптотически нормально при больших значениях n и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками;

2) если для оцениваемого параметра существует эффективная оценка *, то уравнение правдоподобия имеет единственное решение * ;

3) метод наиболее полно использует данные выборки и поэтому особенно полезен в случае малых выборок.

Важность метода максимального правдоподобия связана с его оптимальными свойствами.

Основной недостаток метода — трудность вычисления оценок, связанных с решением уравнений. Кроме того, для построения оценок необходимо точное знание типа закона распределения p( xi, ), что иногда практически невозможно Для непрерывной случайной величины с известным видом плотности распределения f x и неизвестным параметром функция правдоподобия имеет вид:

L x1, x2, xn, f ( x1, ) f ( x2, ) f ( xn, ).

Оценка наибольшего правдоподобия неизвестного параметра проводится так же, как для дискретной случайной величины.

Метод моментов К методу моментов относят все статистические процедуры, основанные на использовании выборочных моментов и функций от них. Метод моментов нахождения оценок в математической статистике - это способ построения оценок, основанный на уравнивании теоретических и выборочных моментов был впервые предложен Пирсоном в 1894г.

Метод моментов основан на том, что начальные и центральные эмпирические моменты являются состоятельными оценками соответственно начальных и центральных теоретических моментов, поэтому можно приравнять теоретические моменты соответствующим эмпирическим моментам того же порядка.

распределения f ( x, ), Если задан вид плотности определяемой одним неизвестным параметром, то для оценки этого параметра достаточно иметь одно уравнение.

Например, можно приравнять начальные моменты первого порядка:

xв M X x f ( x, )dx ( ) получив тем самым уравнение для определения.

Его решение * будет точечной оценкой параметра, которая является функцией от выборочного среднего и, следовательно, и от вариант выборки:

x1, x2, xn.

Если известный вид плотности распределения f ( x,1,2 ) определяется двумя неизвестными параметрами 1 и 2, то требуется составить два уравнения, например 1 M1, 2 m2,.

M X x B Отсюда - система двух уравнений с двумя D X DB неизвестными 1 и 2. Ее решениями будут точечные оценки 1* и 2* - функции вариант выборки:

1 1 x1, x2, xn, 2 2 x1, x2, xn.

Точечные оценки метода моментов обычно состоятельны, однако по эффективности они не являются наилучшими. Тем не менее, метод моментов часто используется на практике, т.к.

приводит к сравнительно простым вычислениям.

Пример Методом моментов по выборке 3 4 X n 70 20 найти точечную оценку параметра, предполагая, что теоретическое распределение является показательным:

e x, x 0 ;

f x 0, x 0.

Решение Согласно методу моментов нужно приравнять начальный теоретический момент первого порядка (математическое ожидание M ( X ) ) к начальному эмпирическому моменту x ): M ( X ) x.

первого порядка (выборочному среднему 1.

M (X ) Для показательного распределения имеем:

Выборочное среднее находим по формуле 1k x xn, n i 1 i i k n ni - объем где xi - варианта выборки, ni - частота xi, i выборки.

3 70 4 20 5 10 3,4.

Получаем x 70 20 Приравнивая моменты, находим :

3,4 = 0,29.

3, Бейесовский подход к получению оценок Пусть Y, X – случайный вектор, для которого известна плотность p y | x условного распределения Y при каждом значении X x. Если в результате эксперимента получены лишь значения Y, а соответствующие значения X неизвестны, то для оценки некоторой заданной функции x в качестве ее приближенного значения предлагается искать условное M ( x Y ), математическое ожидание вычисляемое по x p Y x p x d ( x ), формуле: Y q(Y ) q(Y ) p y x p x d ( x), px где – плотность безусловного распределения X, q y – плотность безусловного распределения Y.

Задача может быть решена только тогда, когда известна px.

Иногда, однако, удается построить состоятельную оценку для q y, зависящую только от полученных в выборке значений Y.

Контрольные вопросы 1. Дайте определение точечной и интервальной оценок параметра.

2. Какая оценка называется:

а) смещенной;

б) несмещенной;

в) эффективной?

3. Какую оценку называют оценкой наибольшего правдоподобия?

4. Перечислите достоинства метода наибольшего правдоподобия.

5. На каких фактах основан бейесовский подход к получению оценок.

6. Сформулируйте основные положения метода моментов.

7. Методы получения оценок: метод моментов, метод максимального правдоподобия проведите сравнение.

Лекция Доверительные интервалы При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, что приводит к грубым ошибкам. Поэтому в таком случае лучше пользоваться интервальными оценками, то есть указывать интервал, в который с заданной вероятностью попадает истинное значение оцениваемого параметра. Разумеется, чем меньше длина этого интервала, тем точнее оценка параметра.

Поэтому, если для оценки * некоторого параметра *, справедливо неравенство число характеризует точность оценки (чем меньше, тем точнее оценка). Но статистические методы позволяют говорить только о том, что это неравенство выполняется с некоторой вероятностью.

Определение Надежностью (доверительной вероятностью) оценки параметра называется вероятность * *. Если того, что выполняется неравенство заменить этонеравенство двойным неравенством –, то получим:

* p( *, * ) Таким образом, есть вероятность того, что попадает в интервал ( *, * ).

Определение Доверительным называется интервал, в который попадает неизвестный параметр с заданной надежностью.

Доверительный интервал строится с помощью случайной выборки из распределения с неизвестным параметром, накрывая данный параметр с заданной вероятностью.

Доверительный интервал для оценки математического ожидания нормального распределения при известной дисперсии Пусть исследуемая случайная величина X распределена по нормальному закону с известным средним квадратическим, и требуется по значению выборочного среднего x оценить математическое ожидание a. Будем рассматривать выборочное среднее x, как случайную величину X, а значения вариант выборки как одинаково распределенные x1, x2,, xn независимые случайные величины X 1, X 2,, X n, каждая из которых имеет математическое ожидание a и среднее квадратическое отклонение.

Оценим вероятность выполнения неравенства X a.

Применим формулу для вероятности попадания нормально распределенной случайной величины в заданный интервал:

p X a 2Ф.

Тогда, с учетом того, что X, n n 2Ф t, p X a 2Ф n где t, предыдущее равенство можно переписать так:

t t ) 2Ф(t ).

p (x a x n n Итак, значение математического ожидания с a вероятностью (надежностью) попадает в интервал t t (x,x ), n n где значение t определяется из таблиц для функции Лапласа так, чтобы выполнялось равенство 2Ф(t ).

Пример Найти доверительный интервал для математического ожидания нормально распределенной случайной величины, если объем выборки n 49, x 28, 1.4, а доверительная вероятность 0.9.

Определим t, при котором t 0, 0,45 : t 1,645.

1,645 1,4 1,645 1, Тогда 2,8 a 2,8, или 49 2,471 a 3,129.

Найден доверительный интервал, в который попадает a с надежностью 0,9.

Доверительный интервал для оценки математического ожидания нормального распределения при неизвестной дисперсии Если известно, что исследуемая случайная величина X распределена по нормальному закону с неизвестным средним квадратическим отклонением, то для поиска доверительного интервала для ее математического ожидания построим новую случайную величину xB a T s n где x B - выборочное среднее, s – исправленная дисперсия, n – объем выборки.

Эта случайная величина, возможные значения которой будем обозначать t, имеет распределение Стьюдента с k n степенями свободы.

Поскольку плотность распределения Стьюдента n t s t, n Bn, n n где B, явным образом не зависит от a и, n n n 1 можно задать вероятность ее попадания в некоторый интервал t, t, учитывая четность плотности распределения, следующим образом:

xa t 2 s t, n dt p t s n.

Отсюда получаем:

t s ts p x a x.

n n Таким образом, получен доверительный интервал для a, где t можно найти по соответствующей таблице при заданных n и.

Пример Пусть объем выборки n 25, x B 3, s 1,5. Найдем доверительный интервал для a при 0.99.

Из таблицы находим, что t 2.797. Тогда 2,797 1,5 2,797 1, 3 a 3, 25 2,161 a 3,839 – доверительный интервал, в который попадает a с вероятностью 0,99.

Доверительные интервалы для оценки среднего квадратического отклонения нормального распределения Будем искать для среднего квадратического отклонения нормально распределенной случайной величины доверительный интервал вида s, s, где s – исправленное выборочное среднее квадратическое отклонение, а для выполняется условие: p s.

Запишем это неравенство в виде:

s(1 ) s(1 ) s s или, обозначив, q s s(1 q) s(1 q).

Рассмотрим случайную величину, определяемую по s формуле n 1, которая распределена по закону «хи квадрат» с n 1 степенями свободы.

Плотность ее распределения x n2 e R, n n n Г не зависит от оцениваемого параметра, а зависит только от объема выборки n.

Преобразуем неравенство s(1 q) s(1 q) так, чтобы оно приняло вид 1 2. Вероятность выполнения этого неравенства равна доверительной вероятности, следовательно R, n d Предположим, что q 1, тогда неравенство можно записать так:

1 1, s 1 q s 1 q или, после умножения на s n n 1 s n 1 n.

1 q 1 q Следовательно, n 1 n.

1 q 1 q Тогда n 1 q R, n d.

n 1 q Существуют таблицы для распределения «хи-квадрат», из которых можно найти q по заданным n и, не решая этого уравнения. Таким образом, вычислив по выборке значение s и определив по таблице значение q, можно найти доверительный интервал, в который значение попадает с заданной вероятностью.

Замечание Если q 1, то с учетом условия доверительный интервал для будет иметь границы 0 s(1 q) Пример Пусть n 20, s 1,3. Найдем доверительный интервал для при заданной надежности 0,95.

q 0.37.

Из соответствующей таблицы находим Следовательно, границы доверительного интервала:

1,31 0,37 0,819 и 1,31 0,37 1,781.

Итак, 0,819 1,781 с вероятностью 0,95.

Контрольные вопросы 1. Запишите доверительный интервал для оценки математического ожидания.

2. От каких величин зависит точность оценки математического ожидания?

3. Напишите доверительный интервал для оценки среднее квадратическое отклонение нормально распределенного количественного признака Х.

Лекция Случайные процессы и их характеристики Сигналы, способные передать получателю какие-либо сведения, заранее не могут быть известными и представляют собой случайный процесс (последовательность импульсов в системе телеграфной связи или некоторую непрерывную функцию при передаче телефонных сообщений).

Определение Теория случайных процессов математическая наука, изучающая случайные явления в динамике их развития.

Определение Случайные сигналы (процессы)- сигналы, математическим описанием которых являются случайные функции времени.

Пример Случайный процесс - флуктуационные шумы в радиотехнических устройствах. При наблюдении теплового напряжения на выходах идентичных устройств обнаруживается, что функции времени, описывающие эти напряжения, различны.

Объясняется же это тем, что в любой момент времени ток в цепи обусловлен большим, но случайным числом вылетающих электронов.

Реальные информационные сигналы носят случайный характер, т.к. ряд их параметров меняется во времени случайным образом. Поэтому случайные сигналы (или случайные процессы) описываются статистическими (вероятностными) законами.

С практической точки зрения решение о случайности или детерминированности процесса основывается на способности воспроизвести процесс в ходе контролируемого эксперимента.

Если это приводит к одним и тем же результатам – то процесс считается детерминированным.

Марков Андрей Андреевич (1856-1922) русский математик, является основоположником теории случайных процессов.

Существенно расширил сферу применения закона больших чисел и центральной предельной теоремы.

Классификация случайных процессов Различают следующие случайные процессы:

Определение Детерминированные процессы – процессы, которые можно описать математическими формулами (т.е. мы можем определить положение системы в любой момент времени).

Пример Движение спутника на околоземной орбите, измерение температуры воды при нагревании детерминированные процессы.

А процессы, такие как высота волн при шторме, напряжение в нашей электросети, изменение численности жителей в Самаре с течением времени не являются детерминированными – точное положение системы в таких процессах точно определить невозможно.

Для описания этих процессов требуются вероятностные понятия и статистические характеристики.

Есть еще один вид процессов - хаотические.

Определение Хаотические случайные процессы – детерминированные, нелинейные, с сильной зависимостью от начальных условий.

В реальности начальные условия точно повторить нельзя, и поведение системы через некоторое время становится непредсказуемым. На выходе такие системы имеют случайные характеристики и к ним требуются вероятностные подходы.

Случайные процессы являются математическими моделями для описания случайных явлений, развивающихся во времени.

При этом предполагается, что состояние в текущий момент времени есть случайная величина (t, w).

На пространстве элементарных событий определена алгебра его подмножеств F и для любого события A F определена его вероятность P( A). Таким образом задано вероятностное пространство, F, P.

Определение Случайный процесс - семейство случайных величин { (t, w)}, определнных на, F, P, где под параметром t понимается время.

Пусть t0 - фиксированный момент.

t Определение Сечение случайного процесса в точке (t0, w).

случайная величина Случайный процесс можно рассматривать как совокупность случайных величин, зависящих от параметра t.

Мы фиксировали время. А w теперь пусть фиксируемый результат испытания.

Определение Неслучайная функция (t, w0 ) (в которую превращается процесс в результате испытания) называется реализацией (траекторией, выборочной функцией) случайного процесса.

С реализациями мы чаще всего имеем дело на практике.

Таким образом, случайный процесс можно рассматривать как совокупность всех возможных его реализаций.

Случайные процессы классифицируют в зависимости от непрерывности или дискретности и t :

Определение Случайный процесс называется процессом с дискретным временем (или случайной последовательностью) если система, в которой он протекает, может менять сво состояние в дискретные моменты времени.

Пример Студент накупил лотерейных билетов.

Выигрыши происходят в определнные дни. Случайный процесс t - число билетов, выигравших до момента времени t.

Определение Случайный процесс называется процессом с непрерывным временем, если переходы системы могут происходить в любой момент t.

Определение Случайный процесс называется процессом с дискретными состояниями, если в любой момент времени множество его состояний конечно или счтно (если любое его сечение – дискретная случайная величина).

Пример Техническое устройство может иметь три состояния: работает нормально, работает с перебоями, ремонтируется. Случайный процесс t - состояние устройства в момент времени t.

Определение Случайный процесс называется процессом с непрерывными состояниями, если множество его состояний несчтно (если любое его сечение – непрерывная случайная величина).

Законы распределения случайного процесса Универсальной, исчерпывающей характеристикой случайная величины является е функция распределения F ( x) P( x).

При любом фиксированном t получим сечение случайного процесса. Это случайная величина, которая имеет закон распределения.

F ( x, t ) P( (t ) x) - одномерный закон распределения.

Функция зависит от двух аргументов t, x.

Является ли F (t, x) исчерпывающей характеристикой? Нет, так как характеризует свойства одного отдельного сечения.

Двумерный закон распределения F ( x1, t1, x2, t2 ) P ( (t1 ) x1, (t2 ) x2 ) - функция 4-х аргументов.

Теоретически число сечений можно увеличивать неограниченно. Однако на практике очень часто вполне можно ограничиться двумерным законом. В общем случае мы имеем n сечений. Пусть t - случайный процесс и задано некоторое произвольное множество моментов времени.

Соответствующая совокупность случайных величин (t1 ),..., (tn ) имеет n – мерную функцию распределения:

F ( x1,..., xn, t1,..., tn ) P{ (t1 ) x1,..., (tn ) xn } Семейство конечномерных распределений случайного процесса – это совокупность n -мерных функций распределения для различных n и моментов t.

Семейство конечномерных распределений является основной характеристикой случайного процесса, полностью определяющей его свойства. Говорят, что случайный процесс, задан, если задано его семейство конечномерных распределений.

Моментные характеристики случайного процесса Функции распределения достаточно полно характеризуют случайный процесс. Однако часто она оказывается довольно сложная или требует для своего определения обработки большого числа экспериментальных данных. Кроме того, часто подробного описания процесса не требуется.

Потому в этих случаях ограничиваются при описании процессов лишь некоторыми числовыми характеристиками.

К ним относятся средние значения, дисперсии и корреляционные функции. Числовые характеристики случайных процессов аналогичны числовым характеристикам случайных величин, которые используются в теории вероятностей, но имеют ту особенность, что представляют собой в общем случае не числа, а функции времени.

Для характеристики случайной величины определяют неслучайные числовые характеристики – математическое ожидание M [ ] - среднее значение случайной величины;

дисперсия D[ ] - разброс значений относительно M [ ] ;

корреляционный момент COV [, ] M ( M )( M ), который характеризует степень линейной зависимости между случайными величинами и.

Определение Неслучайная функция m t, которая t равна математическому ожиданию соответствующего сечения случайного процесса, называется математическим ожиданием случайного процесса.

m t M t Его можно найти через одномерный закон распределения.

xp ( x, t )dx.

m (t ) Определение Дисперсия случайного процесса – это t неслучайная функция, которая равна дисперсии соответствующего сечения.

D (t ) D[ (t )] M [( (t ) M (t )) 2 ] - можно найти через одномерный закон распределения.

x D (t ) p ( x, t )dx m2 (t ).

Математическое ожидание M [ (t )] и дисперсия D[ (t )] важны, но не характеризуют внутреннюю структуру процессов.

Пример Задан случайный процесс:

~ N m, Найти его математическое x(t ) a t.

ожидание и дисперсию.

Решение Реализации процесса:

mx t M a t am t, Dx t D a t D a D t a.

Замечание дисперсия определяет степень разброса значений случайного процесса около среднего значения.

Замечание Математическое ожидание и дисперсия характеризуют поведение случайного процесса в отдельные моменты времени.

Корреляционная функция В качестве характеристики, учитывающей статистическую зависимость между значениями случайного процесса в различные моменты времени, используется корреляционная функция случайного процесса определяемая как Определение Корреляционная функция случайного процесса - неслучайная функция равная математическому ожиданию от произведения значений процесса в два различных момента времени.

K (t1, t2 ) M [( (t1 ) m (t1 ))( (t2 ) m (t2 )] M [( (t1 ) (t2 )] m (t1 )m (t2 ) Корреляционная функция – функция двух аргументов - для каждой пары чисел t1 и t2 равна корреляционному моменту соответствующих сечений и характеризует степень их линейной зависимости.

Для расчта корреляционной функции необходимо знать двумерное распределение.

(x K (t1, t2 ) m (t1 ))( x2 m (t2 )) p ( x1, x2, t1, t2 )dx1, dx Корреляционная функция определяет степень линейной зависимости между значениями случайного процесса в различные моменты времени.

Основные свойства корреляционной функции При равенстве аргументов t1 t2 t 1.

K (t, t ) D (t ) Корреляционная функция симметрична относительно 2.

своих аргументов K (t1, t2 ) K (t2, t1 ) т.е. она является симметричной относительно начала отсчета времени.

Модуль корреляционной функции не превосходит 3.

произведение среднеквадратичных отклонений соответствующих сечений K (t1, t2 ) D (t1 ) D (t2 ) Пример Дан случайный процесс ~ N m, x(t ) a t.Найти корреляционную функцию Решение K x t1, t2 M x t1 mx t1 x t2 mx t2 M a t1 am t1 a t2 am t2 a 2 M m a 2 Нормированная корреляционная функция K (t1, t2 ) r (t1, t2 ) (t1 ) (t2 ) COV ( X, Y ) (аналог - коэффициент корреляции ).

x y Свойства нормированной корреляционной функции:

D t При равенстве аргументов r t 1.

t r t1, t2 r t2, t 2.

r t1, t2 Определение Случайный процесс (t ) называется стационарным в узком смысле, если многомерные законы распределения не меняются при сдвиге всех временных переменных на одно и то же число:

F ( x1,..., xn ;

t1,..., tn ) F ( x1,..., xn ;

t1 h,..., tn h) n N h R.

Более обширный класс - стационарные процессы, стационарные в широком смысле Чаще всего под стационарностью понимается стационарность в широком смысле.

Определение Случайный процесс называется стационарным в широком смысле если:


m (t ) m const D (t ) D const,, K (t1, t2 ) K (t2 t1 ) K ( ).

Из стационарности в узком смысле следует стационарность в широком.

Пример Задан случайный процесс:

t A cos t, ~ R 0, p ( x), M t 2 A cos t x dx A sin t x 2 K t1, t2 M t1 m t1 t2 m t2 A cos t x A cos t2 x dx A2 2 x cos t1 t2 dx cos t1 t2 2 x dx 2 2 0 2 A2 A2 A cos t1 t2 cos t1 t2 cos ( t1 t2 ) 4 2 A2 A cos ( t t ) D (t ) K (t, t ).

2 Самыми важными (по прикладному значению) из стационарных процессов для нас являются эргодические.

Определение Стационарный случайный процесс называется эргодическим, если для него осреднение по ансамблю реализаций может быть заменено осреднением по времени по одной реализации.

Т.е. по любой одной достаточно длинной реализации мы можем судить о свойствах всех реализаций случайного процесса.

Достаточное условие эргодичности:

lim K ( ) 0,то случайный процесс является Eсли эргодическим.

Глоссарий К лекции Вероятность события – численная мера, принимающая значения между 0 и 1 и характеризующая степень возможности появления события в данном опыте.

P A m 0 P( A), n Генератор случайных чисел - устройство для получения наборов случайных чисел.

Достоверное событие – событие, которое в результате опыта обязательно должно произойти.

Набор элементарных событий - набор всех возможных отдельных результатов испытаний.

Невозможное событие – событие, которое не может иметь место в данном опыте.

Несовместные события - события, появление одного из них в данном опыте исключает возможность появления других, т.е.

они не могут произойти одновременно в одном и том же опыте.

Полная группа событий – группа событий, из которых хотя бы одно непременно должно произойти в данном опыте.

Противоположные события - два единственно возможных и несовместных.

q( A) 1 P( A) Равновозможные события - два или несколько событий, имеющих больше данных появиться в итоге опыта по сравнению с другими.

Случайные события – любые события или факты, относящиеся к результату эксперимента, которые могут происходить или не происходить.

Совместные события - события, появление одного из них в данном опыте не исключает возможность появления других.

Элементарное событие - отдельное событие или отдельный возможный результат испытания.

Комбинаторика - раздел дискретной математики, изучающий комбинации конечных множеств элементов различной природы.

Независимые события - события вероятность появления каждого из них не зависит от того, имели ли место другие.

Перестановки из n элементов - соединения, различающиеся только порядком входящих в них элементов.

Pn An n!

n Размещения из n по m - соединения, различающиеся самими элементами или их порядком.

n!

An m n m !

Сочетания из n элементов по m - соединения, различающиеся только своими элементами.

n!

Сn m m! n m !

Формула Стирлинга 0 приближенная формула для вычисления факториалов асимптотического характера n ! nn e n 2 n К лекции Абсолютная частота случайного события А в серии из N случайных опытов - число NA, которое показывает, сколько раз в этой серии произошло событие А.

Геометрическая вероятность события A - отношение меры области, благоприятствующей появлению события A к мере всей области P A mes g mesG Относительная частота случайного события -отношение числа появлений этого события к общему числу проведенных экспериментов: W A NA N где A – случайное событие по отношению к некоторому испытанию, N - количество испытаний и при этом событие A наступило в N A случаях.

Статистическая вероятность события - относительная частота события при большом числе испытаний или число близкое к ней:

P( A) lim W ( A).

n К лекции Зависимые события – события, если появление одного из них влияет на вероятность наступления другого.

Независимые события - события, вероятность появления каждого из них не зависит от того, имели ли место другие.

Сумма двух событий A1 и A2 - событие, состоящее в появлении хотя бы одного из этих событий.

A A1 A Произведением нескольких событий называется событие, состоящие в совместном наступлении всех этих событий в результате испытания.

Уровень значимости -достаточно малая вероятность, при которой событие можно считать практически невозможным.

Условная вероятность- вероятность одного события, вычисленная в предположении, что другое событие произошло.

Априорные гипотезы – гипотезы, полученные до предстоящего опыта, Апостериорные гипотезы – гипотезы, полученные после опыта.

Гипотеза – события, в условиях которых только и может появиться событие А.

Полная вероятность события A - вероятность события, равная сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соответственно при каждой из гипотез.

is P A P H i P A H i i Формула Бейеса - формула для вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие A уже произошло).

P H i P A H i P H i A P A К лекции Дискретная случайная величина – случайная величина, возможные значения которой отделимы друг от друга, принимающая конечное или счетное множество значений.

Закон распределения вероятностей данной случайной величины – соотношение, устанавливающее связь между вероятностями, с которыми данная случайная величина принимает различные значения и самими возможными значениями случайной величины.

Многомодальное распределение (двухмодальное) – распределение, имеющее два или несколько максимумов у многоугольника распределения для дискретной случайной величины или на кривой распределения для непрерывной случайной величины.

Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным Многоугольник распределения ( полигон распределения)– график, по оси абсцисс всевозможные значения случайной величины, по оси ординаты вероятности.

Мода –значение сл.величины x i, имеющее наибольшую вероятность.

Наивероятнейшее значение случайной величины – значение, вероятность которого больше, чем у других.

Непрерывная случайная величина – случайная величина, возможные значения которой неотделимы друг от друга и непрерывно заполняют некоторый интервал.

Ряд распределения - закон распределения вероятностей дискретной случайной величины, заданный в виде таблицы, в первой строке даны значения случайной величины, а во второй – соответствующие им вероятности.

Случайная величина – величина, которая в результате опыта может принять то или иное значение, но неизвестно заранее какое именно.

Функцией распределения F(x) случайной величины X вероятность того, что случайная величина примет значение, меньшее x :

F x P X x x x P x1 x x P P x2 x x F x 1 P P2 Pn 1 xn 1 x xn 1 x xn К лекции Дисперсия – числовая характеристика дискретной случайной величины, характеристика рассеивания, равная математическому ожиданию квадрата разности случайной величины и ее математического ожидания is D X M x mx 2 xi mx 2 pxi i Коэффициент ассиметрии случайной величины – числовая характеристика дискретной случайной величины, параметр формы, равный A Математическое ожидание – числовая характеристика дискретной случайной величины, равная сумме произведений отдельных значений, которые может принимать переменная на соответствующие им вероятности is x М X xi pxi i Медиана - числовая характеристика дискретной случайной величины, для которой выполняется условие.

P( X x1 ) P( X x 1 ) 2 Мода – числовая характеристика дискретной случайной величины, значение случайной величины xi, имеющее наибольшую вероятность или наиболее вероятное значение.

Наивероятнейшее событие – событие, вероятность осуществления которого не меньше вероятности других событий.

np q m0 np p Начальный момент k - порядка сл.величины Х - математическое ожидание k степени этой величины.

k M X k xik pi n i Отклонение – центрированная случайная величина xi M X Среднеквадратическое отклонение – числовая характеристика дискретной случайной величины, характеристика рассеивания, равная корню квадратному из дисперсии D X.

Центральный момент k - порядка случайной величины Х математическое ожидание степени отклонение k сл.величины Х от ее математического ожидания.

n k M X M X xi a pi k k i Эксцесс - числовая характеристика дискретной случайной величины, характеризующая крутость распределения случайной величины, параметр формы, равный E К лекции Двухточечное распределение -закон распределения вероятностей случайной величины:

PX 0 1 p, PX 1 p Биноминальный закон (закон Бернулли) - закон распределения вероятностей дискретной случайной величины, которая может принимать только целые неотрицательные значения с вероятностью Pn m P X m Cn p m q n m, m p q 1, m 0,1,2,3,, n, где - параметры p, q биноминального распределения.

Закон Пуассона - закон распределения вероятностей дискретной случайной величины, которая принимает целые неотрицательные значения с вероятностями, m PX m e m!

где np - параметр распределения Пуассона.

Наивероятнейшее значение случайной величины k 0 – число испытаний, при котором достигается максимальная вероятность в n независимых испытаниях np q k0 np p К лекции Дисперсия непрерывной случайной величины x - числовая характеристика непрерывной случайной величины, характеристика рассеивания, возможные значения которой a, b, выражаются через принадлежат отрезку определенный интеграл D x x M x f xdx Математическое ожидание M x непрерывной случайной величины x - числовая характеристика непрерывной случайной величины, возможные значения которой a, b, выражаются через принадлежат отрезку определенный интеграл M x x f x dx Медиана Me непрерывной случайной величины – числовая характеристика непрерывной случайной величины для которой выполняется:


P X Me P X Me т.е. одинаково вероятно окажется ли случайная величина меньше или больше медианы.

Мода непрерывной случайной величины – числовая характеристика непрерывной случайной величины, выражает наиболее вероятностное значение, в котором плотность максимальна.

Непрерывная случайная величина (НСВ) - случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка.

Плотность распределения непрерывной случайной величины – функция f (x), определяемая по формуле:

f ( x) F x Среднее квадратическое отклонение - числовая характеристика равная корню квадратному из дисперсии:

x Dx Функция распределении (интегральный закон распределения) непрерывной случайной величины - функция, которая равна вероятности того, что непрерывная случайная величина приняла значение меньшее заданного х:

x f ( x)dx F ( x) К лекции Кривая Гаусса - график плотности нормального распределения или нормальная кривая.

Нормальное распределение (гауссовское) - закон распределения непрерывной случайной величины определяемый плотностью распределения, x a x 1 2 e, где a – математическое ожидание.

Правило трех сигм - вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

Правило k - сигм - вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем k -сигма, практически равна нулю 0.6827, k 1, P X m k k k 0.9545, k 2, 0.9973, k 3.

Равномерный закон распределения непрерывной случайной величины - закон для которого на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение, x a, b f x b a 0, x a, b Распределение Вейбулла с параметрами m и a -показательное распределение случайной величины X с плотностью распределения m x f x m m 1 a xe a Стандартное нормальное распределение N 0,1 - нормальное распределение с математическим ожиданием 0 и стандартным отклонением Функция Лапласа - функция распределения стандартной нормальной случайной величины X ~ N 0, y y y e 2 dy Экспоненциальное распределение - показательное распределение случайной величины X имеет с параметром 0, если плотность распределения.

e x, x f x x 0, К лекции Ковариация или корреляционный момент случайных K xy величин X и Y - математическое ожидание произведения отклонений этих величин от своих математических ожиданий.

K xy M X M x Y M y для дискретных случайных величин корреляционный момент K xy xi a x y j a j pij n m i 1 j для непрерывных случайных величин корреляционный момент ( x M ( X ))( y M (Y )) f ( x, y)dxdy.

К ху Корреляционная матрица системы двух случайных величин X и Y - матрица вида D q K x xy q D, xy y где q -коэффициент корреляции Коэффициент корреляции - безразмерная характеристика коррелированности двух случайных величин K xy q x y Некоррелированные случайные величины – величины, коэффициент корреляции которых равен нулю.

Плотность совместного распределения вероятностей непрерывной двумерной случайной величины - двумерная плотность, смешанная частная производная 2-го порядка от функции распределения:

2 F ( x, y ) f ( x, y ) xy Произведение независимых случайных величин Х и Y - случайная величина XY, возможные значения которой равны произведениям всех возможных значений X на все возможные значенияY, а соответствующие им вероятности равны произведениям вероятностей сомножителей.

Равномерно распределенная на плоскости система двух случайных величин – система, плотность вероятности которой f x, y = const внутри некоторой области и равна 0 вне ее.

Сумма случайных величин Х и Y - случайная величина X Y, возможные значения которой равны суммам каждого возможного значения X с каждым возможным значением Y ;

вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин – произведениям вероятности одного слагаемого на условную вероятность второго).

x Условная плотность распределения составляющих X y при данном значении Y y плотность f ( x, y ) f ( x, y ) ( х / у).

f 2 ( y) f ( x, y)dx Функция распределения F(x, y) двумерной случайной величины X, Y - вероятность того, что случайные величины X x, a Y y принимают значения:

F x, y p X x, Y y.

Центральный момент порядка k, s двумерной случайной величины ( X, Y ) - математическое ожидание произведения ( X M ( X )) k на (Y M (Y )) s :

k,s M (( X M ( X ))k (Y M (Y ))s ).

Для дискретных случайных величин k, s ( xi M ( X )) k ( y j M (Y )) s pij, i j для непрерывных случайных величин ( x M ( X )) k,s ( y M (Y )) s f ( x, y)dxdy.

k К лекции Функция случайного аргумента X - единственное возможное значение случайной величины Y, которая соответствует каждому возможному значению случайной величины X.

Y (X) Функция двух случайных аргументов X и Y - единственное возможное значение случайной величины Z, которая соответствует каждой паре возможных значений случайных величин X и Y Z ( X,Y ) К лекции Равномерный закон на плоскости – закон распределения системы двух случайных величин, у которого плотность вероятности равна f x, y = const внутри некоторой области и равна 0 вне ее.

Нормальный закон распределения на плоскости - распределение вероятностей двумерной случайной величины (X, Y) с плотностью вида:

x a1 2 y a 2 2 x a1 y a 1 2 xy 21 xy x 2 y x y f x, y 1 2 e 2 x y 1 rxy К лекции Закон больших чисел – группа законов распределения суммы случайных величин, каждая из которых может иметь различные распределения, приближенных к нормальному при достаточно большом числе слагаемых.

Характеристическая функция случайной величины X - функция вида g t M eitX К лекции Бесповторная выборка – отобранный объект в генеральную совокупность не возвращается.

Вариационный размах – разность между наибольшим и наименьшим вариантами ряда R x max x min Вариационный ряд – ранжированный ряд вариантов с соответствующими весами.

Весы – частоты и относительные частоты.

Выборка – набор объектов, случайно отобранных из генеральной совокупности.

Выборочная (эмпирическая) функция распределения - функция F * x, определяющая для каждого значения x относительную частоту события X x.

F * x x, n n где n x – число вариант, меньших x, n – объем выборки.

Генеральная совокупность – все множество имеющихся объектов.

Гистограмма – прямоугольники, с основаниями, равными интервалам значений признака и высотами, равными частотам.

Группировка – разбиение вариантов на различные интервалы Дисперсия – средняя арифметическая квадратов отклонений вариантов от их средней арифметической xi x m ni i s, n где s - средне квадратическое отклонение.

Интервальные частоты - частоты, в которых признак принял значения, входящие в некоторый интервал.

Кумулятивная кривая (кривая сумм) — ломаная, составленная по последовательно суммированным, т.е. накопленным частотам или относительным частотам.

Коэффициент ассиметрии – числовая характеристика, выражающая характер распределения выборки xi x m ni m3 i A n s s Медиана - значение признака, приходящееся на середину ранжированного ряда наблюдений.

Мода – варианта соответствующая наибольшей частоте.

Объем генеральной совокупности N и объем выборки n – число объектов в рассматриваемой совокупности.

Относительная частота – отношение частоты к общему наблюдению Повторная выборка – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;

Полигон - ломаная линия с координатами xi, ni, где xi откладываются на оси абсцисс, а ni – на оси ординат.

m n ni i Ранжирование вариантов ряда – расположение, упорядочивание вариантов в порядке возрастания (убывания) Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие частоты, деленная на сумму частот.

m x i ni i x, n где x i - варианты дискретного ряда или середины интервалов вариационного ряда, ni - соответствующие им частоты, Частота – число, показывающее, сколько раз встречаются варианты из данного интервала Эксцесс - числовая характеристика, выражающая характер распределения xi x m ni m4 i E 3 n s s К лекции Статистическая гипотеза – гипотеза о виде неизвестного распределения, или о параметрах известных распределений.

Нулевая (основная) гипотеза H 0 - выдвинутая гипотеза.

Конкурирующая (альтернативная) гипотеза - гипотезу H 1, которая противоречит нулевой.

Простая гипотеза - гипотеза, содержащая только одно предположение.

Сложная гипотеза - гипотеза, которая состоит из конечного или бесконечного числа простых гипотез.

Статистический критерий - случайная величина К, которая служит для проверки нулевой гипотезы.

Наблюдаемое значение K набл - значение критерия, вычисленное по выборкам.

Критерий согласия - критерий проверки гипотезы о предполагаемом законе неизвестного распределения К лекции Асимптотически несмещенная оценка – оценка некоторого признака и для выборки x1, x2,, xn x1 x2 xn X lim n n где X – истинное значение исследуемой величины Несмещенная оценка - статистическая оценка, ожидание * которой равно оцениваемому параметру при любом объеме выборки M * Смещенная оценка – статистическая оценка, ожидание которой не равно оцениваемому параметру.

Состоятельная оценка - статистическая оценка, которая при n стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при n ее дисперсия стремится к 0).

Статистическая оценка неизвестного параметра теоретического распределения - функция от наблюдаемых случайных величин.

Эффективная оценка – статистическая оценка, которая при заданном объеме выборки n имеет наименьшую возможную дисперсию.

К лекции Доверительный интервал - интервал, в который попадает неизвестный параметр с заданной надежностью.

Надежность (доверительная вероятность) оценки * параметра - вероятность того, что выполняется неравенство *.

К лекции Детерминированные процессы – процессы, которые можно описать математическими формулами, определяя положение системы в любой момент времени с разумной точностью.

Дисперсия случайного процесса – неслучайная функция, которая равна дисперсии соответствующего сечения для t :

x D (t ) p ( x, t )dx m2 (t ).

Корреляционная функция случайного процесса - неслучайная функция равная математическому ожиданию от произведения значений процесса в два различных момента времени и характеризующая степень их линейной зависимости:

(x K (t1, t2 ) m (t1 ))( x2 m (t2 )) p ( x1, x2, t1, t2 )dx1, dx Математическое ожидание случайного процесса - неслучайная функция m (t ), которая t равна математическому ожиданию соответствующего сечения случайного процесса:

xp ( x, t )dx.

m (t ) Нормированная корреляционная функция неслучайная функция, равная K (t1, t2 ) r (t1, t2 ) (t1 ) (t2 ) Реализация случайного процесса - неслучайная функция (t, w0 ), в которую превращается процесс в результате испытания Случайный процесс - семейство случайных величин { (t, w)}, определнных на, F, P, где под параметром t понимается время.

Случайные сигналы (процессы) - сигналы, математическим описанием которых являются случайные функции времени.

Стационарный случайный процесс в узком смысле - случайный процесс (t ) для которого многомерные законы распределения не меняются при сдвиге всех временных переменных на одно и то же число:

F ( x1,..., xn ;

t1,..., tn ) F ( x1,..., xn ;

t1 h,..., tn h), n N, h R.

Стационарный случайный процесс в широком смысле случайный процесс, для которого m (t ) m const D (t ) D const,, K (t1, t2 ) K (t2 t1 ) K ( ).

Теория случайных процессов - математическая наука, изучающая случайные явления в динамике их развития.

Хаотические случайные процессы – детерминированные, нелинейные случайные процессы, с сильной зависимостью от начальных условий.

Эргодический стационарный случайный процесс - стационарный случайный процесс, для которого осреднение по ансамблю реализаций может быть заменено осреднением по времени одной реализации.

Приложение Таблица значений функции Приложение Таблица значений функции Приложение Таблица критических точек распределения Список основных формул P A m 0 P( A) 1 классическое определение, 1.

n А вероятности случайного события n! n e 2 n n n формула Стирлинга, 2.

приближенное вычисление факториала n!

An m размещение из n по m 3.

n m!

Pn An n! перестановки из n элементов n 4.

n!

Сn m сочетаниями из n элементов по 5.

m! n m!

m n Cn x m y n m x y n m разложение бинома 6.

m Ньютона P A mes g геометрическое определение 7.

mesG вероятности события A W A A N статическое определение вероятности 8.

N случайного события A P A1 A2 P A1 P A2 вероятность суммы двух 9.

несовместных событий P A1 A2 P A1 P A2 P A1 A2 вероятность 10.

суммы двух совместных событий P A1 A2 P A1 P A2 вероятность 11.

произведения независимых событий P A1 A2 P A1 P A2 / А1 вероятность 12.

произведения зависимых событий P A 1 P A1 P A 2 P A n 1 q1 q2 qn 13.

вероятность появления хотя бы одного из событий, независимых в совокупности P H i P A H i PH i A формула Бейеса 14.

P A is P A PH i PA H i полная вероятность 15.

i события A F x P X x функция распределения F(x) 16.

случайной величины X x x P x1 x x x2 x x P P F x P P2 Pn 1 xn 1 x xn x xn is x М X xi pxi математическое 17.

i ожидание дискретной случайной величины is D X M x mx 2 xi mx 2 pxi дисперсия 18.

i дискретной случайной величины D X Y D X DY дисперсия суммы 19.

двух независимых случайных величин D X Y D X DY дисперсия 20.

разности двух независимых случайных величин M X Y M X M Y математическое 21.

ожидание суммы двух случайных величин M XY M X M Y математическое 22.

ожидание произведения двух независимых случайных D X среднеквадратическое отклонение 23.

k M X k xik pi n начальный момент 24.

i степени k n k M X M X xi a pi k k 25.

i центральный момент степени k A коэффициент ассиметрии 26.

E 3 эксцесс 27.

PX m Cn p m 1 p n m m биноминальный 28.

закон распределения (закон Бернулли) M X np математическое ожидание случайной 29.

величины, распределенной по биноминальному закону m PX m e закон Пуассона 30.

m!

f ( x) F x плотность распределения непрерывной 31.

случайной величины x в P(a X в ) f ( x)dx вероятность попадания 32.

а непрерывной случайной величины X в интервал a, b M x x f x dx математическое ожидание 33.

непрерывной случайной величины x x дисперсия непрерывной D( X ) f ( x)dx М 2 ( X ) 34.

случайной величины X, x a, b f x b a равномерный закон 35.

0, x a, b распределения ex, x f x экспоненциальное 36.

0, x (показательное) распределение M ( X ),, математическое ожидание случайной 37.

величины X,распределенной по экспоненциальному закону D( X ) 2 дисперсия случайной величины 38.

X,распределенной по экспоненциальному закону P(a X в) е а е в вероятность попадания 39.

a, b, непрерывной случайной величины в интервал X распределенной по экспоненциальному закону m x f x m m 1 a распределение Вейбулла xe 40.

a ( xm) f ( x) 2 2, нормальное (гауссовское) 41. e распределение M X m, D X математическое ожидание и 42.

дисперсия непрерывной случайной величины X, распределенной по нормальному закону m m P( X ) вероятность, 43.

попадания непрерывной случайной величины X в интервал a, b, распределенной по нормальному закону 44.

y y y функция Лапласа e 2 dy 45.

2 x 1 x 1 t e ( x) / dt;

нормированная 46.

2 2 функция Лапласа 2 F ( x, y ) f ( x, y ) плотность совместного 47.

xy распределения двумерной случайной величины X, Y p(( X, Y ) D) f ( x, y)dxdy. вероятность 48.

D попадания точки в область D f ( x, y ) f ( x, y ) ( х / у) условная 49.

f 2 ( y) f ( x, y)dx плотность распределения k, s M ( X kY s ) начальный момент порядка k, s 50.

двумерной случайной величины k,s xik y sj pij начальный момент порядка k, s для i j дискретных случайных величин x k,s k y s f ( x, y )dxdy начальный момент порядка k, s для непрерывных случайных величин k, s M (( X M ( X )) k (Y M (Y )) s ) 51.

центральный момент порядка k, s двумерной случайной величины ( X, Y ) k,s ( xi M ( X ))k ( y j M (Y )) s pij центральный i j момент порядка k, s для дискретных случайных величин ( x M ( X )) ( y M (Y )) k, s k s центральный f ( x, y )dxdy момент порядка k, s для непрерывных случайных величин K xy 1,1 M (( X M ( X ))(Y M (Y ))) 52.

корреляционный момент или ковариация K xy xi ax y j a j pij корреляционный момент для n m i 1 j дискретных случайных величин ( x M ( X ))( y M (Y )) f ( x, y)dxdy К ху корреляционный момент для непрерывных случайных величин K xy rxy коэффициент корреляции 53.

x y D k K корреляционная матрица 54. x xy k D xy y x a1 2 y a 2 2 x a1 y a 1 2 xy 21 xy x 2 y x y f x, y 1 2 e 55.

2 x y 1 rxy нормальный закон распределения на плоскости (закон Гаусса) P X, Y R f x, y dxdy вероятность 56.

попадания в прямоугольник D X p X M X неравенство Чебышева 57.

X1 X 2 X n M X1 M X 2 M X n 58.

n n теорема Чебышева m lim p p теорема Бернулли n n 59.

g t M eitX Характеристическая функция 60.

случайной величины X n g t e itxk pk – дискретная случайная X 61.

k величина, заданная рядом распределения g t e itx f x dx характеристическая функция для 62.

непрерывной случайной величины с плотностью распределения f (x) n Yn X k центральная предельная теорема для 63.

k одинаково распределенных слагаемых n b k k теорема Ляпунова lim 64. n n Dk k Y np теорема Муавра p 65.

npq Лапласа ni wi относительная частота 66.

n nx F * x выборочная функция распределения 67.

n m xi ni i x среднее арифметическое вариационного 68.

n ряда ni wi относительная частота 69.

n nx F * x выборочная функция распределения 70.

n m xi ni i x среднее арифметическое вариационного 71.

n ряда xi x m ni i s дисперсия 72.

n xi x m ni m3 i A коэффициент 73.

n s s ассиметрии xi x m ni m4 i E 3 3 эксцесс 74.

n s s m U 2 ci i pi 2 критерий Пирсона 75.

i ni n pi r 2 случайная величина 76.

n pi i y x уравнение взаимосвязи двух 77.

переменных ni xi x B k n i s2 DB исправленная 78.

n 1 n дисперсия k ni xi x B s s2 i исправленное среднее 79.

n квадратическое отклонение x1 x2 xn X асимптотически lim 80.

n n несмещенная оценка p * * доверительная 81.

вероятность Список литературы 1. Венцель Е.С. Теория вероятностей. М.: Академия, 2. Гмурман В.Е. Теория вероятностей и математическая статистика: учеб пособие. - М.: Образование, 2007. 479с.

3. Вентцель Е.С. Задачи и упражнения по теории вероятностей. – М.: Высшая школа, 2002. – 448 с.

4. Кремер Н.Ш. Теория вероятностей и математическая статистика: Учебник для вузов. – М.: ЮНИТИ-ДАНА, 2001.

5. Калинина В.Н., Панкин В.Ф. Математическая статистика. - М.: Высшая школа, 2001.

6. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. - М. Высшая школа, 2001 -400с.



Pages:     | 1 |   ...   | 2 | 3 ||
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.