авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |

«Вероятность, математическая статистика, случайные процессы Учебное пособие Д. Х. Муштари Казанский университет ...»

-- [ Страница 6 ] --

Часть 2 мы осторожно сдвигаем и переводим начало в точку (0, 0), получаем часть 1 траектории. Часть 1, которая заканчивается в точке (r, s), мы симметрично поворачиваем вокруг оси x = r, а после этого осторожно и параллельно сдвигаем c началом в конце куска траектории 1, Получили кусок траектории 2. Куски 1 и 2 составляют траекторию A, которая сопоставляется траектории A.

Обратное отображение строится в обратном порядке. Берем траекторию A, которая кончается в точке (2n, 2m) и лежит выше оси x-ов. Далее пересекаем ее прямой {y = m}, часть траектории до момента последнего по времени пересечения {y = m} обозначим 1, часть после этого момента обозначим 2. Часть 2 поворачиваем и сдвигаем в начало, получаем часть 1, к концу 1 сдвигаем 1, получаем часть 2. Вместе 1 и 2 составляют.

6. Лемма о возврате в начало.

Новые обозначения.

Введем событие:

C2k,0 = {первое возвращение в начало 0 произошло в момент 2k}, напомним, что A2k,0 = {возвращение траектории в начало 0 в момент 2k}.

Обозначим f2k = P(C2k,0 ), u2k = P(A2k,0 ), f0 = 0, u0 = 1.

n Лемма. u2n = f2k u2n2k.

k= Мы представим событие A2n,0 в виде суммы несовместных событий. Очевидно, что n A2k,0 C2k,0, A2n,0 C2k,0.

k= Тогда n n A2n,0 = A2n,0 C2k,0 = A2n,0 C2k,0 A2k,0. () k=0 k= Здесь мы использовали C2k,0 A2k,0. Событие A2n,0 относится к будущему процесса при настоящем времени 2k, а событие C2k,0 к прошлому процесса. Мы вправе использовать утверждение об условной независимости прошлого и будущего (в нем p = 2k, r = 0). Используя это и формулу умножения (3.3) по разу в каждой строчке следующей формулы, имеем:

P(A2n,0 C2k,0 A2k,0 ) = P(A2n,0 C2k,0 |A2k,0 )P(A2k,0 ) = = P(A2n,0 |A2k,0 )P(C2k,0 |A2k,0 )P(A2k,0 ) = P(A2n,0 |A2k,0 )P(C2k,0 ).

Теперь проинтерпретируем полученное выражение. Второй множитель в правой части это f2k. А первый множитель вероятность попадания из 0 в момент времени 2k в 0 в момент времени 2n. Так как свойства процесса не меняются со временем, то эта вероятность совпадает с вероятностью попадания из 0 в момент времени 0 в 0 в момент времени 2n2k, то есть с числом u2n2k. (Последнее утверждение можно проверить и непосредственно, подсчитать |A2n,0 A2k,0 | nk (= C2k C2n2k ), разделить на |A2k,0 | (= C2k 22n2k ) и разделить одно число на другое.) Далее k k используем (*) и получаем n n P(A2n,0 ) = P(A2n,0 C2k,0 ) = f2k u2n2k.

k=0 k= Эта лемма будет очень существенной в решении задачи о возвращении в начало и в следу ющем пункте.

Упражнение. Проверьте перебором эту лемму для случая n = 3.

7. Задача о продолжительном везении. Распределение арксинуса.

Теперь мы вычислим вероятность того, что ровно на 2k участках траектория находилась выше оси x-в (где-то, может быть, ее касаясь), а на 2n 2k участках траектория находилась ниже оси x-в. Обозначим:

p2k,2n = P{ ровно на 2k участках траектория находилась выше оси x-в, на 2n 2k участках траектория находилась ниже оси x-в}.

Мы докажем следующее утверждение.

Теорема. p2k,2n = u2k u2n2k.

Лемма.

k nk 1 p2k,2n = f2m p2k2m,2n2m + f2m p2k,2n2m.

2 m=0 2 m= Доказательство повторяет рассуждения леммы 5. Мы делим наше событие на куски, в каждом из которых зафиксирован момент 2m первого касания оси x-в. При этом на первых 2m шагах траектория с равной вероятностью может быть выше оси x-в или ниже оси x-в, поэтому в каждая сумма умножается на 1.

Из лемм 5 и 6 методом математической индукции выводится утверждение теоремы. Пред положим, что для всех меньших n и всех k n утверждение теоремы верно. Тогда, используя лемму 6, мы получаем k nk 1 p2k,2n = f2m p2k2m,2n2m + f2m p2k,2n2m = 2 m=0 2 m= k nk 1 = f2m u2k2m u2n2k + f2m u2k u2n2k2m = 2 m=0 2 m= k nk 1 = f2m u2k2m u2n2k + f2m u2n2k2m u2k = 2 m=0 m= 1 = u2k u2n2k + u2n2k u2k, 2 что и требовалось. Заметим, что, используя индукцию, мы неявно используем и утверждение пункта 5. Оно доказывает справедливость нашего утверждения при всех n и k = n. Благодаря этому, вычисляется вероятность отсутствия пересечения оси x-ов после момента последнего пересечения.

Теперь мы проанализируем полученный результат и рассмотрим, что получается в пределе.

Предложение. p2k,2n..

k(n k) Мы используем формулу Стирлинга:

n n n! 2n, e Поэтому 2k 2k 22k e C2k 22k 22k =, k u2k = k k k k 2k k 2k e e p2k,2n.

k(n k) Случайная величина, которую мы рассмотрели, принимает значения 2k. Давайте переведем эту величину в отрезок [0,1], заменив 2k на xk = 2k/2n. Тогда Pn {xk } (1/n).

xk (1 xk ) Теперь вычислим n f (x)dPn (x) (xk+1 xk ).

f (xk ) xk (1 xk ) 0 k= Это очень напоминает интегральные суммы Римана для интеграла f (x) dx x(1 x) (хотя интеграл является несобственным и это не совсем корректно). Здесь (по определению слабой сходимости) f непрерывная ограниченная функция на отрезке [0, 1]. Мы этого до казывать не будем, но при n вероятность Pn будет слабо сходится к распределению с плотностью на интервале (0, 1). Функция распределения будет выражаться через x(1 x) арксинус, поэтому полученное распределение носит название ’закон арксинуса’.

8. Задача о возвращении в начало.

Теорема. Пьяный гуляка возвращается в начало с вероятностью 1 тогда и только тогда, u2n =.

когда n Мы введем две функции, связанные со случайным блужданием, которые называются произ водящими функциями.

Но прежде всего уточним постановку задачи. Вероятность возврата в начало за какое то число шагов мы можем представить как сумму вероятностей первого возвращения за 2, 4,... шагов. Эти вероятности мы обозначали f2n. Заметим, что в этой задаче у нас нет одной на все случаи модели. Число шагов может стремиться к, при увеличении числа шагов увеличивается число элементарных исходов в вероятностной модели.

Итак, нужно выяснить, когда f2n = 1. Введем две функции: F и U, заданные на (0, 1).

2n F (z) = f0 + f2 z + f4 z 4 +..., U (z) = u0 + u2 z 2 + u4 z 4 +....

Замечание. Введенные функции похожи на производящие функции, которые часто исполь зуемые при изучений распределений случайных величин, равных 0, 1, 2,...,n,... с вероятностями pn, где n pn = 1. Прозводящая функция задается формулой ( z) = n pn z n и используется вместо характеристической функции. Числа pn совпадают со значениями n-х производных в нуле функции ( z). В нашем случае сумма un заведомо не равна 1, так как эти числа являются вероятностями событий, не являющихся несовместными. А для чисел fn равенство суммы является вопросом, ответ на который мы пытаемся получить.

Из леммы 5 непосредственно выводится сравнением коэффициентов при степенях z равен ство F (z)U (z) = U (z) 1.

Поэтому U (z) =.

1 F (z) Устремим в этом равенстве z 1. Имеем:

u0 + u2 + u4 +... =.

1 (f0 + f2 + f4 +...) Анализируя это равенство, мы получаем теорему: ряд в левой части расходится тогда и только тогда, когда в правой части знаменатель сходится к 0.

9. Следствия.

Из расходимости = u2n = n n n следует, что в симметричном случайном блуждании размерности 1 пьяный гуляка с вероят ностью 1 вернется домой.

В размерности 2 пьяный гуляка в каждый момент времени переходит из точки (x, y) в точки (x + 1, y), (x 1, y), (x, y + 2), (x, y 1), причем в каждую из них с вероятностью 1/4. Анализ этого случая удобно провести сведением его к одномерному. Оказывается, двумерное движение пьяного гуляки можно представить как два независимых одномерных движения. Речь не идет о движении по координатам (движения по координатам x и y зависимы, двигаясь по одной, мы не двигаемся по другой координате). Но мы можем рассмотреть два движения по прямым y = x и y = x. По каждой из них в любой момент времени мы двигаемся с вероятностью 1/ в одну или другую сторону на расстояние 1/ 2. В результате мы получим движение пьяного гуляки на плоскости.

Чтобы вернуться в начало за 2n шагов, пьяный гуляка должен вернуться в начало по каждой из прямых x = y и x = y. Таким образом, вероятность возвращения равна u2n u2n.

n Ряд из этих вероятностей по прежнему расходится, по теореме 8 пьяный гуляка на плоскости с вероятностью 1 возвращается в начало.

Случай размерности 3 не сводится к одномерному и дает другой ответ. В трехмерном про странстве на каждом шаге пьяный гуляка имеет шесть вариантов: вверх или вниз по коорди нате x, то же – по y, то же – по z. Вероятность каждого направления мы считаем равной 1/6.

За 2n шагов общее число возможных траекторий равно 62n, вероятность каждой траекторий равна 62n.

Легко видеть, что в событие {возврат в начало за 2n шагов} входят элементарные исходы, содержащие i шагов по оси x вверх, i шагов по оси x вниз, j шагов по оси y вверх, j шагов по оси y вниз, k шагов по оси z вверх, k шагов по оси z вниз, причем должно быть i + j + k = n.

Число таких исходов было подсчитано в полиномиальной модели (шесть клеток, 2n кроликов).

Итак, наша вероятность u2n возврата в начало ровно за 2n шагов равна:

2n! 2n! n!

u2n = 62n = 62n (2) i!i!j!j!k!k! n!n! i!j!k!

i+j+k=n i+j+k=n Если мы один из множителей в квадрате заменим на его максимальное возможное значение, все выражение разве что увеличится. Имеем:

2n! n! n! 2n! n! u2n 62n = 22n 3n max max =O.

n3/ n!n! i!j!k! i!j!k! n!n! i!j!k!

i+j+k=n Здесь мы использовали формулу Стирлинга n n n! 2n.

e Но предварительно полезно заметить, что максимум достигается, когда все три слагаемых i, j, k примерно равны между собой, то есть примерно равны числу n/3. Ряд из полученных оценок сходится.

Упражнение. Проверьте, что если i n/3, j n/3, то i!j!k! (i 1)!(j + 1)!k!. (Разумеется, i + j + k = n, i, j, k N.

§29. Цепи Маркова Марковский случайный процесс это процесс, для которого любое событие, записывающе еся через значения процесса в будущем, при условии фиксации значения процесса в настоящий момент не зависит от события, записывающегося через значения процесса в прошлом.

Мы будем использовать для такого процесса (·) следующие обозначения:

p(s, x;

t, y) условная плотность случайной величины t в точке y при условии, что s = x, P (s, i;

t, j) = P {(t) = j|(s) = i} 1. Равенство Колмогорова Чепмена.

Пусть s u t. Тогда p(s, x;

t, y) = p(s, x;

u, z)p(u, z;

t, y)dz.

В непрерывном случае для доказательства уравнения Колмогорова Чепмена нужно при ложить определенные усилия. В дискретном случае счетного числа состояний все очень просто и мы докажем дискретный аналог этого равенства:

P (s, i;

t, j) = P (s, i;

u, k)P (u, k;

t, j) (1).

k Но для этого нам придется вернуться к обозначениям в виде условных вероятностей, для которых (1) выглядит следующим образом:

P {(t) = j|(s) = i} = P {(u) = k|(s) = i} P {(t) = j|(u) = k} (2).

k Это равенство напоминает формулу полной вероятности, но отличается от нее тем, что все вероятности являются условными, причем с разными условиями. Давайте запишем вместо (2) формулу полной вероятности, но не по первоначальной вероятности P, а по условной вероят ности P {·|(s) = i}. Имеем:

P {(t) = j|(s) = i} = P {(t) = j|(u) = k, (s) = i} P {(u) = k|(s) = i}.

= k В этом равенстве единственная разница с нужным нам (2) состоит в том, что вместо P {(t) = j|(u) = k} написано P{(t) = j|(u) = k, (s) = i}. Но по нашему определению марковского процесса вероятность будущего {(t) = j} при фиксированном настоящем {(u) = k} не зависит от про шлого {(s) = i}. Поэтому P {(t) = j|(u) = k, (s) = i} = P {(t) = j|(u) = k}.

Кстати, для марковского процесса с совместными плотностями марковость выглядит следую щим образом: при s1 s2... sn u t1 t2... tm p(t1 )...(tm ) (y1,..., ym |(s1 ) = x1,..., (sn ) = xn, (u) = z) = p(t1 )...(tm ) (y1,..., ym |(u) = z).

2. Однородная марковская цепь с дискретным временем.

Мы вернемся к более простой ситуации дискретного времени {0} N и дискретного мно жества состояний N. Последнее носит довольно условный характер, числа выступают в виде знаков и нумерация состояний не зависят от их свойств. Это не всегда удобно, например, при изучении одномерного случайного блуждания состояния были целыми числами элементами элементами Z2. Мы будем рассматривать самый простой вариант Z, а в двумерном случае и считать, что свойства системы не меняются со временем. Посмотрим, какие задачи при этом возникают.

Следующие обозначения совершенно естественны:

Изучаемый случайный процесс обозначим n, n = 0, 1, 2,... и будем его называть однородной цепью Маркова со счетным числом состояний.

pij – вероятность перехода системы за один шаг из состояния i в состояние j.

Другими словами, pij = P(n+1 = j|n = i).

pij (n) – вероятность перехода системы за n шагов из состояния i в состояние j, в таком случае pij = pij (1). Очевидно. что должно выполняться j pij = 1 для любого i, так как из состояния i система обязательно куда-нибудь перейдет.

Как мы уже установили выше, для цепей Маркова справедливо равенство Чепмена Кол могорова:

pij (m + n) = pik (m)pkj (n).

k Матрицу [pij (n)] переходных вероятностей за n шагов мы обозначим через P(n), P = P(1).

Из равенства Чепмена Колмогорова следует (по индукции):

P(n) = P n.

Действительно, в равенстве Чепмена Колмогорова мы используем операцию произведения матриц.

Важнейшим примером однородной цепи Маркова является одномерное случайное блуж дание, в этом случае множество состояний обозначается Z, а переходные вероятности имеют вид: pi(i+1) = pi(i1) = 1/2. Интересным вопросом теории однородных цепей Маркова явля ется вопрос о возвратных и невозвратных состояниях. Мы его по-существу рассмотрели при изучении случайного блуждания. Вывод критерия использует лишь свойства цепей Маркова.

Итак, состояние i0 является возвратным (то есть вероятность возврата в него (хотя бы раз) за неограниченное время равна 1) тогда и только тогда, когда pi0 i0 (n) =.

n Другой важный вопрос о существовании стационарных вероятностей на множестве со стояний. Дело в том, что стандартная ситуация при изучении цепей Маркова наличие лишь переходных вероятностей. Но при этом не определены вероятности самих состояний в любой момент времени n, то есть вероятностей pi (n) = P {n = i}.

Очевидно, что нам достаточно знать эти вероятности лишь при n = 0. Будем обозначить pi = pi (0).

Тогда по формуле полной вероятности (без использования марковости) мы имеем:

pj (n) = pi pij (n), (7) i а вектор вероятностей [pj (n)] вычисляется по формуле [pi (n)] = [pi ]P n.

Упражнение 2. Марковская цепь имеет три состояния {1, 2, 3}, вектор начальных веро ятностей имеет вид [1/2, 1/3, 1/6], матрица переходных выроятностей имеет вид 1/2 1/4 1/ P = 1/3 1/3 1/ 1/2 1/2 Используя определение цепи Маркова, вычислить P{1 = 1, 2 = 2, 3 = 3}.

3. Существование стационарного распределения.

Вектор вероятностей [pi ] называется начальным распределением. Напомним, что начальное распределение для случайного блуждания сосредоточено в точке 0. Может так получиться, что для некоторого начального распределения [pi ] распределения в другие моменты времени, вычисляемые по формуле (7), не меняются:

pi (n) = pi.

Такое начальное распределение называется стационарным.

Имеется несколько интересных вопросов:

1) Существуют ли стационарные распределения?

2) Если существуют, то сколько их? Точнее, какова размерность множества стационарных распределений? Значения скольких параметров однозначно задают распределение?

Приведем сначала примеры. Можно показать, что у процесса случайного блуждания ста ционарных распределений быть не может. Доказательство можно провести от противного: так как pi 0, когда i или i, то существует максимальное pi0, причем можно считать, что оно крайнее справа среди максимальных, то есть pi0 1 pi0 pi0 +1. Тогда на следующем шаге pi 1 + pi0 + pi0 (1) = 0 pi0 (0).

В то же время для систем с конечным числом состояний легко построить пример существова ния стационарного распределения. Пусть, например, система содержит два состояния, {0, 1}, p0,1 = 1, p1,0 = 1.

Тогда стационарным распределением является распределение p0 = p1 = 1/2.

Имеется знаменитая теорема Брауэра, которая утверждает, что любое непрерывное отоб ражение конечномерного выпуклого компакта в себя имеет хотя бы одну неподвижную точ ку. Множество всех вероятностей на конечном (n) числе состояний очевидно выпукло и ком пактно. Более того, это множество является симплексом с n вершинами (1, 0,..., 0), (0, 1,..., 0), (0, 0,..., 1).

Таким образом, цепь Маркова с конечным числом состояний всегда имеет хотя бы одно стационарное распределение.

Но можно привести нехитрый пример, когда число стационарных распределений бесконеч но:

{0, 1, 2, 3}, p0,1 = 1, p1,0 = 1, p2,3 = 1, p3,2 = 1.

Стационарные распределения p0 = p1 = 1/2;

p2 = p3 = 1/2.

Другие стационарные распределения являются выпуклыми комбинациями данных двух.

В некоторых ситуациях (но не всегда, контрпримеры вы можете найти выше) любое на чальное распределение с ростом времени начинает сходиться к некоторому стационарному распределению. Представляет интерес о скорости сходимости и о том, начиная с какого вре мени мы можем считать распределение приблизительно стационарным.

Интересный пример такой цепи представляет собой мешание колоды из 32 карт. За один шаг мы берем случайным образом делим колоду на три части A, B, C и переставляем части в обратном порядке C, B, A. Ясно, что таким способом мы можем получить не любые пере становки карт, т. е., нет перестановкок, вероятности перехода от любой другой перестановки карт не нуль.

Множество состояний состоит из всех перестановок, то есть из 32! элементов. На каждом шаге система из данного состояния может перейти примерно (точно считать долго) в c = C состояния, причем вероятности перехода мы считаем равными 1/c. Начальная вероятность сидит в одной фиксированной перестановке. Но при n вероятность сходится к стаци онарному распределению, для которого вероятность любой перестановки равна 1/32!. Пред ставляется совершенно очевидным, что такое стационарное распределение в данной ситуации является единственным. Но из ниже приведенной теоремы немедленно это не следует, так как в данном случае условия теоремы не выполняются. В качестве упражнения можно проверить существование достаточно большой итерации оператора P, которая удовлетворяет условиям теоремы с очень маленьким и для любого из 32! состояний. Отсюда следует существование единственного инвариантного стационарного распределения для P. (Это следует из равенства P n P = PP n.) В этой задаче можно оценить коэффициент, очевидно, что он очень мал, поэтому скорость сходимости к стционарному распределению очень мала. Надо очень долго мешать карты.

В конце этого краткого экскурса я приведу (с двумя доказательствами, с выкладками, другое, использующее идеи функционального анализа, но без выкладок) одно утверждение о существовании и единственности стационарного распределения.

Теорема. Допустим, что существует особое состояние i0 со свойством:

inf pi,i0 0.

i Тогда стационарное распределение существует и оно единственно.

Первое доказательство состоит в применении принципа Банаха сжатых отображений к преобразованию P [pi ] := [pi ]P, (8) пространства начальных вероятностей. Прежде чем применять принцип Банаха, надо ввести в пространстве всех начальных вероятностей метрику и проверить полноту этого пространства в данной метрике. Введем метрику следующим образом:

|pi pi |.

d(p, p ) = i Проверка аксиом метрики и полноты соответствующего пространства вероятностей очевидна.

Теперь оценим d(p P, p P) = (pi pi )pij = (pi pi )pij + (pi pi )pii0.

j i i i j=i Мы будем далее использовать, что pi = pi = 1, pij = 1 для всех i.

i i j Займемся второй суммой:

(pi pi )pii0 = (pi pi )(pii0 + ) (pi pi )(pii0 ) + (pi pi ) = i i i i (pi pi )(pii0 ) + 0 d(p, p )(pii0 ) = d(p, p )pii0 d(p, p ).

= i Теперь оцениваем все:

d(p P, p P) (1 )d(p, p ).

Мы воспользовались очевидной оценкой (pi pi )pij |pi pi |pij = |pi pi |pij = |pi pi |.

j i j i i j i Второе доказательство также состоит в применении принципа Банаха, но для оценок мы используем экстремальные точки единичного шара в одном банаховом пространстве и оценива ем норму оператора P. В случае счетного множества состояний мы можем считать вероятности элементами пространства l1, и d(p, p ) = p p l1.

Это множество является пересечением конуса неотрицательных элементов {(xi ) : x1 0, x 0,...} со сдвинутым линейным подпространством {(xi ) : n xn = 1}.

Упражнение. Проверьте, что и конус и сдвинутое линейное подпространство замкнуты в l1.

Итак. множество вероятностей замкнутое подмножество полного пространства l1, поэто му само является полным. Очевидно, что преобразование P является линейным оператором на l1, а для любого линейного оператора T, действующего в банаховом пространстве B с нормой · и задаваемой ею метрикой d(x, y) := x y имеет место неравенство:

d(T x, T y) = T (x) T (y) = T (x y) T x y = T d(x, y).

Итак, казалось бы достаточно вычислить норму линейного оператора P в пространстве l1 и доказать, что P 1. Но все не так просто. Во первых, любой линейный оператор имеет одну неподвижную точку 0, а по принципу Банаха, если его норма меньше 1, у него не может быть других неподвижных точек, в частности, вероятности не могут быть неподвижными точками.

Впрочем, норма оператора P на самом деле равна 1, в чем нетрудно убедиться. Немедленно проверяется, что p 1, так как P (1, 0,...) = [p1i ], p1i = 1.

i= i Таким образом, наша идея оказывается несостоятельной. Давайте уточним эту идею на самом деле нас интересуют лишь значения P (p p ), то есть норма значений оператора не на всем l1. Нетрудно видеть, что i (pi pi ) = 0, таким образом, нам нужна норма P на под пространстве l1 пространстве l1 {(xi ) : i xi = 0}. Это подпространство не содержит точку (1, 0,...), поэтому мы не потеряли шанс на то, что норма сужения P на это подпространство окажется строго меньше 1.

Теперь займемся вычислением нормы. Хорошо известно, что для вычисления нормы линей ного оператора T достаточно рассмотреть сужение оператора на единичную сферу банахова пространства:

sup T (x) = sup T (x) = T. () x 1 x = Более того, так как норма выпуклая функция x + µy x + µ y, + µ = 1, 0, µ 0.

Поэтому (это важно, если x = y = 1) T (x + µy) T (x) + µ T (y) max{ T (x), T (y) }, + µ = 1, 0, µ 0.

Методом математической индукции это неравенство обобщается также на конечные и даже счетные выпуклые комбинации. Таким образом, если у нас имеется счетное или несчетное множество точек на единичной сфере, которые непредставимы в виде x + µy, где x = y = 1, + µ = 1, 0, µ 0 (такие точки мы будем называть экстремальными), и все точки единичного шара представляются как пределы выпуклых комбинаций экстремальных точек, то супремум в определении нормы линейного оператора достаточно взять лишь по множеству всех экстремальных точек. Нетрудно видеть, что в единичном шаре пространства l1 экстремальными точками являются лишь точки вида ±en, en = (0,..., 0, 1, 0,...) (1 на n м месте, остальные нули). Легко проверяется, что все остальные точки единичного шара являются бесконечными выпуклыми комбинациями экстремальных точек. В единичном шаре пространства l1 {(xi ) : i xi = 0} экстремальными точками являются точки вида 2 (em en ), m = n. Итак. достаточно оценить 1 (em en ) pmi ei P = pni ei = 2 2 i i 1 |pmi pni | = = + 2 i i=i i=i 1 |pmi pni | (pmi + pni 2) = (pmi + pni ) + (pmi + pni ) + 2 i=i0 i=i i=i0 i=i (pmi + pni ) 2 = 1.

= 2 i Итак, норма оператора P на пространстве l1 {(xi ) : xi = 0} не превосходит числа 1, i d(p, p ) = P (p p ) P d(p, p ) (1 )d(p, p ).

Это доказывает теорему.

Замечание. В примере с 32 картами условия доказанной теоремы не выполняются. Действи тельно, при регулярном мешании карт из последовательности {a, b, c}, где каждая из букв некоторый набор карт в опрпделенном порядке, мы получаем последовательность {c, b, a}. Чис ло вариантов, которые можно получить за одно перемешивание, можно грубо оценить сверху оно не превосходит 322. Вероятности перехода в другие состояния равны 0. А общее число состояний равно 32!. Однако некоторая большая итерация преобразования P удовлетворяет условиям теоремы, а следовательно, является оператором сжатия. Итак, существует един ственное стационарное распределение. (Нетрудно проверить, что за 32 стандартные операции мешания мы можем получить любой порядок карт. Таким образом, из начального состояния в любое другое мы переходим с вероятностью, большей чем = 3232.) Заметим, что из теоремы Брауэра единственность не следует.

§30. Два замечательных процесса с непрерывным временем После процесса случайного блуждания мы рассмотрим и найдем распределения двух важ нейших процессов с непрерывным временем.

Эти процессы, пока мы их обозначаем t (случайная величина значение процесса в момент времени t) очень сильно отличаются друг от друга, тем не менее, два первых условия на оба процесса совпадают:

1) независимость приращений: для любых моментов времени t1 t1 t2 t2... случай ные величины t1 t1, t2 t2,...

независимы. В частности, среднее произведения указанных случайных величин равно произве дению средних, совместная плотность этих величин равна произведению плотностей, диспер сия суммы этих величин равна сумме дисперсий, характеристическая функция суммы этих величин равна произведению характеристических функций.

2) стационарность распределений приращений (они не зависят от времени): распределения случайных величин t+h t не зависят от t. В частности, Pt+h t = Ph для любых неотрицательных t и h. Так как среднее и дисперсия определяются только распре делениями, E (t+h t ) = Eh, D (t+h t ) = Dh для любых t и h.

Другие свойства двух процессов различаются, чтобы их сформулировать, мы должны рас сказать о явлениях, которые эти процессы описывают.

1. Стандартный пуассоновский процесс можно представить как число t поломок станка за время (0, t]. Но у этого станка имеются свойства 1) и 2), которые выполняются, если станок является ткацким.

1) Приращения t t число поломок станка за время (t, t ] независимы. У реальных приборов это не так, если прибор с браком или почти с браком (разрешенные допуски были почти достигнуты), то прибор будет ломаться чаще, большое число поломок в начале работы будет означать, что и дальше он должен ломаться чаще. Для ткацкого станка это не так, поломки (обрывы нити) связаны со свойствами нити, а не станка.

2) означает, что станок не стареет, это условие будет разумно, если мы наблюдаем станок не слишком продолжительное время.

Замечание. Мы можем использовать эту модель для других задач, например, числа по купок, телефонных звонков и т. д., но в зависимости от времени дня или дня недели нужно менять масштаб времени, где-то оно должно течь медленно, а где-то – быстро.

3) аксиома процесса t также связана с интерпретацией процесса. Значения t являются целыми неотрицательными числами, поэтому имеют смысл вероятности P{t = k}. Мы пред полагаем, что за малое время t:

P{t = 1} = t + o(t), в то же время P{t 1} = o(t).

Теперь мы составим бесконечную систему дифференциальных уравнений для всех функций pk (t) = P{t = k}.

Рассмотрим pk (t + t) = P{t+t = k} = P{t = k, t+t t = 0}+ +P{t = k 1, t+t t = 1} + P{t = k 2, t+t t = 2} +...

Далее мы используем аксиомы 1) и 2) для представления P{t = k i, t+t t = i} = P{t = k i}P{t = i} и 3) для представления P{t = 0}, P{t = 1}, P{t 1}. Получаем:

pk (t + t) = pk (t)(1 t + o(t)) + pk1 (t)(t + o(t)) + o(t).

Составляем дифференциальное уравнение:

dpk (t) = pk (t) + pk1 (t).

dt При k = 0 уравнение решается разделением переменных, p0 (t) = Cet, подстановка t = 0 дает C = 1. Для других k уравнения решаются методом вариации посто янной, при этом используется индуктивный процесс. Опирясь на знание pk (·), мы находим pk+1 (·) pk (t) = (t)k et + C1, подстановка t = 0 дает C1 = 0.

Итак, t имеет распределение Пуассона с параметром = t.

2. Процесс Винера является частным случаем (при некоторых значениях параметров) процесса одномерного броуновского движения. Норберт Винер внес большой вклад в мате матическую теорию броуновского движения, в частности, доказал непрерывность траекторий процесса броуновского движения. Итак, значением процесса (мы будем его обозначать t ) яв ляется значение координаты x броуновской частицы в момент времени t, причем значение координаты в момент времени 0 мы будем считать 0. Броуновские частицы двигаются в одно родной жидкости, свойства которой не зависят от времени и от координаты (однородность).

Кроме того, мы считаем, что число частиц бесконечно, и поэтому в любой, даже самый ма ленький, промежуток времени о частицу ударяется бесконечное число частиц жидкости.

Все это лишь наводящие соображения, которые мы должны превратить в аксиомы про цесса t на языке теории вероятностей. Итак, что означает независимость свойств жидкости от времени. Разумеется, это не означает равенства t = s t, s даже с вероятностью 1 (то гда броуновская частица должна оставаться на месте). Передвижение частицы за промежуток времени [t, t+h] равно t+h t, но независимость от времени не должна означать также равен ства t+h t = s+h s t, s, h (это означало бы движение броуновской частицы с постоянной скоростью). Независимость свойств жидкости от времени дает нам аксиому 2) (см. п. 1): при данном h 0 распределение приращения Pt+h t одно и то же для всех t 0.

Мы будем предполагать, что случайные величины t также удовлетворяют аксиоме 1), (незавимость приращений процесса в непересекающиеся промежутки времени [t1, t1 ] и [t2, t2 ]), которая означает отсутствие у броуновских частиц какой-либо инерционности, то есть скоро сти. Согласно этой аксиоме путь, пройденный частицей за промежуток времени [t1, t1 ] никак не влияет на путь за промежуток [t2, t2 ] (например, средняя скорость частицы может оказать ся большой в одном промежутке и маленькой в другом), Это возможно лишь при наличии бесконечного числа соударений броуновской частицы с другими частицами за конечное время, которые и определяют траекторию частицы. На деле, молекул в воде конечное число, но чрез вычайно большое. Таким образом, аксиома 1) вполне разумна. Аксиома 2) отнюдь не означает, что само приращение процесса не зависит от времени (мы ни в коем случае не утверждаем, что для любых t, s, h справедливо t+h t = s+h s !!), такое равенство означало бы движение частицы с постоянной скоростью. Как мы видели раньше, это не соответствует броуновскому движению. Аксиома 3) для броуновского движения, разумеется, отличается от соответствую щей аксиомы для пуассоновского процесса. В данном случае движение частицы должно носить непрерывный характер, и приращение процесса за малое время должно быть малым. Тем бо лее, это должно быть верно для третьей степени приращения. Поэтому будет использоваться следующая аксиома:

3) E|t |3 = o(t), в частности, E|t |3 существует.

Отсюда следует существование и непрерывность среднего винеровского процесса t (по неравенству Гельдера 1/ E|t+h t | = E|h | E|h |3 = o(h1/3 )), точно так же существование и непрерывность второго момента, а следовательно, и дисперсии.

3. Среднее значение t.

По аксиоме 2) и свойству среднего Et+s = Et + Es, то есть среднее – функция времени, удовлетворяющая условию аддитивности. Кроме того, эта функция непрерывна. Отсюда методами элементарного математического анализа выводится представление Et = mt, где m некоторая константа. (Опишем для полноты доказательство. Надо доказать, что для любого a Eat = aEt. (1) Используя 2), представления t = t/n + (2t/n t/n ) +... + (t (n1)t/n ), kt/n = t/n + (2t/n t/n ) +... + (kt/n (k1)t/n ) и аддитивность среднего, доказывается равенство (1) для a = k/n. Переходом к пределу мы получаем (1) в произвольном случае).

4. Дисперсия t Точно так же, но с использованием аддитивности дисперсии для независимых приращений процесса (свойство 1)), доказывается Dat = aDt, (2) Поэтому Dt = 2 t.

Итак, мы ввели два параметра винеровского процесса – коэффициент сноса m и коэффициент диффузии 2.

5. Распределение случайной величины t.

Мы найдем характеристическую функцию t (u) = Eeiut, отождествим ее с известной нам характеристической функцией нормального распределения и таким образом докажем, что t имеет нормальное распределение.

Из свойств характеристической функции и аксиом 1), 2) следует:

t+t (u) = Eeiut+t = Eeiu(t+t t ) eiut = Eeiut Eeiut = = t (u)t (u).

Далее мы используем разложение характеристической функции в ряд Тейлора в окрестности нуля с представлением остаточного члена в форме Лагранжа:

u2 u (3) t (u) = t (0) + t (0)u + t (0) + t (u).

2! 3!

Запишем это равенство, используя средние и дисперсии:

u2 u + E eiut i3 t t (u) = 1 + iEt u + i2 Et 2.

2! 3!

Подставив значения для среднего и дисперсии, и учтя условие 3), оценку Eeiut i3 t E eiut i3 t = E|t |3 = o(t) 3 и формулу E 2 = D + (E)2, имеем:

t + m2 (t)2 u2 + o(t).

t (u) = 1 + imtu В итоге t + m2 (t)2 u2 + o(t), t+t (u) = t (u) 1 + imtu t+t (u) t (u) 1 o(t) = t (u) imu 2 u2 +.

t 2 t Мы пришли к уравнению в частных производных t (u) = t (u) imu 2 u2.

t Решение этого уравнения (константа определяется при t = 0) имеет вид u2 t t (u) = eimut 2.

Это характеристическая функция нормального распределения N (mt, t).

6. Ковариация процессов Пуассона и Винера.

Важнейшими характеристиками любого случайного процесса, t, являются среднее процес са Et и ковариация процесса K(t, s) = E(t Et )(s Es ).

Давайте подсчитаем эти характеристики для процессов Пуассона и Винера.

Процесс Пуассона.

Среднее распределение Пуассона совпадает с его параметром и с его дисперсией. Напомним эти выкладки:

k k k e = E = kP{k} = k e= e =, (k 1)!

k! k!

k k=1 k=1 k= k E 2 = k 2 P{k} = e = 2 +, {k(k 1) + k} k!

k k= D = E 2 (E)2 =.

Отсюда следует, что Et = t, Dt = t.

Пусть s t. Имеем (мы используем независимость приращений процесса):

K(t, s) = E(t Et )(s Es ) = E[(t Et ) (s Es )](s Es )+ E(s Es )(s Es ) = = E[(t Et ) (s Es )]E(s Es ) + D(s ) = D(s ).

Итак, в случае процесса Пуассона K(t, s) = min(t, s).

В случае процесса Винера точно так же K(t, s) = 2 min(t, s).

7. Оценка параметров процесса Винера Оценка параметра m t /t m в среднем квадратическом, т. е. E|t /t m|2 0.

Для проверки сходимости в среднем квадратичном t к константе a достаточно:

i) равенство или даже сходимость средних, ii) сходимость дисперсий к нулю.

Действительно, E|t a|2 = E|(t E(t )) + (E(t ) a)|2 2E|t E(t )|2 + 2E|E(t ) a|2 = = 2D(t ) + 2E|E(t ) a|2 0.

Теперь посмотрим наш случай: E(t /t) = m, D(t /t) = 2 t/t2 0.

Оценка параметра 2 винеровского процесса Теорема. Допустим, что мы наблюдаем винеровский процесс до момента времени T.

Рассмотрим последовательность разбиений интервала наблюдения на мелкие куски:

(n) (n) (n) (n) (n) (n) = 0 = t1... tm(n) = T, diam((n) ) = max ti+1 ti 0.

t С каждым таким разбиением связывается оценка (n) 2 t(n) t(n) = /T, i+1 i i которая сходится по вероятности к параметру 2.

Доказательство. Напомним, что такие оценки мы называли состоятельными. Проверим, что (n) P 2 2.

i) Сходимость среднего к оцениваемому параметру:

(n) E 2 E t(n) t(n) /T = /T = i+1 i i D t(n) t(n) + E t(n) t(n) = /T = i+1 i i+1 i i (n) (n) (n) (n) 2 ti+1 ti + m ti+1 ti = /T = i (n) (n) = 2 T /T + /T 2.

m ti+1 ti i Здесь мы использовали очевидную оценку (n) (n) (n) (n) (n) (n) ti+1 ti max ti+1 ti ti+1 ti = i i i = diam((n) )T 0. (3) ii) Для проверки сходимости дисперсий к нулю нам будет удобно ввести вместо процесса t центрированный процесс t = t mt. Нам нужно доказать, что (n) (n) t(n) + mti+1 t(n) mti 0.

D i+1 i i Мы воспользуемся следующим тривиальным неравенством D( + ) 2D + 2D следствием неравенства (x + y)2 2x2 + 2y 2. Также мы используем формулы для второго и четвертого момента стандартной нормальной случайной величины : E 2 = 1, E 4 = 3, в результате D 2 = 3 1 = 2, тогда Et = t, Et = 3t2, в результате D(t ) = 2t2.

2 4 Имеем:

2 D (t + mt) = D t + 2mtt.

Теперь мы можем все подсчитать:

(n) (n) (t(n) t(n) )2 + 2m(ti+1 ti )(t(n) t(n) ) = D i+1 i i+1 i i (n) (n) D (t(n) t(n) )2 + 2m(ti+1 ti )(t(n) t(n) ) i+1 i i+1 i i (n) (n) D (t(n) t(n) )2 + 2 D 2m(ti+1 ti )(t(n) t(n) ) i+1 i i+1 i i i (n) (n) (n) (n) (n) (n) 2 · 2 2 (ti+1 ti )2 + 2 4m2 (ti+1 ti )2 (ti+1 ti ).

i i Наше утверждение следует из (3).

Резюмируем. Для хорошей оценки параметра m процесса Винера надо наблюдать процесс как можно дольше. Для хорошей оценки параметра 2 достаточно наблюдать процесс конечное время, но измерять его как можно чаще и точнее.

Заметим, что из усиленного закона больших чисел следует сходимость почти наверное nt /nt m, n. Позднее мы докажем чрезвычайно любопытным способом сходимость t ()/t m, где t, для почти всех элементарных исходов. Впрочем, если быть точны ми, предварительно процес t нужно будет заменить на стохастически эквивалентный про цесс. Ниже мы определим это понятие, без введения которого невозможно изучать свойства траекторий случайного процесса.

8. Совместные распределения процессов.

Считается, что мы знаем процесс t, если знаем все совместные распределения Pt1,t2,...,tn для всех наборов моментов времени {t1, t2,..., tn }. Эта задача легко решается для описанных выше процессов – пуассоновского и винеровского.

Рассмотрим пуассоновский процесс t и {t1, t2,..., tn }. Упорядочим эти моменты, без огра ничения общности мы можем считать, что это уже сделано и t1 t2... tn. Так как t принимают целочисленные неотрицательные значения, знание совместного распределения означает знание всех вероятностей вида P{t1 = k1, t2 = k2,..., tn = kn }. () Очевидно, что k1 k2... kn. Перепишем событие в вероятности (*) в другом виде:

P{t1 = k1, t2 = k2,..., tn = kn } = = P{t1 = k1, t2 t1 = k2 k1,..., tn tn1 = kn kn1 }.

Далее мы учтем стационарность распределений приращений процесса и независимость прира щений. Имеем:

P{t1 = k1, t2 t1 = k2 k1,..., tn tn1 = kn kn1 } = = P{t1 = k1 }P{t2 t1 = k2 k1 }...P{tn tn1 = kn kn1 } = (t1 )k1 t P{t1 = k1 }P{t2 t1 = k2 k1 }...P{tn tn1 = kn kn1 } = e k1 !

((t2 t1 ))k2 k1 (t2 t1 ) ((tn tn1 ))kn kn1 (tn tn1 ) ··· e e.

(k2 k1 )! (kn kn1 )!

Аналогично получаются совместные распределения в случае, когда t винеровский про цесс, но теперь нам надо получить совместную плотность pt1, t2,..., tn (x1, x2,..., xn ).

Для упрощения записей, мы упростим ситуацию и будем рассматривать лишь процессы с ну левым сносом (m = 0). Опять используя стационарность распределений приращений процесса и независимость приращений, имеем:

pt1, t2 t1,..., tn tn1 (x1, x2,..., xn ) = n 1 = t1 (t2 t1 ) · · · (tn tn1 ) x2 x2 x 1 +2 2 n + ··· + e 2 (t2 t1 ) (tn tn1 ).

t Далее производим преобразование координат и находим совместную плотность pt1,t2,...,tn (x1, x2,..., xn ).

Чтобы все это проделать осмысленно, мы вспомним определение совместной плотности:

P{(t1, t2,..., tn ) B} =... pt1,t2,...,tn (x1, x2,..., xn )dx1...dxn.

B Мы можем выразить событие {(t1, t2,..., tn ) B} в терминах случайных величин t1, t t1,..., tn tn1, точнее, {(t1, t2,..., tn ) B} = {t1, t2 t1,..., tn tn1 B}, где B и B связаны следующим соотношением: (x1, x1 + x2,..., x1 + x2 + · · · + xn ) B тогда и только тогда, когда (x1, x2,..., xn ) B. Теперь вспомним определение функции плотности:

... pt1,t2,...,tn (x1, x2,..., xn )dx1...dxn = B = P{(t1, t2,..., tn ) B} = P{t1, t2 t1,..., tn tn1 B} = =... pt1,t2 t1,...,tn tn1 (x1,..., xn )dx1...dxn = B pt1,t2 t1,...,tn tn1 (x1, x2,..., xn )dx1...dxn = (x1,x1 +x2,...,x1 +···+xn )B pt1,t2 t1,...,tn tn1 (y1, y2 y1,..., yn yn1 )dy1...dyn.

= (y1,y2,...,yn )B В предпоследнем интеграле мы заменили yk = x1 + x2 + · · · + xk.

Окончательно получаем pt1,t2,...,tn (x1, x2,..., xn ) = n 1 = t1 (t2 t1 ) · · · (tn tn1 ) x2 (x2 x1 )2 (xn xn1 ) 1 + ··· + +2 2 (t2 t1 ) (tn tn1 ).

t e 9. Согласованность совместных распределений.

Мы не заметили того, что отошли от первоначально предложенного определения случай ного процесса. При определении как пуассоновского, так и винеровского процесса мы не ис пользовали и не вводили никакого вероятностного пространства. Используя аксиомы, мы лишь вывели совместные распределения обоих процессов. Разумеется, если случайный процесс за давать на вероятностном пространстве, то для любого конечного набора моментов времени мы будем иметь совместное распределение соответствующих случайных величин t. Более то го, эти распределения будут иметь свойство согласованности: вероятность Pt1,...,tn можно получить проектированием распределения Pt1,...,tn,t, а именно:

Pt1,...,tn (B) = Pt1,...,tn,t (B R).

Обратное нужно обосновывать. Но для этого сначала нужно проверить согласованность рас пределений, полученных нами выше. Мы ограничимся рассмотрением лишь стандартного ви неровского процесса w(t) (см. ниже) и лишь случаем трех моментов времени. Мы покажем, как осуществляется проверка согласованности лишь для совместных распределений Pw(s),w(t),w(u) и Pw(s),w(u), где s t u. Как мы уже знаем, для этого достаточно проверить тождество pw(s),w(t),w(u) (x, y, z)dy = pw(s),w(u) (x, z).

Наша задача упрощается тем, что мы имеем дело с функциями плотности, поэтому доста точно проверить равенство лишь для двух функций переменных x и z без учета постоянных множителей. Итак, займемся квадратичной формой под знаком экспоненты:

(x y)2 (z y)2 x2 z2 (u s)y 2 xy zy + = + + +2 +2 = ts ut t s u t (u t)(t s) ts ut x2 z2 us ut ts y x = + + z t s u t (u t)(t s) us us ut ts x2 z2 xz.

(u s)(t s) (u s)(u t) us ut ts После интегрирования по переменной y us x us z под знаком экспоненты остается лишь квадратичная форма x2 z2 ut ts x2 z2 + xz = t s u t (u s)(t s) (u s)(u t) us ut ts 1 1 = x2 + z 2 xz = t s (u s)(t s) u t (u s)(u t) us (z x) =, us что и требовалось. (Рекомендуется выкладки с интегралом провести самим.) 10. Теорема Колмогорова.

Теорема. Пусть дано множество T и для каждого конечного набора {t1,..., tn } T зада но распределение вероятностей Pt1,...,tn на борелевской -алгебре пространства Rn (которое правильнее обозначать R{t1,...,tn } ), причем набор распределений согласован (в смысле преды дущего пункта). Тогда на пространстве RT задана -алгебра, а на ней такая вероятностная мера P, что совместное распределение случайных величин (xt ) xti, i n, совпадает с Pt1,...,tn для каждого набора {t1,..., tn } T.

Нам понадобится одно свойство (регулярность) любой вероятностной меры P на борелев ской -алгебре пространства Rn. Вероятностная мера P называется регулярной, если для лю бого борелевского множества B и любого 0 существуют замкнутое, F, и открытое, G, множества, такие, что F B G, P(G \ B), P(B \ F ). () Для доказательства мы введем класс всех регулярных множеств B, которые удовлетворяют (*) для всех 0 и докажем, что этот класс совпадает с -алгеброй борелевских множеств.

Легко показывается, что каждое замкнутое множество F является регулярным.

Действительно (разберитесь !), {x : d(x, F ) 1/n}, P{x : d(x, F ) 1/n} F= P(F ) n и все множества {x : d(x, F ) 1/n} открыты. Свойство регулярности сохраняется при переходе к дополнениям. Покажем, что это свойство сохраняется при переходе к счетному объединению:

если все Bn регулярны, то Bn регулярно. Легко строится открытое G для Bn : пусть Gn n n Bn и P(Gn \ Bn ) /2n, тогда в качестве G можно взять Gn. Построение F сложнее (так n как объединение замкнутых множеств не обязано быть замкнутым): сначала мы берем такое n, что n Bn \ Bi /2, P n i= потом для каждого i n берем такое замкнутое Fi Bi, что P(Bi \ Fi ) /2i+1.

n Мы можем положить F = Fi.

i= Заметим, что теорема о регулярности верна для любого метрического пространств. Более того, множества F мы можем считать компактными, пересекая их, если нужно с шарами {x : x n} и используя то, что P({x : x n}) 1.

Теперь перейдем к доказательству самой теоремы Колмогорова. Введем в RT алгебру ци линдрических множеств, для этого будет удобно представление RT = R{t1,...,tn } RT \{t1,...,tn }.

Каждое цилиндрическое множество представляется в виде C(t1,..., tn ;

B) = B RT \{t1,...,tn }, борелевское множество в R{t1,...,tn }. Используя язык элементарной геометрии, мы где B будем называть B основанием цилиндра, а RT \{t1,...,tn } образующими. Очевидно, что ци линдры образуют алгебру множеств, например, мы можем представить C(t1,..., tn ;

B1 ) C(s1,..., sm ;

B2 ) = C(t1,..., tn, s1,..., sm ;

B3 ).

На этой алгебре функций множеств (пока это не вероятностная мера) P задается соотношением P(C(t1,..., tn ;

B)) := Pt1,...,tn (B).

Аддитивность этой функции множеств следует из согласованности системы конечномерных мер, так как два цилиндра с разными образующими представляются как цилиндры с одним образующим:

C(t1,..., tn ;

B1 ) = C(t1,..., tn, s1,..., sm ;

B1 R{s1,...,sm } ), C(s1,..., sm ;

B2 ) = C(s1,..., sm, t1,..., tn ;

B2 R{t1,...,tn } ), после этого используется аддитивность Pt1,...,tn,s1,...,sm.

Итак, нам нужно доказать счетную аддитивность P, которая, как мы знаем, эквивалентна, которую нам будет удобно непрерывности. Рассмотрим последовательность цилиндров Cn задать в виде Cn = C(t1,..., tn ;

Bn ). Предположим противное:

P(C(t1,..., tn ;

Bn )) 0.

Далее в силу регулярности выберем внутри каждого основания Bn компактное основание Kn так, что P[C(t1,..., tn ;

Bn ) \ C(t1,..., tn ;

Kn )] /2n+1.

Однако последовательность цилиндров с компактными основаниями Kn не обязательно явля ется убывающей. Сделаем из нее убывающую последовательность:

C(t1,..., tn ;

Kn ) := C(t1,..., ti ;

Ki ).

in Имеем:

/2i+1 /2.

P[C(t1,..., tn ;

Bn ) \ C(t1,..., tn ;

Kn )] P[C(t1,..., tn ;

Bi ) \ C(t1,..., tn ;

Ki )] in in Поэтому P[C(t1,..., tn ;

Kn )] /2, а это влечет, что все множества C(t1,..., tn ;

Kn ) непусты.

Далее доказывается, что пересечение этих множеств непусто, что приводит нас к противо (n) (n) речию. Для доказательства в каждом компакте Kn выберем по элементу (xt1,..., xtn ) {t1,...,tn } T R. Превратим эту точку в элемент R, считая функцию на остальных элементах T равной 0. По построению сужение элементов x(m), m n, на {t1,..., tn } принадлежит Kn.

1, из последовательности (x(n) ) выделим сходящуюся подпоследова Ввиду компактности K t (n ) (n ) (n ) тельность (xt1 k ), далее из подпоследовательности (xt1 k, xt2 k ) выделим сходящуюся подпо (nk ) (nk ) следовательность (xt1 l, xt2 l ). Повторяя эту процедуру счетное число раз для векторов все большей размерности, а потом используя метод выделения диагональной последовательности, мы получим подпоследовательность (x(ns ) ), сужение которой на каждое множество {t1,..., tn } сходится. Обозначим поточечный предел нашей подпоследовательности через x. Тогда в силу компактности всех Kn, x C(t1,..., tn ;

Kn ) для всех n.

11. Парадоксы пуассоновского процесса. Случайные моменты остановки. Мар ковость.

В теории пуассоновского процесса большое значение имеют случайные величины n мо менты n-й поломки станка. Из вероятностных соображений становится ясной независимость случайных величин 1, 2 1,..., n n1. Но как строго обосновать этот интуитивно оче видный факт, ведь случайные величины n n1 вроде бы зависят от значений процесса в континуальное число моментов времени. Для упрощения обозначений мы ограничимся дока зательством независимости двух первых случайных величин. Сначала вычислим совместную плотность p1,2. Для упрощения записи будем считать = 1. Имеем:

P({1 x, 2 y}) = P[{x = 0}{y = 0} + {y = 1}] = = P[{y = 0}] + P[{x = 0}({y x = 1})] = ey + ex (y x)e(yx) = = ey (1 + y x).

Тогда 2 y e (1 + y x)I{0xy} = ey I{0xy} p1,2 (x, y) = xy Далее с помощью замены переменных мы посчитаем совместную плотность случайных величин 1 и 2 1, она имеет вид p1,2 1 (x, y) = e(x+y) I{x0} I{y0} = p1 (x)p2 1 (y).

Отсюда следует независимость и одинаковая распределенность случайных величин 1 и 2 1.

Аналогично проверяется, что все случайные величины k k1 имеют одно и то же распре деление и независимы.

Парадокс, связанный с пуассоновским процессом. Если мы зафиксируем большой момент времени t (так что с большой вероятностью он больше момента 1 и рассмотрим следующий момент поломки, то случайная величина t в силу однородности по времени имеет то же распределение, что и любое k k1. Обозначим через момент поломки, предшествующий t (или 0, если ранее поломок не было). Ясно, что случайная величина t неотрицательна и не тождественный ноль. Поэтому распределение случайной величины сдвинуто в положи тельную сторону по сравнению с распределением k k1. В частности, у этого распределения больше среднее (при больших t оно почти вдвое больше). Между тем это тоже время между двумя последовательными поломками, между моментами которых находится фиксиро ванный момент времени t.

§31. Процессы массового обслуживания 1. Процессы массового обслуживания. Общая модель.


Обозначим снова через pn (t) вероятность наличия n элементов, описываемых нашим про цессом. Классический однородный по времени процесс массового обслуживания задается бес конечной системой дифференциальных уравнений pn (t) = ( + µ)pn (t) + pn1 (t) + µpn+1 (t), n = 0, 1, 2,..., () где характеристика называется интенсивностью заказов, а mu интенсивностью исполнения заказов. В самой общей ситуации эти характеристики зави сят от t и n. Метод исследования вероятностей pn (t) основан на использовании производящих функций. Эта задача лучше решается в следующем пункте, но лишь для частного случая.

В общем случае системы уравнений (*) для производящей функции получаются уравнения в частных производных, содержащие производные высших порядков.

2. Преобразование Лапласа и производящая функция.

Преобразование Лапласа распределения P неотрицательной случайной величины функ ция неотрицательного параметра, задаваемая соотношением ex dP(x).

P () = [0.) Заметим, что для не обязательно неотрицательной величины интеграл может расходиться.

Как и для характеристической функции, мы оперируем также с преобразованием Лапласа () = Ee. Очевидны свойства преобразования неотрицательной случайной величины Лапласа: i) (0) = 1, ii) сама функция и все ее производные монотонны (такие функции называются строго монотонными), причем четные производные неотрицательны, нечетные производные неположительны, iii) преобразование Лапласа суммы независимых случайных величин является произведением преобразований Лапласа слагаемых. Замечательная теорема Бернштейна утверждает, что любая функция на [0, ) со свойствами i), ii) является преобра зованием Лапласа некоторого распределения вероятностей на [0, ) и однозначно определяет это распределение.

Пример использования преобразования Лапласа. Как показать, что равномерное распре деление на [0, 1] не является сверткой двух одинаковых распределений? Надо вычислить пре образование Лапласа равномерного распределения ( ( = 1 e ), взять корень этого выражения и дифференцировать много раз с помощью пакета ’Математика’, 12-я производ ная будет принимать не только положительные, но и отрицательные значения.

Для целочисленных неотрицательных случайных величин вместо преобразования Лапласа предпочитают использовать производящую функцию P (z), заданную на [0, 1) соотношением:

P{n}z n.

P (z) = n= Это преобразование получается из преобразования Лапласа подстановкой z = e. Она так же однозначно определяет распределение (здесь это очевидно) и удовлетворяет условию iii), однако P (0) = P{0}, lim P (z) = 1 (в этом можно легко убедиться).

z В следующем пункте мы будем использовать производящую функцию геометрического рас пределения p g (z) = p + p(1 p)z + p(1 p)2 z 2 +... =.

1 (1 p)z 3. Процессы гибели и рождения.

Классический однородный по времени и по свойствам процесс гибели и рождения задается бесконечной системой дифференциальных уравнений pn (t) = n( + µ)pn (t) + (n 1)pn1 (t) + (n + 1)µpn+1 (t), n = 0, 1, 2,..., где характеристика называется интенсивностью рождения, а µ интенсивностью гибе ли. Предполагается, что вероятности перехода из состояния n в несоседние состояния мала по сравнению с вероятностями сохранения состояния или перехода в соседние состояния. Извест но, что в ядерной реакции это не так, так как при распаде образуется от 1 до 3 нейтронов (состояние число свободных нейтронов). Эту систему уравнений можно собрать с помощью понятия производящей функции pn (t)z n, 0 z 1.

(z, t) = n Мы получаем следующее уравнение для производящей функции (z, t) = µ ( + µ)z + z 2 (z, t). () t z Решение уравнения ищется в виде произведения (z, t) = (t)(z). Получаем дифференциаль ные уравнения для обеих функций:

(t) (z) µ ( + µ)z + z 2 = C.

= C, (t) (z) Оба уравнения решаются, но общее решение получается в виде выпуклой комбинации этих решений, зависящих от C, возможно даже в виде интеграла по C по некоторой плотности от C. Впрочем, для получения значений вероятностей pn (t) производящую функцию нужно дифференцировать n раз по z. Это непросто, так как интерес (например, в задачах взрыва) представляют как раз вероятности больших n.

В данном простом случае общее решение получается даже без использования теории урав нений в частных производных. Действительно, уравнение f (x, y) = f (x, y) () x u заменой переменных u = x + y, v = x y. Представляя f (x, y) = g(u, v) мы приходим к урав нению v g(u, v) = 0, решением которого является произвольная дифференцируемая функ ция g(u, v) = h(u), отсюда получаем f (x, y) = h(x + y). Заметим для будущего, что, так как экспонента является взаимно однозначной функцией, мы можем представить h(x + y) = (C1 ·eC2 (x+y). Уравнение (*) сводится к (**) заменой переменных: (t, z) = (t, w), где w = w(z) 1 выбирается так, что w (z) = (zµ)(z1), тогда (z µ)(z 1) z (z, t) = w (z, t). Вычисляя неопределенный интеграл, с учетом сделанного выше замечания, получаем:

z µ (µ)t (z, t) = e.

z Функцию мы вычисляем исходя из начального условия. А именно, если в момент t = имеется n0 особей, то (z, 0) = z n0. Предварительно нужно убедиться в том, что zµ µ z = z.

zµ z Поэтому n µu (u) =.

u В результате имеем:

n0 n zµ (µ)t µ (µz µ) (z µ)e(µ)t z1 e (z, t) = = = zµ (µ)t (z ) (z µ)e(µ)t z1 e n µ(e(µ)t 1) + z(µ e(µ)t ) =.

(µe(µ)t ) z(e(µ)t 1) Полное описание распределений мы можем получить при n0 = 1, в этом случае наше рас пределение будет сверткой геометрического распределения с некоторым параметром p1 (t) и распределения Бернулли с параметром p2 (t). Для вычисления параметров представим произ p1 (t) водящую функцию как произведения производящей функции g (z) = 1(1p1 (t))z геометри ческого распределения и производящей функции b (z) = (1 p2 (t)) + p2 (t)z распределения Бернулли. Вычисления проводятся в предположении µ =. Сначала находим такое C, что Cµ(e(µ)t 1) + C(µ e(µ)t ) = 1.

Имеем:

µ(e(µ)t e(µ)t, p2 (t) = C=, µ µ Деля (z, t) на (1 p2 (t)) + p2 (t)z и используя представление для g (z), мы получаем (µ )e(µ)t p1 (t) =.

µe(µ)t Теперь запишем вероятность n частиц в момент времени t:

pn (t) = p2 (t)p1 (t)(1 p1 (t))n1 + (1 p2 (t))p1 (t)(1 p1 (t))n = n µ(e(µ)t (µ )e(µ)t (µ )e(µ)t · pn (t) = + µe(µ)t µe(µ)t µ n (µ )e(µ)t (µ )e(µ)t µ(e(µ)t + 1 1.

µe(µ)t µe(µ)t µ §32. Свойства траекторий винеровского процесса Для удобства мы в дальнейшем введем специальное обозначение для процесса броуновского движения с параметрами m = 0 и = 1. Такой процесс (в момент времени t) мы будем обозначать wt, а иногда и w(t).

1. Непрерывность траекторий винеровского процесса.

Этот факт является следствием более общей теоремы Колмогорова, дающей достаточное условие непрерывности почти всех траекторий случайного процесса.

Теорема. Пусть случайный процесс t удовлетворяет соотношению E |t s | C|t s|1+ t, s, где 0, 0. (1) Тогда существует процесс t, стохастический эквивалентный t, с п.н. непрерывными траекториями.

Напомним, что траекторией процесса называется отображение : t t ().

Свойство траекторий почти наверное означает, что вероятность множества всех, для которых это свойство выполняется, равна 1. При несчетном множестве значений времени t свойство траекторий может испортиться, если для каждого момента t процесс t изменится даже лишь на множестве вероятности 0. Разумеется, верно и обратное, в результате такого изменения траектории процесса могут стать хорошими.

Пример. Используем в качестве вероятностного пространство отрезок [0, 1], причем собы тия борелевские подмножества [0, 1], а вероятность сужение на отрезок меры Лебега.

Введем процесс t = 0, 0 t 1.

Разумеется, у такого процесса все траектории непрерывны. Рассмотрим эквивалентный про цесс t () = I{t} (). Для каждого [0, 1] траектория этого процессе везде нуль и непрерывна, за исключением точки t =. Впрочем, в данном примере свойство непрерывности наруша ется не очень сильно. Мы можем сделать траектории всюду разрывными, рассмотрев другой эквивалентный процесс t () = I[0,1]tQ ().

Поэтому для достижения нужного качества траекторий мы должны зарезервировать для себя право менять каждую случайную величину t на множестве вероятности 0, причем это множество зависит от t. Получающийся при этом формально новый процесс t называется стохастически эквивалентным t. Важнейшее связывающее эти процессы свойство состоит в том, что эти процессы имеют одинаковые совместные распределения, т.е.

Pt1,t2,...,tn = Pt,t2,...,tn.

Действительно, при переходе от процесса к эквивалентному процессу на множествах нуле вой вероятности меняются лишь случайные величины t1, t2,..., tn, вероятность объединения нулевых множеств также равна нулю. Для простоты мы будем считать, что t [0, 1].

Доказательство теоремы Колмогорова. Идея конструкции состоит в следующем: мы рас сматриваем процесс t лишь для t = k, где k, n натуральные числа. Такие числа t на 2n зываются двоично-рациональными, их множество мы обозначим через S. Далее мы считаем траектории : s s (), s S.

заданными пока только на S. Потом доказываем, что для всех 1, где P1 = 1, эти функции равномерно непрерывны на S. Далее продолжаем каждую такую на все [0, 1], а значение этой функции в точке t обозначаем t () (теперь это обозначение относится и к двоично рациональным t). Очевидно, что у нового процесса t траектории непрерывны для всех 1. Но нужно показать, что P t = t = 1 t, (2) одновременно мы покажем измеримость функций t. Выберем последовательность sn S, сходящуюся к t. По неравенству Чебышева и (1) P sn t.

Согласно известному соотношению между сходимостью по вероятности и почти наверное, неко торая подпоследовательность sn сходится почти наверное. Будем считать, что п.н.

sn t.

Таким образом, sn () t () для всех из некоторого множества 1 вероятности 1. В то же время по построению sn () t () для 2, где множество 2 имеет вероятность 1. Таким образом, t () = t () для всех из пересечения 1 2 двух множеств с единичной вероятностью.


Теперь займемся процессом на S. Мы будем использовать лемму Бореля Кантелли, со гласно которой сходимость ряда вероятностей PAn влечет принадлежность с вероятно стью 1 лишь конечному числу An.

Применим к (2) неравенство Чебышева, имеем:

(k+1)/2n k/2n q n C · 2nn q n.

P Выберем q = 2/2 1, тогда (k+1)/2n k/2n q n C · 2n rn, (3) P где r = 2/2 1.

Из (3) следует, что при любом n P max (k+1)/2n k/2n q n = P (k+1)/2n k/2n q n k k 2n (k+1)/2n k/2n q n 2n · C · 2n rn = C · rn.

P k= Ряд из этих вероятностей сходится, по лемме Бореля Кантелли с вероятностью 1, начиная c некоторого n = n() имеем (k+1)/2n () k/2n () q n. (4) Итак, будем считать, что удовлетворяет условию (4), и докажем равномерную непрерыв ность функции t t () на множестве двоично рациональных t. Так как q 1, то q n 0, q n сходится. Пусть теперь нам дано число 0, мы должны выбрать для более того, ряд n него 0 так, что |s t| влечет |s () t ()|. Выберем сначала такое натуральное n, что n n() и q i /4.

in n n Примем = 1/2, и пусть |s t| 1/2. Если бы s и t были двоично рациональными точками вида k/2n, то мы имели бы либо s = t, либо s = m/2n, t = (m + 1)/2n (если t s), согласно (4) мы получили бы |s () t ()| q n /4.

Но возможна ситуация, когда s и t имеют вид l/2m и r/2p, где m n и p n. Тогда мы приближаем точку s соседним числом s1 в разбиении на 2m отрезков, которое имеет уже вид u/2m1, где 2u = l ± 1 (при этом |s () s1 () q m |), далее s1 приближаем числом s2 вида v/2m2 и т. д., вплоть до числа s вида k/2n. Очевидно, что |s s| 1/2n и (s = s0 ) x q i /4.

|s () s ()| si () si1 () i=1 i=n Аналогичное приближение t мы находим для t: |t t| 1/2n и |t () t ()| /4. Также по | 2/2n. В итоге построению | t s |s () t ()| |s () s ()| + |t () t ()| + |s () t ()| /4 + /4 + /2 =, что и требовалось. Дальнейшие рассуждения в доказательстве теоремы Колмогорова приве дены выше.

Следствие. Винеровский процесс эквивалентен процессу (этот процесс мы и будем обо значать w) с почти наверное непрерывными траекториями.

Проверим выполнение неравенства (1) для процесса w. Любопытно, что нас не устраивает 2 = 2, так как E |w(t) w(s)| = |t s|. Но = 4 нас устраивает: E |w(t) w(s)| = 2|t s|2, (1) выполняется.

2. Сходимость почти наверное для оценки параметра m Теперь мы можем доказать сходимость почти наверное t /t к параметру m броуновского движения почти наверное при t.

Для этого достаточно перейти к процессу w(t) и доказать п.н. сходимость w(t)/t к 0 (t ).

Оказывается, п.н. сходимость на следует из непрерывности траекторий в 0! Дело в том, что мы проведем в процессе w(t) замену времени и рассмотрим вместо него процесс tw(1/t).

Очевидно, этот процесс также является центрированным. Проверим, что ковариация этого процесса совпадает с ковариацией винеровского процесса:

E(tw(1/t)sw(1/s)) = ts min{1/t, 1/s} = min{t, s}.

Но мы знаем (см. многомерные характеристические функции), что совместное нормальное распределение однозначно определяется средними и вторыми моментами. Таким образом, сов местные распределения нового процесса те же, что и у винеровского процесса w(·). Такое свойство винеровского процесса называется авторегрессионностью. Но тогда tw(1/t) вине ровский процесс, и его траектории непрерывны, в частности, в нуле. Поэтому tw(1/t) почти наверное сходится к нулю при t 0 (т. е. при 1/t ).

Замечание 1. Свойство авторегрессионности разумеется не имеет общий процесс броунов ского движения t с ненулевым m. Действительно, m E(t1/t ) = t · = m = mt = Et.

t Замечание 2. Заметим, что для п.н. сходимости случайного процесса нет эквивалентности двух определений предела – на языке и на языке последовательностей. При доказатель стве определения мы имеем дело с несчетным набором множеств нулевой меры, мера объединения которых может быть не нуль.

Замечание 3. ’Улучшить’ теорему Колмогорова, убрав в формулировке строго положитель ное, нельзя. Центрированный пуассоновский процесс t, как и винеровский процесс, удовле творяет соотношению E |(t) )| = |t s|, но его трактории не могут быть непрерывными, они терпят разрыв в момент каждой поломки.

3. Случай сходимости почти наверное к параметру 2.

4. Недифференцируемость траекторий винеровского процесса.

В доказательстве мы опять используем свойство авторегрессионности винеровского процес са: оказывается процесс tw 1 стохастически эквивалентен процессу w(t).

t Далее мы выясним, что означает дифференцируемость функции хотя бы в одной точке.

Если w(t)() дифференцируема в точке s, то |w(t) w(s)| C(s)|t s| для всех t (s, s+(s)) в некоторой окрестности s. Разобьем отрезок, на котором задан процесс, на n частей, где 1/n меньше /5. Тогда для некоторого l = l(s) C(s), которое нам удобно считать натуральным (множество наших усилий должно быть счетным), для наименьшего i n s мы имеем:

i l i+1 2l i+2 3l w(s) w(s) w(s) w,w,w, n n n n n n i+3 4l w(s) w.

n n Отсюда следует, что j+1 j 7l w w, n n n для всех j = i, i+1, i+2. Отсюда мы выводим следующее описание множества всех траекторий, дифференцируемых хотя бы в одной точке отрезка [0, 1]:

j+1 j 7l w M= : w n n n lN mN nm 0in iji+ Нам нужно доказать, что P(M ) = 0. Нетрудно видеть, что для этого достаточно показать P(Ml,m ) = 0 для всех l, m N, где j+1 j 7l w Ml,m = : w.

n n n nm 0in iji+ Для этого достаточно показать j+1 j 7l w 0 (n ).

P : w n n n 0in iji+ Имеем:

j+1 j 7l w : w P n n n 0in iji+ j+1 j 7l nP : w w = n n n iji+ 3 1 7l 7l |w(1)| = nP : w = nP :

n n n Const n· 0, n3/ что и требовалось.

5. Функциональные предельные теоремы для процесса w.

Итак, процесс w, где 0 t 1 можно рассматривать как случайный элемент w(·)() со значениями в пространстве C[0, 1]. В таком случае распределение Pw это вероятностная мера на борелевской -алгебре в пространстве C[0, 1]. В пространстве всех вероятностных мер на этой -алгебре вводится понятие слабой сходимости точно так же, как и в пространствах ве роятностных мер на борелевских -алгебрах конечномерных пространств. А именно, Pn слабо сходится к P тогда и только тогда, когда f (x)dPn (x) f (x)dP(x) C[0,1] C[0,1] для всех непрерывных ограниченных функций f на C[0, 1]. В рамках этой теории мы кратко изложим результаты, которые в научной литературе называются принципом инвариантности Донскера Прохорова о слабой сходимости к распределению винеровского процесса распре делений случайных ломаных. В более общей теореме Прохорова рассматриваются серии ni, i k(n), независимых случайных величин из теоремы Линдеберга.

2) Eni = 0 для всех n и k;

k(n) 3) Eni = 1 для каждого n;

i= По каждой серии вводится процесс S (n) на [0, 1], который называется случайной ломаной.

Обозначим k (n) Eni, k k(n), tk = i= k (n) k = ni.

i= Процесс S (n) задается следующими соотношениями:

(n) (n) k, если t = tk, k = 0, 1,..., k(n) S (n) (t) = (n) (n) линеен на каждом отрезке tk, tk+1.

На всякий случай напомним, что функция f задается линейно на отрезке [a, b], если для всех (0, 1) имеет место равенство f (a + (1 )b) = f (a) + (1 )f (b).

Как видите, мы построили действительно случайную ломаную, траектории которой безуслов но непрерывны, то есть принадлежат пространству C[0, 1]. Ю.В. Прохоров доказал теорему:

распределения процесса S (n) на пространстве C[0, 1] слабо сходятся к распределению вине ровского процесса. Заметим, что процесс случайного блуждания на {0, 1,..., n} также можно интерпретировать как случайную ломаную на отрезке [0, 1], если процесс нормировать так, чтобы он в момент времени 0 имел дисперсию 1, траектории процесса нарисовать как лома ные, как мы это делали на лекции, точки k перевести в точки k/n, Из теоремы Прохорова и следующей из нее сходимости интегралов от непрерывных функ ций можно вывести также результаты о сходимости вероятностей. Например, вероятность пе ресечения уровня для процесса случайного блуждания сходится к соответствующей вероят ности для винеровского процесса. В частности, так можно доказать следующее любопытное равенство P{ max w(t) x} = 2P{w(1) x}. (1) 0t 6. Броуновский мост и его использование в математической статистике.

Большой интерес для математической статистике представляет броуновский мост, который называется также условным винеровским процессом. Этот процесс можно ввести не совсем строго как w(t) := E{w(t)|w(1) = 0}.

Таким образом броуновский мост начинается в 0 и кончается в 0. Совместные распределения броуновского моста нормальны и их можно определить следующим соотношением:

pw(t),w(s),w(1) (x, y, 0) pw(t),w(s) (x, y) =.

pw(1) (0) Упражнение 3. Вычислите корреляционную функцию процесса w. Докажите, что она совпадает с корреляционной функцией процесса w(t) tw(1).

Особый интерес представляет вопрос о распределении случайной величины max |w(t)|. Это 0t распределение является предельным для распределения статистики Колмогорова Смирнова (при числе наблюдений, сходящемся к ).

7. Сильно марковское свойство винеровского процесса.

В этом пункте мы хотим доказать формулу (5.1) без использования функциональной пре дельной теоремы. Для этого мы хотим доказать аналог принципа отражения для случайного блуждания, однако в данной ситуации неприменимы рассуждения типа взамно однозначно го соответствия между двумя множествами. Вместо функциональных предельных теорем мы применим теоремы о слабой сходимости многомерных распределений, которые были постули рованы в 14.2 со ссылкой на одномерные аналоги, но не доказаны. Начнем со определений фильтрации случайного процесса и момента остановки случайного процесса, которые нам по надобится и в других параграфах. Эти определения мы вводим для процессов с непрерыв ным временем [0, ). Аналогично эти понятия вводятся для процессов с дискретным временем {0} N и для процессов c прошлым, заданных на (, ).

Определение 1. Пусть для каждого t 0 задана -алгебра Ft A, причем Ft Fs при t s. Такой набор -алгебр называется фильтрацией.

Определение 2. Случайный процесс t называется согласованным с фильтрацией (Ft ), если для любого t случайная величина t измерима относительно Ft.

Определение 3. Фильтрация (Ft ) называется естественной фильтрацией случайного про цесса t, если Ft для каждого t является наименьшей -алгеброй, относительно которой изме римы все случайные величины s (s t).

Определение 4. Отображение : [0, ) называется моментом остановки относи тельно фильтрации (Ft ), если { t} Ft для любого t 0.

Пример. Рассмотрим случайное блуждание с бесконечным временем. В качестве возьмем пространство всех бесконечных последовательностей из знаков + и. На строится -алгебра множеств, порожденная всеми цилиндрами, состоящими из последовательностей (,,..., rm...), в каждом цилиндре фиксированы первые n знаков, а остальные знаки произвольны. Мера каждого цилиндра с фиксированными первыми n-знаками принимается равной 1/2n. Мы мо жем заменить знаки числами 1, тогда RN, конечномерные меры согласованы и по теореме Колмогорова существует вероятность на -алгебре, порожденной алгеброй Fn.

n Предложение 1. Пусть : (, A, P) [0, ) момент остановки относительно есте ственной фильтрации (Ft ) винеровского процесса wt, 0 t. Тогда функция w :

w () () является случайной величиной, т.е. измерима относительно -алгебры событий A.

Доказательство. Представим как предел дискретных случайных величин (n) (см. обо значение в §7. п.1). Напомним, что k (n) = I.

n n, k+ k n kZ и (n) равномерно сходится к. Проверим, что w (n) является случайной величиной:

k {wk/n B} (n) = {w (n) B} = A, n k так как все множества под знаком суммы являются событиями. Согласно теореме Винера из п. 1 мы можем считать, что функции : t wt () являются непрерывными. Поэтому w (n) () w () для всех при n.

Замечание. В доказательстве использовалось лишь, что неотрицательная случайная величина.

Предложение 2. Моментом остановки для винеровского процесса w на [0, ) для любого y 0 является inf{t : wt () y}, если такие t 0 существуют, y () =, если таких t 0 не существует.

Доказательство. Очевидно, что ввиду непрерывности траекторий {y t} = {supst ws y} = {sup{ws : s Q [0, t]} y} Ft для всех t 0. Теперь покажем, что P{y = } = 0.

Предположим противное: P{y = } = 0. Построим ряд из строго положительных чисел n n /2. По этому ряду построим по индукции последовательность положительных чисел tn и последовательность отрицательных чисел xn. Число xn выбираются по tn1 и tn так, что P{wtn wtn1 xn } n, а tn+1 выбирается из условия |x1 | +... + |xn | + y tn+1 tn. Обозначим A = n {wtn wtn xn }, P(A) /2. Легко видеть, что {sup wt y} {sup wtn y} A {wtn+1 wtn |x1 | +... + |xn | + y}.

t n n Поэтому wtn+1 wtn P{y = } P(A) + P{wtn+1 wtn |x1 | +... + |xn | + y} P(A) + P tn+1 tn n n P(A) + P{w1 1} /2, n что противоречит нашему предположению.

Далее мы докажем принцип отражения, позволяющий решать многие задачи в теории винеровского процесса. Мы опять будем использовать представление момента остановки как предела (n) со значениями вида k/n.

момент остановки винеровского процесса wt, 0 t, тогда Теорема 1. Пусть новый процесс если t (), wt (), w( )t () = 2w () wt (), если t ().

также является винеровским.

( ) Доказательство. Доказать, что wt является винеровским означает доказать, что совмест ные распределения случайных величин w( )t1,..., w( )tm те же, что и у винеровского процесса.

( (n) ) ( ) wt для В силу непрерывности траекторий процесса w имеет место п.н. сходимость wt любого t. Поэтому достаточно доказать теорему для любого дискретного момента остановки (n). Добавим к уже упорядоченному набору {t1,..., tm } все дроби k/n tm, получим набор S = {s1,..., sp }, который мы также будем считать упорядоченным по возрастанию. Заметим, что нам достаточно доказать совпадение совместных распределений наборов ws1, ws2 ws1..., wsp wsp1, (n) (n) (n) (n) (n) ( ) ( ) ( ) ( ) wsp1 ).

( ws ws1, ws2..., wsp k Обозначим Ak = { (n) = n }. Так как произведения одномерных множеств в пространстве p R порождают -алгебру (см. доказательство теоремы 6.4) нам достаточно проверить совпа дение вероятностей событий.

Теорема 2.

Доказательство.

§33. Диффузионные процессы 1. Введение. Условные вероятности перехода.

Мы уже говорили о том, что марковские процессы (t) – это процессы, будущее которых при фиксированном настоящем не зависит от прошлого процесса. Таким образом, зная значе ние процесса (t), мы можем вычислить вероятности событий {(t + h) B}, которые явля ются условными вероятностями P {(t + h) B|(t) = x}. Марковскими процессами являются случайное блуждание, пуассоновский и винеровский процессы. Для пуассоновского процесса смысл условной вероятности прозрачен и мы имеем P {(t + h) B, (t) = k} P {(t + h) B|(t) = k} = = f (t, x, t + h, B).

P {(t) = k} Для винеровского процесса такая формула не подходит, так как P {(t) = x} = 0 для любого x.

Но у винеровского процесса можно ввести условную плотность. Сейчас мы введем это по нятие. Пусть p, (x, y) совместная плотность случайных величин,. Тогда у случайной величины также имеется плотность, записываемая формулой:

p (x) = p, (x, y)dy.

R Условная плотность задается формулой, аналогичной формуле для условной вероятности:

p, (x, y) p (y| = x) =.

p (x) Итак, мы рассматриваем марковский случайный процесс (t) с непрерывным временем, где 0 t. Процесс может иметь счетное число состояний (то есть случайные величины (t) принимают лишь счетное число значений с ненулевой вероятностью, значения мы будем обозначать натуральными числами i = 1, 2, 3,...). В этом случае мы обозначим P (s, i;

t, j) = P {(t) = j|(s) = i}.

Эти условные вероятности называются вероятностями перехода из состояния i в состояние j за время от s до t. В случае, когда случайные величины (t) имеют совместные плотности (а следовательно, множество значений никак не может быть счетным) мы обозначим плотность вероятностей перехода из состояния x в состояние y за время от s до t:

p(s, x;

t, y) = p(t) (y|(s) = x).

2. Уравнение Колмогорова Чепмена.

Пусть s u t. Тогда p(s, x;

t, y) = p(s, x;

u, z)p(u, z;

t, y)dz.

В непрерывном случае для доказательства уравнения Колмогорова Чепмена нужно при ложить определенные усилия. В дискретном случае счетного числа состояний все очень просто и мы доказали дискретный аналог этого равенства (пункт 28.1):

( ) P (s, i;

t, j) = P (s, i;

u, k)P (u, k;

t, j).

k Отметим также тождество, которое будет позднее использовано несколько раз:

( ) p(s, x;

u, z)dz = 1.

3. Аксиомы диффузионных процессов.

В дальнейшем предполагается, что существуют такие функции a(t, x) и b(t, x), зависящие от времени и места, что для всех 0 имеют место соотношения:

p(t, x;

t + t, z)dz = o(t), (1) |zx| (z x)p(t, x;

t + t, z)dz = a(t, x)t + o(t), (2) |zx| (z x)2 p(t, x;

t + t, z)dz = b(t, x)t + o(t). (3) |zx| Легко проверяется, что процесс броуновского движения также удовлетворяет этим аксио мам с a(t, x) = m, b(t, x) = 2.

Таким образом, диффузионный процесс можно рассматривать как броуновское движение в неоднородной среде, свойства которой со временем меняются.

4. Дифференциальные уравнения Колмогорова Прямое уравнение Колмогорова 1 p = [a(t, y)p(s, x;

t, y)] + [b(t, y)p(s, x;

t, y)].

2 y t y Приведем здесь, кое-где не очень строгое, доказательство (из книги Ю.А. Розанова). Рас смотрим пробную функцию (т. е. бесконечно дифференцируемую функцию с компактным носителем) (z) = (y) + (y)(z y) + (y)(z y)2 + o(z y)2. (4) Напомним, что равенство нулю интеграла от произведения всех пробных функций с данной функцией f влечет равенство почти всюду f = 0. Составим произведение (используя уравнение Чепмена – Колмогорова):

p(s, x, t + t, y) = p(s, x;

t, z)p(t, z, t + t, y)dz. () Теперь рассмотрим интеграл от производной по времении переходной плотности, умноженной на пробную функцию:

((y))[p(s, x;

t + t, y) p(s, x;

t, y)]dy = lim t0 t (учтем предыдущую формулу) (y)p(s, x;

t, z)p(t, z;

t + t, y)dydz = lim (y)p(s, x;

t, y)]dydz = t0 t (далее мы поменяем ролями в первом интеграле переменные y и z и учтем, что p(t, y;

t + t, z)dz = 1) [(z) (y)]p(s, x, t, y)p(t, y;

t + t, z)dydz = = lim t0 t (учитывая (1) и ограниченность, мы по z можем интегрировать лишь по некоторому интер валу |z y|, а выбираем сначала из условия малости o(z y)2 в (4)) y+ 1 (y)(z y) + (y)(z y)2 + o(z y)2 p(s, x, t, y)p(t, y;

t+t, z)dzdy = = lim t0 t y = (y)a(t, y) + (y)b(t, y) p(s, x;

t, y)dy.

Далее каждое из слагаемых мы интегрируем по частям, первое слагаемое один раз и второе два раза. Мы используем равенство нулю функции и ее производных вне некоторого интер вала, поэтому слагаемые без интегралов зануляются. Напомним, что каждое интегрирование по частям меняет знак перед интегралом. Итак, 1 (y) (y) p(s, x;

t, y)dy = [a(t, y)p(s, x;

t, y)] + [b(t, y)p(s, x;

t, y)] dy.

2 y t y Ввиду произвольности пробной функции, получаем уравнение.

Обратное уравнение Колмогорова 2 p(s, x;

t, y) p(s, x;

t, y) p(s, x;

t, y) = a(s, x) + b(s, x).

x s x Строгое доказательство вы можете найти в книге Ю.А. Розанова. Там используется аппа рат пробных функций (из теории обобщенных функций). Благодаря использованию пробных функций, как и выше, можно обосновать использование аксиом (1-3). Здесь я попробую объ яснить причины этого уравнения.

p(s, x;



Pages:     | 1 |   ...   | 4 | 5 || 7 | 8 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.