авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 2 | 3 ||

«А.М. Чеботарев Введение в теорию вероятностей и математическую статистику для физиков ...»

-- [ Страница 4 ] --

Probability density Sample distribution 0. 0. 0.5 0. 0.25 0. 0 3 2 1 0 1 2 3 3 2 1 0 1 2 3 Cummulative probability Inverse function 1. 3. 3. 0. 2. 0. 2. 1. 0. 1. 0. 0. 0. 0. 0.0 0.2 0.4 0.6 0.8 1. 0 1 2 3 Рис. 12.1. Выборочное распределение (верхний правый график) по строено по 105 случайным точкам. Обратная функция (нижний пра вый график) построена с помощью интерполяции по 100 точкам Существует ряд алгоритмов, позволяющих получать задан ные случайные величины, преобразуя равномерно распреде 12.1. Методы преобразования случайных величин ленные случайные величины по явным формулам, минуя про цедуру вычисления обратной функции. К таким случайным величинам относятся гауссовы случайные величины и рассмот ренный ранее винеровский процесс (11.6).

Пусть 1, 2 [0, 1] независимы и распределены рав Пример 12.3.

номерно. Тогда (12.1) 1 = 2 log 1/1 sin 22, 1 = 2 log 1/1 cos распределены независимо и принадлежат (0, 1).

Доказательство. Теорема 3.3 Бохнера–Хинчина (см. также [2]) утверждает, что конечномерные случайные величины и имеют одинаковые функции распределения тогда и только то гда, когда совпадают их характеристические функции, то есть () = E (,) = E (,) R, а характеристическими функциями могут быть любые неотри цательно определенные непрерывные функции, равные едини це в точке = 0. Неотрицательная определенность означает, что симметричная матрица = {( )} с любыми, { } неотрицательно определена.

В силу теоремы Бохнера–Хинчина достаточно убедиться, что характеристическая функция векторной случайной вели чины (1, 2 ) равна произведению характеристических функ ций нормального распределения. Более точно, 2 E (1 1 +2 2 ) = (1 +2 )/2.

Введем переменные = 2 log 1/1 R+, = 22 [0, 2):

2 /2 2 / 1 =, 1 =, 2 =.

Глава 12. Метод Монте-Карло и алгоритм Метрополиса Переходя к новым координатам, получим 1 2 log 1 cos 22 +2 2 log 1 sin E (1 1 +2 2 ) = 1 2 = 1 2 1 /2 1 cos +2 sin = = 2 1 2 2 /2+(,) = || /2.

= 2 R Существует простой способ быстрого получения "нормаль но" распределенных чисел из независимых равномерно рас пределенных чисел [0, 1], не использующий операций, от личных от сложения и вычитания:

(12.2) 6 [6, 6].

= Очевидно, что среднее значение равно нулю, а дисперсия – сумме дисперсий. Поскольку 2 = 1/12, то 2 = 1 так же, как у нормального распределения. Хвосты (, 6] и [6, ) нормального распределения имеют достаточно малую вероят ность, равную 2 [6, ) 1.97 · 109. Сравнение соответству ющих численных алгоритмов показывает, что на современных компьютерах точная формула (12.1) реализуется быстрее, чем (12.2) и дает более качественное распределение.

Упражнение 12.1. 50 000 упорядоченных псевдослучайных чисел, полученных по формулам (12.1) и (12.2), принадле жат отрезку [6, 6]. Это позволяет вычислить разности между неслучайными ожидаемыми ( = E [6, ] (), (0, 1)) и случайными выборочными ( ) значениями чисел заполнения:

max | | равен 129 для метода (12.1) и 262 для метода (12.2). Оцените вероятность получения бльших значений с о помощью критерия Колмогорова (8.5).

12.1. Методы преобразования случайных величин 0.4 0. 0.3 0. 0.2 0. 0.1 0. 0.0 0. 6 4 2 0 2 4 6 6 4 2 0 2 4 Рис. 12.2. Гистограммы распределений = 50 000 нормально рас пределенных точек, полученных по формулам (12.1) и (12.2). Чис ленные эксперименты показывают, что при использовании системы Mathematica отношение затрат времени равно 7 в пользу первого ал горитма. Для вычислений большого объема фактор времени играет очень важную роль Весьма универсальным методом получения псевдослучай ных чисел является метод отбора Дж. Неймана. Предпо ложим, что задана плотность распределения (), возможно имеющая носитель, состоящий из нескольких компонент связ ности. В этом случае применение метода обратной функции для получения случайной величины с распределением () вызывает затруднения в связи с тем, что функция, обратная к кумулятивному распределению, не является непрерывной.

Пусть – доступная для моделирования случайная величи на, плотность 0 () распределения которой обладает свойством (12.3) 1 : () 0 ().

Метод отбора Дж. Неймана позволяет преобразовать случай ную величину в случайную величину с помощью равномер ного распределения на (0, 1).

Алгоритм Дж. Неймана состоит в следующем. Генерируем и вычисляем (), 0 (). Далее независимым образом гене рируем число, равномерно распределенное на (0, 1). Если () 0 (), Глава 12. Метод Монте-Карло и алгоритм Метрополиса то полагаем =, то есть происходит отбор. В противном случае формально полагаем =, генерируем новое значение и повторяем процедуру. Поскольку события = и = несовместны, то их объединение имеет вероятность 1.

Теорема 12.1. Плотность распределения случайной величи ны равна (). Максимальная эффективность метода отбо ра достигается при минимальном, удовлетворяющем (12.3).

cp0 (x1 ) cp0 (x2 ) y p(x1 ) p(x2 ) y x1 x Рис. 12.3. Точки имеют эталонное распределение 0 (), а точки = 0 ( ) равномерно распределены на [0, 0 ( )]. Точка принимается в качестве выборочного значения случайной величины с распределением (), а точка 2 отбрасывается, так как 1 (1 ) и 2 (2 ) Доказательство. Обоснование этого алгоритма весьма просто.

Обозначим через событие, состоящее в отборе выборочной точки =. Очевидно, что вероятность отбора () равна 1 (это отношение единичной площади под графиком () к площади под графиком 0 (), так как отбор происходит только в том случае, если случайная точка 0 () попадает под график ()) и что и независимы. Поэтому по формуле условной вероятности имеем { |} = {( ) ( ()/0 ())}/ () = = { } { ()/0 ()} = () = 0 () = ().

0 () 12.1. Методы преобразования случайных величин Очевидно, что доля отброшенных точек минимальна при минимальном, удовлетворяющем (12.3).

В заключение отметим метод парциальных случайных вели чин. Пусть () = (), = 1, а () – распре = деления случайных величин. Тогда случайная величина с распределением () может быть представлена как функция дискретной случайной величины {1, 2,..., }, имеющей распределение со значениями в {1, 2,..., }: =.

Действительно, { } есть сумма вероятностей несовмест ных событий, происходящих с вероятностями.

В разделе, посвященном алгоритмам Метрополиса и Ха стингса, будет рассказано о методах построения заданных рас пределений с помощью марковских цепей.

Упражнение 12.2. Пусть – случайная величина, равномер но распределенная на [0, 1]. Показать, что случайная величина = tan(( 1/2)) имеет распределение Коши:

1 ( ) =.

1 + 2 / Решение. Из определения и имеем 1 { tan(( 1/2)) } = { arctan + 1/2} = 11 = arctan.

2 Вычисляя производную по, находим выражение плотности вероятности:

1 { tan(( 1/2)) } = () =.

1 + 2 / Упражнение 12.3. Пусть (0, 1) – стандартная нормаль но распределенная случайная величина. Показать, что случай ная величина = / 2 имеет распределение Леви:

/ ( ) =.

Глава 12. Метод Монте-Карло и алгоритм Метрополиса Решение. По определению = 2 R+ имеем: = 2 3, / 2 = ( ) = 2 2.

0 Что и требовалось проверить.

Упражнение 12.4. Пусть (0, 1) – независимые нор мально распределенные случайные величины, 1. По казать, что случайная величина 1 )1/ ( {1,..., }, = = = равномерно распределена на единичной сфере R.

Решение. Поскольку || = 1, то. Инвариантность рас пределения случайного вектора относительно вращений сле дует из инвариантности вероятности ее распределения. Дей ствительно, если – матрица ортогонального преобразования, то норма ||2 = = | 1 |2 и элемент объема являют ся инвариантами. Пусть – измеримое подмножество и – его образ после поворота. Тогда 1 () 2 || ( ) = E () = = (2)/ R 1 1 () 2 | | = = (2)/ R 1 () 2 || = ( ).

= (2)/ R Упражнение 12.5. Пусть (0, 1) – независимые нор мально распределенные случайные величины, 1 и 12.1. Методы преобразования случайных величин 1. 1. 0. 0. 1. 1. 0. 0. 0. 0.5 0. 0. 1. 1. 0. 1. 0. 1. 0. 0. 0. 0.5 0. 0. 0. 0. 1.0 1. 1.0 1. Рис. 12.4. Два массива по 1000 точек, равномерно распределенных на сфере (слева) и в шаре (справа) имеет равномерное распределение на [0, 1]. Показать, что слу чайная величина 1/ )1/ ( {1,..., } R, = = = равномерно распределена в единичном шаре R. Резуль тат представлен на рис. 12.5.

Упражнение 12.6. Построить распределение расстояния меж ду случайными точками, равномерно распределенными в еди ничной сфере.

Решение. Используя алгоритм, описанный в предыдущей за даче, нетрудно получить массив 1000 случайных точек, равно мерно распределенных внутри сферы, и построить график, по казывающий, что доля пар точек, находящихся на малых рас стояниях, убывает как (2 ). Этот результат является след ствием линейного фитинга кумулятивного распределения, ко торый дает значение показателя полиномиального распределе Глава 12. Метод Монте-Карло и алгоритм Метрополиса ния на единицу превышающее показатель плотности соответ ствующего распределения: log () = 0.0266257+3.03971 log.

Расстояние и его логарифм отложены по оси на рис. 12.5.

1.0 0.8 0.6 0. 0. 0. 0.0 0.5 1.0 1.5 2.0 4.0 3.5 3.0 2.5 2.0 1.5 1.0 0. Рис. 12.5. Распределение расстояний между 45 000 парами случай ных точек, равномерно распределенных в шаре в обычных (слева) и двойных логарифмических координатах (справа). Фитинг распреде ления в области малых расстояний показывает, что плотность рас пределения имеет порядок (2 ) Упражнение 12.7. Пусть задан вектор 0 R3. Построить случайные точки, равномерно распределенные на единичной окружности, лежащей в плоскости, ортогональной 0.

1. 0. 0. 0. 1. 1. 0. 0. 0. 1. Рис. 12.6. Точки равномерно распределены на окружностях, лежа щих в плоскостях, имеющих нормали {1, 1, 1}, {1, 1, 1}, {1, 1, 1} 12.2. Стохастический метод решения уравнения Шредингера Решение. Сначала находим два ортонормированных векто ра 1, 2 из R3, являющихся собственными векторами матри цы 0 = |0 0 |, отвечающих собственному значению едини ца, и воспользуемся формулой = 1 sin(2)+2 cos(2), где – случайная величина равномерно распределенная на [0, 1].

12.2. Стохастический метод решения уравнения Шредингера Для рассматриваемого ниже класса уравнений Шредингера важ ную роль играют вещественные потенциалы +() (), (12.4) () = R где R, 0, – вероятностная мера, () – фазовая функция, заданная по модулю 2. С учетом замены условие вещественности потенциала () имеет вид:

() = () = +() () = () ().

Умножая левую и правую части на фурье-образ (2) () гладкой финитной функции и интегрируя по, получим () + () = () (), (R ), где ± () = ±(±) (±). Учитывая неотрицательность вероятностной меры и вещественность, получаем четность меры и нечетность фазовой функции. Для доказательства достаточно положить () = () (), (R ), 0 и воспользоваться теоремой Рисса для неотрицательных линей ных функционалов1.

Аргументы функций () и () естественно понимать как точки координатного пространства и подмножества в импульс ном пространстве.

R.

(R ) – множество непрерывных функций на Глава 12. Метод Монте-Карло и алгоритм Метрополиса Потенциалу (12.4) сопоставим однородный скачкообразный марковский процесс в пространстве импульсов R, соверша ющий в случайные моменты времени скачки = 0, имеющие распределение def ( ) = ().

Будем считать, что случайное время между скачками не зави сит от положения траектории и распределено экспоненци ально:

def ( = 1 ) =.

p q p q1... qn p 2 0 tn tn t2 t1 t p q1 q Рис. 12.7. Непрерывная справа, имеющая предел слева скачкооб разная траектория, начинающаяся в точке в момент времени и двигающаяся в обратном направлении времени вплоть до момента = Получим уравнение для математического ожидания () = E (+ )+ ( ) (12.5) ( + ), = где () – локально ограниченная непрерывная функция, () – фазовая функция потенциала, – число скачков за время вдоль случайной траектории, = =1 – значение тра ектории в момент R+. Расположение моментов скачков Траектории процесса непрерывны справа и имеют предел слева, то cadlag process.

есть – 12.2. Стохастический метод решения уравнения Шредингера и время их ожидания показано на рисунке 12.7. Начальное условие для задачи Коши задается в момент = 0.

Заметим, что распределение величины очередного скачка не зависит от предыдущих скачков, а случайное время ожи дания скачка имеет экспоненциальное распределение. Множе ство траекторий на отрезке [0, +] можно разбить на три непе ресекающихся подмножества: множество траекторий 0 (), не совершающих скачков за время, множество траекторий 1 (), совершающих один скачок, и множество траекторий 2 (), со вершающих более одного скачка. Согласно формуле (11.1), ве роятности этих множеств равны (0 ()) =, (1 ()) =, (2 ()) = ()2.

Поэтому приращение математического ожидания (12.5) состо ит из трех слагаемых:

(+()) () + () = () + ()()+(+)+() () + ( + ) = (12.6) { = (, ) + (() ) ()+ + ()() ( + ) + ().

} Формула (12.6) дает разложение среднего (12.5) по множествам траекторий 0, 1, 2, причем величина (, ) = () () есть вероятность совершить за время [+, ++) один скачок величины и не совершать скачков в течение [ + +, + ).

Глава 12. Метод Монте-Карло и алгоритм Метрополиса Заметим, что в импульсном представлении =, поэтому )() = ()()+ () = ( ()()+/2 ( + ).

Предельный переход 0 в (12.6) дает уравнение для ():

() =(() ) () + ()() ( + ) = = (() + ( )) (), где () – потенциал (12.4). Учитывая фазовый сдвиг / функционала (12.5) на каждом скачке и вводя дополнительно неслучайный множитель, получим следующий результат.

Теорема 12.2. Пусть () – произвольная измеримая веще ственная функция, ограниченная в каждой точке, () – по тенциал вида (12.4) и – марковский скачкообразный про цесс, соответствующий потенциалу (). Тогда функция () = E [, ] 0 ( + ), (12.7) [, ] = ( + ) + (( ) + /2) 0 = с начальным условием 0 из 2 (R ), 1 (R ) или (R ) яв ляется корректно определенным решением задачи Коши для уравнения Шредингера в импульсном представлении:

()|=0 = 0 (). (12.8) () = (() + ( )) (), Операторы : 0 = (+ ) 0 образуют унитар ную группу. Решение задачи Коши для уравнения Шредингера 12.2. Стохастический метод решения уравнения Шредингера (12.8) может быть вычислено методом Монте-Карло:

1 [, ] () ( ) () E () () = 0 ( + ), = (12.9) () [, () ] = ( + () ) + (( ) + /2).

0 = Погрешность формулы (12.9) не зависит от размерности про странства и при больших с вероятностью не превосхо max |0 ()| дит величины () =. Более точно, ( ) 2 def ( ) 2.

| () ()| () = Последнее утверждение вытекает из центральной предельной теоремы. В частности, 1 = 0.68, 2 = 0.95, 3 = 0.997.

В дальнейшем изложении рассматриваются оценки реше ния задачи Коши и унитарного разрешающего оператора, по строенные с помощью формулы (12.9) на сетках в импульс ном пространстве, состоящих из 200 точек, при объеме выбор ки = 500 000 траекторий. Функции () в координатном представлении строятся с помощью дискретного преобразова ( ) ния Фурье функций (). Точки дискретного спектра вы деляются из спектра матрицы разрешающего оператора.

В качестве примеров рассмотрим решение задачи Коши для уравнения Шредингера с двойной потенциальной ямой 2 (+ ) (12.10) () =, = где 1 = 1, 2 = 2, 1 = 1, 2 = 3, 1 = 1, 2 = 0.5, и точ но решаемой спектральной задачи для потенциала () = ch2, 0 = 6, полученные методом Монте-Карло. Формулы (12.9) Глава 12. Метод Монте-Карло и алгоритм Метрополиса позволяют вычислять эволюцию средних значений различных наблюдаемых в зависимости от величины внешнего поля, а так же получить оценки спектра.

0. 0. 1. 1. 2.0 6 4 2 0 2 4 6 6 4 2 0 2 4 Рис. 12.8. Потенциал (12.10) типа двойной ямы и потенциал cosh2.

Спектральная задача для потенциала справа является точно решае мой. Горизонтальные линии отвечают уровням дискретного спектра Abs p,t 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 10 5 0 5 10 5 0 5 Abs x,t 0. 0. 0. 0. 0. 0. 0. 0.2 0. 0. 0. 15 10 5 0 5 10 5 0 5 Рис. 12.9. Абсолютные значения решения уравнения Шредингера в импульсном и координатном представлениях в момент = 1 (слева) и = 5 (справа). Точками изображено начальное условие Для получения оценок точек дискретного спектра и соб 12.2. Стохастический метод решения уравнения Шредингера ственных векторов с помощью формул (12.9) методом Монте Карло используется матричную оценку унитарного разрешаю щего оператора:

^ = = ^ Sp (12.11) | () ()| + () = ^ Sp ^ где () – спектральное семейство оператора (см. Като Т., Теория возмущений линейных операторов. – М.: Мир, 1972, гл. VI, §5, п. 1), Sp – непрерывный спектр, а вклад дискрет ного спектра в интеграл (12.11) имеет вид суммы по точкам дискретного спектра { }.

Точки спектра матричной аппроксимации унитарного раз решающего оператора задачи Коши изображены на первых двух графиках рис. 12.10. В обоих случаях, точки, соответ ствующие дискретному спектру лежат в верней части четвер того квадранта. Остальные точки при переходят в об раз непрерывного спектра. На остальных графиках изображе ны по две собственные функции оператора Шредингера, отве чающие оценкам точек дискретного спектра {0.5847, 0.9562} и {4.5011 2.01236, 0.49693}, полученные стохастическим методом для потенциалов (12.10) и () = ch2, 0 = 6. В по следнем случае точные значения дискретного спектра равны {4.5, 2.0, 0.5}. Точные собственные функции изображены на двух последних графиках - они практически неразличимы.

Для последней задачи мы опустили график основного состоя ния с целью экономии места.

Лемма об устойчивых собственных значениях (см. там же, гл. VIII, §1, п. 4) объясняет сходимость по норме спектральных проекторов на изолированные устойчивые собственные значе ния при, однако распространение этого результата на класс методов Монте-Карло остается открытой проблемой.

Оценки собственных функций, полученные методом ста Глава 12. Метод Монте-Карло и алгоритм Метрополиса Spectrum of Mat Spectrum of Mat 1.0 1. 0.5 0. 0. 0. 0. 0. 1. 1. 1.0 0.5 0.0 0.5 1. 1.0 0.5 0.0 0.5 1. 0.25 0. 0. 0. 0. 0. 0. 0. 0. 0.00 0. 10 5 0 5 10 10 5 0 5 0.2 0. 0. 0. 0. 0. 0. 0. 0. 0. 10 5 0 5 10 10 5 0 5 Рис. 12.10. Верхний ряд содержит спектры матриц, аппроксимиру ющих унитарные разрешающие операторы для потенциалов (12.10) (слева) и гиперболического косинуса (справа). Ниже изображены оценки собственных функций в импульсном представлении для двой ной потенциальной ямы (| ()|, второй ряд) и гиперболического косинуса ( (), нижний ряд) тистического моделирования, можно рассматривать как квази стационарные состояния гамильтонианов, поскольку решения сеточной аппроксимации уравнения Шредингера с та кими гамильтонианами меняются достаточно медленно, если в 12.2. Стохастический метод решения уравнения Шредингера качестве начального условия взять соответствующий собствен ( ) ный вектор оператора.

Рассмотрим более сложную задачу. Решение уравнения Шре дингера с гамильтонианом R, (, ) = 0 () + () + (, ), учитывающим постоянное внешнее поле, также можно запи сать в виде математического ожидания. Конструкция квази ( ) стационарных решений (собственных векторов оператора ) состоит в следующем. Решения уравнений (12.12) (, ) =(0 () + (^) + (, ))(, ), ^ (12.13) (, ) =(0 ( ) + (^))(, ), где =0 = =0 = 0, =, связаны с помощью оператора ^ сдвига:

(, ) = (, ) (, ), а решение (12.13) строится так же, как и в случае (12.7):

(, ) = E 0 (+ + ) + (( )+ 2 ) 0 (0 + ).

Действуя теперь на эту функцию оператором обратного сдвига, получаем решение исходного уравнения (12.12):

(, ) = (, ) (, ) = E 0 (0 + ), (12.14) 0 ( + ( )) + = (( ) + ), 0 где 0 – случайная конечная точка скачкообразной траектории пуассоновского процесса, распространяющегося в обратном направлении времени.

Глава 12. Алгоритм Метрополиса В случае 0 = нетрудно вычислить все интегралы, вхо дящие в показатель экспоненты (12.14):

0 ( + ( )) = ( ) 2 3 (q, q) + (q, t T), = + + 2 6 где q = { } – последовательность скачков, T = { }, ( 1 = +1 ++1, t = {1,..., } – убывающая после ) довательность случайных моментов времени, в которые проис ходят скачки = для траектории, двигающейся в = обратном направлении времени, то есть =, и = ··· 1 ··· 1 1 =.

··· ··· ··· ··· ··· 1 1 Шесть строчек графиков соответствуют стохастическим оцен кам собственных функций квантовой эволюции во внешнем по ле + 4 sin ( = 0.1, см. (12.14)) на рис. 12.11. Для соб = ственных функций наиболее гладких в импульсном представле нии {0.626, 0.537, 0.466} и {0.626, 0.466, 0.301} для наиболее гладких собственных функций в координатном представлении. Для аппроксимации разрешающего оператора ( ) методом Монте-Карло использована выборка по миллио ну траекторий. Сетки в координатном и импульсном представ лении содержат 501 и 255 узлов соответственно. Состояния в координатном представлении умножены на 11 для сглажи вания графиков.

12.3. Дискретный случай Abs p Re p Im p 0. 0. 0. 0. 0. 0. 0. 0. -0. 0. 0. -0. -10 0 10 20 30 -10 0 10 20 30 -10 0 10 20 Abs p Re p Im p 0.25 0. 0. 0.2 0. 0. 0. 0.1 0 -0. 0. -0.1 -0. -10 0 10 20 30 -10 0 10 20 30 -10 0 10 20 Abs p Re p Im p 0.2 0. 0. 0. 0. 0.15 0. 0. 0. 0. -0. -0. 0.05 -0. -0. -0. -10 0 10 20 30 -10 0 10 20 30 -10 0 10 20 Abs x Re x Im x 0.25 0. 0. 0. 0. 0. 0. 0. 0.15 0. 0.1 0. 0. 0. 0. 0.05 0 -0.02 -10 -5 -15 10 -15 -10 -5 5 -15 -10 -5 10 15 10 0 Abs x Re x Im x 0.25 0.2 -0. -0. -0. 0.15 -0. -0. 0. -0.1 -0. 0.05 -0. -0. -0. 0 -15 -10 -5 5 10 -15 -10 -5 5 10 -15 -10 -5 5 10 Abs x Re x Im x 0.25 0. 0. 0.2 -0.05 0.15 -0.1 -0. -0. 0.1 -0. -0. 0.05 -0.2 -0. 0 -15 -10 -5 5 10 -15 -10 -5 5 10 0 -15 -10 -5 5 10 Рис. 12.11. Численная оценка наиболее гладких в импульсном либо координатном пространстве собственных функций уравнения Шре 2 дингера с гамильтонианом (, ) = + + =1 sin Глава 12. Алгоритм Метрополиса 12.3. Алгоритм Метрополиса в дискретном случае Предположим, что требуется построить стохастическую мо дель случайной величины { } с заданным распределе нием ( = ) =, 1, имея в распоряжении некоторую достаточно простую марковскую цепь с тем же мно жеством состояний, достижимых из любой начальной точки.

Примерами таких цепей являются 1) случайное блуждание, для которого, = 1,±1 (mod ) ;

2) случайный выбор одной из 1 точек с вероятностью = ( 1)1, = ;

3) циклический перебор всех состояний =,+1 (mod ), где – переходные вероятности цепи Маркова.

Важным для физических приложений примером случайной величины является дискретная аппроксимация случайной кон фигурации тождественных частиц с парным взаимодействи ем во внешнем потенциале при температуре. Конфигурация задается набором координат = (1,..., ) ансамбля частиц.

Пусть потенциальная энергия системы имеет вид ( ), = (1,..., ) = ( ) + =1 где – число частиц и R – координата -й частицы3.

Соответствующая весовая функция 1 (1,..., ) (12.15) () = Распределение частиц в пространстве импульсов предполагается про странственно однородным и максвелловским. Вклад этого распределения в теплоемкость и другие термодинамические характеристики соответству ют значениям хорошо известных величин для идеального классического газа. Отклонения реальных статистических систем от идеальных связаны с парными взаимодействиями и в отсутствие магнитного поля определя () = (1,..., ).

ются распределением 12.3. Дискретный случай задает распределение вероятностей на множестве состояний R, – температура и = (, ) – нормировочный множи тель или статистическая сумма.

Рассматриваемые ниже алгоритмы позволяют построить на множестве всех возможных конфигураций = {(1,..., )} марковскую цепь, которая в пределе посещает каждую такую конфигурацию с относительной частотой = (1,..., ), заданной формулой (12.15). Внешний потенциал позволя ет учесть влияние окружения на состояние системы (внешние поля и граничные условия), а – парные взаимодействия в системе частиц.

Для численных оценок обычно используется ансамбль ча стиц локализованных в конечном объеме R с периодиче скими или нулевыми условиями на границе, причем для упро щения вычислительных процедур множество значений коорди нат = (1 (),..., ()) R сужается на конечную (быть может, неравномерную) сетку. Если число узлов такой сетки равно, а число частиц равно, то полное число возможных конфигураций на этой сетке равно = !/( )! =... ( + 1).

Таким образом с точностью до нормировочного множителя распределение есть сеточная функция, заданная в уз лах;

ее значение на -й конфигурации будем обозначать через. Поскольку полное число конфигураций обычно вели ко, практический интерес представляют методы, не требующие вычисления статсуммы4. По этой причине мы будем предпо лагать, что распределение {1,..., } известно с точностью до скалярного нормировочного множителя.

Система из 100 частиц в R описывается с помощью сетки, состоящей как минимум из 2 узлов (не менее, чем по 2 на каждую координату).

103, то простой перебор всех таких узлов потребует не Поскольку 90 менее 10 операций. При быстродействии 10 операций в секунду простой перебор точек на компьютере займет 10 секунд, что составляет около трех миллионов часов.

Глава 12. Алгоритм Метрополиса Применительно к рассматриваемому распределению (12.15) случайное блуждание с переходными вероятностями мо- жет быть устроено следующим образом. На очередном ша ге случайным (равновероятно или с вероятностью, пропорцио нальной ( )/ ) или детерминированным образом (последо вательным перебором) выбирается номер частицы (например, ), координата которой меняется случайным образом и пере ходит в незанятую ячейку сетки (, = ), при этом номера и сопоставляются точкам сетки и соответ- ственно:

{ (1,...,,..., ) = exp 1 ( ) ( ) ( = (1,...,,..., ) } ( ), (12.16) ) ( ) + : = : = где = (1,...,,..., ), = (1,...,,..., ).

Остальные точки остаются неизменными.

Замечание 12.1. На первом шаге список всех номеров узлов сетки произвольным образом разбивается на два непересека ющихся подмножества, | | = (список занятых узлов) и, | | = (список свободных узлов). Множество на зывается начальной конфигурацией. Марковская цепь состоит из последовательности конфигураций, содержащих точек, а переход от предыдущей конфигурации к последующей состоит в случайной перестановке точек из и. Для замены точки из точкой из устанавливается взаимно однозначное соот ветствие между номером узла и его -мерными координата ми = (1 (),..., ()) R. Затем случайно выбранный элемент заменяется случайно выбранным элементом (0) : конфигурация = (1,...,,..., ) преобразу (1) ется в конфигурацию = (1,...,,..., ), в которой точка заменена на = {1 ( ),..., ( )}. Эта про цедура называется процедурой Кавасаки: она сохраняет число частиц | | и число свободных узлов | |. Таким образом, на 12.3. Дискретный случай множестве -частичных конфигураций системы частиц зада (0) (1) (2) ется случайное блуждание....

В силу тождественности частиц порядок списков и не существенен для вычисления сумм (12.15), (12.16), поэтому вновь полученная точка дописывается в начало либо в ко нец списка. Частично детерминированный вариант случайного блуждания состояния системы частиц по множеству конфигу раций состоит в последовательной замене точек из начального списка узлов сетки занятых частицами узлами, случайно вы бираемыми точками из текущего списка свободных узлов.

Упражнение 12.8. Дать аналитическое выражение для отоб ражения и вычислить описанные выше вероятности случайного блуждания.

Упражнение 12.9. Оценить вероятность появления наперед заданной конфигурации за шагов.

Идея Метрополиса (N. Metropolis, 1957) состоит в опреде лении переходных вероятностей новой марковской цепи, = 1, 2,..., которая посещает состояния с номерами 1, 2,... с относительными частотами {1, 2,... } и в пределе за бывает свое начальное состояние. В этом случае оценку мате матического ожидания по распределению = { } случайной величины можно заменить выборочным средним по состоя ниям цепи Маркова :

E () = lim ( ).

= Марковская цепь порождается случайным блужданием и функ ционалом (1,... ) состояния системы.

Для этой цели Метрополис предложил следующую конструк цию переходных вероятностей, улучшающую метод отбора фон Глава 12. Алгоритм Метрополиса Неймана в том отношении, что никакие статистические исхо ды не отбрасываются. Для фиксированного, задающего те кущее состояние цепи Маркова, условное распределение, = описывает распределение состояний, являющихся кан дидатами для перехода.

Марковская цепь переходит из состояния в состояние с номером в двух случаях: с вероятностью =, если, если.

, или с вероятностью = Поскольку эти события несовместны, то def =, = ( / ), (12.17) () = min{1, } = (1,) () + (0,1] (), где () – индикаторная функция множества, то есть состо яние может измениться при любом соотношении между веро ятностями и. Марковская цепь остается в состоянии с вероятностью ( ) ( ) def = (0,1] = = ( ) ( ) 1 (0,1] = (12.18) = = (1 ) (0,1] ( ), = = где =, то есть состояние может не измениться только в том случае, если вероятность для возможного нового со стояния строго меньше, чем она была в исходном состоянии.

С точки зрения практической реализации алгоритм весьма прост: если марковская цепь в момент находится в состоя нии, то для определения следующего состояния достаточно с помощью распределения выбрать случайное состояние и перейти в него с вероятностью min{1, / }. При этом вероятность остаться в состоянии равна 1 min{1, / }.

12.3. Дискретный случай Важно отметить, что приведенные формулы (12.17) – (12.18) содержат лишь отношения /, что позволяет использовать ненормированное распределение.

Теорема 12.3. Если = 0, то формулы (12.17) – (12.18) корректно определяют переходную вероятность.

Если =, то 1) выполнено условие детального баланса (12.19) = ;

2) оператор, сопоставляемый транспонированной матри це { }, самосопряжен в пространстве 2 () со скалярным произведением (12.20) (, )2 () = ;

3) если марковская цепь имеет единственное предельное распределение, то это распределение совпадает с.

Доказательство. Нетрудно видеть, что в силу (12.17) имеют ме сто следующие тождества:

= + = =1 = (1 ) (0,1] ( )+ = ( ) (12.21) + (1,) ( ) + (0,1] ( ) = = ( ) = (0,1] ( ) + (1,) ( ) = = = = = 1, = где = /. Таким образом, – корректно определенная стохастическая ( )-матрица.

Глава 12. Алгоритм Метрополиса Формула (12.18) означает, что диагональные члены матри цы (12.18) можно переписать в виде = 1 =, поэтому из (12.18) следует выражение для дискретного аналога эволюционного оператора:

= (( )) = (1 ) = = (12.22) ( ) = = для любого распределения { }.

1) Проверим условие детального баланса (12.19). Имеем ( ) = (1,) ( / ) + (0,1] ( / ) = ( ) = (0,1) ( / ) + [1,) ( / ) = ( ) = (0,1] ( / ) {1} ( / ) + ( ) + (1,) ( / ) + {1} ( / ) = = + {1} ( / ) ( ) =, где (0,1] () = (1,) () + {1} (), {1} ( / ) ( ) = 0 и =.

2) Строго говоря, условие детального баланса означает сим метричность матрицы = { }, поэтому самосопряжен ность оператора в 2 () является следствием условия де тального баланса:

(, )2 () = =, = (, )2 ().

=, 3) Наконец, если марковская цепь имеет единственное предельное распределение, то для доказательства теоремы до 12.4. Марковские цепи и стохастическая эволюция статочно проверить, что =. Используя условие деталь ного баланса и равенство = 1, получим (12.23) ( ) = = =.

Таким образом, – собственный вектор матрицы, описы вающей переходные вероятности марковской цепи алгоритма Метрополиса.

12.4. Марковские цепи и эволюция с непрерывным временем Рассмотрим связь конструкции Метрополиса с уравнениями Колмогорова–Феллера. Обозначим через вероятность перехода из в (см.(12.17)), 0 – постоянная, и пусть = { } – симметричная матрица переходных вероятностей некоторой цепи Маркова, определяющая стохастическую мат рицу, имеющую стационарное распределение. Используя тождество (12.22), определим генераторы * и так называе мых прямого:

def (* ) = ( ) = (( )) = и обратного уравнений Колмогорова–Феллера:

def ( ) = (( ) ).

( ) = = Можно легко убедиться, что операторы * и сопряжены от носительно скалярного произведения, 1, (, ) = в том смысле, что (, ) = (, * ). Задачи Коши для прямого и обратного уравнений Колмогорова–Феллера ( * ) = 0 (12.24) ( ) = 0, Глава 12. Алгоритм Метрополиса с начальными условиями =0 = 0 и =0 = 0 1 опи сывают эволюцию векторов из и 1 соответственно. Реше ния уравнений (12.24) существуют, единственны и могут быть представлены абсолютно сходящимися рядами:

( ) ( ) () ) =( = =, ! !

=0 = ( ) ( ) () * =( ) = =.

! !

=0 = Разложения с вынесенным множителем показывают, что если начальные условия и неотрицательны, то компоненты векторов () и () также неотрицательны. А из разложений по степеням и очевидно, что поскольку (1) = 0, * ) = 0 и ( ) = 0 для любого, то разрешающие * ( операторы соответствующих уравнений Колмогорова–Феллера сохраняют оценки норм неотрицательных векторов в и соответственно, а распределение является инвариантным от * носительно действия полугруппы.


В заключение этого раздела заметим, что коэффициенты () () = !

имеют смысл вероятности скачков за время для пуассонов ского процесса с интенсивностью скачков, а – матрица переходных вероятностей цепи Маркова за шагов. Поэтому, обозначив через – случайную координату в момент пуас соновского процесса с распределением скачков и их интен сивностью5, действие полугруппы можно представить в * виде математического ожидания:

* = E, где E – условное математическое ожидание по множеству тра екторий, начинающихся в точке 0 =.

– среднее число скачков пуассоновского процесса в единицу времени.

12.5. Алгоритм для несимметричных цепей 12.5. Алгоритм Хастингса для несимметричных цепей Заметим, что – условная вероятность отбора перехода при альтернативе, которая должна удовле творять уравнению детального баланса. С этой точки зрения алгоритм Метрополиса не является единственно возможным.

Предполагая, что = ( / ), в качестве () можно использовать функцию Метрополиса () = min(1, ), функ цию Глаубера () = /(1 + ), а также любую функцию : R+ [0, 1] вида (, 1 ) 1, (12.25) () =, (, ) = (, ), (, 1 ) такую, что () = 1, (0) = 0. Например,. (12.26) () =, () = max{, 1 } (1/2 + 1/2 ) Нетрудно видеть, что при условии = для любой функ ции указанного вида выполнено условие детального баланса:

= ( ) = = (, ) (12.27) = = ( ) =, (, ) где = /, = /.

Лемма 12.1. Функция Метрополиса () является макси мальной среди функций : R+ [0, 1], удовлетворяющих уравнению детального баланса:

( / ) = ( / ).

Глава 12. Алгоритм Метрополиса 1 0. 0. 0. 0. 0. 0. 0. 0. 4 0 2 1 1. 0 0.5 2 2.5 Рис. 12.12. Функция Метрополиса () = min(1, ) (слева) и функция Глаубера () = /(1 + ) (справа) Доказательство. Пусть. Ясно, что ( / ) = 1 ( / ).

С другой стороны, поскольку функция Метрополиса удовле творяет уравнению детального баланса, то доказательство лем мы следует из неотрицательности левой части равенства ( ) ( ) 0 1 ( / ) = ( / ) ( / ) = ( ) ( ) = ( / ) ( / ) = / ( / ).

Лемма 12.1 показывает, что алгоритм Метрополиса наибо лее жестко выводит марковскую цепь на множество наибо лее вероятных траекторий. Это его свойство может быть как достоинством в случае, если наиболее вероятная траектория единственна, так и недостатком, если существует несколько изолированных локальных экстремумов.

Упражнение 12.10. Показать, что функция = ( / ), () = 1 + удовлетворяет условию детального баланса (12.19).

12.5. Алгоритм для несимметричных цепей Упражнение 12.11. Доказать утверждения теоремы 12.3 и def леммы 12.1, если = при =. Воспользо ваться тем, что из = 0 следует, что (1 ) = (1 ).

= = Применительно к моделям статистического моделирования в физике состояния естественным образом отождествляются с конфигурациями фиксированного или переменного числа ча стиц, причем для стохастического моделирования марковских последовательностей конфигураций, содержащих фиксирован ное число частиц, можно обеспечить условие симметричности = и использовать алгоритм Метрополиса, а для кон фигураций с переменным числом частиц (большой канониче ский ансамбль) используется рассматриваемый ниже алгоритм Метрополиса–Хастингса, не использующий условие симметрич ности.

Хастингс (W. K. Hastings, 1970) заметил, что для любой не обязательно симметричной переходной вероятности (за данной вместо симметричной стохастической матрицы ), не нарушая условие детального баланса (12.19), вероятности перехода цепи можно определить следующим образом:

( ) def def =, =, (12.28) def = 1.

= Теорема 12.4. Распределение { } является стационарным для переходных вероятностей (12.28) при любом выборе функ ций () согласно формулам (12.25).

Доказательство. Достаточно проверить условие детального ба ланса (12.19). Действительно, используя (12.25)), по аналогии Глава 12. Алгоритм Метрополиса с (12.27) для = / имеем ( ) = = () = = ( 1 ) = = (, 1 ) ( ) = =.

Методами Хастингса и Глаубера–Хастингса называются алго ритмы, использующие функции, в формулах (12.28).

Пример 12.4. В качестве примера алгоритма Метрополиса рассмотрим вычисление поправок к удельной теплоемкости ансамбля из = 200 частиц в трубке (в поре) радиуса = длины = 0.5 или = 1, на торцах которой поставлено пери одическое граничное условие, а взаимодействия между части цами и взаимодействие со стенкой описываются потенциала ми типа Леннарда-Джонса6, так что модельная потенциальная энергия ансамбля из частиц равна ( ) =, где = )12 ( )6 ] [( =4 + (12.29) [( )12 ( )6 ] + 4, | | | | = R3 – координаты частиц, – расстояние от оси цилиндра до частицы, индекс mb указывает на взаимодействие частицы со стенками поры, а mm – на парное взаимодействие частиц:

= = 106, 6 = 2 = 2 · 105.

6 Для ускорения вычислений потенциал Леннарда-Джонса обре зается на расстояниях, превышающих 2.5.

E. Lennard-Jones – это одна персона.

12.5. Алгоритм для несимметричных цепей Рассматриваемая система частиц характеризуется постоян ным объемом и числом частиц. Координаты частиц явля ются случайными величинами, поэтому ( ) является случай ной величиной и на одну частицу приходится средняя энергия E ( ) 1 ( ) 3 =1 2 3 ( ), = = R3 где =, – постоянная Больцмана, – температура в градусах Кельвина, – область, ограниченная стенками поры, 1 ( ) 3 = (,,, ) = (2) 2 – нормировочный множитель, который, к счастью, не требу ется для применения алгоритма Метрополиса. Однако, как показывает следующее упражнение, в теоретических оценках и их вероятностной интерпретации он играет важную роль.

Упражнение 12.12. В расчете на одну частицу теплоемкость идеального одноатомного газа в R3 равна = 3. Показать, что для взаимодействия (12.29) теплоемкость равна 3 = D( ).

+ (), () = Среднее значение радиального распределения плотности ан самбля, состоящего из 200 частиц, а также зависимость попра вок к теплоемкости идеального газа от плотности и темпера туры изображены на рисунке 12.13. Данные значения получе ны в результате 100 шагов алгоритма Метрополиса;


каждый шаг состоит в последовательной случайной вариации положе ния частиц в соответствии с правилом { } с вероятностью = min 1, (12.30), где – текущие координаты в R3 -й частицы, – случай ное смещение точки, и – соответствующие значения вкладов -й частицы в полную энергию ансамбля.

Глава 12. Алгоритм Метрополиса 0. 0. 0. 0. 0 0. 0 1 2 3 4 0.0 0.2 0.4 0.6 0.8 1. Рис. 12.13. Слева радиальное распределение плотности в случае = 1, = 2;

справа поправки к теплоемкости идеального газа в случае = 0.5 и = 1 (верхний и нижний графики). При увеличе нии длины полости снижается плотность числа частиц, ослабляется взаимодействие и снижается теплоемкость Начальное распределение ансамбля выбиралось равномер ным по цилиндрической полости. Для ансамбля из 200 ча стиц с указанными выше параметрами потенциалов Леннарда– Джонса начальное значение полной энергии лежит в области 104 108 и не более чем через 5 шагов (5 последовательных ва риаций положения каждой частицы в соответствии с формулой (12.29)) снижается до величины порядка 110, а затем флук туирует на этом уровне на протяжении 100 шагов, по которым вычисляется оценка дисперсии.

Аналогичным образом можно вычислить поправки к удель ной теплоемкости, изменив конструкцию гамильтониана = log +, = описывающего термодинамическую систему при постоянном давлении и числе частиц, и, рассматривая объем как дополнительную флуктуирующую безразмерную переменную (см. [11], п. 4.3.3, (4.97)), можно вычислить поправки к уравне нию состояния 1 ( E ) ( ), ( ), = 3, = = + 3,:

12.5. Алгоритм для несимметричных цепей (там же, п. 3.1.3, (3.70)).

В заключение мы рассмотрим статистическую модель ан самбля молекул с переменным числом частиц в проницаемой поре (система помещена в фиксированный объем при посто янном давлении, число частиц – случайная величина) при условии, что задано значение химического потенциала, рав ное значению химического потенциала окружения7.

Пример 12.5. Статистический ансамбль с переменным чис лом частиц описывается так называемым большим канониче ским распределением = {0, 1,... }, -частичная плотность которого равна ( ) 1 =1 2 +( ), 0, (1,..., ) = gr ! ( ) 1 =1 2 +( ).

gr = 1 + !3 (R3 ) = Для упрощения обозначений положим = (, ) R6, 2 = 2 = 2 – длина волны де Бройля, – посто янная Планка (см. [13], п. 4.6, [11], п. 4.3.4 и [12], п. 5.6).

Марковская динамика большого канонического ансамбля со стоит из цикла случайных смещений частиц, совмещенного со случайными попытками увеличить или уменьшить число ча стиц. Цикл пространственных смещений, организованный так же, как и в предыдущем примере, выбирается с вероятностью 0. С вероятностью 1 (1 0 ) выбирается одно из двух аль тернативных событий: либо рождение частицы в равномерно распределенной случайной точке, либо уничтожение одной из частиц, существующих в данный момент8.

Таким образом, алгоритм Метрополиса состоит из последо вательности достаточно простых процедур. Пусть в текущем 7 Для идеального окружения = log, где – объем, приходящийся на одну молекулу в R. Если вне объема газ описывается уравнением 3 Ван-дер-Ваальса с параметрами и, то = log + 2.

0 = 0. Выбор достаточно эффективен.

Глава 12. Алгоритм Метрополиса Fluctuations of N Final r 15 0 0 0.2 0.4 0.6 0.8 1 0 100 200 300 400 Trial creation fluctuations of E Trial annihilation fluctuations of E 0. 1. 0. 1. 0. 1 0. 0.8 0. 0.6 0. 0 50 100 150 0 50 100 150 200 250 Рис. 12.14. Предельное радиальное распределение плотности в слу чае = 1, = 2, = 0.5 и флуктуации числа частиц (верхний ряд). флуктуации числа энергии ансамбля при рождении и уничто жении частиц (нижний ряд) состоянии ансамбль состоит из точек. Далее выполняются следующие операции.

1) Проверяется условие окончания алгоритма9. Если оно не выполнено, генерируется случайное число [0, 1]. Если 0, то выполняется описанный выше цикл смещений (12.30). Иначе генерируется случайное число [0, 1], и если 0.5, то выполняется пункт 3 данного алгоритма.

Если 0.5, то выполняется пункт 2.

2) В этом блоке алгоритма делается попытка увеличить чис ло частиц в ансамбле. Для этого генерируется новая точ ка +1, для которой вычисляется поправка + к полной энергии и новая частица с координатой + добавляется к ансамблю с вероятностью { } + (12.31) cre = min 1,.

( + 1) Обычно задается максимальное число шагов и текущее значение счет чика сравнивается с максимальным значением.

12.5. Алгоритм для несимметричных цепей Далее выполняется первый пункт алгоритма.

3) В этом блоке делается попытка уменьшить число частиц в ансамбле. С этой целью случайным образом выбира ется -я частица ансамбля с координатой, ( – текущий размер ансамбля), для которой вычисляется поправка к полной энергии, вносимая этой частицей.

Частица исключается из ансамбля с вероятностью { } (12.32) ann = min 1,.

Далее выполняется первый пункт алгоритма.

Для ускорения работы алгоритма можно создать дополни тельный ансамбль, содержащий координаты "виртуальных" частиц, в который записываются координаты уничтоженных "реальных" частиц и из которого выбирается случайная ча стица в том случае, если требуется расширить размер ансамбля ([11], n. 4.3.4).

Упражнение 12.13. Убедитесь, что 1 имеет смысл вероят ности отсутствия частиц в объеме, а распределение, нор мировочный множитель gr, cre и ann не зависят от длины волны де Бройля. Для корректного применения алгоритма важно, чтобы химический потенциал окружения был вычислен с той же постоянной.

Заключение Заключение Подведем итог. Мы рассмотрели немало важных, но отнюдь не самых сложных результатов теории вероятностей и матема тической статистики. Ряд важных конструкций предполагает более глубокое изучение вопросов, связанных с измеримостью (моменты остановки случайных процессов), тонкими асимпто тическими оценками (вероятности больших уклонений), с тео рией стохастических дифференциальных уравнений и т.д. Мно гие из них имеют важные приложения в физике и других есте ственных науках и допускают численные реализации на ком пьютере, что позволяет переложить значительную часть ин теллектуальной работы на ЭВМ и ПК. Однако без понимания сути того или иного статистического метода и предположений, положенных в его основу, оказывается трудно, во-первых, фор мализовать прикладную задачу и, во-вторых, адекватно оце нить достоверность полученного результата. Нам хотелось бы надеяться, что данное пособие позволит читателю ориентиро ваться в рассмотренных разделах теории вероятностей и ис пользовать теорию в прикладных исследованиях, а также под готовит читателя к самостоятельному изучению новых мето дов, не вошедших в настоящую книгу.

Список литературы Список литературы 1. Статистика для физиков. — М.: Мир, 1967. — 242 с.

Худсон Д.

2. Введение в теорию вероятностей и ее приложения.

Феллер В.

Т. 1 — М.: Мир, 1967. — 498 с. — Т. 2. — М.: Мир, 1967. — 752 с.

3. Наглядная математическая статистика. — М.:

Лагутин М.Б.

Бином, 2007. — 472 с. — 472 с.

4. Вероятность. — М.: Наука, 1980. — 575 с.

Ширяев А.Н.

5. В.Б., Колмогоров А.Н. Предельные распределения Гнеденко сумм независимых случайных величин. — М.–Л.: Гос. издатель ство технико-теоретической литературы, 1949. — 264 с.

6. Newman M.E.J. Power laws, Pareto distribution and Zipf’s law// Contemporary Physics. — 2005. — V. 46. — P. 323–351.

7. Автомодельная диффузия и устойчивые законы// Учайкин В.В.

Успехи физических наук. — 2003. — T. 173. — Вып. 8. — С. 847– 876.

8. Квантовый хаос. — М.: Физматлит, 2004. — Штокман Х.-Ю.

374 с.

9. : Справочник. Под ред. И.С. Григорьева, Физические величины Е.З. Мейлихова. — М.: Энергоатомиздат, 1991. — 1234 с.

10. Таблицы математической стати Большев Л.Н., Смирнов Н.В.

стики. — М.: Наука, 1983. — 416 с.

11. Computer simulation in theoretical physics. — Berlin, Heerman D.

Heidelberg, New-York: Springer, 1990. — 155 с.

12. Understanding molecular simulation. — San Frenkel D., Smit B.

Diego: Academic Press, 2002. — 658 с.

13. Allen M.P., Tildesley D.J. Computer simulation of liquids. — Oxford: Oxford University Press, 1987. — 400 с.

14. Золотарев В.М. Одномерные устойчивые распределения. — М.:

Наука, 1983. — 306 с.

15. Экстремумы случайных Лидбеттер М., Линдгрен Г., Ротсен Х.

последовательностей и процессов. — М.: Мир, 1989. — 392 с.

Предметный указатель max-устойчивое распределение Смирнова, 47 кумулянт абсолютный момент 24 лемма Шура автокорреляция автомодельность процесса метод Глаубера–Хастингса, Винера 200 максимального алгоритм Метрополиса, 230 правдоподобия, Хастингса, 237 наименьших квадратов, апериодическое состояние 188 обратной функции, отбора Неймана, безграничная делимость 72 усечения, метод отбора Неймана вариационный ряд 154 момент внешнее произведение 120 мощность критерия возвратное состояние выборочная оценка наблюдаемая независимость признаков гамма-функция независимые события непараметрический критерий диффузионный процесс доверительная вероятность неприводимая цепь Маркова доверительный интервал неравенство Белла, достижимое состояние Иенсена, Коши–Шварца, закон арксинуса, Рао–Крамера, больших чисел, Чебышева, несмещенная оценка интервальные оценки несмещенная статистика информация Фишера несовместные события нормальное распределение ковариационная матрица 22, ковариация однородная цепь Маркова корреляция омега-квадрат коэффициент детерминации оптимальная статистика кривая Пирсона ортогональное преобразование критерий Колмогорова, однородности, остаточная сумма квадратов равенства дисперсий, равенства средних, 108 относительная компактность Предметный указатель отрицательное биномиальное тензорное произведение распределение 16 векторов ошибка второго рода, 106 теорема Андерсона–Дарлинга, первого рода, 106 Бореля–Кантелли, плотное семейство 64 Бохнера–Хинчина, поглощающее состояние 188 Гливенко–Кантелли, положительное состояние 188 де Финетти–Леви–Хинчина, полуметрика 23 потенциал Леннарда-Джонса 238 Крамера–Мизеса, представление Леви–Хинчина 76 Линдеберга, простая гипотеза 168 Ляпунова, Муавра–Лапласа, равенство Парсеваля 58 Пирсона, ранговое распределение 154 Пойа, распределение Вейбулла, 47 Прохорова, Вигнера, Гумбеля, 47 уравнение Леви, 53 Колмогорова–Феллера Стьюдента, 102, 108 Фишера, 109 уровень значимости Фреше, 47 условие детального баланса, Хольцмарка, 78 Карлемана, Пойа, слабая сходимость 64 устойчивый закон сложная гипотеза случайная величина 16 формула Байеса, случайное блуждание 185 полной вероятности, смещение 178 Стирлинга, событие 9 Фейнмана–Каца, состояние 28 функция правдоподобия состоятельная оценка спектральное разложение 29 числа Каталана статистика 38 число инверсий статистическая значимость статистическая сумма 227 энтропия Шеннона стохастическая матрица сходимость по вероятности, по распределению, почти всюду, почти наверное, с вероятностью единица, тензорное произведение Учебное издание ЧЕБОТАРЕВ Александр Михайлович ВВЕДЕНИЕ В ТЕОРИЮ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКУЮ СТАТИСТИКУ ДЛЯ ФИЗИКОВ Редактор О.П. Котова Корректор И.А. Волкова Подписано в печать 30.10.2008. Формат 60 84 1/16. Бумага офсетная.

Печать офсетная. Усл. печ. л. 12,5. Уч.- изд. л. 12,0. Тираж 200 экз.

Заказ № Государственное образовательное учреждение высшего профессионального образования Московский физико-технический институт (государственный университет) Отдел автоматизированных издательских систем «ФИЗТЕХ-ПОЛИГРАФ»

141700, Московская обл., г. Долгопрудный, Институтский пер., Чеботарев Александр Михайлович, доктор физико-математических наук, профессор ка федры квантовой статистики и теории поля Физического факультета МГУ и кафедры ма тематики и математической физики факуль тета нанотехнологий и информатики МФТИ.

Известный специалист в области вероятност ных методов в физике, автор более 80 статей и монографии Lectures on Quantum Probability, SMM, 2000.

Книга написана для студентов физико-мате матических специальностей и ориентирована на углубленное изучение теоретических и вы числительных возможностей теории вероят ностей и ее применений в физических ис следованиях. Автор уделил внимание дока зательству центральной предельной теоремы, теоремы Бохнера–Хинчина, неравенства Рао– Крамера, критериев Пирсона, Фишера, Кол могорова, теоремы Перрона–Фробениуса, ме тоду Монте-Карло и алгоритму Метрополи са. Обсуждается использование системы ана литических вычислений Mathematica, позво ляющей рассмотреть большое число примеров применения статистических критериев и мето дов статистического моделирования.



Pages:     | 1 |   ...   | 2 | 3 ||
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.