авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 3 | 4 || 6 | 7 |   ...   | 10 |

«Б.П. Безручко, Д.А. Смирнов МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ И ХАОТИЧЕСКИЕ ВРЕМЕННЫЕ РЯДЫ Издательство ГосУНЦ «Колледж» Саратов, 2005 УДК ...»

-- [ Страница 5 ] --

Часть I. Модели и прогноз 2. Гибель. Каждая клетка, у которой больше трёх соседей, погибает из за перенаселённости. Каждая клетка, вокруг которой свободны все соседние клетки или же занята всего одна клетка, погибает от одиночества.

3. Рождение. Если число занятых клеток, с которыми граничит какая нибудь пустая клетка, в точности равно трём, то на этой клетке происходит рождение нового организма.

Так, если начальное распределение клеток (ландшафт) имеет вид рис.3.22,а, то через шаг, в следующий момент дискретного времени будет иметь место конфигурация рис.3.22,б, и т.д. При этом некоторые начальные структуры погибают, другие Рис.3.22. Примеры некоторых выживают и становятся ландшафтов на рабочем поле клеточного стационарными, или периодически автомата игра «жизнь»: а) заданный повторяются, или перемещаются в начальный профиль, n = 0;

б) ситуация пространстве и т.п. Свойства после первого шага, n = данной сети: структуры, разделённые двумя пустыми клетками, не влияют друг на друга;

конфигурация в момент времени n полностью определяет будущее (состояние в моменты n+1, n+2 и так далее);

восстановить прошлое системы по её настоящему не удаётся (динамика необратима);

устойчивые формы обычно обладают симметрией и т.п. Чем большую площадь занимает сообщество, тем сложнее оно может себя вести.

В настоящее время игра «жизнь» получила развитие. Так, в модернизированных вариантах автомат трехмерен, способен моделировать несколько популяций, например, таких как взаимодействующие «травоядные» и «хищники». Но даже в своих усложненных вариантах этот простой пример отнюдь не ограничивает уровень сложности задач, которые могут решаться с помощью клеточных автоматов. Клеточный автомат может быть описан эквивалентно системой связанных отображений с дискретными состояниями. Его особенности – простота и наглядность конструирования и удобство компьютерного исследования.

Клеточные автоматы используются для моделирования гидродинамических и газодинамических течений, электронных цепей, распространения тепловых потоков, движения толпы и т.п. [305,116]. Их применяют при составлении генетических алгоритмов, при поиске кратчайшего пути на графе и т.д. Подробности см., например, в [16, 162, 109] и на сайте [339].

Глава 3. Динамические модели эволюции 3.7.3.

Дифференциальные уравнения с запаздыванием Дифференциальные уравнения с запаздывающим аргументом обычно используются для моделирования систем, поведение которых определяется не только текущим состоянием, но и значениями переменных в предыдущие моменты времени. Такие объекты широко представлены в природе, они изучаются в физике, биологии, физиологии, химии. Причины запаздывания могут быть различными. Так, в динамике популяций оно связано с тем, что особи участвуют в репродукции лишь после периода взросления, а в пространственно развитых радиофизических системах оно обусловлено конечной скоростью распространения сигнала, здесь время запаздывания связано с временем, требуемым на преодоление расстояния между элементами. В достаточно общем случае системы с запаздыванием описываются уравнением n x ( n ) (t ) + n1 x ( n1) (t ) +... + 1 x = F ( x(t ), x(t 1 ),..., x(t k )), (3.40) & где 1,..., k учитывают возможность существования нескольких причин запаздывания с разными характерными масштабами. Частными случаями уравнения (3.40) являются следующие эталонные модели. Уравнение Икеды, описывающее динамику пассивного оптического резонатора, x(t ) = x(t ) + µ sin( x(t ) x 0 ) ;

уравнение Маккея – Гласса, & описывающее процесс выработки красных кровяных клеток в живых x(t ) = b x(t ) + a x(t ) /(1 + x c (t )) ;

организмах, уравнение & генератора с запаздывающей обратной связью, очень популярного в радиофизике,13 x(t ) = x(t ) + f ( x(t )).

& Несмотря на единственную скалярную динамическую переменную, все представленные динамические системы являются бесконечномерными, т.к. при задании начальных условий необходимо указать распределение динамической переменной на временном отрезке [0, ]. Даже ДУЗ первого порядка могут демонстрировать сложные движения, которым в фазовом пространстве соответствуют аттракторы очень высокой размерности, хаос, мультистабильность и прочие нелинейные феномены. Для более основательного знакомства с возможностями моделей в виде ДУЗ см.

критический обзор работ по сложной динамике генератора с запаздывающей обратной связью [106], монографию [76], статьи [90] и сайт [343].

Генератор представляет собой замкнутые в кольцо нелинейный усилитель (его характеризует функция f), инерционный элемент (фильтр, инерционность характеризуется параметром ) и линия задержки ( – время задержки).

Часть I. Модели и прогноз 3.7.4. Дифференциальные уравнения в частных производных Это, пожалуй, самый хорошо изученный и исторически ранний вид математического аппарата, развитый специально для моделирования пространственно развитых систем. Дифференциальные уравнения в частных производных используются в самых различных научных дисциплинах: от физики, химии и биологии до экологии и экономики.

Достаточно вспомнить великие уравнения Максвелла в электродинамике [86], уравнение Шредингера в квантовой механике, уравнения типа реакция – диффузия в химии и биологии, уравнение Гинзбурга – Ландау (повсеместно). Форму ДУЧП имеют многие классические модели теории волн, например:

x t + v( x) x z = 0, где x – уравнение простой волны характеризующая величина, v – скорость распространения возмущения, в общем случае зависящая от его величины, z – пространственная координата, эта модель может описывать «укручение» и опрокидывание профиля волны;

уравнение Кортевега – де Вриза x t + v( x) x z + 3 x z 3 = 0, наиболее простая модель, имеющая решения солитонного типа (грубо говоря, это локализованные возмущения, распространяющиеся с постоянной скоростью без изменения формы и сохраняющие эти характеристики после столкновения друг с другом);

уравнение Бюргерса x t + v( x) x z 2 x z 2 = 0, простейшая модель, описывающая волны в системах с диссипацией, в частности, ударные волны (движение области резкого перепада значений x).

Система, описывающаяся даже уравнением в частных производных первого порядка с одной пространственной координатой (как в вышеупомянутых примерах), является бесконечномерной. Для задания ее состояния нужно задать начальную функцию x (0, z ). Если рассматривается система без пространственных границ (эта идеализация удобна, если система очень протяженная, а явления у ее границ слабо влияют на динамику и не интересуют исследователя), то эта функция должна быть определена на всей числовой оси z. Если же пространственная протяженность системы ограничена, то начальная функция должна быть задана только на соответствующем промежутке 0 z L, а в краевых точках задаются те или иные краевые условия, например, фиксированные концы – x (t,0) = x (t, L ) = 0. В последнем случае говорят о краевой задаче.

ДУЧП могут иметь аттракторы в виде неподвижных точек (состояния равновесия) и предельных циклов и прочих видов маломерной динамики, но могут демонстрировать и очень высокоразмерную динамику (система бесконечномерна). Этот вид математического аппарата еще более богат свойствами и сложен для исследования, чем все ранее рассмотренные в Глава 3. Динамические модели эволюции данной главе. Фундаментальный интерес вызывает вопрос об условиях существования и единственности решения ДУЧП, отчасти в связи с ним привлекают большое внимание в последнее время режимы с обострениями (когда решение существует только на конечном интервале времени), которые достаточно типичны [115, с.148-170].

Уравнениям в частных производных посвящена обширная литература, см., например, [161, 54, 154, 109].

3.8. Искусственные нейронные сети Искусственные нейронные сети (ИНС) – вид математических моделей, которые строятся по принципу организации и функционирования их биологических прототипов – сетей нервных клеток (нейронов) мозга.

Используется идея о том, что нейроны можно моделировать довольно простыми автоматами (искусственными нейронами), а вся сложность мозга, гибкость его функционирования и другие важнейшие качества определяются связями между нейронами. Термин «нейронные сети»

сформировался к середине 50-х годов XX века [271]. Очень активные исследования в этой области велись до 70-х годов, а затем имел место десятилетний спад интереса. В 1980-е интерес опять возродился (центром внимания стали ассоциативная память и нейрокомпьютеры), и к концу века число международных конференций по ИНС и нейрокомпьютерам достигло сотни.

Если искусственный нейрон представляет собой функцию, связывающую входное и выходное значения, и сигнал в сети распространяется только в одном направлении (нет обратных связей), то ИНС также будет лишь функцией, преобразующей входной сигнал в выходное значение. Главным образом, этот наиболее простой вариант мы кратко рассмотрим ниже. Если же есть обратные связи и/или нейрон представляет собой систему с собственной динамикой – отображение, то ИНС является многомерным отображением (системой связанных отображений со специфическими свойствами элементов и связей), см., например, [244]. Аналогично, если нейрон описывается обыкновенным дифференциальным уравнением, то ИНС есть система связанных ОДУ, см., например, работы [82, 83].

3.8.1. Стандартный формальный нейрон Такой искусственный нейрон состоит из адаптивного сумматора и нелинейного преобразователя (рис.3.23,а). На его входы подается вектор входных значений переменной {x n }. Каждому входу xi соответствует свой вес wi. Сумматор осуществляет взвешенное (адаптивное, подстраивающееся с помощью весов) суммирование входов Часть I. Модели и прогноз n S = wi xi, (3.41) i = а нелинейный преобразователь формирует сигнал на выходе нейрона y = F (S ). (3.42) Рис.3.23. Формальный и биологический нейроны: а) схема искусственного нейрона, б) график функции единичного скачка, в) нейрон биологический (черными точками отмечены входные синапсы, белыми – выходной, треугольниками – направление смещения возбуждения) Выбор функции активации F нейрона определяется: 1) спецификой задачи, 2) удобством реализации на ЭВМ, в виде электрической схемы или другим способом, 3) алгоритмом «обучения», см. п. 3.8.4 (некоторые алгоритмы накладывают ограничения на вид функции активации). Чаще всего вид нелинейности не оказывает принципиального влияния на решение задачи.

Однако удачный выбор может сократить время обучения в несколько раз.

Первоначально в качестве функции F часто использовалась «ступенька»

0, S 0, F (S ) = (3.43) 1, S 0, график которой приведен на рис.3.23,б. В настоящее время перечень возможных видов функции активации занял бы слишком много места [79, 346]. В частности, весьма распространена нелинейная функция с насыщением, так называемая логистическая функция или классический сигмоид:

F (S ) =, (3.44) 1 + e S При уменьшении сигмоид становится более пологим, в пределе при = 0 вырождаясь в горизонтальную линию на уровне 0.5. При увеличении сигмоид приближается к функции единичного скачка (3.43).

Глава 3. Динамические модели эволюции Входные значения переменной xi можно уподобить возбуждениям входных синапсов реального (биологичекого) нейрона рис.3.23,в, поступающих с дендритов окружающих нервных клеток через синапсы (места соединений). У реальных нейронов может быть от единиц до десятков тысяч дендритов, с помощью которых «собирается информация»

о состоянии клеток, с которыми установлена связь. Уровень связи в модели отражают весовые коэффициенты wi. Носитель информации в нервных клетках – скачок мембранного потенциала (нервный импульс, спайк). Он формируется в клетке после того, как совместное воздействие дендритов превысит некоторое критическое значение, что моделируется в формальном нейроне суммированием и нелинейным преобразованием, и распространяется по аксону как волна изменения поляризации мембраны.

Приходя в синапсы, такая волна вызывает выделение веществ называемых нейромедиаторами, которые диффундируют к дендритам других нейронов, связанных с данным аксоном, преобразуясь рецепторам в электрический импульс возбуждения.14 После генерации импульса клетка оказывается невосприимчивой к внешним воздействиям в течение некоторого интервала времени. Последнее состояние называют рефрактерным.

Можно сказать, что мы имеем дело с возбудимой системой, которая может находиться в фазе покоя (до срабатывания), возбуждения (при проведении импульса) и рефрактерности (в течение определенного времени после прохождения импульса). Наличие рефрактерного периода определяет предельно возможную частоту генерации импульсов (не более 200 Гц).

3.8.2 Архитектура и классификации нейронных сетей При создании ИНС используют несколько стандартных архитектур, из которых путем вырезания лишнего или (реже) добавления строят большинство используемых моделей. Базовыми считаются две архитектуры: полносвязные и слоистые (многослойные) сети. В полносвязных нейронных сетях каждый нейрон передает свой выходной сигнал остальным нейронам, в том числе и самому себе. Все входные сигналы подаются всем нейронам. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети.

Существуют и чисто электрические механизмы связи нейронов.

Часть I. Модели и прогноз Рис.3.24. Сеть прямого распространения (персептрон) из трех слоев В многослойных нейронных сетях нейроны объединяются в слои (рис.3.24). Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в слое может быть любым и не зависит от количества нейронов в других слоях. В общем случае сеть состоит из нескольких слоев, пронумерованных слева направо. Внешние входные сигналы подаются на входы нейронов входного слоя (его часто нумеруют как нулевой), а выходами сети являются выходные сигналы последнего слоя. Кроме входного и выходного слоев в многослойной нейронной сети есть один или несколько так называемых скрытых слоев. В зависимости от того, передают ли последующие слои свои сигналы на предыдущие слои, различают сети прямого распространения (feedforward networks, сети без обратных связей) и сети с обратными связями (recurrent networks). Следует иметь в виду, что после введения обратных связей сеть уже не просто осуществляет отображение множества входных значений на множество выходных, она превращается в динамическую систему высокой размерности, и возникает вопрос о ее устойчивости. Кроме того, нейронные сети можно разделить на 1) гомогенные и гетерогенные (т.е. с единой функцией активации для всех нейронов или с различными функциями активации);

2) бинарные (оперируют только двоичными сигналами 0 и 1) и аналоговые (оперируют с вещественными числами);

3) синхронные и асинхронные.

ИНС различаются также по числу слоев. Теоретически число слоев и число нейронов в каждом слое может быть произвольным, однако фактически оно ограничено ресурсами компьютера или специализированных микросхем, на которых обычно реализуется нейросеть. Чем сложнее сеть, тем более сложные задачи она может решать.

3.8.3. Основные свойства и решаемые задачи Несмотря на примитивность в сравнении с биологическими системами, даже многослойные ИНС прямого распространения обладают Глава 3. Динамические модели эволюции рядом полезных свойств и способны решать очень важные задачи. К таким свойствам в первую очередь следует отнести:

1. Обучаемость. Выбрав одну из архитектур НС и свойства нейронов, а также проведя алгоритм обучения, можно «обучить» сеть решению задачи, которая ей по силам. Нет гарантий, что это удастся сделать всегда, но во многих случаях обучение бывает успешным.

2. Способность к обобщению. После обучения сеть становится нечувствительной к малым изменениям входных сигналов (шуму или вариациям входных образов) и дает правильный результат на выходе.

3. Способность к абстрагированию. Если предъявить сети несколько искаженных вариантов входного образа, то сеть сама может создать на выходе идеальный образ, с которым она никогда не встречалась.

Среди решаемых задач следует выделить распознавание образов (например, зрительных или слуховых), реализацию ассоциативной памяти15, кластеризацию (разбиение изучаемой совокупности объектов на группы схожих между собой), аппроксимацию функций, предсказание временных рядов (см. п. 10.2.1.3), управление, принятие решений, диагностику.

Многие из перечисленных задач сводятся к следующей математической постановке. Необходимо построить такое отображение X Y, чтобы в ответ на каждый возможный сигнал X формировался правильный выходной сигнал Y. Отображение задается конечным числом пар (вход, известный выход). Число этих пар (обучающих примеров) существенно меньше общего числа возможных сочетаний значений входных и выходных сигналов. Совокупность всех обучающих примеров носит название обучающей выборки. Например, в задачах распознавания образов X – некоторое представление образа (изображение, вектор), Y – номер класса, к которому принадлежит входной образ. В задачах управления X – набор контролируемых параметров управляемого объекта, Y – код, определяющий управляющее воздействие, соответствующее текущим значениям управляющих параметров. В задачах прогнозирования в качестве входных сигналов используются значения наблюдаемой величины до текущего момента времени, на выходе – следующие во времени значения наблюдаемой величины.

Эти и вообще большая часть прикладных задач может быть сведена к построению некоторой многомерной функции. Каковы при этом возможности нейросетей, которые, как было видно из описания их В модели вычислений фон Неймана (используется в обычных компьютерах) обращение к памяти доступно только посредством адреса, который не зависит от содержания памяти. Ассоциативная память доступна по указанию данного содержания.

Содержимое памяти может быть вызвано даже по частичному или искаженному содержанию.

Часть I. Модели и прогноз структуры, вычисляют линейные и нелинейные функции одного переменного, а также всевозможные композиции – функции от функций, получаемые при каскадном соединении (композиции) нейронов. Что можно получить, используя только такие операции? Какие функции удастся вычислить точно, а какие функции можно сколь угодно точно аппроксимировать с помощью нейронных сетей? В результате многолетней научной полемики между Колмогоровым и Арнольдом была доказана возможность точного представления непрерывных функций нескольких переменных в виде композиции непрерывных функций одного переменного и сложения [92, 15]. Наиболее полно на вопрос об аппроксимационных свойствах нейронных сетей отвечает обобщенная теорема Стоуна [320], которая утверждает универсальные аппроксимационные возможности произвольной нелинейности: с помощью линейных операций и каскадного соединения можно на базе произвольного нелинейного элемента получить устройство, вычисляющее любую непрерывную функцию с любой наперед заданной точностью.

Популярное изложение теорем Колмогорова и Стоуна в применении к нейронным сетям можно найти в [63]. Таким образом, нейроны в сети могут использовать практически любую нелинейную функцию активации, важен лишь факт ее нелинейности. Итак, искусственные нейронные сети могут «очень многое». Остается открытым другой вопрос – как их этому «научить»?

3.8.4. Обучение В процессе функционирования нейронная сеть формирует выходной сигнал Y в соответствии с входным сигналом X, реализуя некоторую функцию Y = g ( X ). Если архитектура сети задана, то значения g определяются синаптическими весами. Выбор оптимального значения этих параметров называется обучением сети. Существуют разные подходы к обучению.

Обучение с учителем. При этом для построения решения используется обучающая выборка – пары известных входных-выходных значений ( X 1,Y1 ), …, ( X N,YN ). Пусть значения векторов X и Y связаны некоторым соотношением Y = g ( X ), в частности, Yi = g ( X i ), i = 1,..., N. Функция g неизвестна. Обозначим Е – функцию ошибки, показывающую степень близости произвольной функции f к функции g.

Решить поставленную задачу с помощью нейросети заданной архитектуры означает построить функцию f, подобрав синаптические веса таким образом, чтобы функция ошибки была минимальной. В наиболее простом случае обучение состоит в поиске функции f, минимизирующей Е на обучающей выборке. Оно требует длительных вычислений и Глава 3. Динамические модели эволюции представляет собой итерационную процедуру (число итераций может составлять от 103 до 108). Если выбрана обучающая выборка и вид функции Е, то обучение сети превращается в задачу многомерной нелинейной оптимизации [73], которая зачастую является крайне сложной в практическом плане (см. также п. 10.2.1.3).

Поскольку создание интеллектуальных систем базируется во многом на биологических прототипах, до сих пор не прекращается спор о том, можно ли считать алгоритмы обучения с учителем аналогичными природным процессам обучения, или они полностью искусственны.

Обучение без учителя. Известно, что нейроны зрительной коры, например, учатся реагировать на световые импульсы лишь под действием самих импульсов, без внешнего учителя. В частности мы способны решить такую сложную задачу, как выделение образов на предъявленной картине и т.п. Однако высшие этапы обучения, например, у детей, невозможны без «учителя» в лице его родителя. Кроме того, отдельные области в мозге вполне могут выполнять роль «учителей» для других областей, управляя их активностью. Поэтому нельзя однозначно сказать, какой тип обучения биологически правдоподобнее – с учителем или без него.

В широко распространенном варианте обучение без учителя выглядит следующим образом. Имеется набор входных векторов. Набора соответствующих выходных векторов нет. Обучить сеть означает подобрать ее параметры так, чтобы она некоторым «оптимальным»

образом классифицировала входные векторы. ИНС надо обучить разбивать множество входных векторов на группы (классы) так, чтобы в один класс попадали близкие друг к другу векторы, а отличия между классами были относительно велики. Это делается путем оптимизации целевой функции, зависящей от двух упомянутых факторов. При подаче нового входного вектора, обученная сеть отнесет его к одному из классов, которые она сформировала сама (без учителя). Один из самых известных примеров такого способа решения задач классификации – обучение сети Кохонена, см., например, [79].

В настоящее время существует масса литературы по нейронным сетям, освещающей самые различные вопросы от выбора архитектуры ИНС до обучения и практических примеров применения. В том числе есть множество работ, доступных широкому читателю [115, с.171-203, 63, 64, 69, 79, 164, 346]. Некоторые дополнительные детали и примеры применения ИНС при моделировании по временным рядам представлены в пп. 10.2.1.3, 10.2.1.6.

Глава 4. Стохастические модели эволюции Опираясь на сказанное о случайности в п. 2.2.1, коротко остановимся на стохастических моделях эволюции во времени (случайных процессах).

Они могут быть заданы либо непосредственно указанием в явном виде их статистических свойств (плотностей распределения вероятностей, корреляционных функций и т.д., пп. 4.1-4.3), либо стохастическими разностными или дифференциальными уравнениями. Некоторые наиболее известные уравнения, их свойства и приложения обсуждаются в пп. 4.4 и 4.5.

4.1. Элементы теории случайных процессов Если при фиксированных с заданной точностью начальных условиях x(t 0 ) и параметрах процесс демонстрирует одну и ту же временную реализацию, то естественно его динамическое описание (глава 3). Однако на практике эта ситуация часто не реализуется: при каждом новом испытании «в одних и тех же условиях» реализация процесса отличается от предыдущих. Такую неоднозначность связывают с влиянием многочисленных неконтролируемых факторов, которое всегда имеет место в реальном мире. При этом целесообразно отказаться от детерминированного описания и использовать аппарат теории вероятностей и теории случайных процессов [55, 53, 113, 150, 87].

4.1.1. Понятие случайного процесса Случайный процесс (случайная функция времени) является обобщением понятия случайной величины, уместным для описания упомянутой ситуации. Более точно, его определение следующее.

Во-первых, случайная функция – это случайная величина, зависящая не только от случайного события, но и от какого-либо параметра. Если этот параметр – время, то случайная функция называется случайным процессом и обозначается (t, ). Величина может быть как скалярной (скалярный случайный процесс), так и векторной (векторный или многомерный случайный процесс). Она может принимать как дискретные значения (процесс с дискретными состояниями), так и пробегать непрерывный ряд значений. Будем пока говорить для определенности только о последнем случае. Изучением и разработкой таких моделей занимается теория случайных процессов [53, 55]. В случае дискретного времени t = 0,1,2,... случайный процесс называют также случайной последовательностью.

Для случайного процесса результатом одного испытания является не одно число (как для случайной величины), а функция (t, 1 ), где 1 – это реализовавшееся в данном испытании случайное событие. Случайное Часть I. Модели и прогноз событие можно интерпретировать как совокупность случайных факторов, действовавших во время протекания процесса и влиявших на него.

Функция (t, 1 ) называется реализацией случайного процесса. Это уже детерминированная (неслучайная) функция времени, поскольку случайное событие фиксировано = 1. В результате различных испытаний получаются, вообще говоря, различные реализации. Множество реализаций, полученных в результате разных испытаний (при различных ) называют ансамблем реализаций (рис.4.1).

4.1.2. Характеристики случайного процесса В любой фиксированный момент времени t значение случайного процесса (t, ) является случайной величиной. Она называется сечением случайного процесса в момент времени t и характеризуется плотностью распределения вероятностей, которую обозначим p ( x, t ).

Этот закон распределения называется одномерным распределением случайного процесса. Оно зависит от параметра – времени t – и может быть различным для двух различных моментов времени. Зная одномерный закон распределения процесса p ( x, t ), можно вычислить его математическое ожидание и дисперсию в момент времени t. Если закон распределения меняется в зависимости от Рис.4.1. Ансамбль из N реализаций (три времени, то могут меняться и показаны) и два сечения случайного процесса математическое ожидание процесса m(t ) = M [ (t, )] = xp( x, t )dx, (4.1) и его дисперсия:

Глава 4. Стохастические модели эволюции 2 (t ) = M [ (t, ) m(t )]2 = [x m(t )] p( x, t )dx. (4.2) Это детерминированные (неслучайные) функции времени, поскольку зависимость от случайных событий исключена при усреднении.

Сечения (t, ) в различные моменты времени t1 и t 2 имеют, вообще говоря, разные функции плотности распределения p( x, t1 ) и p( x, t 2 ), см.

рис.4.1. Совместное поведение сечений описывается двухмерной плотностью распределения p2 ( x1, t1, x2, t 2 ). Таким же образом можно задать n-мерные законы распределения pn для всевозможных наборов t1, t 2, …, t n. Они образуют совокупность конечномерных распределений случайного процесса (t, ). Вероятностные свойства процесса полностью определены, только если задана вся эта совокупность. Однако, поскольку она представляет собой бесконечное множество законов распределения, то в общем случае полностью описать случайный процесс практически невозможно.

Реально приходится ограничиваться использованием только некоторых характеристик, например, одно- и двухмерных распределений, моментов невысоких порядков – математического ожидания, дисперсии, автоковариационной функции – и т.д. Так, автоковариационная функция в общем случае зависит от двух аргументов:

K (t1, t 2 ) = M ( (t1, ) m(t1 ) )( (t 2, ) m(t 2 ) ) = (4.3) = ( x1 m (t1 ) )( x 2 m(t 2 ) ) p 2 ( x1, t1, x 2, t 2 ) dx1dx 2.

Для фиксированных t1 и t 2 выражение (4.3) определяет ковариацию случайных величин (t1, ) и (t 2, ). Если нормировать ее на среднеквадратичные отклонения, получим автокорреляционную функцию (t1, t 2 ) = K (t1, t 2 ) ( (t1 ) (t 2 ) ), т.е. коэффициент корреляции между случайными величинами (t1, ) и (t 2, ).1 Автокорреляционная функция принимает значения в интервале от –1 до 1;

(t1, t 2 ) = 1 соответствует детерминированной линейной зависимости (t1, ) = const (t 2, ).

Для характеристики процессов часто используются условные одномерные распределения p1 ( x, t | x1, t1 ), т.е. распределения сечения (t ), при условии, что в момент времени t1 величина приняла значение (t1 ) = x1. Функцию p1 ( x, t | x1, t1 ) называют плотностью вероятностей Есть и другая терминология, согласно которой (4.3) называется автокорреляционной функцией, а после нормировки – нормированной автокорреляционной функцией [172]. Мы ее не используем.

Часть I. Модели и прогноз перехода из состояния x1 (в момент времени t1 ) в состояние x (в момент времени t).

4.1.3. Стационарность и эргодичность случайных процессов Важным свойством процесса является его стационарность (или нестационарность). Стационарным в узком смысле называют такой процесс, все конечномерные распределения которого не меняются при n, t1,..., t n, сдвиге по времени, т.е.

p n ( x1, t1,..., x n, t n ) = p n ( x1, t1 +,..., x n, t n + ). Другими словами, при сдвиге по времени не меняется ни одна из характеристик процесса.

Стационарным в широком смысле называют такой случайный процесс, для которого при сдвиге по времени не меняются математическое ожидание, дисперсия и корреляционная функция (т.е. моменты до второго порядка включительно). Для стационарных (как в узком, так и в широком m(t ) = const, 2 (t ) = const, смысле) процессов имеет место K (t1, t 2 ) = k ( ), = t 2 t1 Из стационарности в узком смысле следует стационарность в широком смысле. Вообще говоря, термин «стационарность» означает неизменность какого-то свойства во времени. Если интересующее нас свойство (например, момент одномерного распределения порядка n) не меняется, то процесс называют стационарным относительно этого свойства.

Эргодическим называют процесс, все характеристики которого могут быть получены по одной его реализации (бесконечно длинной). Например, 1T математическое ожидание определится как m = lim (t,1 )dt для почти T T любого 1, т.е. усреднение по времени и усреднение по пространству дают одинаковые результаты. Если по одной реализации можно получить все характеристики процесса, то его называют эргодическим в строгом смысле. Если можно получить только некоторые характеристики, то его называют эргодическим относительно этих характеристик: вводят понятия эргодичности первого порядка – относительно первых моментов, и т.п.

Эргодические процессы представляют собой важный класс, поскольку на практике зачастую имеется только одна реализация, а не большой ансамбль. По этой единственной реализации только для эргодического процесса можно восстановить его свойства. Поэтому часто при анализе отдельного временного ряда принимают гипотезу об эргодичности Есть и несколько иная трактовка, связанная с дополнительным требованием конечной дисперсии для стационарного в широком смысле процесса, при этом такое следование не будет иметь места.

Глава 4. Стохастические модели эволюции исследуемого процесса. Эргодический процесс является стационарным, но не всякий стационарный процесс является эргодическим.

Пример (реальный аналог) случайного процесса дает практически любое физическое измерение. Это может быть измерение силы тока в какой-либо нелинейной цепи, демонстрирующей автоколебания. От испытания к испытанию измеренные реализации (временные ряды, см.

главу 5) отличаются из-за наличия тепловых шумов, наводок, и т.п.

Причем, получив реализацию на каком-то отрезке времени, нельзя однозначно и точно предсказать ее дальнейшее поведение, поскольку оно определяется случайными факторами, которые будут влиять на процесс и в будущем.

Более простой пример случайного процесса – сильно упрощенное модельное представление об испускании фотона возбужденным атомом.

Момент испускания, начальная фаза, направление и поляризация непредсказуемы. Но как только фотон испущен и его начальное поведение стало известно, то все последующее уже однозначно предсказуемо.

Случайный процесс здесь описывается гармонической функцией времени со случайной начальной фазой (гармонический шум, см. ниже). Случайные процессы такого типа называют квазидетерминированными [172], поскольку случайные факторы определяют только начальные условия, а затем поведение подчиняется детерминированной закономерности.

4.1.4. Оценки характеристик случайных процессов Для того чтобы получить статистические оценки одномерного закона распределения p ( x, t ) и его моментов, можно провести много испытаний и получить набор реализаций процесса (t, 1 ), (t, 2 ), …, (t, n ). Для фиксированного момента времени t = t * набор значений этих реализаций составляет выборку значений случайной величины (t *, ) объема n (рис.4.1). По этой выборке можно оценить закон распределения p ( x, t * ) и т.п. То же самое нужно проделать для всех других моментов времени.

Многомерные законы распределения можно оценивать по ансамблю реализаций аналогично. Но число реализаций для их надежной оценки должно быть существенно больше, чем для оценки одномерного распределения и, тем более, для оценки моментов.

Сложнее ситуация, когда имеется только одна реализация. Только для эргодического процесса по достаточно длинной реализации можно оценить нужные характеристики, заменив усреднение по ансамблю усреднением по времени, см. п.4.1.3.

Часть I. Модели и прогноз 4.2. Базовые модели случайных процессов Случайный процесс можно задать, определив явно конечномерные законы распределения вероятностей. Так вводятся базовые (самые простые) модели теории случайных процессов. Рассмотрим некоторые из них [55].

1) Одним из важнейших в теории случайных процессов является нормальный (гауссовский) случайный процесс. Это процесс, для которого все конечномерные законы распределения являются нормальными. А именно, n-мерный закон распределения процесса имеет вид:

1 exp (x n m n )T Vn1 (x n m n ) (4.4) pn ( x1, t1,..., xn, t n ) = (2 ) 2 n Vn для любого n, где введены обозначения:

x1 m(t1 ) K (t1, t1 ) K (t1, t 2 )... K (t1, t n ) x m(t ) K (t, t ) K (t, t )... K (t 2, t n ) x n = 2, m n = 2, Vn = 2 1, (4.5)............

......

xn m(t n ) K (t n, t1 ) K (t n, t 2 )... K (t n, t n ) m(t ) – математическое ожидание процесса, K (t1, t 2 ) – автокорреляционная функция, T означает транспонирование, Vn – определитель матрицы Vn.

В данном примере все конечномерные распределения известны (процесс определен полностью), если заданы математическое ожидание и корреляционная функция. При любых линейных преобразованиях нормального процесса он остается нормальным.

2) Процесс с независимыми приращениями. Так называется процесс, для которого величины (t1, ), (t 2, ) (t1, ), …, (t n, ) (t n1, ) (т.е. приращения) являются статистически независимыми для любых n, t 1,..., t n, таких, что n 1 и t1 t 2... t n.

3) Винеровский процесс. Это N-мерный случайный процесс с независимыми приращениями, для которого при любых t1 t 2 случайный вектор (t 2, ) (t1, ) распределен по нормальному закону с нулевым математическим ожиданием и ковариационной матрицей вида (t 2 t1 ) s I n, где I n – единичная матрица порядка n. Это нестационарный процесс, в одномерном случае его дисперсия растет линейно во времени как 2 (t ) = 2 (t 0 ) + s 2 (t t 0 ).

Винеровский процесс описывает, например, броуновское движение – перемещение броуновской частицы под действием случайных независимых соударений с молекулами окружающей среды.

Глава 4. Стохастические модели эволюции Можно показать, что винеровский процесс является нормальным процессом. Винеровский процесс с s = 1 называется стандартным.

4) Марковский процесс (первого порядка) – это случайный процесс, для которого условная функция плотности вероятностей имеет вид:

p1 ( xn, t n | xn1, t n1,..., x1, t1 ) = p1 ( xn, t n | xn1, t n1 ), для любых n, t1,..., t n, t1 t 2... t n. Это выражают фразой «будущее зависит от прошлого только через настоящее». Любой конечномерный закон распределения такого процесса выражается через его одномерный и двухмерный законы.

Можно показать, что винеровский процесс является марковским.

Важным частным случаем является марковский процесс с конечным числом K возможных состояний. Обозначим их S1,..., S K. Из-за дискретности состояний, он описывается в терминах самих вероятностей, а не плотностей их распределения. Условная вероятность P{ (t + t ) = S j | (t ) = S i } называется в этом случае переходной вероятностью, поскольку описывает переход из состояния i в состояние j.

i, j (t ) = lim P{ (t + t ) = S j | (t ) = S i } t А величина называется t + плотностью вероятности соответствующего перехода.

Марковские процессы занимают особое место в теории случайных процессов, им посвящено множество исследований.

5) Пуассоновским процессом с параметром 0 называют скалярный случайный процесс с дискретными состояниями, обладающий следующими свойствами: а) (0, ) = 0 ;

б) приращения процесса независимы;

в) при любых 0 t1 t 2 величина (t 2, ) (t 1, ) распределена по закону Пуассона с параметром (t 2 t1 ), т.е. по закону (t 2 t1 ) k P{ (t 2, ) (t 1, ) = k } =exp( (t 2 t1 )), где k – целое k!

неотрицательное число. Пуассоновский процесс часто используют в приложениях, например, в теории массового обслуживания.

6) Белый шум. Это стационарный в широком смысле (согласно одной из трактовок, см. п.4.1.3) случайный процесс, значения которого в различные моменты времени некоррелированы, т.е. его автоковариационная функция имеет вид: k ( ) = const ( ). Его называют «белым», потому что спектр мощности этого процесса представляет собой константу, т.е. в нем равноправно представлены все частоты. Здесь проведена аналогия с белым светом, в котором представлены все частоты (все «цвета») видимой части спектра. Дисперсия белого шума бесконечна:

2 = k (0) =.

Распространенной моделью является нормальный белый шум (НБШ).

Это стационарный процесс, имеющий нормальный одномерный закон Часть I. Модели и прогноз распределения и корреляционную функцию вида k ( ) = const ( ). Строго говоря, это сочетание требований противоречиво, поскольку белый шум имеет бесконечную дисперсию, а нормальный случайный процесс – конечную дисперсию 2. Тем не менее, несколько противоречивое понятие НБШ полезно на практике и при исследовании стохастических дифференциальных уравнений, см. ниже п. 4.5. Для практической интерпретации можно считать, что НБШ – это процесс, имеющий очень большую дисперсию, а интервал времени, на котором его корреляционная функция спадает почти до нуля, очень мал по сравнению с другими характерными масштабами рассматриваемой задачи.

7) Аналог белого шума в случае дискретного времени – последовательность независимых одинаково распределенных случайных величин. Этот процесс тоже часто называют белым шумом. Чаще всего рассматривают нормальное одномерное распределение, хотя возможно и любое другое. В случае дискретного времени дисперсия процесса конечна, так что он является стационарным в широком смысле, независимо от используемого определения этой стационарности.

Белый шум – это «самый непредсказуемый» процесс, т.к. отсутствует зависимость между последовательными значениями. Последовательность независимых нормально распределенных величин используется как базовая модель при конструировании стохастических моделей с дискретным временем – стохастических разностных уравнений, см. п. 4.4.

8) Цепь Маркова – это марковский процесс с дискретными состояниями и с дискретным временем. Эта простая модель очень широко используется на практике. Ее главными характеристиками служат вероятности перехода из одного состояния в другое. Для анализа и наглядного представления таких моделей используется аппарат теории графов.

4.3. Уравнения эволюции распределения вероятностей Выше перечислены эталонные случайные процессы, полученные из общих соображений. Так, нормальный случайный процесс можно получить, исходя из соображений о наличии большого числа независимых факторов, белый шум – из представлений о независимости последовательных значений, пуассоновский процесс – с использованием предположения о редких событиях [55]. Об этих трех процессах известно «все существенное»: конечномерные распределения, моменты и т.д.

Что касается марковских процессов, то в них заложены представления о связи будущих состояний с предыдущими. В общем случае марковский процесс нестационарен. Таким образом, возникает вопрос о том, как будет меняться во времени начальное распределение вероятностей – будет ли Глава 4. Стохастические модели эволюции оно сходится к какому-либо стационарному и каково будет это предельное распределение? В определении марковского процесса это непосредственно не сформулировано. Однако, опираясь на это определение, можно вывести уравнения эволюции для закона распределения вероятностей. Для процесса с конечным числом состояний они запишутся в виде системы обыкновенных дифференциальных уравнений (уравнений Колмогорова):

dp1 dt (12 +... + 1K ) 21 K,1 p...

dp dt 12 ( 21 + 23 +... + 2 K )... K 2 p 2, (4.6) =......

............

1K 2 K... ( K 1 +... + 1K, K 1 ) p K dp K dt где pi (t ) – вероятность состояния S i, а i, j (t ) – плотности вероятностей перехода. Если функции i, j (t ) заданы, то, интегрируя уравнения Колмогорова, можно проследить за эволюцией распределения вероятностей из любого начального распределения. В простых частных случаях, например, при постоянных i, j, решение можно найти аналитически.

В случае цепей Маркова задача несколько упрощается (по крайней мере, для численного исследования) – эволюция вектора вероятностей описывается разностным уравнением порядка K. Для наглядного представления марковских процессов с дискретными состояниями часто используют графы, на которых кружками указывают различные состояния, а стрелками – возможные переходы между состояниями.

В случае непрерывнозначных марковских процессов состояние нужно описывать уже не вектором вероятностей, а функцией плотности распределения вероятностей. Поэтому вместо обыкновенных дифференциальных уравнений (4.6) для описания эволюции закона распределения вероятностей получают уравнения в частных производных.

Это обобщенное уравнение Маркова (другие названия – уравнение Колмогорова – Чепмена, прямое уравнение Колмогорова) для условной плотности распределения:

p ( x, t | x0, t 0 ) ( 1)k k [ck ( x, t ) p( x, t | x0, t 0 )], = (4.7) t k k =1 k! x ( x x) p( x, t + t | x, t )dx – это k ck ( x, t ) = lim где величины t 0 t коэффициенты, связанные с «вероятностями изменения» состояния x и определяющие «гладкость» реализаций процесса.

В важном частном случае диффузионного марковского процесса ( ck = 0 при любом k 2 ) уравнение упрощается и приводится к виду:

Часть I. Модели и прогноз 1 p( x, t ) = (c1 ( x, t ) p( x, t ) ) + (c2 ( x, t ) p( x, t ) ), (4.8) t x 2 x где c1 называют коэффициентом сноса, а c2 – коэффициентом диффузии.

Уравнение (4.8) называют также уравнением Фоккера – Планка. Это уравнение параболического типа, такой же вид имеют уравнения диффузии и теплопроводности в математической физике. Отсюда и названия коэффициентов уравнения. О связи коэффициентов сноса и диффузии в уравнении Фоккера – Планка с параметрами стохастических дифференциальных уравнений, задающих исходный процесс, см. ниже п.4.5.

4.4. Процессы авторегрессии – скользящего среднего Случайный процесс можно задать с помощью стохастических уравнений. При этом он определяется как решение стохастического уравнения, т.е. при его подстановке в уравнение оно обращается в тождество. Здесь мы рассмотрим стохастические разностные уравнения, определяющие случайный процесс «авторегрессии – скользящего среднего» [45], который является одной из наиболее популярных конструкций при моделировании по наблюдаемым временным рядам.

Линейный фильтр. В качестве базовой модели при описании сложных реальных процессов часто принимают нормальный белый шум (t). Для простоты выкладок будем полагать, что он имеет нулевое среднее и дисперсию 2. При анализе реального сигнала его свойства могут противоречить гипотезе о том, что это – нормальный белый шум (например, оценки значений автокорреляционной функции ( ) могут быть существенно отличны от нуля для ненулевых ). В этом случае полезным для многих практических ситуаций оказался следующий подход.

Рассмотрим нормальный белый шум, преобразованный линейным фильтром. В общем случае это преобразование определяется выражением xn = n + i ni. (4.9) i = Чтобы дисперсия процесса xn была конечна (чтобы он был i2 const.

стационарным), веса i должны удовлетворять условию i = Линейное преобразование (4.9) сохраняет нормальность процесса и вносит ненулевые автокорреляции ( ) при ненулевых сдвигах.

Процессы скользящего среднего. Разумеется, на практике использовать модель с бесконечным количеством весов не представляется Глава 4. Стохастические модели эволюции возможным. Однако, как правило, при описании свойств реальных процессов разумно предположить, что значения i быстро убывают с ростом номера i (далекое прошлое слабо влияет на настоящее) и ограничиться моделью (4.9) с конечным числом весов q. Получим процесс скользящего среднего порядка q (обозначается CC(q) или MA(q), от английского «Moving Average» — скользящее среднее), который задается разностным уравнением q x n = a n i n i (4.10) i = и имеет q+1 параметров – веса 1, 2, …, q и 2.

Процессы авторегрессии. Заметим теперь, что общее выражение (4.9) можно эквивалентно переписать в виде:

x n = n + i x n i, (4.11) i = где веса i выражаются через i. Подробнее, переход от (4.9) к (4.11) можно осуществить следующим образом: нужно последовательно исключать из выражения (4.9) величины n1, n2 и т.д. Для этого сначала выразим значение шума n1 через xn1 и предыдущие значения с помощью формулы n1 = xn1 i n1i. Подставим это выражение в i = формулу (4.9), исключив из нее, таким образом, n1. Далее аналогично исключим n2, и т.д. Процесс (4.11) также содержит бесконечное количество параметров i. Но часто имеет место быстрое убывание весов i 0 при i. Т.е. далекое прошлое слабо влияет на настоящее, но уже в терминах зависимости текущего значения процесса от предыдущих значений самого процесса. Тогда достаточно ограничиться конечным числом слагаемых в (4.11). В результате приходим к процессу авторегрессии порядка p (обозначается АР(p) или AR(p), от английского «AutoRegressive» — авторегрессионный), который задается разностным уравнением p x n = n + i x n i. (4.12) i = Эта конструкция содержит p+1 параметров – веса 1, 2, …, p и дисперсию 2, причем значения весов должны удовлетворять определенным соотношениям [45], чтобы процесс был стационарным. Так, Часть I. Модели и прогноз в случае p = 1 дисперсия процесса (4.12) выражается через дисперсию как x = 2 (1 12 ) и для стационарности необходимо 1 1. Термин «авторегрессия» появился из-за того, что сумма в (4.12) определяет регрессию текущего значения процесса xn на предыдущие значения самого же процесса – отсюда «авто». О термине «регрессия» см. п.7.2.

Процессы авторегрессии – скользящего среднего. Более эффективную для описания широкого класса процессов конструкцию, можно получить, объединив (4.10) и (4.12). Целесообразность такого объединения вместо использования только одного из представлений (4.10) или (4.12) вызвана следующими обстоятельствами. Предположим, что наблюдаемый временной ряд генерируется процессом авторегрессии порядка 1. Если попытаться описать его процессом скользящего среднего, то потребуется модель (4.10) с бесконечным числом параметров i (по крайней мере, с очень большим). При моделировании по экспериментальным данным оценки значений большого числа параметров менее надежны, и это обязательно приведет к существенному снижению качества модели. И обратно, если ряд генерируется процессом скользящего среднего порядка 1, то для его описания потребовался бы процесс авторегрессии очень высокого порядка. Поэтому разумно объединить в модели выражения (4.10) и (4.12), чтобы можно было экономично (при помощи небольшого числа параметров) описать наблюдаемый процесс и вида (4.10), и вида (4.12), и смешанный. Получаем процесс авторегрессии и скользящего среднего порядка (p, q) (обозначается АРСС(p, q) или ARMA(p, q)):

p q x n = n + i x n i i n i. (4.13) i =1 i = Он зависит от p+q+1 параметров.

Процессы авторегрессии – проинтегрированного скользящего среднего. Стационарный процесс (4.13) не может быть адекватной моделью для описания нестационарных процессов с детерминированным трендом или стохастическим трендом (нерегулярные чередования интервалов, на которых процесс следует почти детерминированной зависимости). Однако для некоторого класса трендов (а именно, полиномиальных) адекватной моделью является процесс, конечная разность которого является стационарным АРСС-процессом. Конечная разность порядка d определяется как y n = d xn, где x n = x n x n1 — первая разность (аналог дифференцирования), а d означает последовательное применение d раз оператора. Таким образом, получаем процесс авторегрессии и проинтегрированного скользящего среднего порядка (p, d, q) (обозначается АРПСС(p, d, q) или ARIMA(p, d, Глава 4. Стохастические модели эволюции q) от английского — «AutoRegressive Integrated Moving Average»), который определяется разностными уравнениями p q y n = n + µ + i y n i i n i, (4.14) i =1 i = d xn = yn.


Постоянный член µ определяет наличие детерминированного тренда.

Чтобы выразить значения процесса xn через значения АРСС-процесса y n, нужно использовать оператор суммирования (аналог интегрирования),.

обратный оператору Этим объясняется наличие слова «проинтегрированный» в названии процесса.

АРСС- и АРПСС-процессы более полувека (1920-1970-е гг.) были основным аппаратом для моделирования и прогноза сложных процессов на практике. Они широко использовались для решения задач управления техническими процессами [45, ч.2]. Развивались и их всевозможные модификации, в частности, сезонные АРПСС-модели, которые определяются как АРПСС-процессы для сезонной разности s xn = x n x n s вида Q P y n = n + i y nis i nis, (4.15) i =1 i = D s xn = y n, где n – процесс АРПСС(p,d,q). Процесс (4.15) называется сезонным АРПСС-процессом порядка ( P, D, Q) ( p, d, q). Такие модели уместны для описания процессов с сезонными трендами (характерными масштабами порядка s).

Только в последние два десятилетия с развитием вычислительной техники и нелинейной динамики АРПСС-модели все больше «отступают»

в конкуренции с нелинейными моделями (см. главы 8-11), хотя во многих отраслях знания остаются основным инструментом.

4.5. Стохастические дифференциальные уравнения и белый шум Для описания случайных процессов в непрерывном времени используются стохастические дифференциальные уравнения (СДУ).

Наиболее известно уравнение первого порядка (так называемое уравнение Ланжевена):

dx(t ) dt = F ( x, t ) + G( x, t ) (t ), (4.16) Часть I. Модели и прогноз где F, G – гладкие функции, (t ) – нормальный белый шум с автоковариационной функцией k ( ) = ( ).

Введение понятия СДУ совсем не тривиально, поскольку оно включает в себя понятие производной случайного процесса dx(t ) dt. Как ее понимать? Наиболее простой путь был бы следующим: считать, что все реализации процесса x непрерывно дифференцируемы, и определить производную как случайную величину, значение которой есть обычная производная реализации x. Но это возможно только для процессов (t ) с непрерывными реализациями – для каждой отдельной реализации (t ) уравнение (4.16) представляло бы собой ОДУ. Но, например, белый шум не относится к таким процессам, а хорошо описывает многие практические ситуации (серию независимых толчков) и позволяет упростить многие выкладки. Для возможности анализа уравнения (4.16) с процессами (t ) такого типа понятие производной случайного процесса dx(t ) dt в точке t обобщили. Производная есть случайная величина x(t + t ) x(t ) dx(t ) = l.i.m., где предел понимается в среднеквадратичном t dt t смысле, см., например, [55].

Процесс x в (4.16) может быть и векторным. Тогда и белый шум (t ) – многомерный процесс.

Можно показать, что процесс x в (4.16) – марковский. Для него можно записать уравнение Фоккера – Планка, где коэффициент сноса есть F, а коэффициент диффузии – G 2.

Рассмотрим частный случай (4.16): F = 0, G = const, т.е. уравнение dx(t ) dt = (t ). (4.17) Решение его формально можно записать в виде t x(t ) x(t 0 ) = (t )dt. (4.18) t Стохастический интеграл также определяется с помощью предела в среднеквадратичном. Причем существуют две наиболее популярных формы: интеграл Ито (интеграл вводится аналогично обычному интегралу Римана – с помощью формулы левых прямоугольников) и интеграл Стратоновича (симметризованный). Вводится также и обобщенный стохастический интеграл, частными случаями которого являются оба упомянутых [55]. Но для (4.18), т.е. при G = const, обе формы совпадают.

Можно показать, что процесс (4.17) – винеровский. Его дисперсия линейно зависит от времени и равна x (t ) = x (t 0 ) + G 2 (t t 0 ).

2 Глава 4. Стохастические модели эволюции Дисперсия его приращений на интервале t равна G 2 t. Это хорошо согласуется с результатами наблюдения за движением броуновских частиц: для них средний квадрат смещения тоже растет пропорционально времени.

Пример из геофизики. Уравнение (4.17) позволяет получить известный эмпирический закон Гутенберга – Рихтера повторяемости землетрясений в зависимости от их интенсивности [62]. Пусть x – величина механического напряжения (пропорциональная деформациям) на данном участке земной коры. Предположим, что со временем она может накапливаться из-за различных случайных факторов (толчков и т.п.) – белого шума. В среднем, ее квадрат (т.е. дисперсия) растет как G 2 (t t 0 ) (4.17), начиная с какого то нулевого момента времени, когда напряжение мало. Землетрясения возникают, когда система набирает (аккумулирует) в течение определенного времени запас упругой энергии и затем сбрасывает ее тем или иным способом. Если сброс происходит по достижении некоторого фиксированного порога E, то время, необходимое, чтобы набрать такую энергию равно E =. (4.19) G Далее, из уравнения (4.19) можно получить, что частота появления землетрясений с энергией не меньше E есть величина ~ 1 ~ G 2 E, т.е.

частота появления обратно пропорциональна энергии. К подобному виду сводится и закон Гутенберга – Рихтера при некоторых предположениях.

Аналогичные законы объясняют появление цунами, оползней и т.п.

событий, подробнее см. в [62].

Пример из молекулярной физики. Если предположить, что независимые толчки меняют скачком не смещение частицы x, как в уравнении (4.17), а ее скорость (т.е. белый шум представляет собой действующие на частицу силы), то получим СДУ второго порядка d 2 x(t ) dt = (t ), (4.20) которое позволяет получить аналитически закон Ричардсона – Обухова, который гласит, что средний квадрат смещения (броуновских) частиц при определенных условиях растет со временем как (t t 0 ). Этот закон выполняется на поверхности океана (относительная диффузия) в некоторых интервалах масштабов [62].

Численное интегрирование СДУ. Выше мы рассмотрели примеры, допускающие аналитическое решение, но при нелинейных F или G приходится пользоваться численными методами, которые в случае СДУ Часть I. Модели и прогноз существенно отличаются от случая ОДУ. Пусть объект описывается уравнением (4.16) с G = const (для простоты иллюстраций):

dx dt = F ( x(t )) + (t ). (4.21) При фиксированном начальном условии x(t ) СДУ определяют не единственную будущую траекторию системы, а целый ансамбль возможных траекторий. Однозначно определяются функцией F только условные плотности распределения вероятностей p( x(t + t ) x(t )).

Аналитически получить формулы для условных распределений в случае нелинейной F нельзя, но можно это сделать численно путем получения ансамбля реализаций СДУ, имитируя шумовые воздействия на интервале от t до t+t с помощью генератора псевдослучайных чисел и численно интегрируя СДУ по шагам.

Численное интегрирование СДУ представляет собой гораздо более сложную задачу, чем численное интегрирование ОДУ, еще и потому, что более сложным понятием является интеграл от случайного процесса (t ).

Наиболее простой подход – использование метода Эйлера с малым шагом интегрирования h. Разностная схема Эйлера здесь такова:

x(t + h) = F ( x(t )) h + 0 (t ) h, (4.22) где 0 (t ), 0 (t + h), 0 (t + 2h),... – независимые нормально распределенные величины с нулевым средним и дисперсией G 2. Отметим характерный вид случайного слагаемого с зависимостью интенсивности от шага вида h.

Этого нет при интегрировании ОДУ, где вклад правой части уравнения в разностную формулу составляет величину порядка h при малых h. Это имеет место для СДУ из-за интегрирования белого шума (t ) : в разностную схему входит случайная добавка с дисперсией, пропорциональной времени. При очень малом шаге h доминирует случайное воздействие.

Далее при фиксированном шаге интегрирования h можно сгенерировать ансамбль реализаций шума 0 (t ), 0 (t + h), 0 (t + 2h),... и, пользуясь формулой (4.22), рассчитать для каждой реализации значение x(t + t ) в конце интервала интегрирования. По полученному набору значений x(t + t ) можно построить гистограмму, которая и есть оценка условного вероятностного распределения p( x(t + t ) x(t )). При изменении шага h полученная оценка будет меняться и приближаться к истинному распределению только в пределе h 0, как и в случае ОДУ приближенное решение стремится к истинному при h 0. Практически же шаг нужно выбирать настолько малым, чтобы при его дальнейшем уменьшении полученное приближенное распределение уже мало менялось.

Глава 4. Стохастические модели эволюции В качестве примера рассмотрим интегрирование стохастических уравнений осциллятора Ван дер Поля:

dx1 dt = x 2, (4.23) dx 2 dt = µ (1 x12 ) x 2 x1 + (t ), где µ = 3. Найдем условные распределения p( x1 (t + t ) x(t )) для двух начальных условий x(t ) = ( 0.0935,4.284 ) и x(t ) = (1.021,0.9375) (значения, взятые произвольно из временной реализации системы) при t = 0.5, что соответствует примерно 1/18 характерного периода [327].

Получим численные оценки при h, равных 0.1, 0.01, 0.001 и 0. (рис.4.2). Оценка первого распределения стабилизируется при h = 0.001, а второго – при h = 0.01. В любом случае для хорошего приближения условного распределения шаг интегрирования должен быть достаточно мал – не более, примерно, одной тысячной от характерного периода. Для сходимости численного метода решения соответствующего ОДУ, т.е.


уравнения (4.23) без шума, с высокой точностью хватило бы шага 0.01.

Возможно и использование методов Рунге – Кутты более высокого порядка точности, но формулы отличаются от случая ОДУ [132].

Рис.4.2. Плотности распределения p( x1 (t + t ) x(t )) для разных шагов интегрирования (0.1, 0.01, 0.001, 0.0001). а) при x(t ) = (0.0935,4.284), б) x(t ) = (1.021,0.9375).

Слева – сходимость достигается только при шаге 0.001, а справа – уже при 0. Часть II. Моделирование по временным рядам Формирование моделей на основе результатов наблюдений и исследование их свойств – вот, по существу, основное содержание науки.

Л. Льюнг. «Идентификация систем.

Теория для пользователя» [111] Глава 5. Постановки задач моделирования по рядам 5.1. Схема процесса построения модели по временному ряду Несмотря на безграничное число ситуаций, объектов и целей, вносящих в процесс свое специфическое, можно выделить основные этапы моделирования и представить их в виде схемы (рис.5.1). Работа начинается с рассмотрения имеющейся информации об объекте (экспериментальных данных о нем самом или подобных объектах;

теорий, разработанных для описания исследуемого класса объектов;

интуитивных представлений и т.д.) с позиций цели исследования, с получения и предварительного анализа рядов наблюдаемых величин, а заканчивается использованием полученной модели для решения конкретной задачи. Но этот процесс обычно является итерационным – сопровождается неоднократными повторениями, возвратами в исходную и промежуточные точки схемы, последовательными приближениями к «хорошей» модели.

Рис.5.1. Типовая схема процесса эмпирического моделирования Часть II. Моделирование по временным рядам На ключевом в схеме этапе 2 формируется структура модели.1 Во первых, выбирается тип уравнений. Мы будем говорить в основном о конечномерных детерминированных моделях в виде отображений x n +1 = f (x n, c) (5.1) или обыкновенных дифференциальных уравнений dx dt = f (x, c), (5.2) где x – D-мерный вектор состояния, f – вектор-функция, с – P-мерный вектор параметров, n – дискретное время, t – непрерывное время. Во вторых, задается вид входящих в них функций (скалярных компонент функции f). В-третьих, устанавливается связь динамических переменных (компонент вектора x) с наблюдаемыми величинами. В качестве переменных могут выступать сами наблюдаемые, но в более общем случае эту связь задают в виде = h(x), где h называют измерительной функцией.

Часто вводят еще случайную добавку : = h(x) +, чтобы учесть измерительный шум. Чтобы сделать модель более реалистичной, случайную добавку вводят нередко и в сами уравнения (5.1) или (5.2) – так называемый динамический шум.

Формирование структуры модели – наиболее сложный и творческий этап процедуры моделирования. После него остается только определить конкретные значения параметров c (этап 3). Здесь часто говорят об оценке параметров или «подгонке» модели.2 Для этого, как правило, проводится поиск экстремального значения некоторой целевой функции,3 например, минимизируется сумма квадратов отклонений решения модельных уравнений от наблюдаемых данных. При необходимости на данном этапе проводятся предварительные преобразования наблюдаемого ряда:

фильтрация от шумов, численное дифференцирование или интегрирование и т.п. Это, в основном, технический этап численных расчетов, но и здесь нужно сделать выбор принципа расчета параметров и методики для его реализации.

Выбор приходится делать и в финале, приступая к проверке «качества» модели (этап 4). Обычно качество модели проверяется с использованием прибереженной для этой цели тестовой части ряда.

Исходя из целей моделирования, в теории идентификации выделяют два типа задач – «познавательные» (где целью является получение адекватной модели) и «практические» (где есть практическая цель, которую стремятся В теории идентификации этот этап называют «структурной идентификацией» [57].

Согласно [111] «структура модели – это параметризованное множество моделей».

Другое название – «параметрическая или непараметрическая идентификация» [57].

Она носит различные названия: функция потерь, функция стоимости, функция риска.

Глава 5. Постановки задач моделирования по рядам достичь с помощью построенной модели, например, прогноз) [57]. В зависимости от того, какая из постановок имеет место, проводится либо проверка адекватности4 (верификация) модели в отношении интересующих исследователя свойств объекта, либо проверка эффективности5 модели для достижения поставленной цели. Если модель признана удовлетворительной (адекватной или эффективной), полученная конструкция берется в дело, иначе – возвращается на доработку на любой из этапов схемы рис.5.1.

5.2. Систематизация задач по объему априорной информации Фон, на котором изображена схема рис.5.1, меняется от черного (тьма незнания) до белого, отражая степень априорной неопределенности, с которой приходится сталкиваться при моделировании. Наименее благоприятна ситуация, получившая название «черного ящика», когда информация о структуре возможной адекватной модели отсутствует, и начинать приходится с самого верха описанной схемы. Чем больше известно о том, как должна выглядеть модель, т.е. чем ниже «стартовая точка» на схеме, тем вероятнее успех – «ящик» становится «серым» и даже «прозрачным». Последнее означает, что структура модели полностью известна априори.

Способы предварительного анализа временных рядов, которые могут дать полезную информацию о структуре модели и облегчить задачу моделирования, изложены ниже в главе 6. От решения проблем, встречающихся на нижних ярусах схемы, уклониться невозможно, с ними неизбежно сталкивается исследователь, преодолевший этап структурной идентификации. Поэтому в главах 7 и 8 мы рассмотрим проблемы реконструкции, начиная с наиболее простой ситуации, когда о модели известно все, кроме конкретных значений ее параметров, на рис.5.1 ей соответствует белый фон.

В зависимости от происхождения временных рядов складываются две качественно различные ситуации при постановке задачи моделирования.

Первая – когда наблюдения представляют собой реализацию некоторой математической модели (системы уравнений), полученную численными методами. Именно для нее полностью уместны термины «реконструкция»

или «восстановление» уравнений. Здесь существенно проще проверка качества модели, т.к. имеется «истинное» исходное уравнение: с ним и со свойствами его решений можно сравнивать результаты моделирования.

Кроме того, здесь можно сформулировать теоретические условия эффективности методов моделирования для различных классов систем. Во Под адекватностью понимают соответствие свойств модели свойствам объекта (верное воспроизведение моделью свойств оригинала) [168, с. 13].

Эффективной будем называть модель, обеспечивающую достижение цели.

Часть II. Моделирование по временным рядам втором, качественно ином случае, когда временной ряд получен в результате измерений реального процесса, единственно правильной модели не существует (глава 1) и успех моделирования гарантировать нельзя. Можно только удивляться «непостижимой эффективности математики», если будет получена «хорошая» модель.

Далее мы рассмотрим различные методы построения моделей. Для объяснения и иллюстрации технологии моделирования будем использовать, в основном, первую из описанных ситуаций – реконструировать уравнения по их численным решениям, добавляя для большей реалистичности шумы того или иного вида. Рассмотрение различных постановок задачи моделирования будем вести последовательно (главы 8 – 10) в соответствии со следующей «иерархией».

1) Оценка параметров. Структура модельных уравнений полностью записана из физических или других содержательных соображений, неизвестны только значения параметров. В этом случае задача наиболее проста – «прозрачный ящик». Но могут возникать существенные технические трудности, связанные с большим числом неизвестных параметров и ненаблюдаемых (скрытых) динамических переменных.

2) Восстановление нелинейных характеристик. В значительной степени структура уравнений известна из физических соображений, поэтому нет необходимости искать функцию f, зависящую от многих переменных. Неизвестны только некоторые ее компоненты – функции одной-двух переменных (возможно, нелинейные). Термин «восстановление нелинейных характеристик» заимствован из радиофизики, где под характеристиками понимаются неизвестные компоненты функции f. Он часто уместен в физических, биологических и других приложениях.

3) Реконструкция в случае «черного ящика». Поскольку априорной информации нет, функция f ищется в каком-либо универсальном виде.

Решение такой задачи чаще всего называют собственно «реконструкцией уравнений движения». Это наиболее тяжелая ситуация.

Переход от первой постановки к третьей (от «прозрачного ящика» к «черному») является постепенным. Многие ситуации можно упорядочить в направлении возрастания сложности («темноты серого тона» или «непрозрачности»). Но это не линейное упорядочение, т.к. не все ситуации можно легко сравнить и сказать, что эта – «светлее», а эта – «темнее».

Например, трудно сравнить информацию о наличии гармонического воздействия и о какой-либо симметрии фазовых траекторий в пространстве состояний.

Глава 5. Постановки задач моделирования по рядам 5.3. Особенности задач эмпирического моделирования 5.3.1. Прямые и обратные задачи Часто говорят, что задачи построения модельных уравнений по наблюдаемой временной реализации принадлежат к классу обратных задач. Термин «обратная задача» используется во многих математических дисциплинах. Обратные задачи – это задачи, в которых входные данные и искомые величины меняются местами по сравнению с постановкой некоторых привычных «базовых» задач, которые традиционно называют «прямыми».

Как правило, прямые задачи – это задачи, формулировки которых логически возникают первыми при создании математического аппарата.

Причем обычно имеются регулярные методы решения прямых задач, т.е.

это зачастую относительно простая проблема. К прямым задачам относится, например, задача Коши для решения системы обыкновенных дифференциальных уравнений: для заданных начальных условий найти частное решение системы ОДУ, удовлетворяющее этим условиям (прямая задача динамики). Задачу получения системы ОДУ, частным решением которой является заданная функция, называют обратной задачей динамики.

Об обратных задачах уместно говорить при анализе экспериментальных данных, когда по измеренным величинам нужно рассчитать параметры математической модели исследуемого процесса.

Например, в спектроскопии и молекулярном моделировании возникает задача: по наблюдаемым спектрам поглощения вещества вычислить параметры и определить геометрическую конфигурацию молекул вещества. Это обратная задача, а прямая – расчет спектров поглощения для заданной модели молекул.

5.3.2. Корректно и некорректно поставленные задачи Обратные задачи часто являются некорректно поставленными в некотором строгом смысле, оговоренном ниже.

Пусть задача формулируется следующим образом: по некоторым входным данным X найти искомую величину Y – решение задачи. Задача называется устойчивой по входным данным, если решение зависит от входных данных непрерывно Y = ( X ), т.е. при очень малом изменении X решение тоже очень мало изменяется. Задача называется корректно поставленной (по Адамару), если выполняются три условия: 1) решение существует;

2) решение единственно;

3) задача устойчива по входным данным.

Первые два условия не нуждаются в пояснении. Третье – важно для практики, поскольку данные всегда измеряются с некоторыми Часть II. Моделирование по временным рядам погрешностями, и если при небольшом изменении входных данных резко меняется ответ задачи, то мы не можем быть уверены в его надежности, да и вообще полезность полученного ответа оказывается под сомнением. Это условие и требует, чтобы ответ менялся мало при малом изменении входных данных.

Если хотя бы одно из трех условий нарушается, то задача называется некорректной (по Адамару). Конечно, всегда следует стремиться корректно ставить задачи, поэтому долгое время некорректные задачи вовсе находились вне интересов математиков [160]. Считалось, например, что они не имеют «физического смысла», обязательно должны быть переформулированы, и т.п. Но с течением времени такие задачи все чаще и чаще возникали в различных областях практики. Поэтому начали развиваться специальные подходы к их решению, такие как регуляризация и построение квази-решений.

По мере изложения материала мы нередко будем обсуждать корректность возникающих задач. Некорректность постановки – не «окончательный приговор», это еще не значит, что «все плохо». Так, некорректной является даже задача дифференцирования, но дифференцирование широко используется. Хотя, конечно, предпочтительнее было бы иметь дело с корректными постановками, для практических целей может оказаться вполне приемлемой модель, полученная и при некорректной постановке задачи. Например, это возможно в том случае, когда некорректность состоит в существовании множества решений, но удается выбрать одно решение (или даже Значительные трудности численной оценки производных по временному ряду (п. 7.4.2) имеют не технический характер. Они связаны с некорректностью задачи дифференцирования [160]. Поясним это на конкретном примере. Пусть задана непрерывно дифференцируемая функция x0 (t ), обозначим dx0 (t ) dt = y 0 (t ). Пусть теперь x0 (t ) задана с некоторой погрешностью, т.е. входные данные представляют собой функцию x(t ) = x0 (t ) + (t ), где добавка (t ) непрерывно дифференцируема и очень мала: (t ). Входные данные x(t ) очень близки к x0 (t ) в смысле метрики L. Производная «зашумленной» функции x(t ) есть dx(t ) dt = y 0 (t ) + d (t ) dt. Ее отклонение от y 0 (t ) в той же метрике может быть сколь угодно велико. Пусть, например, (t ) = sin(t ), тогда dx(t ) dt = y 0 (t ) + cos(t ). При этом = может быть сколь угодно большим для сколь угодно малого, если велико. Т.е.

погрешность дифференцирования может быть сколь угодно велика при сколь угодно малой «интенсивности быстро осциллирующего шума (t ) ».

Здесь важно, как понимается близость в пространстве входных данных и в пространстве решений. Так, если считать близкими только такие входные данные, для разности которых (t ) выполняется одновременно (t ) и d (t ) dt (т.е. (t ) – медленно меняющаяся функция), то задача дифференцирования корректна.

Глава 5. Постановки задач моделирования по рядам несколько) из этого множества, дающее вполне удовлетворительные результаты. Так, при моделировании молекул [68] авторы подчеркивают принципиальную некорректность возникающих задач (получение параметров модели по спектру поглощения или по дифракционной картине) и необходимость рассматривать модели, полученные в результате различных постановок эксперимента, как взаимно дополнительные и только частично отвечающие объекту.

Есть и другой распространенный вариант постановки и решения некорректной задачи. Пусть при входных данных X * существует решение задачи Y *. Пусть данные X * заданы с погрешностями, обозначим такой «зашумленный вход» X. Строгого решения при входных данных X задача может и не иметь. Тогда ищут величину Z = ( X ), в некотором смысле близкую к решению и такую, что отображение – непрерывно, и ( X ) Y * при X X * 0. Величину Z называют квазирешением.

На практике некорректность постановки задачи моделирования по временному ряду снимается, например, за счет дополнительных предположений или априорной информации о структуре модели (и соответствующего выбора базисных функций, см. главы 7-10).

Существуют также процедуры, которые обеспечивают корректность постановки: построение так называемых регуляризирующих функционалов [160, 51]. Типичным примером последней ситуации может служить задача аппроксимации зависимости одной величины Y от другой X на основе конечной «обучающей» выборки (см. ниже п. 7.2). Довольно легко подобрать кривую, проходящую через каждую экспериментальную точку на плоскости ( X, Y ) (п. 7.2.3.1). Однако, в общем случае, существует бесконечное множество кривых, которые отличаются от выбранной произвольными осцилляциями между точками. Все они доставляют минимум эмпирической среднеквадратичной ошибке аппроксимации и в этом смысле являются равноправными решениями задачи. Число решений можно уменьшить, если наложить условие на величину межточечных осцилляций. Это как раз и делает регуляризирующий функционал (подробнее см. п. 7.2.3). Так что анализ корректности задачи важен: он помогает выбрать эффективный способ ее решения и, если нужно, несколько изменить саму постановку.

5.3.3. Плохо обусловленные задачи В практических приложениях важно выделить вид задач, которые теоретически поставлены корректно, но их решение «достаточно сильно»

зависит от малого изменения входных данных. «Достаточно сильно» – это не строгое понятие, которое определяется конкретной задачей, но в общем Часть II. Моделирование по временным рядам случае означает, что при малой относительной погрешности во входных данных относительная погрешность решения во много раз больше:

= K, где K 1. Хотя формально задача устойчива по входным данным – при бесконечно малой погрешности во входных данных погрешность в решении также бесконечно мала, – но при конечной малой погрешности во входных данных погрешность в решении может оказаться очень велика. Такие задачи называют слабо устойчивыми по входным данным или плохо обусловленными [85, 289].

С практической точки зрения они не отличаются от некорректно поставленных, если учесть, что все расчеты и представление чисел на компьютере имеют конечную точность. Примером плохо обусловленной задачи является задача решения системы линейных алгебраических уравнений, матрица которой близка к вырожденной (такую матрицу тоже часто называют плохо обусловленной) [85, 153]. Плохо обусловленные задачи часто возникают при построении «громоздких» математических моделей по временным рядам. Для их решения требуется привлекать те же идеи и методики, что и в случае некорректных задач.

Глава 6. Ряды наблюдаемых – источник данных для моделирования При создании модели из «первых принципов» модельные величины наследуют смысл, заложенный в общих законах природы и производных от них формулировках типа уравнений Кирхгофа. При эмпирическом моделировании по временным реализациям выяснение взаимного соответствия параметров модели и объекта становится отдельной задачей.

Далеко не всегда можно организовать измерение значений всех величин, включенных в модель, в принципе или с необходимой точностью (по различным техническим причинам или из-за специфики объекта).

Приходится довольствоваться тем, что доступно, и учитывать это обстоятельство, проводя дополнительные преобразования данных при построении модели.

В этой главе мы остановимся на проблемах получения и обработки информативных сигналов с объекта с целью получения представлений о возможностях и специфике его моделирования – на том, что в схеме процесса моделирования на рис.5.1 значится как «получение и анализ временных рядов наблюдаемых» и «априорная информация».



Pages:     | 1 |   ...   | 3 | 4 || 6 | 7 |   ...   | 10 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.