авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 3 | 4 || 6 |

«Российская академия наук Российская ассоциация математического программирования Институт систем энергетики им. Л.А.Мелентьева СО РАН ...»

-- [ Страница 5 ] --

int На втором этапе множество Dnom разбивается на непересекающиеся подмножества k int int Dnom = Dnom i, i= int каждому j -му процессору назначается свое подмножество Dnom j исходных данных. Таким обра зом, каждый из процессов последовательно находит оптимальный вектор номиналов параметров для своей подобласти, результаты передаются одному из процессов и производится выбор опти int мального вектора номиналов по всей области Dnom.

Данный параллельный подход обладает очень высокими характеристиками производитель ности для оптимизации серийнопригодности, так как обмен между процессорами сводится к однократной заключительной передаче результатов, выполнение испытаний на процессорах не синхронизируется. При одинаковых размерах подобластей и равных временных затратах на вы числение целевой функции (оптимизация серийнопригодности) ускорение параллельного алго ритма сканирования практически достигает линейного. Наличие внутренних циклов порождает высокую масштабируемость алгоритма, главным условием его эффективной реализации является пропорциональная вычислительная загрузка всех компонентов вычислительного комплекса.

Из-за различной трудоемкости вычисления целевой функции при оценке и оптимизации параметрической надежности при назначении различным процессорам равных подобластей может возникнуть серьезная разбалансировка вычислительного процесса. При этом общая эффективность параллельных вычислений будет обратно пропорциональна числу критических временных сечений. Возможными путями повышения эффективности параллельного алгоритма сканирования могут быть предварительный анализ области работоспособности, разбиение описанного бруса на подобласти с соответствующими весовыми коэффициентами, дополни тельная диспетчеризация вычислительного процесса. Использование технологии параллельных вычислений еще не гарантирует получение результата в приемлемое время. Могут возникнуть ситуации, в частности при решении задачи методом сканирования, когда число номиналов становится слишком велико. Необходим поиск путей, позволяющих повысить эффективность алгоритмов многовариантного анализа и оптимизации.

Список литературы [1] О.В. Абрамов Параметрический синтез стохастическиъх систем с учетом требований надежности. М.: Наука, 1992, 176 с.

[2] О.В. Абрамов, Я.В.Катуева Использование технологии параллельных вычислений в задачах анализа и оптимизации. - Проблемы управления, 2003, №4, с. 11-15.

[3] О.В. Абрамов, Г.Б.Диго, Н.Б.Диго, Я.В.Катуева Праллельные алгоритмы построения обла сти работоспособности. - Информатика и системы управления, 2004, №2(8), с. 121-132.

PARALLEL ALGORITHM OF DISCRETE OPTIMIZATION ON SET OF PARAME TERS FACE VALUES IN PARAMETRICAL SYNTHESIS PROBLEM Ya.V. Katueva Institute of Automation and Control Processes FEB RAS, Vladivostok e-mail: gloria@iacp.dvo.ru Abstract. In article the problem of a choice of optimum parameters of analog technical devices and systems by stochastic criteria is considered. The parallel algorithm of discrete optimization on set of face values of the parameters, focused on MPP-classes is oered.

Key words: optimization, probability, parametrical synthesis, parallel algorithms.

ЗАДАЧА СОВМЕСТНОЙ ОПТИМИЗАЦИИ ДЛЯ ДИСКРЕТНЫХ СИСТЕМ Е.Д. Котина Санкт-Петербургский государственный университет, Санкт-Петербург,Россия e-mail: ekotina@compmath.spbu.ru Аннотация. В статье рассматривается задача совместной оптимизации программного движе ния и ансамбля возмущенных движений для дискретных систем. Приводится аналитическое выражение для вариации функционала, позволяющее строить различные направленные методы оптимизации. Данный математический аппарат может быть эффективно использован при оптимизации динамики заряженных частиц в линейных ускорителях.

Ключевые слова: оптимизация, управление, функционал, дискретные системы.

Введение Дискретные задачи управления занимают важное место в теории и практике оптимального управления, так как многие задачи описываются именно разностными уравнениями. На практи ке чаще всего информация о состоянии процесса поступает в дискретные моменты времени, и управление процессом также происходит по шагам.

Проблемам управления в дискретных системах и их приложениям посвящено множество ра бот различных авторов. Обычно, различается два подхода, первый основан на принципе опти мальности Р. Беллмана, второй - вариационный подход, который смыкается с аппаратом прин ципа максимума Л.С. Понтрягина.

Классические постановки задач оптимального управления в дискретных системах достаточно хорошо изучены и известны [1]. Эти задачи можно рассматривать, как задачи управления отдель ными траекториями. Наряду с этим в работах Д.А. Овсянникова разрабатывались также методы оптимального управления и оптимизации для ансамблей траекторий или пучков траекторий [2].

Данные задачи можно так же рассматривать как задачи управления с неполной информаци ей о начальных данных, когда неизвестно точное начальное состояние объекта и необходимо управлять ансамблем траекторий, исходящих из некоторого допустимого множества начальных состояний управляемого объекта.

Отметим, что задачи управления ансамблем траекторий естественно возникают при иссле довании и оптимизации динамики пучков заряженных частиц в ускоряющих и фокусирующих структурах.

В данной работе развивается вариационный подход к решению многошаговой задачи управ ления и, исследуется математическая модель, позволяющая проводить совместную оптимизацию программного движения и ансамбля возмущенных движений. Данная модель так же позволяет учитывать плотность распределения траекторий в фазовом пространстве.

1. Постановка задачи Рассмотрим дискретную систему следующего вида:

(1) x(k + 1) = f (k, x(k), u(k)), (2) y(k + 1) = F (k, x(k), y(k), u(k)), Работа выполнена при поддержке Российского Фонда Фундаментальных исследований, проект 03-01 k = 0,..., N 1.

Здесь x(k)- n-мерный фазовый вектор, характеризующий программное движение, y(k)- m мерный фазовый вектор, характеризующий отклонения от программного движения, u(k)- r мерный вектор, f (k, x(k), u(k))- n-мерная векторная функция. Будем предполагать, что при каж дом k {0, 1,..., N } она определена и непрерывна на множестве x U (k) по совокупности аргу ментов (x(k), u(k)) вместе с частными производными по этим переменным. F (k, x(k), y(k), u(k)) m-мерная векторная функция, такая, что при каждом k {0, 1,... N } она определена и непре рывна на множестве x y U (k) по всем своим аргументам (x(k), y(k), u(k)) вместе с частными производными по этим переменным и вторыми частными производными.

Здесь x - некоторая область в Rn, y - некоторая область в Rm, U (k), k = 0, 1... N 1 компактные множества в Rr. При этом предполагаем, что якобиан Jk = J(k, x(k), y(k), u(k)) = F (k,x(k),y(k),u(k)) отличен от нуля при всех изменениях k, x(k), y(k), u(k).

y(k) Будем считать, что уравнение (1) описывает динамику программного движения. Уравнение (2) может быть уравнением в отклонениях, описывающим возмущенное движение.

Мы предполагаем, что начальное условие x(0) = x0 - задано и, начальное состояние системы (2) описывается множеством M0 компактным множеством в Rm ненулевой меры. Последователь ность векторов {u(0), u(1)..., u(N 1)} будем называть управлением и обозначать для краткости u, а соответствующую этому управлению последовательность векторов {x(0), x(1)..., x(N )} бу дем называть траекторией программного движения и обозначать x = x(x 0, u). Через x(k) = x(k, x0, u(k)) будем обозначать фазовое состояние программной частицы на k-м шаге. Аналогич но, последовательность векторов {y(0), y(1),..., y(N )} будем называть траекторией возмущенно го движения и обозначать y = y(x, y0, u). Через y(k) = y(k, x, y0, u) будем обозначать фазовое состояние частицы на k-м шаге.

Множество траекторий y = y(x, y0, u) соответствующих начальному состоянию x0, управле нию u и различным начальным состояниям y0 M0 будем называть ансамблем траекторий, или пучком траекторий, или просто пучком. Фазовое состояние пучка на k-м шаге будем называть также сечением пучка траекторий и обозначать через Mk,u, т.е.

Mk,u = {y(k) : y(k) = y(k, y0, x(k), u(k), y0 M0 }, Управления, удовлетворяющие условиям u(k) U (k), k = 0, 1..., N 1, будем называть допу стимыми.

Уравнениями вида (1)-(2) может быть описана динамика заряженных частиц в ускоряю щей или фокусирующей структуре [5]-[6] и, применительно к задачам формирования динамики заряженных частиц мы будем трактовать пучок траекторий, как пучок заряженных частиц.

Пусть множество M0 - множество начальных состояний частиц с плотностью распределения 0. Нам интересно, как функция плотности распределения (k, yk ) будет изменяться вдоль тра екторий y = y(x, y0, u). Фиксируем шаг k + 1 и точку yk+1 Mk+1,u. Пусть y (k + 1) будет образом y (k) в силу системы (2). Обозначим через G(y(k)) множество точек y i (k) Mk,u, таких что траектории системы, исходящие на k-м шаге из y i (k) на k + 1-м шаге попадают в некоторую r-окрестность Sr ((k + 1)) точки y (k + 1).

y Под плотностью распределения траекторий системы (2) в точке y (k + 1) мы будем понимать предел [2]: (3) (k + 1), yk+1 = lim (k, yk )dxk, mes(Sr ((k + 1))) y G(y(k)) где (4) mes(Sr ((k + 1))) = y dy(k + 1) Sr ((k+1)) y В силу взаимно однозначного соответствия множеств G(y(k)) и Sr ((k + 1)), интеграл под y знаком предела в формуле (3) преобразуется к виду (k, yk )Jk dy(k + 1), Sr ((k+1)) y здесь y(k) F (k, x(k), y(k), u(k)) yk = y(k), Jk = J 1 (k, x(k), y(k), u(k)) = det = det.

y(k + 1) y(k) Таким образом, мы получаем следующее выражение для (k, yk ) :

(5) (k + 1, yk+1 ) = Jk (k, yk ), (0, y0 ) = 0 (y0 ).

Обозначим (k) = (k, yk ) функцию плотности распределения на k-м шаге. На траекториях систе мы введем функционал качества, позволяющий одновременно оценить динамику программного и возмущенного движений и проводить их совместную оптимизацию:

N здесь xk = x(k). (6) I(u) = k (xk, yk, (k, yk ), uk )dyk + g(yN, ( N, yN )dyN, k=1 M MN,u k,u Отметим, что данный функционал так же позволяет учитывать плотность распределения частиц в фазовом пространстве.

2. Вариация функционала Рассмотрим совместно уравнения (1), (2) и (5):

x(k + 1) = f (k, x(k), u(k)), y(k + 1) = F (k, x(k), y(k), u(k)), (k + 1) = J 1 (k, x(k), y(k), u(k))(k), (0, y0 ) = 0 (y0 ), k = 0,..., N 1. (7) Обозначим через x(k), y(k), (k) вариации траекторий системы (7) при допустимой вариации u и данном u. Запишем для системы (7) соответствующую систему в вариациях:

f (k) f (k) (8) x(k + 1) = x(k) + u(k) x(k) u(k) F (k) F (k) F (k) (9) y(k + 1) = x(k) + y(k) + u(k) x(k) y(k) u(k) J 1 (k) J 1 (k) J 1 (k) y(k) + J 1 (k)(k) + (k) (10) (k + 1) = (k) x(k) + (k) u(k) x(k) y(k) u(k) Так же имеет место следующее равенство [3]:

J(k) J(k) J(k) divy y(k + 1) = divy y(k) + J 1 (k) (11) y(k) + x(k) + u(k), y(k) x(k) u(k) где m yi (k) divy y(k) =.

yi (k) i= Принимая во внимание уравнения (8) - (11), начальные значения вариаций x(0) = 0, y(0) = 0, (0) = 0, divy y(0) = 0 и используя методику исследования функционалов вида (6), изложенную в работах [2-3], вариацию функционала (6) (при допустимой вариации управления u) можно представить в следующем виде:

N F (k) f (k) J(k)pT (k + 1) + J(k) T (k + 1) I = + u(k) u(k) k=0 M k,u J 1 (k) J(k) (k) (12) J(k)(k + 1)(k) + q(k + 1) + dyk u(k), u(k) u(k) u(k) где p(k), (k), (k), q(k) следующие вспомогательные функции:

g(yN, N ) g(yN, N ) pT (N ) =, (N ) =, q(N ) = g(yN, N ), (N ) = 0, y(N ) (N ) (k) q(k) = J(k)q(k + 1) + (k), (k) = (k + 1) +, (k) J 1 (k) F (k) J(k) (k) pT (k) = J(k)p(k + 1) + J(k)(k + 1)(k) + q(k + 1) +, y(k) y(k) y(k) y(k) J 1 (k) F (k) f (k) J(k) (k) T (k) = J(k)pT (k+1) +J(k) T (k+1) +J(k)(k+1)(k) +q(k+1) +, x(k) x(k) x(k) x(k) x(k) k = 0, 1,..., N 1.

Представление (12) вариации функционала (6) позволяет строить различные направленные методы оптимизации.

Заключение Совместная оптимизация программного и возмущенных движений при различных критериях качества была рассмотрена в предыдущих работах [4]-[7] и применялась для оптимизации динамики заряженных частиц в линейном ускорителе с трубками дрейфа [3]-[7]. Полученное в данной работе аналитическое представление для вариации функционала (6) позволяет прово дить совместную оптимизацию с учетом плотности распределения траекторий в пучке. Данный подход может использоваться применительно к оптимизации динамики заряженных частиц, а так же при обработке различных динамических исследований с неопределенностями.

Список литературы [1] А.И. Пропой Элементы теории оптимальных дискретных процессов. М.-Наука, 1973.

[2] Д.А. Овсянников Моделирование и оптимизация динамики пучков заряженных частиц.

изд-во С.-Петербургского университета, 1990.

[3] E.D. Kotina, A.D. Ovsyannikov On Simultaneous optimization of Programmed and Perturbed Motions in Discrete Systems. Proceedings of 11 International IFAC Workshop, vol.1. Pergamon Press. Oxford.UK. 2001, pp.187-189.

[4] Е.Д. Котина Дискретная задача оптимизации с суммарным показателем качества. Труды международного семинара: Динамика заряженных частиц и оптимизация, BDO-2001, Сара тов, 2001, стр.51-53.

[5] E.D. Kotina, S.A. Garbuzova Optimization of Longitudinal Motion of Charged Particles in Drift Tube Linear Accelerator. Proceedings of International Workshop: Beam Dynamics & Optimization, BDO-2002, St.Petersburg, pp.135-141, 2002.

[6] E.D. Kotina Discrete Optimization Problem. Problems of Atomic Science and Technology, №1, 2004. pp.147-149.

[7] E.D. Kotina Control Discrete Systems and Their Applications to Beam Dynamics Optimization.

Proceedings of the International Conference Physics and Control - PhysCon 2003. Saint Petersburg, Russia, 2003. pp. 997-1002.

SIMULTANEOUS OPTIMIZATION PROBLEM IN DISCRETE SYSTEMS E.D. Kotina Saint-Petersburg State University, Saint-Petersburg, Russia e-mail: ekotina@compmath.spbu.ru Abstract. In this paper we consider a problem of simultaneous optimization of program motion and that of ensemble of perturbed motions in discrete systems. Analytical expression for functional variation is suggested that help constructing various directed methods of optimization. Given mathematical apparatus can be eectively used in the optimization of the dynamics of charged particles in linear accelerators.

Key words: optimization, control, functional, discrete systems СОПРЯЖЕННЫЕ ПРОЦЕДУРЫ УЛУЧШЕНИЯ В ЗАДАЧАХ ОПТИМАЛЬНО ГО УПРАВЛЕНИЯ Н.В. Мамонова Байкальский государственный университет экономики и права, Иркутск e-mail: nam@isib.ru Аннотация. Рассматривается основная задача оптимального управления. Проводится по строение и обоснование сопряженных процедур улучшения. Основу модификаций составляет бивариация целевого функционала, которая обладает улучшенными характеристиками аппрок симации. В результате соответствующая процедура приобретает важные свойства нелокального спуска в определенных классах задач.

Ключевые слова: оптимальное управление, итерационные методы Введение Градиентные методы (процедуры слабого варьирования) традиционно и естественно являются стандартным инструментом численного решения задач оптимального управления. Техника их построения и анализа на вариационном уровне достаточно отработана и вполне соответствует конечномерным аналогам [1,2]. Тем не менее, специфика задач оптимального управления уже не в первый раз позволяет внести определенные модификации в сложившиеся структуры градиентных процедур, что в конечном итоге повышает качество и надежность численного решения [3].

В докладе проводится построение и обоснование сопряженных процедур улучшения, ко торые в качестве направления функционального спуска используют некоторую коррекцию стандартного градиента. Основу модификаций составляет нетрадиционная вариация целевого функционала (бивариация), которая обладает улучшенными характеристиками аппроксимации.

Как следствие, появляется важное свойство нелокального спуска по функционалу в линей ных и билинейных задачах, что снимает проблему параметрического поиска на каждой итерации.

1. Постановка задачи Рассматривается основная задача оптимального управления (задача (P)) F (x, u, t)dt min, (u) = (x(t1 )) + T x(t0 ) = x0, x = f (x, u, t), u(t) U, t T = [t0, t1 ].

Предположим, что функции, определяющие задачу, дифференцируемы по управлению u и дважды дифференцируемы по фазовому состоянию x.

Класс допустимых управлений V определим как множество измеримых вектор-функций u(t), t T с условием u(t) U, где U Rr - выпуклое, замкнутое множество.

Введем в рассмотрение сопряженную переменную Rn и образуем функцию Понтрягина для задачи (P) H(, x, u, t) =, f (x, u, t) F (x, u, t).

Определим векторную и матричную сопряженные задачи = Hx (, x, u, t), (t1 ) = x (x(t1 )).

Выделим частный случай задачи (P) относительно билинейной системы управления x = A(u, t)x + B(t)u + c(t), r A(u, t) = A0 (t) + Aj (t)uj j= с билинейной задачей:

1 (u) = c, x(t1 ) + ( a(u, t), x + b(t), u ) dt, T r a(u, t) = a0 (t) + aj (t)uj.

j= 2. Аппроксимация функционала Пусть u(t), w(t), t T - допустимые управления с фазовыми траекториями x(t, u), x(t, w) = x(t, u) + x(t). В [3] была получена следующая формула приращения функционала на паре управлений u, w для непрерывной вектор-функции (t), t T w (u) = w(t) H((t, u, w), x(t, u), u(t), t)dt +, (1) T где = o ( x(t1 ) ) oH ( x(t) )dt.

T Формула (1) обеспечивает фазовую линеаризацию функционала, так как остаточный член имеет порядок o( x ). Поэтому в линейных по фазовому состоянию задачах аппроксимация (1) является точной: = 0.

Теперь проведем линеаризацию по управлению в формуле приращения (1) и получим следу ющий вид w (u) = Hu ((t, u, w), x(t, u), u(t), t), u(t) dt + 1, (2) T где 1 = oH ( u(t) )dt.

T Определим функционал 1 (u, w) = Hu ((t, u, w), x(t, u), u(t), t), u(t) dt (3) T и назовем его первой бивариацией функционала на паре управлений u, w. Здесь производ ная Hu считается вдоль возмущенной сопряженной траектории (t, u, w) при известной фазовой траектории x(t, u).

Мы получили новую аппроксимацию w (u) = 1 (u, w) + 1. (4) Формула (4) обеспечивает линеаризацию функционала по x и по u, так как остаточный член 1 имеет порядок o( x ) и o( u ). Поэтому, в билинейных задачах формула (4) является точной.

3. Процедура слабого варьирования Рассмотрим основную задачу оптимального управления (задача (Р)). Пусть U - выпуклый компакт. В этом случае для задачи (Р) справедлив дифференциальный принцип максимума u(t) = arg max Hu (, x, u, t), v, t T.

vU Выберем некоторое управление v V и определим функцию варьирования (t) множеством X = { L (T ), 0 (t), t T }.

Тогда семейство варьированных управлений осуществится по правилу uv, (t) = u(t) + (t)(v(t) u(t)), t T.

Рассмотрим процедуру слабого варьирования для приращения функционала (2) (uv, ) (u) = 1 (u, v, ) + o(), где 1 (u, v, ) = (t) Hu ((t, u, uv, ), x(t, u), u(t), t), v(t) u(t) dt.

T Здесь 1 (u, v, ) - бивариация функционала.

Найдем параметры варьирования v, из условия минимума бивариации (t) Hu ((t), x(t, u), u(t), t), v(t) u(t) dt max, T v V, X с произвольной вектор-функцией (t), t T. Решением этой задачи является v (t, ) = u (, x(t, u), t), t T, Rn.

Для заданного (0, 1] проведем варьирование u(t,, ) = u(t) + (v (t, ) u(t)) и найдем решение (t) сопряженной системы = Hx (, x(t, u), u(t,, ), t), (t1 ) = x (x(t1 )) вместе с управлением u (t) = u(t, (t), ), t T. Шаг выбирается из условия улучшения функционала (u ).

4. Процедура улучшения в задаче без ограничений Пусть в задаче (Р) множество U = Rr. В этом случае признаком оптимальности управле ния является условие стационарности Hu (, x, u, t) = 0, t T. Построим процедуру улучшения управления u(t) по функционалу, используя бивариацию 1 (u, w).

Вместо неизвестной вектор-функции (t, u, w) также введем сопряженный параметр R n и с помощью измеримой функции (t), t T организуем варьирование по правилу u (t, ) = u(t) + (t)Hu (, x(t, u), u(t), t), t T. (5) Далее проведем параметризацию процедуры (5) в нормировке L (T ). В этом случае задача отыскания неизвестной функции (t) выглядит следующим образом dt max, (t) Hu ((t), x(t, u), u(t), t) T (t) [0, ].

Решением этой задачи является (t) =, t T, которое определяет следующую процедуру варьирования u (t, ) = u(t) + Hu (, x(t, u), u(t), t), где Rn - неизвестный параметр.

Находим траекторию (t) из задачи Коши для сопряженной системы и получаем новое управление v (t) = u (t, (t)). Таким образом, получили семейство управлений варьирования на выходе процедуры улучшения. При этом бивариация имеет порядок и отрицательна 2 (1) 1 (u, v ) = dt = (u).

Hu ((t), x(t, u), u(t), t) T В рамках билинейных задач бивариация 1 (u, w) дает точную аппроксимацию функционала.

5. Проективный метод улучшения в задаче с ограничениями Рассмотрим задачу (Р), где множество U - выпуклое и замкнутое. В этой задаче имеет смысл применить операцию проектирования на множество U (PU - оператор проектирования в евкли довой метрике). При этом условием оптимальности управления является дифференциальный принцип максимума в проективной форме u(t) = PU (u(t) + Hu (, x, u, t)), t T, 0.

Пусть (u(t), x(t, u)), t T - допустимая пара в задаче (Р).

Для 0 определим процедуру варьирования u (t, ) = PU (u(t) + Hu (, x(t, u), u(t), t)), где Rn - неизвестный параметр.

Далее, найдем решение (t), t T сопряженной системы = Hx (, x(t, u), u (t, ), t), (t1 ) = x (x(t1 )) вместе с управлением v (t) = u (t, (t)), t T. Задача поиска шага выбирается также из условия улучшения функционала (u ) (u).

Список литературы [1] Федоренко Р. П. Приближенное решение задач оптимального управления. - М.: Наука, 1978.

[2] Васильев Ф. П. Методы решения экстремальных задач. - М.: Наука, 1981.

[3] Срочко В. А. Итерационные методы решения задач оптимального управления. - М.: Физмат лит, 2000.

ASSOCIATE IMPROVEMENT PROCEDURES OF OPTIMAL CONTROL PROBLEMS N.V. Mamonova Baikal State University of Economy and Right, Irkutsk e-mail: nam@isib.ru The primary problem of optimal control is considered. A series of associate improvement procedures is constructed on the basis of the new byvariations of the cost functional. As a result the corresponding methods have the important properties of nonlocal descent and improvement of stationary controls.

Key words: optimal control, iterative methods СУБОПТИМАЛЬНОЕ ПО БЫСТРОДЕЙСТВИЮ УПРАВЛЕНИЕ СЛОЖНЫМИ ДИНАМИЧЕСКИМИ ОБЪЕКТАМИ В УСЛОВИЯХ НЕОПРЕДЕЛЕННОСТИ В.Е. Маркин Институт автоматики и процессов управления, Владивосток e-mail: markinve@iacp.dvo.ru Аннотация. В работе рассматривается алгоритм адаптивного управления в системах с пе ременной структурой (СПС), с помощью которого возможно получение субоптимальных по быстродействию переходных процессов. Субоптимальность может быть получена в условиях структурно-параметрической неопределенности. Рассматривается применение данного алгорит ма для управления сложными динамическими объектами на примере исполнительного привода манипуляционного робота.

Ключевые слова: управление с переменной структурой, оптимальное управление, параметри ческая неопределенность, сложные динамические объекты, манипуляционные роботы.

Введение В настоящее время актуальная проблема теории управления - синтез новых высокоэф фективных законов управления сложными динамическими объектами в условиях структурно параметрической неопределенности. Примерами подобных объектов могут быть манипуляцион ные роботы, подводные и летательные аппараты. Как правило, подобные объекты существенно нелинейны и многомерны. Кроме того, практически невозможно получить полное уравнение модели объекта вследствие структурно-параметрической неопределенности, характерной для условий их эксплуатации (изменение геометрических параметров манипулятора, неизвестные внешние возмущения для подводных аппаратов и т.д.). Все эти факторы существенно затрудня ют построение качественного управления сложными динамическими объектами. Традиционное использование методов линейной теории управления зачастую не позволяет достичь приемлемых динамических показателей работы системы. В настоящее время разработано множество методов решения задачи управления в условиях неопределенности: нейросетевой, робастный, адаптив ный и т.д. Одним из подходов к решению задачи синтеза управления объектами в условиях неопределенности является использование систем с переменной структурой (СПС). Принцип переменности структуры был предложен и исследован в работах С.В. Емельянова и В.И. Уткина и др. [1], [2]. Наиболее примечательным свойством СПС является наличие так называемого скользящего режима. Движение в скользящем режиме состоит из переключений, происходящих с теоретически бесконечно большой частотой на границе особой линии переключения в про странстве состояний системы. Уравнение линии переключения задается на этапе проектирования системы. Следует отметить, что традиционные системы управления с переменной структурой обладают определенными недостатками. Одним из них является невысокое быстродействие СПС.

В работе предлагается алгоритм адаптивного управления с переменной структурой, позволяю щий преодолеть указанный недостаток СПС и приблизить быстродействие к оптимальному. Для реализации алгоритма используется так называемый параметр скользящего режима. В отличие от известных алгоритмов адаптивной настройки в предлагаемом используются нелинейные поверхности переключения с настраиваемыми коэффициентами.

Работа выполнена при поддержке Фонда содействия отечественной науке (ФСОН) 1. Постановка задачи Пусть имеется динамический объект, описываемый следующим образом:

(1) x = f (x, u, t, ), где - x X n - вектор состояния объекта, u U - управление, t - время, - составляющая, соответствующая неопределенности, причем значения неопределенных параметров в процессе работы задаются интервальным образом: i [min, max ]. Рассматривается стандартный следя щий режим работы объекта, при котором происходит отработка входного задающего сигнала.

Традиционно управление с переменной структурой строится в следующем виде [1]:

u+, s (2) U=, u, s s = f (x1,...xn ), где s = 0 - уравнение линии (поверхности) переключения, построенной в пространстве состо яний системы, содержащем фазовые координаты x1, : xn. Согласно [2], условие существования скользящего режима задается в виде s · s 0. (3) Управление с переменной структурой вида (2) является разрывным управлением с обратной связью. Для его реализации, как правило, используются релейные переключающие элементы.

Для сохранения условия существования скользящего режима (3) коэффициенты линии пере ключения s = 0 настраиваются с учетом “наихудших” условий функционирования системы.

Вследствие этого быстродействие традиционных СПС оставляет желать лучшего, поскольку оно остается одинаковым как при наихудших, так и при наилучших условиях функционирования.

2. Метод решения В работе [7] предлагается адаптивный алгоритм управления с переменной структурой, осно ванный на применении так называемого параметра скользящего режима µ. Согласно [6], значение параметра µ может быть получено следующим образом:

grad sf + (4) µ=, grad s(f + f ) где f = {f,..., f }, f + = {f +,..., f + } – n-мерные векторы фазовой скорости, соответству n n 1 ющие линейным (в общем случае – нелинейным) структурам, определенным по разные стороны границы s = 0. Значение параметра µ задает некий скаляр, характеризующий “вес” обеих струк тур в результирующем движении. Движение системы при возникновении скользящего режима описывается следующим векторным уравнением:

x = µf + (x) + (1 µ)f (x). (5) Согласно [7], значение параметра µ в каждый момент времени характеризует положение изобра жающей точки системы относительно оптимальной по быстродействию траектории движения, а значение µ = 1 соответствует оптимальной траектории. Таким образом, адаптивная настройка производится на основе разницы между желаемым µd и текущим µ значениями параметра сколь зящего режима. Описанный в работе механизм адаптации можно интерпретировать как поворот линии переключения в область более высоких скоростей с сохранением условия (3). Предлагает ся модифицированный алгоритм адаптивного управления, обобщающий описанный выше подход и использующий нелинейные настраиваемые поверхности переключения [3], [5]. Идея подхода заключается в следующем. В начальный момент времени поверхность переключения в простран стве состояний располагается таким образом, чтобы для нее при любых начальных условиях и возможном диапазоне изменения неопределенных параметров выполнялось условие (3). Уравне ние поверхности выбирается в следующем виде:

(6) s = f (x, p), где x - вектор состояния системы, p - вектор параметров поверхности переключения. Функция f (x, p) в общем случае может быть нелинейной. После попадания на поверхность переключения начинается процесс адаптивной настройки параметров p поверхности, который геометрически можно интерпретировать как ее деформацию. Алгоритм настройки следует выбрать таким обра зом, чтобы указанная поверхность в результате деформации смещалась в область более высоких скоростей. Как и в алгоритме, предложенном в [7], степень деформации определяется близостью параметра скольжения к заданному эталонному значению µd. Реализация этой идеи может быть выполнена различными способами. В качестве примера в работе рассматривается система управ ления исполнительным приводом манипуляционного робота второго порядка [3], для которой выбирается следующее уравнение линии переключения:

s = + k sign · || + c ·, (7) где - рассогласование системы,k и c – параметры, настройка которых ведет к нестационарности поверхности переключения. В частном случае, если положить k = 0, уравнение (7) задает классическую прямую скольжения с параметром c, значение которого определяет наклон линии переключения [1], [2], [7], [4]. В случае, когда c = 0, уравнение (7) описывает линию, аналогичную кривой переключения в оптимальной по быстродействию системе. В общем случае возможна одновременная настройка всех параметров поверхности. В процессе исследования выбирались следующие законы адаптации:

интегральный k = kµ (µd µ), (8), c = kc (µd µ).

интегрально-знаковый k = kµ sign(µd µ) (9), c = kc sign(µd µ) с огрублением по параметру скольжения kµ (µd µ), |µd µ| µ, kc (µd µ), |µd µ| µ, (10) k = ;

c =, 0, |µd µ| µ. 0, |µd µ| µ.

с огрублением по ошибке kµ (µd µ), || kc (µd µ), || (11) k = ;

c =, 0, ||. 0, ||.

где kµ, kc – коэффициенты пропорциональности, µ - минимальное рассогласование между эталонным и текущим значениями параметра скольжения, - значение рассогласования системы, при котором следует прекратить адаптивную настройку.

В релейной СПС с законом управления (2) также возможно получение оптимального по быстродействию процесса [8]. Однако для синтеза оптимального управления необходимы точные значения параметров объекта. Для динамического объекта, функционирующего в условиях параметрической неопределенности, эта задача труднореализуема. Тем не менее, при адаптивной настройке можно получить субоптимальный по быстродействию режим в условиях неопределен ности, поскольку при настройке коэффициентов линии переключения результирующая линия будет приближаться к оптимальной по быстродействию траектории. Выбор нелинейного урав нения линии переключения (7) обусловлен тем, что уравнение оптимальной по быстродействию траектории имеет аналогичный вид [8]. Фактически при настройке происходит аппроксимация нелинейной функцией переключения (7) оптимальной по быстродействию траектории. Однако вследствие того, что некоторое время тратится на настройку линии переключения, процесс будет субоптимальным по быстродействию.

Таким образом, в работе предложен новый класс адаптивных СПС: с нелинейными деформи руемыми поверхностями переключения. На примере простых адаптивных СПС предложенного класса показана перспективность развиваемого подхода. Синтезированные алгоритмы управ ления позволяют значительно улучшить характеристики системы, в частности, увеличить быстродействие системы в условиях неопределенности параметров управляемого объекта и приблизить его к оптимальному. В настоящее время исследования ведутся в направлении обобщения предложенных подходов на системы более высокого порядка.

Список литературы [1] С.В. Емельянов Теория систем с переменной структурой. Москва: Наука, Гл. ред. физ.-мат.

лит., 1970, 592 с.

[2] В.И. Уткин Скользящие режимы в задачах оптимизации и управления. Москва: Наука, Гл.

ред. физ.-мат. лит., 1981, 368 с.

[3] А.А. Дыда, В.Е. Маркин Адаптивная система управления с переменной структурой. Па тент РФ № 2210170. - Опубл. в БИ № 22, 20.07.2003.

[4] Маркин В.Е., Дыда А.А. Адаптивное управление с переменной структурой с парными и нелинейными деформируемыми поверхностями переключения. - Информатика и системы управления, 2003, №1(5).- с.100-105.

[5] А.А. Дыда, В.Е. Маркин Системы управления с переменной структурой с парными и нели нейно деформируемыми поверхностями переключения. - Проблемы управления, 2005, №1. с.22-25.

[6] А.Ф. Филиппов Дифференциальные уравнения с разрывной правой частью. - Математиче ский сборник, 1960, т.51, № 1.

[7] Dyda A.A. Design of Adaptive VSS algorithms for Robot Manipulator Controls. - Proc. Of First Asia Control Conference. Tokyo, July 27 - 30, 1994. pp 1077-1080.

[8] А.А. Павлов Синтез релейных систем, оптимальных по быстродействию. Метод фазового пространства. Москва: Наука, 1966, 392 с.

TIME SUB-OPTIMAL CONTROL WITH COMPLEX DYNAMICAL OBJECTS IN CONDITIONS OF UNCERTAINTY V.E. Markin Institute for Automation and Control Processes e-mail: markinve@iacp.dvo.ru Abstract. In the paper new adaptive variable-structure control algorithm with nonlinear deformable switching surfaces considered. Using this algorithm it is possible to archieve time sub-optimal processes in conditions of uncertainty. As example, usage of new algorithm in control of manipulator robot drive considered.

Key words: variable-structure control, optimal control, parametric uncertainty, complex dynamical objects, manipulator robots.

ОБ ОДНОЙ НЕСТАНДАРТНОЙ ЗАДАЧЕ ТЕОРИИ УПРАВЛЕНИЯ А.Д.Овсянников Санкт-Петербургский государственный университет, Санкт-Петербург e-mail: ovs@compmath.spbu.ru Аннотация. Рассматривается задача совместной оптимизации программного движения и ансамбля, возмущенных по начальным данным движений, возникающая, в частности, при оптимизации параметров динамики пучков заряженных частиц. Получены аналитические представления вариации исследуемого функционала и необходимые условия оптимальности для класса кусочно-непрерывных допустимых управлений, а также в случае нестандартной вариации управлений, сохраняющей их гладкость.

Ключевые слова: совместная оптимизация, программное движение, возмущенные движения, динамика пучков заряженных частиц.

Введение В данной работе исследуется математическая модель управления, ориентированная на реше ние проблем моделирования, анализа и оптимизации сложной электрофизической аппаратуры.

Следует отметить, что математические проблемы оптимизации и формирования динамики заряженных частиц в ускоряющих и фокусирующих структурах исследовались многими авторами. Отметим работы Д.А. Овсянникова, в которых разработана теория оптимизации динамики пучков (ансамблей траекторий) заряженных частиц (см., например, монографию [1]).

В настоящее время во всем мире уделяется большое внимание проблемам проектирования и создания ускорителей заряженных частиц различного назначения, сфера применения которых непрерывно расширяется. Однако не существует общих методов поиска параметров ускоряющих структур, особенно при больших частотах ускоряющего поля и токах, обеспечивающих высокий темп ускорения и необходимые характеристики выходного пучка. Это связано со многими причинами и, в частности, с тем, что при проектировании сложных управляемых систем различного назначения (в том числе таких, как ускорители и токамаки) довольно стандартным является подход, когда сначала рассчитывается программное движение, а затем, используя урав нение в отклонениях, исследуются возмущенные движения. Однако, это не всегда приводит к желаемым результатам. Ранее автором были предложены новые нестандартные математические модели совместной оптимизации программного движения и ансамбля возмущенных движений и разработаны методы их решения [2],[3].

1. Математическая модель управления Рассмотрим управляемую динамическую систему, заданную системой интегро дифференциальных уравнений dx (1) = f (t, x, u), dt dy (2) = F1 (t, x, y, u) + F2 (t, x, y, zt )(t, zt )dzt = F (t, x, y, u), dt Mt,u d = (t, y) · divy F (t, x, y, u), (3) dt Работа выполнена при поддержке Российского Фонда Фундаментальных исследований, проект 03-01 с начальными условиями (4) x(0) = x0, y(0) = y0 M0, (5) (6) (0, y(0)) = 0 (y0 ).

Здесь t T0 = [0, T ] независимая переменная, x Rn и y Rm векторы фазовых перемен ных, u = u(t) r-мерная функция управления, T фиксированное число, 0 (y0 ) некоторая неотрицательная непрерывная функция. Вектор-функция f (t, x, u) размерности n предполагает ся определенной и непрерывной по совокупности аргументов на множестве T 0 x U вместе со своими частными производными по x. Векторные функции F1 (t, x, y, u) и F2 (t, x, y, z) размер ности m предполагаются определенными и непрерывными по совокупности своих аргументов на множествах T0 x y U и T0 x y y, соответственно, вместе со своими частны ми производными первого и второго порядка. Множества x Rn и y Rm открытые;

множество U Rr компактное;

множество M0 y компактное, ненулевой меры;

точка x0 x. Множество Mt,u = {yt |yt = y(t, x(t), y0, u), y0 M0, x(0) = x0 } есть сечение пучка тра екторий системы (2) в момент времени t при фиксированном управлении u = u(t). Полагаем, что допустимые управления u = u(t), t T0, образуют некоторый класс D кусочно-непрерывных функций, принимающих значения из компактного множества U.

Функция F2, выражающая взаимодействие частиц, в данном случае является достаточно гладкой функцией и описывает некоторое сглаженное взаимодействие частицы со всем ансам блем частиц. Такие "сглаженные"модели могут получаться при различных численных решениях уравнения Власова, например, методом крупных частиц.

Далее полагаем, что решения системы (1)-(6) определены и единственны на всем интервале t [0, T ] при u D.

Введем функционалы, определенные на решениях системы (1), (2) и уравнения (3) при соот ветствующих начальных условиях (4), (5), (6) и выбранном управлении u(t):

T (7) I1 (u) = 1 (t, x(t), u(t))dt + g1 (x(T )), T (8) I2 (u) = (w1 (t))dt + G(w2 ) где (9) w1 (t) = 2 (t, x(t), yt, (t, yt ), u(t))dt, Mt,u (10) w2 = g2 (yT, (T, yT ))dyT.

MT,u Пусть функции, G, 1, 2, g1, g2 неотрицательные непрерывно дифференцируемые функции своих аргументов.

Введем следующий функционал (11) I(u) = I1 (u) + I2 (u), одновременно оценивающий динамику программного движения и динамику пучка частиц с уче том их плотности распределения и взаимодействия, для дальнейшей совместной оптимизации.

Задачу минимизации функционала (11) будем называть задачей совместной оптимизации программного (расчетного, выделенного) движения и динамики пучка частиц.

2. Вариация функционала Полное приращение функционала (11) при допустимой вариации управления u(t) может быть представлено в следующем виде (12) I(u, u) = I(u, u) + o(), где o() есть величина более высокого порядка малости, чем. Здесь = max y0 M0 ( u f L + u F1 L + u divy F1 L + u 2 L ), а вариация функционала представлена следующем образом T ( · u f u 1 )dt I(u, u) = T (µ · u F1 + · u divy F1 (w1 )u 2 )dyt dt.

(13) 0 Mt,u При этом вспомогательные функции (t), µ(t, y), (t, y) удовлетворяют вдоль траекторий системы (1)-(3) следующим уравнениям:

divy F f 1 F d = (14) + ( µ+ )dyt + (w1 ) dyt, dt x x x x x Mt,u Mt,u divy F dµ F + E · divy F ) µ = ( + (w1 ) dt x y y divy F2 (t, x, zt, yt ) F2 (t, x, zt, yt ) (t, yt ) (15) ( µ(t, zt ) + (t, zt ) )dzt, z z Mt,u d = · divy F + (w1 ) · (2 (16) ), dt и условиям на правом конце:

g1 (x(T )) (T ) = (17), x g2 (yT, T ) µ(T, yT ) = G (w2 ) (18), y g2 (yT, T ) (T, yT ) = G (w2 ) · (g2 (yT, T ) T (19) ).

Полученное выражение для вариации функционала позволяет строить направленные методы минимизации функционала (11), рассматриваемого на траекториях системы (1)-(6).

3. Условия оптимальности в форме принципа максимума Понтрягина Введем функции H1 и H2 следующим образом H1 (t, x,, u) = · f (t, x, u) 1 (t, x, u), (20) H2 (t, x, y,, w1, µ,, u) = µ · F1 (t, x, y, u) + · divy F1 (t, x, y, u) (w1 ) · 2 (t, x, y,, u). (21) Тогда вариация функционала (13) может быть записана в следующей форме:

T I(u, u) = u H1 (t, x(t), (t), u(t))dt T (22) u H2 (t, x(t), yt, (t, yt ), w1 (t), µ(t, yt ), (t, yt ), u(t))dyt dt, 0 Mt,u где x, y, решения системы (1)-(3), соответствующие управлению u = u(t);

функция w 1 (t) определена формулой (9) на этих решениях и этом же управлении;

вспомогательные функции, µ, удовлетворяют соответственно уравнениям (14)-(16) с условиями на правом конце (17)-(19).

Под оптимальным процессом будем понимать в дальнейшем оптимальное управление u 0 (t), оптимальные траектории x0 (t) = x0, y 0 (t) = yt и плотности распределения частиц на оптималь t 0 (t, y 0 ) = 0 системы (1)-(6), соответствующие этому оптимальному управле ных траекториях t t нию.

Введем обозначение H 0 (t, u) = H1 (t, x0, 0, u)) + H2 (t, x0, yt, 0, w1, µ0, t, u)dyt, 0 0 0 (23) t t t t t Mt,u где функции 0 = 0 (t), µ0 = µ0 (t, yt ), t = 0 (t, yt ) удовлетворяют уравнениям (14)-(16) на 0 0 t t 0 оптимальном процессе, w1 = w1 (t) находится по формуле (9) на оптимальном процессе.

Тогда при всех t T0 выполняется следующее условие, которое можно понимать как распро странение принципа максимума на наш случай:

max H 0 (t, u) = H 0 (t, u0 (t)). (24) uU 4. Случай гладких управлений Рассмотрим случай дифференцируемости правых частей системы (1)-(3) и подынтегральных функций, участвующих в построении функционала (11) по управлениям. Тогда под вариацией функционала (11) можно понимать выражение вида:

T H1 H I(u, u) = dyt ) · u(t)dt. (25) ( + u u 0 Mt,u В качестве допустимых управлений будем рассматривать класс непрерывно-дифференцирумых функций. Пусть варьируемое управление строится по правилу [4] u (t) = u(t + · (t)), t T0. (26) Здесь [0, 1] параметр,характеризующий малость вариации;

(t) непрерывно дифференцируемая функция, удовлетворяющая условиям 0 t + · (t) T, t T0. (27) Очевидно следует, что при условии u(t) допустимое управление, управление u (t) при всех [0, 1] будет допустимым.

Выбирая варьируемое управление по формуле (26) и используя представление (28) u(t) = u(t)(t) + o(), представим вариацию функционала (11) следующим образом T H1 H I(u, u) = (29) [( + dyt )u(t)](t)dt.

u u 0 Mt,u Пусть управление u0 (t) оптимальное. Тогда необходимое условие оптимальности может быть сформулировано так H 0 (t, u0 (t)) (30) u(t) = 0.

u Условие (30) выполняется при всех t T0, функция H 0 (t, u0 (t)) определена на соответствующем оптимальном процессе.

Заключение В работе исследуется математическая модель совместной оптимизации программного (расчетного) и возмущенных движений динамической системы, предназначенная для решения проблем оптимизации динамики пучков заряженных частиц в ускоряющих и фокусирующих структурах. Полученные необходимые условия оптимальности и вариация исследуемого функци онала, представленная в специальном виде, позволяют строить алгоритмы численного решения задачи оптимизации.

Список литературы [1] Д.А. Овсянников Моделирование и оптимизация динамики пучков заряженных частиц.

Ленинград: Издательство Ленинградского университета, 1990, 312 с.

[2] A.D. Ovsyannikov, B.I. Bondarev, A.P. Durkin New Mathematical Optimization Models for RFQ Structures. - Proceedings of the 18th Particle Accelerator Conference, New York, USA, 1999, pp.

2808-2810.

[3] A.D. Ovsyannikov New Approach to Beam Dynamics Optimization Problems. - Proceedings of the 6th International Computational Accelerator Physics Conference, Darmstadt, Germany, September, 2000, http://www.icap2000.de [4] А.В. Аргучинцев Оптимальное управление начально-краевыми условиями гиперболических систем. Иркутск: Издательство Иркутского государственого университета, 2003, 156 с.

ON ONE NON-STANDARD PROBLEM OF CONTROL THEORY A.D. Ovsyannikov Saint-Petersburg State University, Saint-Petersburg e-mail: ovs@compmath.spbu.ru Abstract. Problem of joint optimization of program motion and ensemble of disturbed by initial states motions, arising, in particular, with optimization of parameters of charged particles beam dynamics, is considered. Analytical representation of variation of investigated functional and necessary conditions of optimality for class of piecewise continuous admissible controls and also for case of non-standard control variation, which is preserving smoothness, are obtained.

Key words: joint (simultaneous)optimization, program motion, disturbed motions, charged particles beam dynamics.

ОПТИМАЛЬНОЕ УПРАВЛЕНИЕ В ПРОБЛЕМЕ МИНИМИЗАЦИИ ЗАГРЯЗ НЕНИЙ АТМОСФЕРЫ ЧАСТИЦАМИ ВРЕДНЫХ ПРИМЕСЕЙ С ПОМОЩЬЮ ПРИНЦИПА МАКСИМУМА ПОНТРЯГИНА И МЕТОДА СФЕРИЧЕСКИХ ГАРМОНИК Р.Р. Рафатов, Н.Т. Асаналиева Кыргызско-Турецкий Университет ’Манас’, Бишкек e-mail: ramiz.rafatov@manas.kg ИА НАН КР, Бишкек e-mail: nazgulya@newmail.ru Аннотация. Охрана окружающей среды от загрязнений промышленными предприятиями становится одной из наиболее актуальных проблем современной науки и техники. Данная работа посвящена исследованию проблемы, связанной с размещением новых индустриальных объектов с учетом минимального загрязнения близлежащих экономически важных объектов.

Предполагается, что все промышленные предприятия в данном регионе уже существуют и выбрасывают в атмосферу некоторое количество частиц вредных примесей. Задача состоит в определении для каждого предприятия такого допустимого количества выбрасываемых частиц, чтобы интеграл их суммы квадратов был бы минимальным. В то же время, плотность вредных частиц должна быть сколько угодно близка в среднем к санитарно допустимым нормам.

Ключевые слова: оптимизация, метод сферических гармоник, критерий качества, управление, оптимальное.

1. Постановка задачи Пусть в заданной области G n - мерного пространства Rn, с границей Г, имеющей форму ци линдра с основаниями Го, Гн и боковой поверхностью Гб, в точках xi = (xi, xi,..., xi ) (i=1,2,...,r) n расположено r промышленных объектов, выбрасывающих в атмосферу pi (t) (i=1,2,...,r) вредных примесей. В результате приходим к следующей постановке задачи [1].

Дано интегро-дифференциальное уравнение диффузии субстанций r индустриальных объек тов:

n 2 = + vgrad + (t, x, v) x2 x t n i i=1 (1) r i )+ pi (t)(x xi )(v = v (t, x, v, v )(t, x, v )d, m() i=1 где (t, x, v) концентрация частиц в момент времени t, находящихся в точке x = (x1, x2,..., xn ) и имеющих в этой точке скорость v = (v1, v2,..., vn ), grad = ( x1, x2,..., xn ) вектор градиент, v = (v1, v2,..., vn ) вектор скорости, удовлетворяющий условию неразрывности n vi = 0,, причем vn при xn = 0, то есть на Го, и при xn = H, то есть на Гн div(v) = xi i= (Го, Гн - основания n - мерного цилиндра Г);

- сфера единичного радиуса в R n, уравнение n vi = 1;

, - положительные постоянные, характеризующие среду G R n, которой имеет вид:

i= где происходит диффузия субстанций;

, - коэффициенты ”горизонтального” и ”вертикального” турбулентного обмена. x = (x1, x2,..., xn ) - переменная точка области G;

(t, x, v, v ) - функция, характеризующая рассеяние частиц вредных примесей;

(x xi ), ( vi ) - - функции Дирака, v m() - площадь поверхности единичной сферы в T RIALREST RICT ION [2]:

2( )n et t1 dt.

m() =, () = (n/2) К нестационарному интегро-дифференциальному уравнению (1) следует присоединить крае вые условия:

(t, x, ) |t0 = 0 (x, ), ( ) |0 = 0 (2) xn | = 0, (t, x, ) | X = 0, (, n) 0, (3) xn H где n - единичный вектор нормали к внешней стороне поверхности Г цилиндра G.

Коэффициент в условии (2), в случае трехмерного пространства R 3, характеризует вероят ность снова попасть в атмосферу выпавших на поверхность земли субстанций. Условие (3)), в случае n = 3, означает, что частицы, вылетевшие из области G, не возвращаются внутрь данного объема.

Требуется найти такие pi (t) (i=1,2,...,r), на которых функционал T r [(T, x, ) i (x, )]2 d p2 (t)dt + (4) J[p] = i dG i i=1 0 G принимает наименьшее возможное значение. Здесь (t, x, ) - решение задачи (1) - (3), Т0 за 1, дано, 1 (x, v) - известная функция из W2 [G ], I = const 0, (i = 1, 2,..., r).

Допустимыми управлениями являются всевозможные функции p = (p1, p2,..., pr ) из L2 [0, T ].

r Управление p = (p1, p2,..., pr ), дающее решение поставленной задачи, будем называть оптималь ным и обозначать p0 = p0 (t) = p0 (t), p0 (t),..., p0 (t).

r 1 2. Условия оптимальности Для получения условий оптимальности задачу будем решать используя метод приращения, с помощью которого находим сопряженную задачу в следующем виде:

n 2 + vgrad (t, x, ) + (5) + 2 + (t, x,, )(t, x, )d = 0, t xn m() xi i=1 |0 = 0, xn |H |0 = 0, (, n) 0, = 0, v xn (6) (T, x, ) = 2 [(T, x, ) 1 (x, )].


Переходя к построению оптимального управления, предположим сначала, что на область допу стимых управлений не накладывается никаких ограничений. Тогда используя принцип максиму ма имеем, что оптимальное управление p0 = p0, p0,..., p0 должно удовлетворять условиям r (t, xi, v i ), i = 1,..., r. (7) pi (t) = 2i Таким образом, задача построения оптимального управления сводится к определению p0 = p0, p0,..., p0, 0 и Ф0 из соотношений (1) - (3) и (5), (6).

r 3. Решение задачи методом сферических гармоник Для простоты рассуждений в дальнейшем будем предполагать, что n = 3 и x 1 = x, x2 = y, x3 = z и что единичный вектор скорости в этом случае имеет вид v = (v1, v2, v3 ), где v1 = sin cos, v2 = sin sin, v3 = cos и будем исследовать краевую задачу (5) -(6) для чего следуя работам [3, 4] положим 1 2 1 2 cos( ). (8) (t, x, y, z,, ) = g(µ0 ), µ0 = + Тогда уравнения (1) и (5) примут вид:

2 2 + sin cos + sin sin + cos ( + + + ) x2 y 2 z t x y z 2 1 (9) + 4 d g(µ0 )(t, x, y, z,, )d = 0, 0 + (t, x, y, z,, ) + sin cos + sin sin + cos t x y z 2 2 2 2 ( 2 + ) 2 = d g(µ0 )(t, x, y, z,, )d + y x z 0 r 1 t, xi, y i, z i,, x xi, y y i, z z i i, i.

+ 2 i i= К уравнению (9) будем применять метод сферических гармоник, для чего рассмотрим систему сферических функций [ 4]:

0 0 m m m m Ck = Pk (cos ), Ck = Pk (cos ) cos m, Sk = Pk (cos ) sin m, k = 0, 1, 2,...;

m = 0, 1, 2,..., k.

(10) Здесь 1 dk (µ2 1)k (11) Pk (µ) = Pk (µ) = k, k = 0, 1, 2,..., 2 k! dµk полиномы Лежандра [ 5], m/ k+m m dm Pk (µ) (1 µ2 ) 2d m = (1 µ ) / (µ2 1)k, k = 0, 1, 2,...;

m = 0, 1, 2,..., k Pk (µ) = dµm 2k k!

dµk+m (12) присоединенные полиномы Лежандра [4, 5]. Известно, что функции (11) и (12) на отрезке [1, 1] удовлетворяют условиям ортогональности:

2 (k + m)! j 1, j=k j Pk (µ)Pjm (µ)dµ = m (13), k =.

2k + 1 (k m)1 k 0, j=k Функцию g(µ0 ) можно представить в виде (14) g(µ0 ) = (2k + 1)gk Pk (µ0 ), gk = Pk (µ0 )g(µ0 )dµ0.

k=0 Здесь k (k j)! j j Pk ()Pk ( ) cos( ). (15) Pk (µ0 ) = Pk ()Pk ( ) + (k + j)!

j= Решение уравнения (9) будем искать в виде k k 2k + 1 (k m)! m m (k m)! m m (16) = CA+ (2k + 1) SB, 1 + m (k + m)! k k (k m)! k k k=0 m=0 k=1 m= где m, Sk определяются по формулам (10) - (12), а Am, Bk - пока неизвестные функции m m k k аргументов t, x, y, z.

Система сферических функций (10) образует ортогональную на единичной сфере и полную в пространстве Гильберта функции. Поэтому любая непрерывная функция (t, x, y, z,, ) может быть разложена в ряд по этим сферическим функциям с любой точностью. В этих разложениях (16) коэффициенты определяются при помощи интегралов 2 1 2 A0 = 0 Am = m d Pk (µ) dµ, d Pk (µ) cos mdµ, k k 0 1 0 (17) 2 m m Bk = d Pk (µ) sin mdµ 0 Функцию (16) для удобства дальнейшего использования представим в виде :

k (k m)! m (2k + 1)Pk ()A0 + P ()(Am cos m + Bk sin m) m = (2k + 1) k (k + m)! k k m= k=0 k= Используя эту функцию и равенства (13)- (15) интегральное слагаемое в уравнении (9) преобра зуем к виду:

2 1 (2i + 1)gi Pi0 (µ)A0 + J= d g(µ0 )(t, x, y, z,, )d = i 4 i= 0 (18) i (ij)! j j j +2 (2i + 1)gi (i+j)! Pi (µ)(Ai cos j + Bi sin j) i=1 j= Теперь уравнение (9) можно представить так:

2 2 1 µ2 cos + 1 µ2 sin + µ + ( + + + + ) x2 y 2 z t x y z (19) i (ij)! j j j (2i + 1)gi Pi0 (µ)A0 + + 8 (2i + 1)gi (i+j)! Pi (µ)(Ai cos j + Bi sin j) = i i=0 i=1 j= Уравнение (19) можно свести к системе дифференциальных уравнений относительно Am, Bk, (k = 0, 1, 2,..., m = 0, 1,..., k). Для этого умножим уравнение (19) поочередно m k 0 (µ), m m m m на Pk (k = 0, 1, 2,...), Ck = Pk (µ) cos m, Sk = Pk (µ) sin m, (k = 0, 1, 2,..., m = 0, 1,..., k) и всякий раз интегрируем по угловым переменным и µ соответственно в пределах от 0 до 2 и от -1 до 1. Упростив слагаемые и объединив полученные выражения, будем иметь:

A0 1 1 A1 1 1 (k + 1) A0 + kA x Ak+1 y Bk+ + k1 + Bk1 + + k k+1 k t 2k+1 x (20) 2 2 A0 + x2 A0 + z 2 A + 2 gk + =0, k = 0, 1, 2,...

y k k k m+1 m+ m 1 t Ak + 2(2k+1) x Ak+1 Ak1 + + 2(2k+1) x (k + m) (k + m 1) Am1 (k m + 1) (k m + 2) Am1 + 1 k1 k+ m+1 m+ 1 + 2(2k+1) y Bk+1 Bk m1 m 1 2(2k+1) y (k + m) (k + m 1) Bk1 (k m + 1) (k m + 2) Bk+1 + (21) 2 2 1 + (2k+1) z (k m + 1) Am + (k + m) Am + x2 + y2 + z 2 Am + k+1 k1 k (km)!

+ gk (k+m)! Am = 0, k k = 1, 2,..., m = 1, 2,..., k m+1 m+ 1 m t Bk + 2(2k+1) x Bk+1 Bk1 + m1 m 1 + 2(2k+1) x (k + m) (k + m 1) Bk1 (k m + 1) (k m + 2) Bk+1 + + 2(2k+1) y (k + m) (k + m 1) Am1 (k m + 1) (k m + 2) Am 1 k1 k+ 2(2k+1) y Am+1 Am+1 + 1 (22) k+1 k 2 2 1 m m m + (2k+1) z (k m + 1) Bk+1 + (k + m) Bk1 + x2 + y2 + z 2 Bk + + gk (km)! Bk = 0, m 2 (k+m)!

k = 1, 2,..., m = 1, 2,..., k Список литературы [1] А. И. Егоров, Р. Р. Рафатов Математические методы оптимизации процессов теплопро водности и диффузии. Бишкек: Илим, 1990, 337c.

[2] В. А. Зорич Математический анализ, II. М.: Наука, 1984, 640 c.

[3] У. М. Султангазин Математические проблемы построения алгоритмов атмосферной кор рекции в дистанционном зондировании. // Вестник КГНУ, 2001. Вып. 5. Математические науки. Информатика и информационные технологии. Бишкек, с. 15-26.

[4] У. М. Султангазин Методы сферических гармоник и дискретных ординат в задачах кине тической теории переноса. Алма-Ата, 1979, 268 с.

[5] К. Кейз, П. Цвайвель Линейная теория переноса. М.: Мир, 1972, 384 с.

[6] Р. Р. Рафатов Метод сферических гармоник в проблеме минимизации загрязнений атмо сферы частицами вредных примесей. // Журнал Естественных Наук, КТУ “Манас”, №2, Бишкек, 2002, с. 96-117.

[7] Г. И. Марчук. Математическое моделирование в проблеме окружающей среды. М: Наука, 1982, 320 c.

[8] А. И. Егоров. Оптимальное управление тепловыми и диффузионными процессами. М.: На ука, 1978, 463 c.

О СТАБИЛИЗАЦИИ УПРАВЛЯЕМЫХ СИСТЕМ С ЗАПАЗДЫВАНИЕМ С ИСПОЛЬЗОВАНИЕМ ИНВАРИАНТНО ДИФФЕРЕНЦИРУЕМЫХ ФУНК ЦИОНАЛОВ ЛЯПУНОВА А.В. Сурков, И.А. Финогенко Институт динамики систем и теории управления СО РАН, Иркутск e-mail: surkov@dc.baikal.ru, n@icc.ru Аннотация. Исследуются вопросы устойчивости и слабой асимптотической устойчивости функционально-дифференциальных включениий запаздывающего типа с использованием инва риантно дифференцируемых функционалов Ляпунова. Полученные результаты применяются к исследованию вопросов стабилизации систем управления с последействием.

Ключевые слова: устойчивость, функционально-дифференциальные включения, инвариант ная дифференцируемость, функционалы Ляпунова, стабилизация.

1. Определения и постановка задачи.

Пусть C пространство всех непрерывных функций (·), определенных на отрезке [, 0] со значениями в Rn с обычной sup-нормой · c = sup 0 (), F : RC Rn многозначное отображение с выпуклыми компактными значениями, полунепрерывное сверху (см [1]) по сово купности аргументов. В работе рассматривается функционально-дифференциальное включение:

x F (t, xt (·)), (1) xt0 (·) = 0 (·), где xt (·) C, xt () = x(t + ), 0, 0 (·) C начальная функция.

Следуя [2], введем следующие определения.

Для произвольной функции (·) C и числа 0 через E ((·)) обозначим множество всех непрерывных продолжений функции (·) на отрезок [, ].

Функционал W : C R имеет инвариантную производную W в точке (·) C, ес ли для любой (·) E ((·)) функция Y () = W ( (·)), где [0, ) и () = ( + ), Y 0, имеет в нуле конечную правую производную инвариантную относительно =+ функций (·) E ((·)), т.е. значение правой производной в нуле одно для всех (·) E ((·)).

Функционал V : R Rn C R инвариантно дифференцируем в точке p = (t, x, (·)) RRn C, если в этой точке существуют конечные V /t, x V, V и для любой (·) E ((·)) выполняется равенство V (t +, x + z, (·)) V (t, x, (·)) = V [p] z 2 + 2 + 2) · + x V [p], z + V [p] · + o = t при z Rn, [0, ], 0, причем o(·) зависит от выбора (·) E ((·)). (Здесь x V градиент функционала V по переменной x, ·, · знак скалярного произведения).

Замечание 1. Для того, чтобы функционал V был инвариантно дифференцируем в точке p = (t, x, (·)) необходимо, чтобы он имел в этой точке частные производные V /t, x V, V, и достаточно, чтобы они были инвариантно непрерывны в точке p (см [2, стр. 44]).

Работа выполнена при поддержке РФФИ (грант N 03-01-00203) и Программы Президиума РАН по фундаментальным исследованиям N 19 (проект 2.5) Верхнюю V и нижнюю V производные функционала V (t, x, (·)) в силу дифференциального включения (1) определим следующими равенствами:

V V = sup ( + x V, y + V ) t yF (t,(·)) x=(0) V V = inf ( + x V, y + V ) t yF (t,(·)) x=(0) Под решением задачи (1) понимается непрерывная на промежутке [t0, t1 ] t1 t0 функция x(t), причем xt0 (·) = 0 (·), абсолютно непрерывная на отрезке [t0, t1 ] и такая, что ее производная x(t) на этом отрезке почти всюду удовлетворяет включению x(t) F (t, x t (·)).

Лемма 1. Если функционал V инвариантно дифференцируем, то для любого решения x(t) включения (1) функция t V (t, x(t), xt (·) почти всюду дифференцируема на отрезке [t0, t1 ] и выполняется неравенство:

dV (t, x(t), xt (·)) V (t, x(t), xt (·)).

V (t, x(t), xt (·)) (2) dt В работе исследуются вопросы устойчивости включения (1), обосновывается принцип инвариантности Ла-Салля в автономном случае и записываются условия стабилизации систем управления с последействием с использованием инвариантно дифференцируемых функционалов Ляпунова. Метод функционалов Ляпунова для исследования функционально- дифференциаль ных уравнений, развитый в известных работах Н.Н. Красовского, предполагает по крайней мере формально знание решений этих уравнений. Это снижает конструктивность условий устой чивости, в особенности при переходе к функционально-дифференциальным включениям, где различаются понятия устойчивости и слабой устойчивости (см. п.2). Использование инвариантно дифференцируемых функционалов Ляпунова позволяет преодолевать эти трудности.


2. Устойчивость и слабая устойчивость.

Через (u) 0 обозначаются скалярные непрерывные неубывающие функции такие, что (0) = 0 и (u) 0 при u 0.

Функционал V (t, x, (·)) будем называть определенно-положительным, если найдется такая функция, что справедливо неравенство V (t, x, (·)) (|(0)|), V (t, 0, 0) = 0 (см [3, стр. 100 ]).

Решение z(t) дифференциального включения (1) называется устойчивым (соответственно сла бо устойчивым), если для каждого 0 существует = (, t0 ) 0 такое, что все решения x(t), удовлетворяющие условию xt0 (·) zt0 (·) c, продолжимы вправо на промежуток [t0, +), и для этих решений (соответственно некоторого решения) справедливо неравенство x(t)z(t) для всех t t0.

Будем предполагать, что 0 F (t, 0) для всех t t0.

Теорема 1. Пусть D C некоторая область, содержащая нулевую функцию, суще ствует определенно-положительный, инвариантно дифференцируемый непрерывный функцио нал V (t, x, (·)) такой, что V 0 на множестве вида R S D, где S Rn некоторая окрестность начала координат. Тогда тривиальное решение функционально-дифференциального включения (1) устойчиво.

Доказательство. Если V 0, то по лемме 1 выполняется неравенство V (t, x(t), xt (·)) 0.

Пусть 0 и = (, t0 ) такое, что выполняется неравенство:

max V (t0, (0), (·)) ().

(·) c Так как V (t, 0, 0) = 0 и функционал V (t, x, (·)) непрерывен, то такое существует. Поскольку V 0, то V (t, x(t), xt (·)) не возрастает вдоль решений включения (1). Поэтому ( x(t) ) V (t, x(t), xt (·)) V (t0, x, xt0 (·)) (), t t0.

В силу монотонности (u) следует x(t) для t t0, т.е. решение x(t) 0 устойчиво. Теорема доказана.

Теорема 2. Если выполнены условия теоремы 1, но с заменой V на V, и если част ные производные V /t, x V, V непрерывны, то тривиальное решение функционально дифференциального включения (1) слабо устойчиво.

Доказательство этой теоремы проводится аналогично доказательству теоремы об устойчиво сти дифференциальных включений [1, стр. 116], если рассмотреть неравенство V /t+ x V, y + V 0 вместо неравенства V /t + x V, y 0.

Отметим, что в схеме доказательства теоремы 1 мы следуем [3]. Полученные результаты представляют собой распространение некоторых результатов по устойчивости функционально дифференциальных уравнений из [2] на функционально-дифференциальные включения.

Использование инвариантно дифференцируемых функционалов Ляпунова и леммы 1 позволяет получать оценки на производную V вдоль решений включения (1) в произвольной точке (t, (0), (·)), не зная самих решений.

3. Принцип инвариантности и асимптотическая устойчивость.

Будем рассматривать автономное дифференциальное включение x(t) F (xt (·)), (3) x0 (·) = 0 (·).

Через (x(·)) для каждого решения x(t) включения (3) определим -предельное множество, как множество всех функций (·) C, для которых существует последовательность tn + такая, что xtn (·) (·), где x(t) - решение включения (3). Легко видеть, что (4) (x(·)) = ( (xt (·)).

0 t Назовем (x(·)) полуинвариантным, если (·) (x(·)) существует решение y(·) такое, что y0 = (·) и yt (·) (x(·)) для всех t [0, t1 ] при некотором t1 0.

Лемма 2. Пусть для включения (3) многозначное отображение F ограничено в некоторой окрестности D функции 0 в пространстве C. Тогда для любого решения x(t) такого, что xt (·) D t 0 множество (x(·)) непусто, компактно и полуинвариантно.

Лемма 3. Если (x(·)) C компактно, то множество E = {xt (·) : t 0} C также компактно.

Решение z(t) называется асимтотически устойчивым, если для любого 0 существует = (, t0 ) 0 такое, что все решения, удовлетворяющие условию xt0 (·) zt0 (·) c, продолжимы вправо на промежуток [t0, +), и для этих решений справедливо, что x(t) z(t) при t +.

Теорема 3. Пусть x(t) решение включения (3), множество (x(·)) C компактно, полу инвариантно и существует непрерывный инвариантно дифференциремый функционал V (x, (·)) такой, что V w((·)), где w((·)) 0. Тогда (x(·)) {(·) C : V (((0), (·)) = 0}. (5) Доказательство. В силу леммы 3 множество E C компактно. Следовательно, непре рывный функционал V ((0), (·)) ограничен на E. Из условия V w((·)) следует, что функция t V (x(t), xt (·)) монотонно не возрастает и ограничена снизу. Значит, существует limt+ V (x(t), xt (·)) = c и, следовательно, (x(·)) {(·) : V ((0), (·)) = c}. Возьмем произ вольную функцию (x(·)). Тогда в силу полуинвариантности множества ((x·)) существует решение y(t) включения (3), определенное на [0, t1 ] такое, что y0 (·) = (·), yt (·) (x(·)). Следо вательно, V (y(t), yt (·)) = c для всех t [0, t1 ]. Тогда V (y(t), yt (·)) = 0 всюду на [0, t1 ]. Из условия V w((·)) и леммы 1 вытекает, что V (y(t), yt (·)) = 0 почти всюду на [0, t1 ].

Пусть ti +0 последовательность такая, что значения V (y(ti ), yti (·)) определены и равны (y(t ), y (·)) V (y(0), y (·)) 0, откуда и вытекает (5).

нулю. Тогда 0 = lim V i ti Теорема доказана.

Теорема 4. Пусть D C некоторая область, содержащая нулевую функцию, суще ствует определенно-положительный, инвариантно дифференцируемый непрерывный функцио нал V (t, x, (·)) такой, что V ( (·) c ) на множестве вида R S D, где S Rn неко торая окрестность начала координат и 0 F (0). Тогда тривиальное решение функционально дифференциального включения (3) асимптотически устойчиво.

Доказательство. Устойчивость тривиального решения следует из теоремы 1 и поэтому для любого 0 существует 0 такое, что из x0 (·) c следует x(t) для всех t 0.

Пусть настолько малое, что полунепрерывное многозначное отображение F ограничено в окрестности функции (·) = 0. Так как ( (·) c ) = 0 только при (·) = 0, то из леммы 2, условия V ( (·) c ) и теоремы 3, получаем, что (x(·)) = {0 C } для любого решения x(t) включения (3), удовлетворяющее условию x0 (·) c. Следовательно, x(t) 0 при t +.

Это означает, что тривиальное решение x(t) 0 асимптотически устойчиво.

Теорема доказана.

4. Стабилизация управляемых систем с разрывной обратной связью.

Будем рассматривать управляемую систему (6) x = f (xt (·), u), вектор управления с ограничением u U, где U Rm где u = (u1,... um ) компактное множество.

Сделаем следующие предположения:

1. f : C Rm Rn непрерывное отображение 2. f (0, 0) = 0, 0 U 3. существует инвариантно диффереренцируемый функционал V (x, (·)) такой, что V, f ((·), u) + V ) ( (·) c ). (7) min( uU Пусть U ((·)) U множество, на котором достигается минимум в левой части неравенства (7). Из теоремы [5, стр. 125] вытекает, что U : C Rm полунепрерывное сверху многозначное отображение с компактными значениями. Тогда многозначное отображение f ((·), U ((·))) имеет замкнутый график и в силу локальной ограниченности является полунепрерывным сверху в каждой точке (·) C. Тогда многозначное отображение F1 ((·)) = cof ((·), U ((·)) также полунепрерывно сверху. Рассмотрим функционально-дифференциальное включение x F1 (xt (·)). (8) Очевидно, 0 F1 (0) и для включения (8) выполняется условие V ( (·) c ). Тогда, если V (0, 0) 0, то в соответствии с теоремой 4 решение x(t) 0 включения (8) асимптотически устойчиво. Возьмем произвольную функцию u((·)) U ((·)) такую, что u(0) = 0. Решение задачи x f (xt (·), u(xt (·))). (9) можно понимать как в смысле Филиппова (см. [1]), так и в смысле Айзермана-Пятницкого (см.

[6]), а именно:

1. Пусть многозначное отображение F2 ((·)) получено замыканием графика отображения f ((·), u((·))) и овыпукливанием значений, полученного при этом многозначного отображения (доопределение в смысле Филиппова). Под решением (9) понимаем решение функционально дифференциального включения x F2 (xt (·)) (10) 2. Пусть многозначное отображение F3 ((·)) получено овыпукливанием значений многознач ного отображения f ((·), U1 ((·)),..., Um ((·))), где Ui ((·)) для каждого i = 1,..., m отрезок числовой прямой, содержащий все предельные значения функции ui ( (·)) в точке (·), вклю чая и ее значение в этой точке (доопределение в смысле Айзермана-Пятницкого). Под решением задачи (9) понимаем решение функционально-дифференциального включения x F3 (xt (·)) (11) Отметим, что решения задач (10) и (11) существуют и являются одновременно решениями включения (8) и поэтому любая обратная связь u(xt (·)) U (xt (·)) со свойством u(0) = стабилизирует систему (9), если ее решение понимать в смысле 1 или 2.

Список литературы [1] Филиппов А.Ф. Дифференциальные уравнения с разрывной правой частью. М., Наука. 1985.

[2] Ким А.В. i-Гладкий анализ и функционально дифференциальные уравнения. Екатеринбург:

УрО РАН, 1996.

[3] Колмановский В.Б., Носов В.Р. Устойчивость и периодические режимы регулируемых си стем с последействием. М., Наука. 1981.

[4] Хейл Дж. Теория функционально-дифференциальных уравнений. М.: Мир, 1984.

[5] Обен Ж.-П., Экланд И. Прикладной нелинейный анализ. М.: Мир, 1988.

[6] Айзерман М.А., Пятницкий Е.С. Основы теории разрывных систем. I, II. Автоматика и телемех., 1974, №7, 33-47;

№8, 39-61. РЖМат, 1974, 11 Б 215, 216.

ON STABILIZATION OF SYSTEMS CONTROL WITH DELAY BY INVARIANT DIFFERENTIABLE LAPUNOV’S FUNCTIONALS A.V. Surkov, I.A. Finogenko Institute of Systems Dynamics and Control Theory, Siberian Branch, Russian Academy of Sciences, Irkutsk e-mail: surkov@dc.baikal.ru, n@icc.ru Abstract. We consider questions about stability and weak asymptotic stability of functional dierential inclusions with delay by invariant-dierentiable Laypunov’s functionals. Achieved results can be applied to investigations of stabilization of control systems with delay.

Key words: functional-dierential inclusions, invariant dierentiability, Laypunov functional, stability, stabilization.

ВАРИАЦИОННЫЙ ПРИНЦИП МАКСИМУМА ДЛЯ ПОЛУЛИНЕЙНЫХ ГИ ПЕРБОЛИЧЕСКИХ СИСТЕМ СО СМЕШАННЫМИ УСЛОВИЯМИ Терлецкий В.А.

Институт математики и экономики ИГУ Аннотация. Рассматривается задача оптимального управления гиперболической системой по лулинейных одномерных дифференциальных уравнений со смешанными условиями на границах области независимых переменных. С помощью метода приращений выводится вариационный принцип максимума как для распределенных в области, так и для сосредоточенных на ее границе управлений.

Ключевые слова: оптимальное управление, гиперболические системы, условия оптимальности.

Введение Вариационный принцип максимума впервые был получен в [1] для задач оптимального управления гиперболическими системами, имеющих лишь два семейства взаимно ортогональных характеристик. Распространение этого результата на инвариантные системы полулинейных уравнений проведено в [2] для распределенных управлений и в [3] для граничных управлений.

В докладе вариационный принцип максимума строится для произвольной полулинейной гипер болической системы. В отличие от работы [4] здесь рассматривается общий вид нелинейных смешанных условий. Кроме того, одновременно задействованы как распределенные, так и граничные управления.

1. Постановка задачи В прямоугольнике = S T, S = (s0, s1 ), T = (t0, t1 ) связь между состоянием x = x(s, t), x(s, t) Rn и управлением u = u(s, t), u(s, t) Rr определим системой Dx = f (x, u, s, t), (1.1) в которой дифференциальный оператор D на гладких вектор-функциях x вычисляется с помо щью частных производных xt и xs по формуле Dx = xt + A(s, t)xs. Будем считать матричную функцию A = A(s, t) заданной так, что все ее собственные значения i = i (s, t), i = 1,..., n вещественные и в каждой точке (s, t) существует базис пространства Rn, составленный из ее левых (правых) собственных векторов. Как известно [5], в этом случае система (1.1) и диффе ренциальный оператор D называются гиперболическими. Сделанных предположений достаточно для существования матричных функций L = ( (1), (2),... (n) ), P = (p(1), p(2),..., p(n) ), составлен ных из левых (i) = (i) (s, t) и правых p(i) = p(i) (s, t), i = 1, 2,..., n собственных векторов матрицы A со свойствами L (s, t)A(s, t) = (s, t)L (s, t), A(s, t)P(s, t) = P(s, t)(s, t), L (s, t)P(s, t) = E.

единичная матрица, = diag{ 1, 2,..., n } – диагональная Здесь – знак транспонирования, E матричная функция.

Работа выполнена при финансовой поддержке РФФИ (проект 05-01-00187) и программы "Универси теты России"(проект ур.03.01.064).

Пусть = (o, ) – единичный вектор внешней нормали к границе прямоугольника с проекциями o и на оси t и s соответственно. Определим диагональную матричную функцию Z = Z(s, t), Z = diag{z1, z2,..., zn }, положив zi (s, t) = o (s, t) + i (s, t)(s, t), (s, t), i = 1, 2,..., n.

Вычислим теперь двузначные функции sgnzi · (sgnzi + 1) sgnzi · (sgnzi 1) + zi =, zi =, i = 1, 2,..., n, 2 и построим матричные функции ++ Z+ = diag{z1, z2,..., zn }, Z = diag{z1, z2,..., zn }, Z+ = Z+ + Z.

+ Тогда для системы дифференциальных уравнений (1.1) будут корректны [6] смешанные условия Z (s, t) L (s, t)x(s, t) q(Z+ L x, v, s, t) = 0, (s, t). (1.2) Под множеством допустимых распределенных в области и сосредоточенных на границе управлений будем понимать измеримые вектор- функции u = u(s, t) и v = v(s, t) соответственно, удовлетворяющие почти всюду в области своего определения ограничениям типа включения u(s, t) U, (s, t), v(s, t) V, (s, t), (1.3) в которых U Rr, V Rm – заданные множества.

Рассмотрим задачу о нахождении допустимых управлений (1.3), минимизирующих функци онал J(u, v) = (Z+ L x, v, s, t)d + (x, u, s, t)dsdt (1.4) на решениях смешанной задачи (1.1), (1.2).

В (1.4) первое слагаемое определяет терминальную часть целевого функционала и является интегралом первого рода по границе, то есть d = ds2 + dt2.

Будем считать, что в задаче (1.1) - (1.4) выполнены следующие предположения:

1) вектор-функции f = f (x, u, s, t), q = q(x, v, s, t) и функции = (x, v, s, t), = (x, u, s, t) непрерывны по совокупности своих аргументов и ограничены вместе с частными производными по x всюду в области своего определения;

2) собственные значения i = i (s, t) матрицы A являются гладкими функциями в за мыкании = и при i = j либо i (s, t) = j (s, t), либо i (s, t) = j (s, t) для всех (s, t), i, j = 1, 2,..., n.

2. Характеристики и оценка обобщенного решения Характеристиками системы (1.1) называются [5] решения обыкновенных дифференциальных уравнений ds = i (s, t), i = 1, 2,..., n.

dt Характеристику i–го семейства, i = 1, 2,..., n, проходящую через точку (, ) будем обо (i) (, ;

t). В силу сделанных предположений относительно функций значать функцией s = s i = i (s, t), через каждую точку (, ) проходит единственная характеристика i–го семейства и функции s = s(i) (, ;

t) являются гладкими по совокупности своих аргументов.

В [6] доказано существование и единственность обобщенного решения задачи (1.1),(1.2), кото рое определяется как решение интегральной системы, эквивалентной исходной дифференциаль ной задаче на гладких входных данных. Там же получена оценка роста решения относительно входных параметров, которая применительно к задаче (1.1),(1.2) имеет вид t n + (i)(i) (i) x(s, t) K v q(Z L x, v, s, t ) + u f (x, u, s (s, t;

), ) d + i=1 t(i) + L x, v,, ) d + + v q(Z u f (x, u,, ) dsdt. (2.1) G(s,t) G(s,t) Здесь приращение x = x x соответствует двум допустимым процессам {u, v;

x} и {, v ;

x};

u s ((i), t(i) ) – начальные точки характеристик s(i) (s, t;

·);

K константа, независящая от выбора допустимых управлений;

G(s, t) – область зависимости решения x в точке (s, t) [5], G(s, t) = {(, ) : smin (s, t;

) smax (s, t;

)}, dsmin (s, t;

) = max i (smin (s, t;

), ), d i=1,2,...,n dsmax (s, t;

) = min i (smax (s, t;

), ).

d i=1,2,...,n 3. Вариационный принцип максимума Рассмотрим "игольчатую" вариацию v v(s, t), (s, t) (, ), v(s, t) = (3.1) 0, (s, t) \ (, ) с параметрами v V, 0, (, ). При этом множество (, ) сконструируем так, чтобы mes (, ) = и (, ) (, ) при всех 0. Например, можно положить (, ) = {(s, t) : s = si, t (, ]}, i = 0, 1 или (, ) = {(s, t) : s (, ], t = to ]}. Пусть – совокупность всех точек (s, t), через которые проходят характеристики s = s(i) (, ;

t), начинающиеся на множестве (, ), то есть (, ) (, ) и t. При достаточно малых 0 знаки собственных значений i на множестве (, ) постоянны, что позволяет зафиксировать множество номеров N (, ) = {i {1, 2,..., n} : zi (, ) 0} и описать (i) множество как совокупность полосок = {(s, t) : s = s(i) (, ;

t), (, ) (, )}, i N (, ).

Рассмотрим пока следующий частный случай: в конечных точках s (i), t(i) характеристик s = (i) (, ;

t), i N (, ) все z ((i), t(i) ) 0, j = 1, 2,..., n, то есть ни одна характеристика "не s js отражается-от границы. Тогда в силу оценки (2.1) приращение, соответствующее вариации (3.1), будет иметь порядок в точках (s, t) \ и не зависит от малости в точках (s, t). Такая структура приращения x сохранится, если вариацию (3.1) граничного управления дополнить вариациями распределенного управления u на множестве вида (i) u(i) (t) u(s, t), (s, t), u(i) (s, t) = (i) 0, (s, t) \, i N (, ).

С помощью метода приращений [2] получим следующую формулу приращения целевого функ ционала + L x, v, s, t)d +, D x J(u, v) = xv (Z xv H(, x, u, s, t) dsdt P, (o E + )L x d + o(), iN (, ) (i) где (i) = (, ), iN (, ) (i) – множество конечных точек характеристик s(i) (s, t;

·), (s, t) (, ), i N (, );

·, · – скалярная скобка;

H =, f – функция Понтрягина;

– решение сопряженной задачи D = Hx (, x, u, s, t), (s, t), Z+ (E + qx Z )P = Z+ (E + qx Z )P x, (s, t), в которой для гладких вектор-функций оператор D имеет вид D = t + (A (s, t))s ;

(i) (i) = (o, ) – единичный вектор внешней нормали к границе полоски.

(i) Внутри полоски приращение x в главной своей части, не зависящей от малости, фор мируется решением задачи Коши для обыкновенного дифференциального уравнения (или систе мы такого числа уравнений, какой кратностью обладает собственное значение i ) следующего вида yi = (i), f (x + p(i) (yi (i), x ), u(i) (t), s, t) Dp(i) yi |s=s(i) (, ;

t), (3.2) yi ( ) = qi (Z+ L x, v,, ) (i) и вычисляется по формуле x(s, t) = p(i) (s, t)(yi (t) (i) (s, t), x(s, t) ) + O(), (s, t).

Функция yi = yi (t) фактически является сужением соответствующего инварианта Римана систе мы (1.1) на характеристику s = s(i) (, ;

t) [2,4].

(i) Таким образом, внутри полосок, i N (, ) решение x можно заменить на выражение [x(s, t) + p(i) (s, t)(yi (t) (i) (s, t), x(s, t) )].

s=s(i) (, ;

t) Это позволяет [2,3,4] вычислить с точностью до o() значение приращения функционала J(u, v) и сформулировать вариационный принцип максимума следующим образом.

Если процесс {u, v ;

x } является оптимальным в задаче (1.1) - (1.4), то управления u(i) (t) = u (s(i) (, ;

t), t), v = v (, ) для почти всех (, ) доставляют максимум функ ционалу I(, v ) = (Z+ L (x + p(i) (yi (i), x )), v,, ) u (Z+ L (x + p(i) (yi (i), x )), v, s(i), t(i) )µi ((i), t(i) )+ s iN (, ) t(i) p(i), (i), f (x + p(i) (yi (i), x, u(i), s, t)µi (s, t) + dt (3.3) s=s(i) (, ;

t) на траекториях уравнений (3.2) среди всех допустимых наборов управлений u = {u(i) (·) : u(i) (t) U, t [, t(i) ], i N (, )}, v V.

(3.4) (i) Здесь µi есть производная меры ширины или высоты полоски. При = t (i) s (, ;

t(i) ), t(i) = t1, µi = (i) (i) )/ ((i), t(i) ), t(i) t, s (, ;

t is а при t (i) i (, )s (, ;

t(i) ), t(i) t1, µi = (i) s i (, )s (, ;

t(i) )/i ((i), t(i) ), t(i) = t1.



Pages:     | 1 |   ...   | 3 | 4 || 6 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.