авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 7 | 8 || 10 |

«Федеральное агентство по образованию САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ А.Н.ВАСИЛЬЕВ, Д.А.ТАРХОВ НЕЙРОСЕТЕВОЕ ...»

-- [ Страница 9 ] --

Для того чтобы получить требуемый результат, можно применить основную теорему последнего параграфа данной главы. Для этого необходимо сформулировать задачу в подходящей форме.

Рассмотрим систему = + f (, z ) + (8.1) Здесь, и – бесконечные ограниченные последовательности. На пространстве таких последовательностей введём равномерную норму. Будем считать, что функция f является 2 -периодической по каждой координате и аналитической по вспомогательному параметру z и представима в виде + f (, z ) = f k () z k, (8.2) k = причём f k () = (8.3) f k,m exp[i (, m)] m Nk m = m1 +... + mnk. Предполагаем, что в (8.3) суммирование Здесь ведётся по целочисленным векторам m, у которых только первые nk компонент отличны от нуля и то же самое можно сказать про векторы fk,m. На натуральные неубывающие последовательности и накладываем nk Nk следующие условия n0 = 1) Nk + p Nk + N p 2) Введём пространства H r функций вида (8.2), для которых def = sup f (, z ) + f r R z r Легко видеть, что из таких пространств можно образовать ствол в терминологии третьей главы – см. определение 1 из 3.1. Условия на последовательности nk и N k позволяют доказать, что по каждой координате функции из пространства H r образуют В-алгебру [32].

Будем искать замену переменных вида = + u(, z ), переводящую уравнение (8.1) в уравнение =. Здесь u(, z ) принадлежит пространству H для некоторого r. Замена ищется с помощью метода Колмогорова, который для данной задачи состоит в следующем. Ищем замену = 1 + u1 (1, z ), которая переводит (8.1) в уравнение 1 = + 1f1 (1, z ) + 11. (8.4) Здесь 1 2. В результате подстановок получаем равенства u = f ;

= f + 1 1. (8.5) При этом компоненты вектора f являются средними значениями f, т.е.

нулевыми коэффициентами ряда Фурье, f = f f. Если считать компоненты рационально независимыми, тогда можно из (8.5) определить u1 :

f1,k,m + u1 (1, z ) = u1,k (1 ) z k.

u1,k,m = u1,k (1 ) =, u1,k,m exp[i (1, m )], На i (, m) m Nk k = следующем шаге такая же процедура применяется к уравнению (8.4).

Сходимость процедуры следует из теоремы параграфа 8.6 при выполнении (, m) D(nk, N k ) условия на малые знаменатели и условия на + k ln D(nk, N k ), если достаточно последовательности nk и N k вида k = мало.

В [214] доказано, что требуемое условие на малые знаменатели выполняется для почти всех в смысле меры Лебега базисов частот, при этом D(nk, N k ) = c(nk ) N k nk +, 0. В этом случае условие на можно взять + k nk ln N k +. Легко видеть, последовательности nk и N k приобретает вид k = что почти все можно заменить на почти все f или почти все.

Замечание. Рассматривая уравнение (8.1) на конечном интервале и ограничиваясь конечными отрезками рядов вида (8.2), можно применить несколько последовательных замен и для резонансного случая, т.е. для вектора с рационально зависимыми координатами или не удовлетворяющего приведённому выше условию на малые знаменатели.

8.2. Приводимость линейной системы с нечётными почти периодическими коэффициентами Если рассмотреть окрестность тора из предыдущего параграфа, то при достаточной гладкости поведение исходной системы будет близко к поведению соответствующей линеаризованной системы. Для изучения поведения исходной системы важно привести линейную часть к каноническому виду. Наибольший интерес и сложности представляет собой резонансный случай, частным вариантом которого является система с нечётными почти периодическими коэффициентами.

Рассмотрим линейное уравнение в банаховом пространстве x = A(t, z )x, (8.6) + где A(t, z ) = Ak (t ) z k, (8.7) k = Ak (t ) = Ak,m exp[i (, m)t ], (8.8) m Nk В (8.8) суммирование ведётся по nk -мерным целочисленным векторам m. Считаем, что все Ak (t ) – нечётные функции. Будем искать чётное преобразование координат x = U (t, z )y, переводящее (8.6) в простейшую каноническую форму y = 0. При этом считаем, что U (t, z ) имеет вид (8.7), (8.8).

Точнее говоря, A(t, z ) принадлежит пространству H r операторов вида (8.7), def A r = sup A(t, z ) +, а U (t, z ) – пространству H для (8.8), для которых tR z r некоторого числа r. На натуральные неубывающие последовательности nk и N k наложим те же самые условия n0 = 0 и N k + p N k + N p, что и в предыдущем параграфе. При этом пространство H r таких операторов образует В-алгебру [32].

Решение задачи ищется методом последовательных замен t x i 1 = ( E + U i ) xi, где U i (t, z ) = Ai 1 (, z )d, Ai = ( E + U i ) 1 Ai 1U i.

Условие на последовательности nk и N k, при которых итерационный процесс сходится, получается таким же, как и в предыдущей задаче.

Аналогичный результат можно получить и в случае общем случае уравнений x = ( А0 + A(t, z )) x с коэффициентами, которые не обязательно являются нечётными.

Полученные в данном параграфе результаты открывают возможность исследования окрестности почти периодического решения с бесконечным базисом частот у бесконечномерной колебательной системы в случае возникновения интерференции частот.

8.3. Решение аналитического уравнения с почти периодическими коэффициентами Следующим этапом после изучения возмущённого движения на торе и в его окрестности должно стать исследование почти периодических колебаний систем с бесконечным числом степеней свободы. Прежде чем рассматривать систему нелинейных уравнений с почти периодическими коэффициентами, логично остановится на случае одного уравнения. Этот более простой случай демонстрирует большинство трудностей, возникающих в общей ситуации. В данном параграфе рассматривается уравнение y = f (t, y ), (8.9) где f (t, y ) – аналитическая функция y в некотором круге y R, т.е.

+ f (t, y ) = fl (t ) y l, (8.10) l = а f l (t ) – нечётные почти периодические функции из пространства H r, точнее говоря, получающиеся из функций вида (8.7) при некотором вещественном значении параметра z : z r.

Решать уравнение (8.9) можно двумя способами. Во-первых, можно искать его решение, удовлетворяющее некоторому начальному условию, методом Ньютона. Во-вторых, можно искать замену y = x + u (t, x), приводящую уравнение (8.9) к виду x = 0, где функция u (t, x) имеет вид (8.10) с чётными коэффициентами с помощью метода последовательных замен.

Действуя первым способом, запишем уравнение (8.9) в виде F ( y ) = y f (t, y ). Согласно методу Ньютона, решение ищется с помощью итераций, проводимых по формуле yk +1 = yk F 1 ( yk ) F ( yk ). В этих условиях обратный оператор находится явно, т.е. выражение u = F 1 ( yk )v имеет вид t ak ( ) d t ak ( s ) ds f v( )e d, где ak (t ) = u = e0 (t, yk ). Применение результатов главы y + k 3 / ln D(nk, N k ) позволяет получить условие сходимости метода в виде k = при достаточно малой норме f.

Действуя вторым способом, получаем на каждом шаге гомологическое t ui + = fi 1 (t, yi ), откуда ui = yik fi 1,k ( )d.

уравнение (см. параграф 8.5) t k =0 Применение результатов параграфа 8.6 позволяет обосновать сходимость + k ln D(nk, N k ) и процесса замен в случае выполнения неравенства k = достаточной малости f.

В общем случае, когда коэффициенты не являются нечётными, можно y = ay + f (t, y ) применить аналогичный подход. Уравнение при a, не являющемся чисто мнимым, преобразуется к невозмущённому виду, а при чисто мнимом a может возникать чередование приводимости и отсутствия почти периодических решений [32, 191].

В данном параграфе получен результат, касающийся существования почти периодического решения аналитического уравнения с почти периодическими коэффициентами. Этот результат сразу переносится на случай любого числа не связанных друг с другом уравнений. Для случая связанных уравнений можно применить аналогичный подход.

8.4. Общая схема метода Колмогорова. Основные определения Цель данного параграфа состоит в том, чтобы изучить в общем виде метод последовательных замен, с помощью которого доказываются представленные в предыдущих параграфах результаты. Для этого приходится ввести в рассмотрение некоторые новые математические конструкции, позволяющие получить эти результаты с помощью одной теоремы.

Опишем общую идею метода, не вдаваясь в технические детали. Пусть дано бесконечномерное многообразие M и гладкое действие некоторой банаховой группы Ли G на нём. Рассмотрим f, f M и будем предполагать, f достаточно близко к f что f. Зададимся вопросом – когда и f принадлежат одной орбите? Взяв карту в окрестности f, можно рассмотреть ситуацию в касательном пространстве. Для группы рассмотрим карту окрестности единичного элемента, обозначаемого I. Пусть f = f + h. Ищем такой элемент U G, что выполняется равенство f = ( I + U, f + h) (8.11) Метод последовательных замен состоит в следующем. Будем искать U в виде суперпозиции I + U = ( I + U1 ) ( I + u1 ). Обозначим f + h1 = ( I + u1, f + h) (8.12) тогда (8.11) переходит в равенство f = ( I + U1, f + h1 ). При этом u1 выбираем так, чтобы h1 = o(h). Далее рассуждения повторяются. Разложим по формуле Тейлора в окрестности I. Тогда (8.12) запишется в виде f + h1 = f + h + D1 ( I1, f + h)u1 + w(u1, f + h) = (8.13) = f + h + D1 ( I1, f )u1 + w1 (u1, f, h) Считая w1 величиной более высокого порядка малости, чем u1 и h и, находя u1 из уравнения h + D1 ( I1, f )u1 = 0, (8.14) получаем из (8.13) h1 = w1 (u1, f, h).

Продолжая описанную выше процедуру, получим искомое преобразование в виде I + U = lim( I + uk ) ( I + uk 1 )... ( I + u1 ) (8.15) k Для обоснования метода необходимо:

1) выделить класс рассматриваемых многообразий и групп и обосновать аналитические манипуляции – переход в касательное пространство, формулу Тейлора, оценку w1 и т.д.;

2) выяснить, при каких условиях разрешимо «гомологическое уравнение» (8.14) и оценить его решение;

3) доказать сходимость метода, т.е. существование предела (8.15).

Основная трудность в осуществлении данной программы состоит в том, что в тех задачах, где применяется метод Колмогорова, рассматриваемые операторы, как правило, не являются ограниченными, а преобразования не образуют группу.

В данной работе рассматривается только локальная ситуация, что сильно упрощает 1). Проблема глобализации пока ещё не решена и включает в себя проблему «больших возмущений».

Пусть задан ствол {Gt }. Выберем в каждом Gt окрестность нуля Ot так, чтобы ot ot при значениях t t. Такое семейство окрестностей нуля будет играть роль окрестности f.

Определение 1. Пусть задан ствол G = {Gt } и для всех r, : r существуют окрестности нуля Or Gr, O : Or O G и такая функция : O Or G, что 1) (a,0) = a;

(0, b) = b, 2) (a, (b, c)) = ( (a, b), c), 3) C k (O Or ).

В 1) и 2) a, b и c таковы, что все функции определены. Вообще говоря, надо писать,r, но мы предполагаем, что 4),r (a, b) =,r (a, b) для тех аргументов, для которых обе функции определены. Тогда пара (G, ) называется локальным стволом Ли гладкости k.

Локальный ствол Ли называется аддитивно Определение 2.

параметризованным, если существует такая непрерывная монотонно возрастающая функция : (0) = 0, что отображение (a, b) определено для всех элементов a G, для которых выполнено неравенство r ( a ) (8.16) Мультипликативно параметризованный ствол определяется аналогично, только условие (8.16) заменяется неравенством r ( a );

(0) = 1.

Замечание 1. Используя замену параметра t = e, можно перейти от аддитивной параметризации к мультипликативной. Замена t = ln сводит мультипликативную параметризацию к аддитивной.

Будем считать эквивалентными стволы Ли на одном стволе, если определяющие их функции совпадают на общей области определения. Далее под стволом Ли будет пониматься непустой класс эквивалентности. В дальнейшем переход от ствола Ли к какому-либо его представителю или наоборот делается без каких-либо указаний. Так как рассматривается только локальная ситуация, это не должно приводить к недоразумениям.

Замечание 2. Ствол Ли в определении 2 логично называть правым стволом Ли и определить очевидным образом левый ствол Ли. Однако теория левых стволов Ли не отличается от теории правых стволов Ли, поэтому в дальнейшем будут рассматриваться только правые стволы Ли, тем более, что они охватывают основные приложения.

Пример 1. Пусть Gt – пространство аналитических и ограниченных в t [, ], 0;

f Im z t = sup f (t ) ;

полосе функций, t Im z t ( f1, f 2 ) = f1 ( z ) + f 2 ( z + f1 ( z )). Легко видеть, что ({Gt }, ) – аддитивно параметризованный ствол Ли. При этом ( x) = x. Пусть {H t } – ствол, ({Gt }, ) – ствол Ли.

Определение 3. Пусть для всех r,, : r существуют и O G : O Rr R, Rr H r окрестности нуля и отображение удовлетворяющее условиям:

1) (0, h) h при всех h Rr, 2) ( (a, b), h) = (a, (b, h)), 3) C k (O, Rr ), 4) определено корректно – см. условие 4) из определения 2.

Тогда называется k -дифференцируемым действием ствола Ли на стволе.

Определение 4. Действие называется аддитивно параметризованным, если существует такая непрерывная монотонно возрастающая функция 1 : 1 (0) = 0, что (a, h) определено для всех элементов a, удовлетворяющих неравенству r 1 ( a ).

В этом параграфе некоторые результаты теории Ли будут распространены на стволы Ли. Прямые теоремы Ли имеют естественные аналоги. Что касается обратных теорем, то их эквиваленты пока не найдены и, по-видимому, будут значительно сложней своих прообразов.

Пусть мы находимся в условиях определений 2 и 3. Рассмотрим семейство операторов A(a ) = 2 (a,0);

r ( a ). (8.17) Запишем аксиому 2). Пусть c G, b Gr, a Gs, G Gr Gs, тогда (a, (b, c)) = ( (a, b), c) (8.18) Дифференцируем по c : 2 ( a, (b, c)) 2 (b, c) = 2 ( (a, b), c ) При c = 0 имеем 2 ( a, b) A(b) = A( ( a, b)) (8.19) Обозначив ( a, b) = a (b) = (b), получаем запись условия (8.19) в виде дифференциального уравнения (b) A(b) = A( ) (8.20) с начальным условием (0) = a. Уравнение (8.20) назовём правым уравнением Ли. Аналогично можно рассмотреть семейство операторов B (b) = 1 (0, b).

Дифференцируем (8.18) по переменной a : 1 ( a, (b, c )) = 1 ( ( a, b), c )1 ( a, b).

При a = 0 имеем B ( (b, c )) = 1 (b, c) B (b) (8.21) Это равенство назовём левым уравнением Ли. Заметим, что B(0) – единичный оператор, следовательно, оператор B(b) обратим при малых значениях b. Таким образом, (8.21) можно переписать в виде 1 (b, c) = B( ) B 1 (b) (8.22) Дифференцирование уравнения (8.18) по переменной даёт b 2 ( a, (b, c ))1 (b, c ) = 1 ( ( a, b), c ) 2 ( a, b).

При b = 0 получаем 2 (a, c ) B (c) = 1 ( a, c) A(a ) (8.23) 2 (a, c) = 1 (a, c ) A(a ) B 1 (c) и из (8.19) и (8.23) получаем A( (a, c)) = B( (a, c)) B 1 (a) A(a) B 1 (c) A(c). Обозначив B 1 (a ) A(a ) = V (a ), получаем V ( (a, c)) = V (a )V (c), т.е. отображение V задаёт гомоморфизм ствола Ли в алгебру операторов на стволе.

Из (8.19) имеем 2 ( a, b) A(b)u = A( ( a, b))u при u H, b H r, H s ;

r ( b ), s ( ), s r. Дифференцируем по b, тогда для v H r 2 ( a, b) v, A(b)u + 2 (a, b) A(b) v, u = A( ( a, b)) 2 ( a, b)v, u. При b = 2, 2 ( a,0) v, u + A( a ) A(0) v, u = A(a ) A(a )v, u (8.24) 2, В данном случае можно считать r = и поменять местами u и v :

2 ( a,0) u, v + A( a ) A(0) u, v = A(a ) A(a )u, v (8.25) 2, Вычитая (8.24) из равенства (8.25), получаем уравнение Маурера-Картана A(a ) A(a )u, v A(a ) A(a )v, u = A(a )C u, v, (8.26) где C u, v = A(0) u, v A(0) v, u (8.27) Аналогичное уравнение получается и для оператора B. Отображение C называется структурным оператором. Так же, как и в случае банаховых групп Ли, выводятся его свойства:

1. C – билинейное отображение.

2. C u, v = C v, u.

3. Тождество Якоби C C u, v, w + C C v, w, u + C C w, u, v = 0.

(, r) u 4. C u, v v r.

r Для доказательства свойства 3 нужно продифференцировать (8.26) по a при a = 0 и воспользоваться определением (8.27) и симметричностью третьей производной.

При естественных предположениях в свойстве 4 (, r ) = ( r ).

Пример 2. Рассмотрим ствол Ли из примера 1. В этом случае A( a )u ( z ) = u ( z + a ( z ));

B (b)u ( z ) = (1 + b( z ))u ( z ). При этом (8.18) превращается в u ( z + a( z ) + b(u ( z + a ( z ))) = u ( z + a( z ) + b(u ( z + a( z ))), тождество а (8.20) в 1 + b( z ) + c( z + b( z )) + c( z + b ( z ))b( z ) = (1 + c( z + b( z )))(1 + b( z )).

тождество Кроме того, получаем равенства A(a ) v, u = u( z + a ( z ))v( z );

C u,v = v( z )u ( z ) u( z )v( z ).

Свойства 1-3 проверяются непосредственно. Что касается свойства 4, то из неравенства Коши следует, что (, r ) = ( r ) =.

r H Легко видеть, что структурный оператор превращает в алгебру Ли.

По-видимому, такого рода разложения в стволы групп и алгебр Ли должны играть примерно ту же роль в бесконечномерном случае, что и разложение по базису в конечномерном.

Главная трудность в перенесении теории банаховых групп Ли на стволы заключается в том, что понятия канонической группы и однопараметрической подгруппы теряют своё значение.

Аналогично группам Ли преобразований можно определить стволы преобразований – см. определение 4. При этом прямые теоремы обобщаются достаточно просто, а обратные не имеют естественных аналогов. Одна такая обратная теорема сформулирована и доказана ниже. Пусть – дважды дифференцируемое действие ствола Ли ({Gt }, ) на стволе {H t }. Пусть H t = H t H, где {H t } – ствол. Будем считать, что проектирование на H t и H не увеличивает норму.

Определение 5. Действие называется локально транзитивным относительно H, если для всех f из некоторой окрестности нуля пространства H r существуют такие r, g G и H, что ( g, + f ) = 0 (8.28) Согласно четвёртому параграфу, ищем g в виде g = ( g1, u1 ). Обозначим (u1, + f ) = 1 + f1 (8.29) Здесь f1 H r1, r1 r ;

1 H и будет определяться на следующих шагах.

Тогда (8.28) примет вид ( g1, 1 + f1 ) = 0. Разложим в ряд Тейлора по u1.

Тогда (8.29) приобретает вид + f + 1 (0, + f )u1 + w(u1, + f ) = 1 + f1. (8.30) w(u1, + f ) = o( u1 ). D ( h) = 1 (0, h).

Здесь Обозначим Пусть D(0) : G H r. Будем находить u1 из уравнения 0 + f + D (0)u1 = 0 (8.31) При этом 0 = 1 H выбирается из соображений разрешимости уравнения.

Тогда из (8.30) следует f1 = [ D ( + f ) D (0)]u1 + w(u1, + f ) (8.32) Наличие неопределённого параметра затрудняет использование (8.32), поэтому представим f1 в виде f1 = v1 + h1 (1 ), где v1 = [ D ( 0 + f ) D (0)]u1 + w(u1, 0 + f ) (8.33) h1 (1 ) = [ D(1 + 0 + f ) D( 0 + f )]u1 + (8.34) + w(u1, 1 + 0 + f ) w(u1, 0 + f ) На i -м шаге вместо равенства (8.30) будем иметь i + fi + hi (i ) + D (i + fi + hi (i ))ui +1 + w(ui +1, i + fi + hi (i )) = i +1 + fi +1 (8.35) Вместо уравнения (8.31) i + vi + hi ( i ) + D (0)ui +1 = 0. (8.36) Равенства (8.32) - (8.34) примут вид fi +1 (i +1 ) = [ D(i + vi + hi (i )) D(0)]ui +1 +, (8.37) + w(ui +1, i + vi + hi (i )) + hi (i ) h( i ) vi +1 = f i +1 (0), (8.38) hi +1 (i +1 ) = f i +1 (i +1 ) f i +1 (0);

i +1 = i i. (8.39) Обозначим ri i +1 = si, i +1 ri +1 = pi, pi + si 1 ( ui +1 ) = ti. Итерационная процедура действует следующим образом. В (8.36) i и ui +1 определяются по hi и vi, далее по (8.37) - (8.39) f i +1, vi +1 и hi +1 определяются по hi, vi, i и ui +1.

Остаётся доказать, что в (8.36) можно выбрать i так, что уравнение будет разрешимо относительно ui +1, векторы hi, vi и ui +1 попадают в соответствующие vi 0, пространства, последовательность преобразований сходится и + +. Тогда, выбрав =, получим требуемый результат.

сходится ряд i i i =0 i = Таким образом, метод последовательных замен сформулирован в виде, достаточно общем для получения результатов предыдущих трёх параграфов.

8.5. Разрешимость гомологического уравнения В данном параграфе обсуждается вопрос о разрешимости уравнения (8.36). Сформулируем условия, которым должен удовлетворять оператор D(0).

Пусть {Gt } и {H t } – два ствола, A – линейный, вообще говоря, неограниченный оператор, действующий из пространства G в H.

Определение 6. Если оператор A отображает G в H r для всех r и существует такая монотонно убывающая функция : R + R +, что A ( r), (8.40) то A называется -ограниченным оператором. Здесь A рассматривается как норма линейного оператора из пространства G в пространство H r, т.е.

A = sup Ax r.

x = Определение 6. -обратимым (слева, справа) называется оператор из G в H, имеющий -ограниченный обратный (слева, справа). 1 -ограниченный, 2 -обратимый оператор называется ( 1, 2 )-изоморфизмом.

Рассмотрим класс стволов, часто встречающийся в приложениях. Пусть H – комплексное пространство, являющееся пределом возрастающей системы вложенных друг в друга конечномерных подпространств H = Pk ;

H r – k пространство функций вида + h( z ) = hk z k, (8.41) k = z r, hk Pk, z причём ряд (8.41) сходится для всех из круга = sup h( z ) +. Очевидно, что {H t } – ствол. Пусть {Gt } – ствол такой h Hr H z r же структуры. Заменой r = e s перейдём к аддитивной параметризации.

Пусть A – линейный оператор из пространства G в Лемма 1.

G = Qk ;

AQk Pk, пространство H, индуцированное отображение k Ak : Qk Pk – изоморфизм, Ak a ( k );

Ak1 b( k );

+ + 1 ( s ) = a (k )e ;

2 ( s ) = b(k )e sk, sk (8.42) k =0 k = причём ряды сходятся для всех положительных s, тогда A является ( 1, 2 ) изоморфизмом. Доказательство состоит в проверке определения.

Операторы, для которых выполняется лемма 1, являются в некотором A смысле типичными. Предположим, что оператор приводится к диагональному виду, {i }i+ – система его собственных чисел. Пусть все i = равномерно распределены на промежутке [0,1]. На единичном счётномерном кубе введём меру Лебега по теореме Колмогорова. Пусть (k ) – мера Ak1 b( k ).

множества диагональных операторов, для которых Тогда n( k ) (k ), где n(k ) – размерность пространства Qk. Следовательно, мера b( k ) операторов, для которых требуемое условие выполняется не при всех k, не превосходит + n( k ) b( k ). (8.43) k = Всегда можно выбрать такую последовательность b(k ), что ряды (8.42) и (8.43) сходятся, поэтому почти все операторы 2 -обратимы, если n(k ) растёт не слишком быстро.

Пусть числа i распределены по стандартному нормальному закону, т.е.

на пространстве соответствующих последовательностей введена гауссова мера [244]. При этом, согласно теореме 5 из [244], оператор A будет 1 -ограничен, + если сходится ряд 1 ( s ) = ( ln n(k ) + c)e sk. Для 2 -обратимости ситуация k = аналогична рассмотренному выше случаю счётномерного куба.

Обычно для задач с «малыми знаменателями» получается похожий (хотя и технически более сложный) результат. Случай комплексных собственных чисел рассматривается аналогично вещественному случаю. Приведём два -ограниченных операторов, показывающие, что это других примера достаточно естественное понятие.

Пусть – пространство комплексных функций, Пример 3. Hr аналитических и ограниченных в круге радиуса r с фиксированным центром.

+ Тогда {H t }0 – ствол (норму считаем равномерной). Легко видеть, что оператор дифференцирования является -ограниченным, если взять (h) = 1/ h.

Пример 4. Пусть H r – пространство вещественных функций на (0,1), для = sup x r f ( x) +. Тогда {H t }0 R – ствол, а оператор умножения которых f r 0 x на функцию ln x – -ограниченный, если выбрать (h) = 1/ eh.

Обратимся к уравнению (8.36). Проектируя его на подпространства H и H t, получаем i + vi + hi ( i ) = 0 (8.44) vi + hi ( i ) + D (0)ui +1 = 0 (8.45) Из равенства (8.39) следует, что hi (0) = 0, hi(i ) = f i(i ). Предположим, что f s 1 (эта оценка будет обоснована в следующем параграфе). Тогда из vi. Если D(0) является уравнения (8.44) можно найти i, причём i 1 s обратимым оператором, то из уравнения (8.45) можно найти решение ui +1, удовлетворяющее неравенству ui +1 ( si ) fi ( i ). (8.46) Полученные в данном параграфе условия разрешимости линеаризованного уравнения являются в некотором смысле ключевыми для получения условий реализуемости метода последовательных замен. Перейдём к анализу условий сходимости.

8.6. Условия сходимости метода Колмогорова В данном параграфе изучаются условия, гарантирующие сходимость процесса последовательных замен, осуществляемого в соответствии с формулами (8.35) - (8.39).

Предполагаем, что вторые производные отображения в областях, упомянутых в определениях 3-7 можно оценить следующим образом:

1,2 1 (r 1 ( a ), );

1,1 2 ( r 1 ( a ), ).

2 (8.47) Здесь 1,2 – монотонно убывающие функции обоих аргументов, действующие из R + R + в R +, вообще говоря, неограниченные в нуле.

Теорема. Если оператор 1 (0,0) является -обратимым на стволе {H t } и выполнены приведённые ниже условия (8.53) - (8.58), то действие является локально транзитивным относительно H.

Найдём условия, при которых процесс Доказательство.

последовательных замен сходится. Оценим выражения, входящие в выражения (8.36) - (8.38). Вместо (8.29) на i -м шаге имеем i +1 + fi +1 = (ui +1, i + f i ) = (ui +1, i + f i ) (0, i + f i ) + i + f i, откуда следует оценка i 1 + fi 1 (i +1 ) (1 + 1 (ti, pi )) ui +1 (1 + f i(i ) ) (1 + 1 (tl, pl ) ul +1 ).

+ l = Пусть + (1 + (t, p ) u ) 1+ s 2, (8.48) l + 1 l l l = s откуда f i s. Из (5.39) – hi ( i ) s i vi, следовательно 1 s vi fi (i ). (8.49) 1 s Из (8.37) и (8.39) vi +1 = fi +1 (0) 1 (ti, pi ) i + hi (i ) + vi ui +1 + w(ui +1, i + hi ( i ) + vi ) 1 (ti, pi ) hi (i ) + vi ( si ) fi (i ) + 2 (ti, pi ) ui + [ 1 (ti, pi ) ( si ) + 2 (ti, pi ) 2 ( si )] fi ( i ).

Сравнивая с (8.49), имеем f i +1 ( i +1 ) i fi ( i ), (8.50) где i = [ 1 (ti, pi ) ( si ) + 2 (ti, pi ) 2 ( si )].

1 s В общем случае i стремится к бесконечности, так как ti и pi стремятся к нулю. Логарифмируя (8.50), получаем по индукции i ln fi +1 ln i + 2ln fi 2i j ln j + 2i +1 ln f = j = (8.51) i = 2 ( 2 ln j + 2ln f ) j i j = Если сходится ряд + 2 ln j =, j (8.52) j = то при достаточно малом возмущении f ( f e / 2 ) последовательность fi f = e / 2, 1. Тогда выполнено неравенство сходится к нулю. Пусть i fi 2.

Обратимся к условиям (8.48) и (8.52):

+ (1 + (t, p ) (s ) l 2i ul +1 ( sl ) 2 ;

) – сходящееся произведение, так как из 1 i i i i = сходимости ряда (8.52) следует, что lim 2 i ln i = 0 и выполнено неравенство i i 1 (ti, pi ) ( si ). При этом можно добиться выполнения (8.48), уменьшая.

Ряд (8.52) сходится, если + + + 2i ln 1 (ti, pi ), 2i ln 2 (ti, pi ), 2i ln (si ) +. (8.53) i =0 i =0 i = +. Искомое преобразование g ищем в В этих условиях сходится и ряд i i = виде g = lim g n, где g n = (un, (un1,... (u2, u1 )...)). При этом можно записать n g n g n1 = (un, g n1 ) (0, g n 1 ) max 1 un. Считаем, что в данном случае 1 ( sn + pn1 ( un )), где – монотонно убывающая функция из R + в R +. Обозначим qn = sn+1 + pn ( un+1. Тогда последовательность g n сходится, + (q ) (s ). Если lim 2 i (ln ( si ) + ln (qi )) = 0, то этот ряд 2i если сходится ряд i i i i = будет сходиться. Но (8.52) позволяет свести это условие к следующему lim 2 i ln (qi ) = 0. (8.54) i + + s p Напомним, что ряды и должны сходиться и должно i i i =0 i = выполняться условие + (s + p ). (8.55) i i i = Кроме того, аргументы функций и должны попадать в области определения. Для того чтобы гарантировать выполнение этих условий, потребуем выполнения условий i si + pi 1 ( ( si ) 2, (8.56) n r n 1 ( (qi ) ( si ) 2 ), i (8.57) i = i pi + si 1 ( ( si ) 2 ). (8.58) При выполнении условий (8.53) - (8.58) процесс последовательных замен сходится к искомому преобразованию из-за полноты предельного пространства и непрерывности отображения.

Замечание 3. Если выполнены условия (8.53) - (8.55), то это ещё не гарантирует выполнения неравенств (8.56) - (8.58). Например, если 1 ( x) = 1/ ln(1 + ln(1 + 1/ x )), то, учитывая, что ( si ) 1 для достаточно больших i i номеров i, если si 0, получаем 1 ( ( si ) 2 ) 1 ( 2 ) 1/ i ln 2. При этом выполнение условия (8.58) влечёт расходимость ряда (8.54).

Замечание 4. Условия (8.53) будут заведомо выполнены, если они i ti = pi + si 1 ( ( si ) 2 ).

выполняются для значений Удобно заменить i неравенство (8.58) условием si 1 ( ( si ) 2 ), а в неравенстве (8.53) заменить ti на pi.

Конкретизировать условия (8.53) в случае, когда применима лемма 1, позволяет следующая лемма.

Пусть в выражениях (8.42), начиная с некоторого номера, Лемма 2.

1/ k последовательность a(k ) монотонно возрастает, а a(k ) монотонно + h стремится к 1. Тогда для существования такого сходящегося ряда с i i = положительными монотонно убывающими членами, что выполнено условие + 2 ln 1 (hi ) +, i (8.59) i = необходимо и достаточно, чтобы выполнялось условие + k ln a (k ) +. (8.60) k = ( x) – такая монотонно Доказательство. Необходимость. Пусть возрастающая функция, что ln a(k ) = (k ) и ( x) / x монотонно стремятся к нулю при x, стремящемся к бесконечности. Обозначим через x(h) – корень уравнения ( x) = hx. Для достаточно малых значений h это уравнение x(2h) 1 k x (2h). При этом k, что разрешимо, и найдётся такое 1 (h) a(k )e hk, откуда (k ) ( x(2h)) ( x(2h)) ln 1 (h) (k ) hk = ( h) k ( h) k ( x(2h) 1).

k x(2h) 2 x(2h) + 2 ( x(2hi )).

i Отсюда видно, что ряд (8.59) сходится только если сходится ряд i = ( x(2hi )) + + h +, +. Отсюда и из условия (8.59) Но следовательно i x(2hi ) i = i = ( x(2hi )) ( x(2hi )) + ( + следует сходимость ряда ). Заметим, что если 2i x (2hi ) i = ( x(2hi )) ( x(2hi )) ( x(2hi )) (2i ) x(2hi ) 2, то, а если x(2hi ) 2, то i i, 2i 2i 2i x(2hi ) + 2 (2i ), откуда сразу следует (8.60).

i следовательно, должен сходиться ряд i = Достаточность. Из равенства (8.42) следует, что 1 ( h) e ( k ) + e k ( h ( k ) / k ) x(h / 2)e ( x ( h / 2)) +.

1 e h / k x ( h / 2) k x ( h / 2) Условие (8.59) выполняется, если сходятся ряды + + + 2 2 ( x(hi / 2)), i i i. Положим x(hi / 2) = 2i и заметим, ln x(hi / 2) и ln hi i = i =0 i = 2 x(hi / 2) = = o( x(hi / 2)). Теперь сходимость первого и третьего рядов что hi ( x(hi / 2)) + 2 (2i ) сразу следует из неравенства i очевидна, а сходимость второго ряда i = ( x(hi / 2)) + + + + hi hi = 2 = 2 = 2 2 i ( 2i ) тоже сразу (8.60). Сходимость ряда 2 x(hi / 2) i =0 i =0 i =0 i = следует из оценки (8.60). Лемма доказана.

Замечание 5. На метод Колмогорова переносятся оба варианта сглаживания из 3.1. Это позволяет ослабить условия на действие, но не позволяет ослабить (8.60). Для ослабления этого условия, по-видимому, необходимо более тонкое изучение сходимости произведения (8.15).

Полученные в данном параграфе условия сходимости метода последовательных замен позволяют обосновать результаты параграфов 8.1 - 8. и подобные им.

Глава 9. Нейросетевой эмулятор Essence Проведённый в главах 2 и 3 анализ алгоритмов обучения нейронных сетей нельзя считать полным без их практической реализации в виде программного пакета и применения этого пакета к различным прикладным задачам. Такой пакет – нейросетевой эмулятор Essence – разработан под руководством Тархова Д.А. Его описанию посвящена данная глава.

Программа Essence написана на базе платформы Java 2 и предназначена для разработки и обучения нейронных сетей типа многослойный перcептрон на отдельном компьютере с целью отыскания скрытых зависимостей в числовых данных.

Конечной целью разработки данной программы является создание распределённой по Интернет интеллектуальной системы, способной решать разнообразные задачи моделирования. Наиболее подходящей платформой для такой системы в настоящее время является Java 2. Программа Essence в настоящий момент представляет собой первый шаг в данном направлении.

Алгоритмы, разработанные в предыдущих главах, могут служить теоретической основой для создания подобной системы.

Мощность и потенциал платформы Java, её расширенные возможности при работе с сетью, базами данных, а также поддержка наиболее передовых технологий и тенденции ее развития позволяют в перспективе перейти от локальных версий пакета Essence к распределенным его вариантам.

В последних двух параграфах данной главы приведено конкретное приложение пакета Essence к важной практической задаче – построению климатических характеристик территории Западной Сибири. При этом использованы материалы монографии [78], результаты которой получены с помощью данного пакета.

9.1. Основные функциональные возможности пакета Essence 1. Пакет Essence 1.2 пока реализует далеко не все перечисленные в предыдущих главах алгоритмы, но является первым шагом к такой реализации.

Ниже перечислены его основные достоинства:

Предусмотрено восемнадцать видов функций активации нейронов, любое количество слоев и возможность устанавливать отдельно число и вид нейронов для каждого слоя, двенадцать алгоритмов обучения с возможностью тонкой настройки параметров, различные виды ошибок и т. д.

Программа без перекомпиляции может быть запущена на любой платформе, на которой установлена виртуальная машина Java.

Использование технологии JavaBeans позволяет создавать и распространять обученную нейронную сеть в виде отдельного легковесного компонента или аплета.

Использование XML в качестве формата хранения и передачи данных и состояния позволяет упростить работу и взаимодействие между Essence и другими программами.

Essence имеет развитый пользовательский интерфейс (GUI), привычный для пользователей и обладающий гибкостью и возможностью расширения за счет встраиваемых модулей.

Каждый слой сети может быть гибко настроен. Так, например, можно не только изменить количество нейронов в слое, но и указать необходимость поляризации, а также типы нейронов.

В данной версии используются следующие варианты для оценки ошибки по отдельному примеру:

полусумма квадратов разностей, сумма абсолютных величин разностей, половина максимального квадрата разности.

Первая из этих оценок является наиболее употребительной. Вторая придает меньший вес большим отклонениям по отдельным координатам.

Последняя оценка, наоборот, использует только наибольшее отклонение, ее применение дает более равномерное приближение ко всем координатам.

Статистический смысл таких ошибок был указан в параграфе 1.1.

Большинство алгоритмов являются релаксационными, т. е. ошибка от шага к шагу должна убывать. Для более тонкой регулировки вводится специальное число Precession. Уменьшение ошибки должно быть не меньше, чем это число. Если это число отрицательное, тогда ошибка может и увеличиваться, но не больше, чем на эту величину. При этом процесс обучения не застревает в небольших локальных минимумах, и шаг обучения не становится слишком маленьким. Рекомендуется устанавливать это значение отрицательным и по модулю немного меньшим, чем типичное изменение ошибки в процессе обучения. Часть алгоритмов содержит встроенную процедуру регулировки числа Precession, приведённую в описании алгоритма 3.28.

Если обучающая выборка слишком велика, то обучение можно производить постранично. В этом случая программа выбирает часть примеров, совершает заданное число шагов обучения, потом выбирает новую часть примеров и т. д. Примеры на страницу могут выбираться последовательно или случайным образом в заданном процентном отношении ко всей выборке.

Обучение сети производится по одному из двенадцати заложенных в программу алгоритмов (см. главу 3): метод Руммельхарта, сопряженных градиентов, BFGS, Partan, оврагов, усреднения градиента, статистического градиента, случайного поиска, Rprop, QuickProp, delta-delta, delta-bar-delta.

9.2. Описание интерфейса Essence 1. Для того чтобы служить удобным инструментом исследования алгоритмов обучения нейронных сетей и приложения нейронных сетей к практическим задачам, программный пакет должен обладать развитым и интуитивно понятным графическим интерфейсом (GUI). Таким интерфейсом обладает Essence 1.2, и его описанию посвящён данный параграф.

Главное окно программы (Рис.9.1) имеет стандартный оконный пользовательский интерфейс, наиболее часто встречающийся в различных средах разработки. Каждая вкладка связана с отдельным модулем системы.

Описание основных модулей приведено в Таблице 1.

Рис.9.1. Главное окно программы Таблица 9.1. Краткое описание основных модулей системы Наименование модуля Краткое описание Модуль настройки топологии нейронной сети Net Settings Модуль подготовки данных для обучения сети Learn Data Settings Модуль настройки параметров алгоритмов Learning Settings обучения Модуль управления процессом обучения Learning Manager Модуль тестирования сети Testing Manager Главное меню. Главное меню располагается в верхней части окна Essence. Оно содержит команды для управления программой в целом. Команды меню объединены в группы. Список основных команд приведен в Таблице 2.

Таблица 9.2. Основные команды главного меню Группа Команда Краткое описание (Сочетание клавиш) Создать проект File New (Ctrl+N) Открыть проект Open…(Ctrl+O) Открыть проект из списка Reopen последних десяти недавно открывавшихся Сохранить проект Save (Ctrl+S) Сохранить проект под новым Save as… именем Summary Создать общий отчет о проекте Generate Report Properties… Открыть окно с общими Project настройками проекта (Ctrl+P) Завершение работы с программой Exit (Atl+F4) Открыть окно с общими Tools Settings (Ctrl+0) настройками программы Активировать модуль Net Settings Net Settings (Ctrl+1) Settings Активировать модуль Learn Data Learn Data Settings (Ctrl+2) Settings Активировать модуль Learning Learning Settings (Ctrl+3) Manager Активировать модуль Learning Learning Manager (Ctrl+4) Manager Активировать модуль Testing Testing Manager (Ctrl+5) Открыть окно настройки плагинов Plugins Plugin Manager Открыть окно предустановленного Net Bean Wizard плагина Net Bean Wizard Показать содержание справки Help Content (F1) Показать контекстную справку Context Показать окно «Совет дня»

Tip of the day Показать данные о регистрации Registration info Показать общие данные о версии About программы и ее модулей, а также дынные об окружении Панель инструментов. Часть команд Главного Меню используются наиболее часто. Такие команды вынесены на панель инструментов в виде кнопок быстрого доступа.

Модуль Learn Data Settings. Позволяет вводить и управлять данными, используемыми в процессе обучения нейронной сети.

Рис.9.2. Окно модуля подготовки данных Включает в себя меню и рабочую область, позволяющую непосредственно просматривать и модифицировать данные.

Пункты меню File позволяют производить стандартные операции по работе с файлом данных: создание, открытие, сохранение, импорт, экспорт.

При работе с данными возможны два режима: табличный и графический.

Табличный режим наиболее удобен для модификации данных;

графический – для просмотра данных. При работе с данными возможны следующие виды модификаций, обеспечиваемые набором быстрых клавиш, а также пунктами контекстного меню:

Добавление новой строки;

Клонирование текущей строки;

Удаление выделенных строк;

Изменение типа строки. При этом возможны три варианта: L – данные для обучения;

T – данные для тестирования;

N – неиспользуемые данные;

Добавление нового столбца;

Клонирование текущего столбца;

Удаление выделенных столбцов;

Изменение типа столбца. При этом возможны три варианта: I – входная переменная;

O – выходная переменная;

N – неиспользуемая переменная.

Более сложные операции по модификации данных можно осуществлять, используя пункты меню Operations. В частности, можно выполнять следующие операции:

Displacement. Сдвиг всех колонок на одну, две и далее до выбранного числа элементов с удалением строк, содержащих незаполненные ячейки;

Sort. Сортировка данных по тому или иному критерию;

Split. Автоматическое разбиение данных на обучающие и тестовые;

MainComp. Выделение главных компонент;

Clusterisation. Кластеризация данных.

Кроме этих операций по модификации данных имеется также возможность задавать набор функциональных преобразований данных (фильтров и модификаторов), применяемых динамически. Управление этими модификаторами осуществляется через пункты меню Functions. В качестве примера подобной модификации данных может служить нормализация.

Модуль Net Settings. Позволяет управлять топологией нейронной сети.

Рис.9.3. Модуль управления топологией нейронной сети Включает в себя меню и рабочую область, позволяющую непосредственно просматривать и модифицировать структуру нейронной сети.

Возможны два режима работы: табличный и графический. Табличный режим наиболее удобен для модификации структуры сети;

графический – для просмотра ее структуры. При работе со структурой сети возможны следующие виды модификаций, обеспечиваемые набором быстрых клавиш, а также пунктами контекстного меню:

Добавление нового слоя;

Клонирование слоя;

Удаление слоя;

Изменение активационной функции нейронов, входящих в слой;

Добавление поляризации.

Модуль Learning Settings. Служит для настройки режимов обучения в целом и параметров отдельных алгоритмов обучения.

Рис.9.4. Модуль управления параметрами обучения нейронной сети Включает в себя меню и рабочую область, позволяющую непосредственно просматривать и модифицировать параметры обучения.

Рабочая область структурно разделена на следующие подобласти:

Algorithms. Включает в себя набор из двенадцати алгоритмов обучения.

Выбор конкретного алгоритма обучения осуществляется путем установки соответствующего флажка;

Error. Позволяет выбрать функцию оценки ошибки и задать ее параметры;

Paging. Позволяет задать параметры страничного режима обучения.

Каждый из алгоритмов имеет свою панель параметров (Рис.9.4б – BFGS), вызов которой осуществляется путем нажатия правой кнопкой мыши по названию соответствующего алгоритма.

Модуль Learning Manager. Служит для управления процессом обучения нейронной сети.

Рис.9.5. Модуль управления процессом обучения нейронной сети Включает в себя панель с клавишами управления и рабочую область, которая может содержать дочерние окна, отображающие ту или иную информацию, связанную с текущим состоянием обучения сети.

Панель управления включает в себя следующие клавиши:

Start/Pause;

Restart;

Stop;

Show Graphic.

Модуль Testing Manager. Позволяет проводить тестирование и использование обученной нейронной сети.

Рис.9.6. Модуль тестирования нейронной сети Интерфейс и функциональность данного модуля почти не отличаются от модуля Learn Data Settings. При этом на панели инструментов имеются две дополнительные клавиши (последняя группа): Test и Show Graphic.

Таким образом, Essence 1.2 обладает удобным и развитым интерфейсом, что упрощает использование заложенных в нём возможностей.

9.3. Определение характеристик температуры воздуха для региона Западной Сибири с помощью пакета Essence В данном параграфе производится определение искомых характеристик климата Западной Сибири с помощью нейросетевого моделирования на основе пакета Essence. Такими характеристиками являются: минимальная температура воздуха Тв(min), температура самых холодных суток Тв(1), температура самой холодной пятидневки Тв(5) и продолжительность периода зимней эксплуатации машин при Тв 5°С. В первой исходной таблице 149 строк (по количеству пунктов метеонаблюдений) и 8 столбцов. Первый столбец несет в себе формальную информацию о номере (по порядку) метеопункта. Второй – включает наименование города (поселка) расположения метеопункта. В третьем и четвертом столбцах содержатся сведения о градусах соответственно северной широты и восточной долготы – географических координатах расположения метеопункта. Сведения о параметрах температуры содержатся в оставшихся четырех столбцах.

Вторая таблица содержит 12149 строк, что обусловлено расширением информации о соответствующих параметрах температуры воздуха, так как все они относятся не только к метеопункту наблюдений, расположение которого закодировано координатами широты и долготы, но и месяцем года. Каждый месяц года имеет номер от 1 – январь до 12 – декабрь соответственно. При этом, сведения о градусах северной широты и восточной долготы, содержащиеся в первом и втором столбце таблицы повторяются в каждом случае 12 раз (по числу месяцев в году). Третий столбец таблицы последовательно расшифровывает информацию о месяце года. Значимая информация о характеристиках температуры воздуха содержится в остальных столбцах таблицы от четвертого до одиннадцатого. В столбцах с четвертого по шестой включительно приведены статистические характеристики распределения среднестатистических температур воздуха в пределах соответствующего месяца в соответствующем месте региона. В том числе:

• среднее значение температуры Мt (среднемесячная температура воздуха);

• среднеквадратичное отклонение температуры Gt ;

• коэффициент асимметрии функции распределения Аt.

В остальных пяти столбцах представлена информация о значениях корреляционных коэффициентов Кtj, где j = 1…5.

На стадии проектирования топологии нейронной сети и ее обучения при помощи Essence обычно приходится решать нетривиальные задачи, как правило, требующие выполнения научно-исследовательской работы, базирующейся на опыте и интуиции исследователя. К ним относятся выбор количества слоев нейронной сети, количества нейронов на каждом слое, передаточных функций, определение характеристик обучающей выборки, методов предварительной обработки данных, алгоритмов обучения и их параметров, критериев останова процесса обучения и др.

На первом этапе обучения выбираются параметры сети, которые по мнению исследователя могут наилучшим образом отвечать поставленной задаче.

Для примера рассмотрим данный процесс в случае, когда выходным является четвёртый столбец.

На первом этапе выбираем сеть 5*5*5 с передаточной функцией – биполярный экспоненциальный сигмоид и добавлением 1 на каждом слое (рис.

9.7).

Рис.9.7. Первоначальный выбор параметров сети Далее начинается процесс обучения. Его можно наблюдать по изменению обучающей и тестовой ошибок, другим индикаторам с расширенной панели и графикам выхода сети.

а б в г Рис.9.8. Динамика обучения сети, содержащей 3 скрытых слоя по нейронов в каждом За ходом процесса обучения следят по изменению ошибок (среднеквадратичной ошибке по обучающей и тестовой выборке). Протокол процесса обучения с выводом ошибок по обучающей и тестовой выборке может, по желанию исследователя, записываться в отдельный файл. В заголовок файла записываются характеристики сети и основные параметры процесса обучения. Заголовок имеет следующий формат:

****************** ESSENCE 1.2 ***************** *--------------------------------------------------* NET STRUCTURE 1 output 5n * Bipolar Sigmoid + 5n * Bipolar Sigmoid + 5n * Bipolar Sigmoid + 4 input *--------------------------------------------------* ALGORITHM INFORMATION COMMON PARAMETERS:

ERROR TYPE: Sum Square TARGET TYPE: Sum Error PRECISION:

-1.0E- PAGING: All patterns ALGORITHM TYPE PARAMETERS:

METHOD : R Propagation PARAMETERS : ;

H0 = 1.0E-7;

Gamma1 = 1.2;

Gamma2 = 0. *--------------------------------------------------* DATE and TIME December 18, 1999 11:33:30 PM GMT+03: *--------------------------------------------------* На начальном этапе обучения ошибка быстро уменьшается (фрагмент протокола изменения ошибок см. таблицу 9.3), что соответствует обычной практике обучения нейронных сетей.

Таблица 9.3. Стадия уменьшения ошибки Среднеквадратичная Среднеквадратичная ошибка по обучающей выборке ошибка по тестовой выборке 95.19955870730179 39. 95.04068704091009 38. 94.8510378518359 38. 94.624896752628 38. 94.3556023373161 38. 94.0354443377987 38. 93.6555811949651 38. 93.20599789983423 38. 92.6755402605907 37. 92.0520792690034 37. Далее ошибка как по тестовой, так и по обучающей выборке, начинает уменьшаться очень медленно, либо колеблется относительно некоторого среднего (см. табл. 9.4) и затем часто переходит в фазу, когда тестовая ошибка начинает возрастать при уменьшении обучающей, что говорит о переобучении сети (см. табл. 9.5). В этот момент процесс обучения необходимо остановить, так как при дальнейшем обучении нейронной сети её прогностические качества будут ухудшаться.

Таблица 9.4. Стадия стабилизации изменения ошибки Среднеквадратичная Среднеквадратичная ошибка по обучающей выборке ошибка по тестовой выборке 3.7661411793774215 1. 3.7660755501633605 1. 3.766002610763187 1. 3.7659192521749048 1. 3.7658249964903976 1. 3.7657197686468744 1. 3.765902731380657 1. 3.7657551393123705 1. 3.7656775134510623 1. 3.7656559745868043 1. Таблица 9.5. Стадия увеличения обучающей ошибки Среднеквадратичная Среднеквадратичная ошибка по обучающей выборке ошибка по тестовой выборке 0.8400798948424872 0. 0.8400483057325097 0. 0.8400157207950146 0. 0.8400268450376375 0. 0.8400165313596656 0. 0.8399888519101883 0. 0.8399797748526483 0. 0.839887738035703 0. 0.8398731348486059 0. 0.8399013213931752 0. Рис.9.9. Результаты обучения сети, содержащей один скрытый слой из 200 нейронов Далее, если результаты обучения нас не устраивают возможны две стратегии:

• эволюционное изменение топологии сети (с сохранением старых весов) и минимизацией изменения ошибки при вычислении весов вновь генерируемых связей сети;

• выбор новой топологии с полной перегенерацией весов.

После этого процесс обучения повторяется (см. рис. 9.9).


Рис.9.10. Результаты обучения сети, содержащей один скрытый слой из 100 нейронов Рис.9.11. Результаты обучения сети, содержащей два скрытых слоя из нейронов каждый Рис.9.12. Результаты обучения сети, содержащей один скрытый слой из 200 нейронов В результате научного эксперимента и исследований спроектированы и обучены нейронные сети по определению 12 независимых характеристик температуры воздуха и ее хода в пределах года на территориях Западной Сибири. Итоговые результаты обучения при этом записывались в тестовый файл определенной структуры, который в дальнейшем может использоваться при проектировании независимых приложений на базе технологии JavaBeans.

Таблица 9.6. Основные характеристики сетей Назначение сети Кол-во Кол-во Передаточная слоев нейроно функция в Абсолютный минимум 2 Биполярный температур воздуха сигмоид Средняя температура 2 Биполярный самых холодных суток сигмоид Средняя температура 2 Биполярный самой холодной сигмоид пятидневки Продолжительность 2 Биполярный периода эксплуатации сигмоид при температуре 5°С Среднемесячная 1 100 Гауссиан температура Среднеквадратичное 2 Биполярный отклонение температуры сигмоид Коэффициент 1 200 Биполярный корреляции 1 арктангенс Коэффициент 1 200 Биполярный корреляции 2 арктангенс Коэффициент 1 200 Биполярный корреляции 3 арктангенс Коэффициент 1 200 Биполярный корреляции 4 арктангенс Коэффициент 1 150 Биполярный корреляции 5 арктангенс Часть характеристик – минимальная температура воздуха Тв(min), температура самых холодных суток Тв(1), температура самой холодной пятидневки Тв(5) и продолжительность периода зимней эксплуатации машин при Тв 5°С – используется в расчетной практике непосредственно, и информация о них может быть получена при использовании соответствующей обученной нейронной сети путем введения в заранее разработанную программу сведений о географических координатах (градусах северной широты и восточной долготы) расположения пункта в пределах Западной Сибири, для которых эти сведения потребовались (рис. 9.13).

Рис.9.13. Окно получения минимальных температурных характеристик Остальные характеристики, в основном, несут промежуточную информацию, нуждающуюся в дальнейшем анализе.

В частности, при конструировании, расчетах и оценках эффективности систем тепловой подготовки приводов землеройных машин (СТП ЗМ) важное значение имеет частота появления низких температур воздуха разного уровня.

Для этого вводя в программу координаты любого пункта на территории Западной Сибири и номер месяца, получают сведения о численных значениях Mt, Gt и At для каждого месяца года (рис. 9.14).

Рис.9.14. Окно получения среднемесячных температурных характеристик Материалы данного параграфа позволяют сделать вывод о том, что программа Essence оказалась удобным средством для проведения важного практического исследования – определения климатических характеристик Западной Сибири.

9.4. Разграничение региона Западной Сибири по зонам с помощью пакета Essence Западная Сибирь – огромный регион, условия в котором меняются в широких пределах. В полной мере это касается и характеристик климата и, в частности, температуры воздуха. По этой причине без ущерба для описания общей картины огромные пространства региона целесообразно представить совокупностью ограниченных территорий, для каждой из которых статистические характеристики условий эксплуатации техники с достаточной для инженерных приложений точностью являются постоянными, в том числе характеристики среднесуточных температур и их годового хода. Покажем решение данной задачи на примере прогнозирования количества дней со среднесуточной температурой менее -5° С. Прогнозирование ведем на основе имеющихся данных о температурных характеристиках региона Западной Сибири. В простейшем случае за входные параметры можно принять широту и долготу. Обучение будем проводить для двух случаев:

• все примеры выборки являются обучающими;

• 70% примеров являются обучающими и 30% – тестовыми.

Покажем этот процесс на примере двух топологий: сеть с промежуточным слоем и 20 нейронами (рис. 9.15 и 9.16) и сеть с 2 слоями и нейронами на каждом слое (9.17). Отметим, что такой порядок выбора количества нейронов и слоев обусловлен рекомендацией Nп No, где Nп – количество подбираемых параметров нейронной сети, No – количество примеров обучающей выборки.

Рис.9.15. Графическое представление сети 1* Рис 9.16. Панель выбора параметров сети 1*20 Essence Рис.9.17. Графическое представление сети 2* При обучении нейронных сетей без тестовой выборки процесс был остановлен, хотя уменьшение результирующей ошибки еще продолжалось (см.

табл. 9.6). Смысл остановки будет показан на примере обучения с тестовой выборкой.

На сети 8*2 лучшие результаты были достигнуты за меньшее время. Это очень важный фактор для сетей большой размерности, так как обучение таких сетей обычно занимает значительное время.

Таблица 9.6. Суммарная квадратичная ошибка через 10 мин. после начала обучения Сеть 20*1 Сеть 8* 0.038710113919868665 0. 0.038709886220665846 0. 0.03870963391473528 0. 0.03870949898728654 0. 0.03870934926220249 0. 0.03870922204268943 0. 0.03870908538590372 0. 0.038708929075837034 0. 0.03870875230332246 0. 0.038708555095702486 0. 0.0387083368644803 0. 0.038708104030405074 0. 0.03870784854217658 0. 0.03870753859978863 0. 0.038707174568931774 0. 0.03870673979386475 0. 0.03870622180491918 0. 0.03870560560717697 0. 0.03870487393307319 0. 0.03870400710839413 0. 0.038702983033198586 0. 0.03870178665445672 0. 0.0387003781501043 0. 0.03869873061563237 0. Результаты обучения на 10 мин. процесса показаны на рис. 9.18 и 9. соответственно. Видно, что на этот момент сеть 8*2 более точно “вытягивает” крайние точки.

Рис.9.18. График выходных значений для сети 20*1 и табличных значений Рис.9.19. График выходных значений для сети 8*2 и табличных значений На примере обучения с тестовой выборкой покажем, что в определенный момент времени происходит переход от уменьшения суммарной квадратичной ошибки по тестовой выборке к ее увеличению, хотя ошибка по обучающей выборке продолжает уменьшаться. В этот момент процесс обучения необходимо останавливать, т.к. это сигнализирует о том, что сеть уловила все общие закономерности взаимосвязи данных и продолжает “вытягивать” частные выбросы, не представленные в тестовой выборке (табл. 9.7 и 9.8).

Таблица 9.7. Динамика изменения суммарной квадратичной ошибки (сеть 20*1) Обучающая Тестовая 0.03524818677478562 0. 0.03525013202990601 0. 0.03524828715021618 0. 0.03524837602401071 0. 0.03524801759623233 0. 0.03524791298448414 0. 0.035247767277351294 0. 0.035247600013341256 0. 0.0352474102154415 0. 0.03524718770329908 0. 0.035246931333473376 0. 0.03524663756967234 0. 0.03524630505826574 0. Таблица 9.8. Динамика изменения суммарной ошибки (сеть 8*2) Обучающая Тестовая 0.028011740107701844 0. 0.028009739385518786 0. 0.028007780891489507 0. 0.02800556761980976 0. 0.0280030821405097 0. 0.028000530178747814 0. 0.027999094578331142 0. 0.027998127611415673 0. 0.027996704285382652 0. 0.027995106220937153 0. 0.027993283652620975 0. 0.02799121203202976 0. 0.02798890162873531 0. Рис.9.20. График выходных значений для сети 20*1 и табличных значений с тестовой выборкой Рис.9.21. График выходных значений для сети 8*2 и табличных значений с тестовой выборкой Необходимо отметить, что даже такие маленькие сети при малом количестве исходных данных дают хорошие результаты.

После окончания обучения нейронной сети можно перейти к построению на ее базе различных приложений, реализующих ее возможности по экстраполяции и интерполяции.

Под руководством И.О. Вашуркина на основе пакета Essence создано соответствующее ПО, позволяющее выделять зоны со сходными температурными характеристиками (на примере количества дней со среднесуточной температурой -5° C). Можно, задавая произвольный диапазон количества суток, производить такое группирование.

Рис.9.22. Группирование зон с разбросом количества дней со среднесуточной температурой -5° C Материалы данного параграфа позволяют сделать вывод о том, что возможности пакета Essence не ограничиваются эффективным обучением нейронных сетей на различных наборах данных и анализом процесса обучения, но и позволяют создавать на его основе прикладные программы.

Заключение Итогом книги являются следующие научные и практические результаты:

Большинство используемых в настоящее время архитектур 1) нейронных сетей описаны с помощью единого формализма, что позволяет единообразно применять на этапах подбора весов нейронных сетей при реализации разрабатываемых алгоритмов известные методы нелинейной оптимизации.

Создана методология конструирования устойчивых математических 2) моделей сложных физических, технических и других систем на основе методологии нейросетевого моделирования, которая позволяет преодолеть многие проблемы моделирования (сложность геометрии, разномасштабность процессов, ошибки данных, погрешности вычислений и др.) как на начальном его этапе, так и при построении иерархии моделей по уточняемой разнородной информации.

На основе созданной методологии разработана серия методов и 3) реализующих их алгоритмов, позволяющая единообразно для разных типов нейронных сетей подбирать оптимальную структуру в зависимости от решаемой задачи моделирования.

Доказана сходимость итерационных процессов, обобщающих метод 4) Ньютона, что позволяет изучать условия сходимости рассмотренных в диссертации процедур обучения нейронных сетей. Главными особенностями доказанных в диссертации теорем по сравнению с известными результатами является рассмотрение итерационного процесса в последовательности пространств, вложенных друг в друга, сочетание шагов методов разных порядков, рассмотрение оценки Гёльдера с переменным показателем и замена обратного оператора приближённым обратным с оценкой, меняющейся от шага к шагу.

Предложены новые варианты алгоритмов глобальной оптимизации, 5) позволяющих приближаться к глобально оптимальным весам нейронных сетей в процессе их обучения. Эти алгоритмы оказались эффективными при подборе весов нейронных сетей в пространствах размерностей от нескольких сотен до нескольких тысяч.


Приведены новые распределённые варианты алгоритмов обучения 6) нейронных сетей, позволяющие проводить построение таких сетей в рамках парадигмы Интернет-вычислений.

Разработана методология моделирования сложных систем с 7) распределенными параметрами по разнородной информации с уточняемыми данными. Сформулирована новая парадигма моделирования таких систем на основе нейросетевой вычислительной технологии. В рамках этой парадигмы определены методы решения задач математической физики, разработан общий подход к выбору архитектуры и настройки нейросетевого функционального базиса.

Разработаны нейросетевые методы и алгоритмы решения задач 8) математической физики в классической и неклассической постановке, допускающие распараллеливание и позволяющие сочетать подбор оптимальной структуры моделирующей системы с настройкой параметров нейросетевого функционального базиса в зависимости от решаемой задачи моделирования.

Проведен анализ особенностей применения нейросетевого подхода 9) при построении приближенных решений краевых задач для уравнений эллиптического и параболического типа для областей с фиксированной, свободной и управляемой границей. Рассмотрены важные для практики приложения: модель температурного поля в системе «сосуды – ткани», модель нанообъекта (квантовая точка), модель двухфазной системы со свободной границей и модель образцовой поверочной установки переменного давления с оптимизацией формы рабочей камеры.

Проведен анализ построения нейросетевых регуляризаций решений 10) неклассических задач математической физики на примерах характеристической краевой задачи для ультрагиперболического уравнения при учете критерия ее разрешимости и некорректной задачи продолжения полей по данным точечных измерений.

Литература Агошков В.И., Дубовский П.Б., Шутяев В.П. Методы решения задач 1.

математической физики: Учебное пособие. – М.: ФИЗМАТЛИТ, 2002. – 320 с.

Айвазян С.А. и др. Прикладная статистика. Основы моделирования и 2.

первичная обработка данных. – М.: Финансы и статистика, 1983. – 471 с.

Айвазян С.А. и др. Прикладная статистика. Исследование зависимостей. – 3.

М.: Финансы и статистика, 1985. – 487 с.

Айвазян С.А. и др. Прикладная статистика. Классификация и снижение 4.

размерности. – М.: Финансы и статистика, 1989. – 607 с.

Алберт А. Регрессия, псевдоинверсия и рекуррентное оценивание. – М.:

5.

Наука, 1977. – 224 с.

Алгоритмы и программы восстановления зависимостей. – М.: Наука, 1984.

6.

– 816 с.

Алексидзе М.А. Фундаментальные функции в приближенных решениях 7.

граничных задач. – М.: Наука, 1991. – 352 с.

Алиева Д.И., Крыжановский Б.В. Векторная модель нейронной сети с 8.

переменным порогом// Нейрокомпьютеры: разработка, применение. – 2005. – №3. – С.5-11.

Алферов Ж.И. Физика и жизнь. – Изд. 2-е, доп. М.;

СПб.: Наука, 2001. – 9.

с.

10. Антонов В.И., Васильев А.Н., Загайнов А.И., Лучаков Ю.И. Исследование теплообмена в капиллярах теплокровных// Материалы 11 Всероссийской конференции по проблемам науки и высшей школы "Фундаментальные исследования и инновации в технических университетах". – СПб, 2007. – С.101-106.

11. Антонов В.И., Васильев А.Н., Тархов Д.А. Нейросетевой подход к моделированию теплообмена в системе сосуды-ткани// Материалы международной конференции «Интеллектуальные и многопроцессорные системы – 2005». – Таганрог – Донецк – Минск, 2005. – Том 2. – С.223-227.

12. Антонов В.И., Васильев А.Н., Тархов Д.А. Нейросетевые подходы к решению нестандартных задач моделирования теплообмена в системе «сосуды – ткани»// Известия ТРТУ. – 2006. – №16(71). – С.54-58.

13. Антонов В.И., Васильев А.Н., Тархов Д.А. Нейросетевые подходы к решению нестандартных задач моделирования теплообмена в системе «сосуды ткани»// Материалы VII Международной конференции «ИИ-ИМС’2006». – Таганрог – Донецк – Минск, 2006. – Том 2. – С.241-245.

14. Антонов В.И., Васильев А.Н., Тархов Д.А. Приближённое решение задачи Стефана с помощью искусственных нейронных сетей// Материалы международной конференции «Искусственный интеллект – 2004». – Таганрог – Донецк, 2004. – Том 1. – С.405-408.

15. Антосик П., Микусинский Я., Сикорский Р. Теория обобщенных функций.

Секвенциальный подход. – М.: Мир, 1976. – 312 с.

16. Балакришнан А.В. Теория фильтрации Калмана. – М.: Мир, 1988. – 168 с.

17. Балухто А.Н. и др. Нейрокомпьютеры в системах обработки изображений. – М.: Радиотехника, 2003. – 192 с.

18. Бард Й. Нелинейное оценивание параметров. – М.: Статистика, 1979. – с.

19. Барцев С.И., Гилев С.Е., Охонин В.А. Принцип двойственности в организации адаптивных сетей обработки информации// Динамика химических и биологических систем. – Новосибирск: Наука, 1989. – С.6-55.

20. Бахвалов Н.С., Жидков Н.П., Кобельков Г.М. Численные методы. – М.:

Лаборатория Базовых Знаний, 2002. – 632 с.

21. Беликов С.В. Применение нейронных автоматов в задачах математической физики, Материалы VI Международной конференции по неравновесным процессам в соплах и струях – NPNJ-2006, СПб. – М.: Вузовская книга. – 2006.

– С.64-66.

22. Беллман Р., Энджел Э. Динамическое программирование и уравнения в частных производных. – М.: Мир, 1974. – 208 с.

23. Бендерская Е.Н., Жукова С.В. Решение задач кластеризации с использованием хаотической нейронной сети// Сборник научных трудов VII Всероссийской научно-технической конференции «Нейроинформатика-2005». – Москва, МИФИ, 2005. – Часть 1. – С.54-60.

24. Бендерская Е.Н., Жукова С.В. Сравнительный анализ хаотической нейронной сети и нейронной сети Кохонена// Материалы международной конференции «Интеллектуальные и многопроцессорные системы – 2005». – Таганрог – Донецк – Минск, 2005. – Том 2. – С.228-232.

25. Берс Л., Джон Ф., Шехтер М. Уравнения с частными производными. – М.:

Мир, 1966. – 352 с.

26. Бирман М., Соломяк М. Количественный анализ в теоремах вложения Соболева и приложения к спектральной теории// 10-я математическая школа, Институт математики АН УкрССР. – Киев, 1974. – С.5-189.

27. Бирман М., Соломяк М. Кусочно-полиномиальные приближения функций классов Wp // Математический сборник. – 1967. – 73, №3. – С.331-355.

28. Благовещенский А.С. О задаче для ультрагиперболического уравнения с данными на характеристической плоскости// Вестник ЛГУ, Сер. матем. – 1965.

– 13, 3. – С.13-19.

29. Благовещенский А.С. О характеристической задаче для ультрагиперболического уравнения// Математический сборник. – 1963. – т.63(105), вып.1. – С.137-168.

30. Благовещенский А.С., Васильев А.Н. Некоторые новые корректные задачи для ультрагиперболического уравнения// Вестник ЛГУ. – 1976. – № 19. – С.152 153.

31. Блинов И.Н. Об одном итерационном процессе Ньютона// Изв. АН СССР, Сер. матем. – 1969. – Том 38, №1. – С.3-14.

32. Блинов И.Н. В-алгебра почти периодических функций// Функц. Анализ и его прил. – 1982. – Том 16, №4. – С.57-58.

33. Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических данных. – М.: Наука, 1983. – 464 с.

34. Брудный Ю. Адаптивная аппроксимация функций с особенностями// Труды Московского математического общества. – 1994. – 55. – С.149-242.

35. Брудный Ю. Нелинейная N-членная аппроксимация масштабными функциями// Алгебра и анализ. – СПб.: Наука РАН, 2004. – Т.16, вып.1. – С.163 206.

36. Бурнаев К.Е., Корсунов Н.И. Методика решения дифференциальных уравнений в частных производных, основанная на применении ячеистых нейронных сетей// Сборник научных трудов VIII Всероссийской научно технической конференции «Нейроинформатика-2006». – Москва, МИФИ, 2006.

– Часть 3. – С.67-75.

37. Буцев А.В., Первозванский А.А. Локальная аппроксимация на искусственных нейросетях// Автоматика и Телемеханика. – 1995. – №9. – С.127-136.

38. Бэстенс Д.-Э. и др. Нейронные сети и финансовые рынки. – М.: ТВП, 1997.

– 236 с.

39. Вапник В.Н. Восстановление зависимостей по эмпирическим данным. – М.:

Наука, 1979. – 448 с.

40. Варга Р. Функциональный анализ и теория аппроксимации в численном анализе. – М.: Мир, 1974. – 128 с.

41. Васильев А.Н. Корректная задача для ультрагиперболического уравнения и ее связь с задачей интегральной геометрии// «Неклассические методы в геофизике» – Сборник материалов всесоюзной школы. – Новосибирск, 1977. – С.135-137.

42. Васильев А.Н. Корректная краевая задача для многомерного ультрагиперболического уравнения// «Краевые задачи для неклассических уравнений математической физики» – Сборник трудов всесоюзной школы «Неклассические уравнения математической физики». – Новосибирск, 1989. – С.18-21.

43. Васильев А.Н. Новые краевые задачи для ультрагиперболического и волнового уравнений. – Диссертация на соискание ученой степени кандидата физ.-мат. наук. – Л. – 1977. – 117 с.

44. Васильев А.Н. Новые нейросетевые подходы к решению краевых задач в областях, допускающих декомпозицию// «Нейрокомпьютеры»: разработка, применение. – 2006. – №7. – С.32-39.

45. Васильев А.Н. Новые нейросетевые подходы к решению краевых задач в областях, допускающих декомпозицию// Современные проблемы нейроинформатики. Научная серия – Нейрокомпьютеры и их применение.

Книга 23. Коллективная монография: в 2-х ч. – М.: Радиотехника, 2006. – Часть 2. – 80 с.

46. Васильев А.Н. Новый подход к построению приближенного решения эллиптической задачи в случае многокомпонентной области на основе искусственных нейронных сетей// Материалы VI Международной конференции по неравновесным процессам в соплах и струях – NPNJ-2006, СПб. – М.:

Вузовская книга, 2006. – С.89-91.

47. Васильев А.Н. О нейросетевом подходе к построению приближенных решений прикладных задач математической физики// Научно-технические ведомости СПбГТУ. – 2006. – №3. – С.182-186.

48. Васильев А.Н. О новом законе сохранения для волнового уравнения// Вестник ЛГУ. – 1977. – №7. – С.25-31.

49. Васильев А.Н. Построение приближённого решения уравнения Шредингера с кусочно-постоянным потенциалом на основе нейросетевой методологии// Материалы VII Международной конференции «ИИ-ИМС’2006». – Таганрог – Донецк – Минск, 2006. – Том 2. – С.238-241.

50. Васильев А.Н. Теоретические исследования и расчет параметров полей давления в камерах образцовых установок, воспроизводящих переменные давления// Отчет о научно-исследовательской работе по теме №511001. – Л., 1982. – 70 с.

51. Васильев А.Н., Виницкий С.И., Тархов Д.А. Нейросетевые модели квантовых точек// Труды VIII-й Международной научно-технической конференции «Компьютерное моделирование 2007», СПб. – СПб.: Изд. СПбГПУ, 2007. – С.90-102.

52. Васильев А.Н., Кузнецов Н.Г. О некоторых экстремальных задачах, возникающих в акустике// «Краевые задачи для неклассических уравнений математической физики» – Сборник трудов всесоюзной школы «Неклассические уравнения математической физики». – Новосибирск, 1989. – С.94-98.

53. Васильев А.Н. Попов А.Г. Тархов Д.А. Нейросетевые технологии анализа данных и возможность их использования в современных АСУ ТП// Второй научно-технический семинар «Современные системы контроля и управления электрических станций и подстанций (АСУ ТП) на базе микропроцессорной техники». – М., 2001. – С.1-9.

54. Васильев А.Н., Тархов Д.А. Применение нейронных сетей к неклассическим задачам математической физики// Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM'2003. – Том 1. – С.337-340.

55. Васильев А.Н., Тархов Д.А. Новые подходы на основе RBF – сетей к решению краевых задач для уравнения Лапласа на плоскости// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2004. – №7 8. – С.119-126.

56. Васильев А.Н., Тархов Д.А. Нейронные сети как новый универсальный подход к численному решению задач математической физики// «Нейрокомпьютеры»: разработка, применение. – М.: Радиотехника, 2004. – №7 8. – С.111-118.

57. Васильев А.Н., Тархов Д.А. Нейросетевые подходы к решению краевых задач в многомерных составных областях// Известия ТРТУ. – 2004. – №9. – С.80-89.

58. Васильев А.Н., Тархов Д.А. Применение искусственных нейронных сетей к моделированию многокомпонентных систем со свободной границей// Известия ТРТУ. – 2004. – №9. – С.89-100.

59. Васильев А.Н., Тархов Д.А. Моделирование распределённых систем с помощью нейронных сетей// Труды 5-й международной научно-технической конференции «Компьютерное моделирование 2004», СПб. – СПб.: Изд.

«Нестор», 2004. – Часть 1. – С.172-173.

60. Васильев А.Н., Тархов Д.А. RBF-сети и некоторые задачи математической физики// Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM’2004. – СПб., 2004. – Том 1. – С.309-312.

61. Васильев А.Н., Тархов Д.А. Нейросетевой подход к решению краевых задач в составных областях// Материалы международной конференции «Искусственный интеллект – 2004». – Таганрог – Донецк, 2004. – Том 1. – С.475-478.

62. Васильев А.Н., Тархов Д.А. Нейросетевой подход к решению некоторых неклассических задач математической физики// Сборник научных трудов VII Всероссийской научно-технической конференции «Нейроинформатика-2005». – Москва, МИФИ, 2005. – Часть 2. – С.52-60.

63. Васильев А.Н., Тархов Д.А. Нейросетевая методология построения приближённых решений дифференциальных уравнений по экспериментальным данным// Материалы международной конференции «Интеллектуальные и многопроцессорные системы – 2005». – Таганрог – Донецк – Минск, 2005. – Том 2. – С.219-223.

64. Васильев А.Н., Тархов Д.А. Новые нейросетевые подходы к решению краевых задач в составных областях// Искусственный интеллект. – Донецк, 2005. – №1. – С.26-36.

65. Васильев А.Н., Тархов Д.А. Применение искусственных нейронных сетей к задаче Стефана// Искусственный интеллект. – Донецк, 2005. – №1. – С.37-47.

66. Васильев А.Н., Тархов Д.А. Построение нейросетевой модели по дифференциальным уравнениям и экспериментальным данным// Известия ТРТУ. – 2005. – №10(54). – С.98-107.

67. Васильев А.Н., Тархов Д.А. Эволюционные подходы к нейросетевому решению задач математической физики// Сборник трудов V Международной конференции «Интеллектуальные системы» – IEEE AIS’05, Дивноморское. – Таганрог, 2005.

68. Васильев А.Н., Тархов Д.А. Расчёт теплообмена в системе «сосуды-ткани»

на основе нейронных сетей// «Нейрокомпьютеры»: разработка, применение. – 2006. – №7. – С.48-53.

69. Васильев А.Н., Тархов Д.А. Расчёт теплообмена в системе «сосуды-ткани»

на основе нейронных сетей// Современные проблемы нейроинформатики. Кн.

23. Коллективная монография: в 2-х ч. – М.: Радиотехника, 2006. – Часть 2. – с.

70. Васильев А.Н., Тархов Д.А. Некоторые эволюционные подходы к нейросетевому решению задач математической физики// Сборник научных трудов VIII Всероссийской научно-технической конференции «Нейроинформатика-2006». – Москва, МИФИ, 2006. – Часть 1. – С.24-31.

71. Васильев А.Н., Тархов Д.А. Новый подход к численному решению задач математической физики на основе искусственных нейронных сетей// Материалы VI Международной конференции по неравновесным процессам в соплах и струях – NPNJ-2006, СПб. – М.: Вузовская книга, 2006. – С.91-92.

72. Васильев А.Н., Тархов Д.А. Нейросетевой подход к расчету квантовых точек// «Нейрокомпьютеры»: разработка, применение. – 2007. – №6. – С.87-95.

73. Васильев А.Н., Тархов Д.А. Построение нейросетевой модели по уравнениям и данным – I// Материалы XV Международной конференции по вычислительной механике и современным прикладным программным системам «ВМСППС'07», Алушта. – М.: Вузовская книга, 2007. – С.111-113.

74. Васильев А.Н., Тархов Д.А. Построение нейросетевой модели по уравнениям и данным – II// Материалы XV Международной конференции по вычислительной механике и современным прикладным программным системам «ВМСППС'07», Алушта. – М.: Вузовская книга, 2007. – С.113-114.

75. Васильев А.Н., Тархов Д.А., Антонов В.И. Нейросетевой подход к моделированию теплообмена в системе сосуды-ткани// Материалы международной конференции «Интеллектуальные и многопроцессорные системы – 2005». – Таганрог – Донецк – Минск, 2005. – Том 2. – С.223-227.

76. Васильев А.Н., Тархов Д.А., Гущин Г. Моделирование калибратора переменного давления с помощью системы нейронных сетей, Сборник докладов Международной конференции по мягким вычислениям и измерениям – SCM’2004. – СПб., 2004. – Том 1. – С.304-308.

77. Васильев Ф.П. Численные методы решения экстремальных задач. – М.:

Наука, 1980. – 520 с.

78. Вашуркин И.О., Карнаухов Н.Н. Условия работы землеройных машин. – Тюмень, Нефтегазовый университет, 2000. – 152 с.

79. Власов Л.В., Малыхина Г.Ф. Тархов Д.А. Нейросетевой эмулятор "Essence"// «Датчики и системы» – Сборник докладов международной конференции. – 2002. – Том 3.

80. Воеводин В.В. Вычислительные основы линейной алгебры. – М.: Наука, 1977. – 304 с.

81. Воеводин В.В. Математические модели и методы в параллельных процессах.

– М.: Наука, 1986. – 296 с.

82. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. – СПб.: BHV, 2002. – 600 c.

83. Габов С.А. Введение в теорию нелинейных волн. – М.: Издательство МГУ, 1988. – 176 с.

84. Галеев Э.М., Тихомиров В.М. Краткий курс теории экстремальных задач. – М.: Издательство Московского университета, 1989. – 204 с.

85. Галушкин А.И. Теория нейронных сетей. – М.: ИПРЖ, 2000. – 415 с.

86. Галушкин А.И. О методике решения задач в нейросетевом логическом базисе// В сб.: «Нейроинформатика-2006». – М.: МИФИ, 2006. – Часть 1. – С.9 24.

87. Галушкин А.И. Принципы построения высокоточных измерительных приборов на базе нейрокомпьютеров//В сб.: «Нейроинформатика-2006». – М.:

МИФИ, 2006. – Часть 2. – С.129-137.

88. Гельфанд И.М., Гиндикин С.Г., Граев М.И. Избранные задачи интегральной геометрии. – М.: Добросвет, 2000. – 208 с.

89. Гельфанд И.М., Граев М.И., Шапиро З.Я. Интегральная геометрия на k мерных плоскостях// Функциональный анализ. – 1967. – Том 1, вып.1. – С.15 31.

90. Гилев С.Е. Нейросеть с квадратичными сумматорами// «Нейроинформатика и нейрокомпьютеры» – Тезисы докладов рабочего семинара. – 8-11 октября 1993 г. – С.11-12.

91. Гилев С.Е., Горбань А.Н., Миркес Е.М. Малые эксперты и внутренние конфликты в обучаемых нейронных сетях// ДАН СССР. – 1991. – Том 320, №1.

– С.220-223.

92. Гилл Ф. и др. Практическая оптимизация. – М.: Мир, 1985. – 509 с.

93. Главные компоненты временных рядов: метод "Гусеница". – С.Пб.ГУ, 1997.

– 308 с.

94. Гладков Л.А., Курейчик В.В., Курейчик В.М. Генетические алгоритмы. – М.:

ФИЗМАТЛИТ, 2006. – 320 с.

95. Годунов С.К. Уравнения математической физики. – М.: Наука, 1979. – 392 с.

96. Головко В.А. Нейронные сети: обучение, организация и применение. – М.:

ИПРЖР, 2001. – 256 с.

97. Голуб Дж., Ван Лоун Ч. Матричные вычисления. – М.: Мир, 1999. – 548 с.

98. Горбань А.Н. Обучение нейронных сетей. – М.: Параграф, 1990. – 160 с.

99. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. – Новосибирск: Наука, 1996. – 276 с.

Горбаченко В.И. Нейрокомпьютеры в решении краевых задач теории 100.

поля. – М.: ИПРЖ, 2000. – 336 с.

Горбаченко В.И. Методы решения дифференциальных уравнений в 101.

частных производных на клеточных нейронных сетях// «Нейрокомпьютер». – 1998. – №3-4. – С.5-14.

Горбаченко В.И., Катков С.Н. Нейросетевые методы решения задач 102.

термоупругости// «Нейрокомпьютеры»: разработка, применение. – 2001. – №3.

– С.31-37.



Pages:     | 1 |   ...   | 7 | 8 || 10 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.