авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 || 3 | 4 |   ...   | 11 |

«УДК 004 ББК 32.81 М34 Рекомендовано Редакционно-издательским советом ГрГУ им. Я. Купалы. Ред а к ц и он н а я ...»

-- [ Страница 2 ] --

Заключается либо в переписывании программ на специальный язык, описывающий параллелизм и понятный трансляторам целевой вычислительной системы, либо к вставке специальной размет ки (например, инструкций MPICH/MPI) [3]. Распараллеливание может быть ручным, автомати зированным и полуавтоматизированным. При распараллеливании важно учитывать не только формальный параллелизм структуры алгоритма, но и то, что обменные операции в параллель ных ЭВМ происходят, как правило, значительно медленнее арифметических. С этим связано существование львиной доли накладных расходов на организацию параллелизма.

Целью программиста не должно быть получение правильного результата вычислений любой ценой, но получение правильного результата наибыстрейшим, оптимальным способом. Если про грамма предназначена для однократного использования, то лучше написать ее как можно проще, не оптимизируя ее быстродействие и используемую память, чтобы потратить минимум усилий на тестирование и отладку. Если программа предназначена для частого использования или время ее работы будет гораздо больше времени ее написания и отладки, то не следует жалеть труда на оптимизацию ее быстродействия.

Для начала разберемся, что мы хотим получить от кластера. Как уже было сказано, исполь зовать параллельные компьютеры имеет смысл только для "тяжелых"задач, которые требуют или большого времени счета или большого объема памяти.

Есть две проблемы, которые всегда встают перед нами, когда мы решаем подобные задачи.

Первая: недостаток времени. Если наша задача выполняется в течение шести недель, было бы очень неплохо, если бы время ее счета сократилось до шести дней. Вторая: недостаток памя ти. Предположим, к примеру, мы решаем численно систему дифференциальных уравнений на разностной сетке. Размерность сетки всегда ограничена объемом оперативной памяти компьюте ра. Нет ничего невероятного в том, что увеличивая размерность разностной сетки (увеличивая детализацию) мы можем получить интересные тонкие эффекты, которые, хотя и описываются исходными уравнениями, но скрыты от нас слишком грубой сеткой.[3] Решением обоих этих проблем является декомпозиция задачи. То есть, разделение задачи на части, которые могут быть параллельно исполнены на нескольких машинах кластера. С помощью декомпозиции можно как сократить общее время счета задачи, так и увеличить доступную для задачи оперативную память.

MPI MPI расшифровывается как Message passing interface ( Интерфейс передачи сообщений ).

MPI – это стандарт на программный инструментарий для обеспечения связи между отдельны ми процессами параллельной задачи. MPI предоставляет программисту единый механизм взаи модействия процессов внутри параллельно исполняемой задачи независимо от машинной архи тектуры (однопроцессорные, многопроцессорные с общей или раздельной памятью), взаимного расположения процессов (на одном физическом процессоре или на разных) и API операцион ной системы[2]. Программа, использующая MPI, легко отлаживается и переносится на другие платформы, часто для этого достаточно простой перекомпиляции исходного текста программы.

Команды (функции) управления вычислительным окружением стандарта MPI используются для целого ряда целей, таких как инициализация и завершение работы MPI-окружения, получе ние информации о свойствах и параметрах этого окружения и др.

Наиболее часто используемые функции (в формате языка С) перечисляются ниже.

MPI_Init;

Формат вызова: MPI_Init(&argc,&argv);

MPI_Initialized;

Формат вызова: MPI_Initialized(&ag);

MPI_Finalize;

Формат вызова: MPI_Finalize();

MPI_Comm_size;

Формат вызова: MPI_Comm_size(comm.,&size);

MPI_Comm_rank;

Формат вызова: MPI_Comm_rank(comm.,&rank);

MPI_Bcast;

Формат вызова: MPI_Bcast (&buer, count, datatype, root, comm);

Рисунок 1 – Схема работы функции MPI_Bcast - MPI_Gather;

Формат вызова: MPI_Gather (&sendbuf, sendcount, sendtype,&recvbuf, recvcount, recvtype, root, comm);

Рисунок 2 – Схема работы функции MPI_Gather - MPI_Scatter;

Формат вызова: MPI_Scatter (&sendbuf, sendcount, sendtype,&recvbuf, recvcount, recvtype, root, comm);

Рисунок 3 – Схема работы функции MPI_Scatter Для решения задачи адаптации кода для параллельных вычислений, был произведен ре факторинг исходного кода линейного алгоритма программы по динамическому моделированию кластеров[1].

С помощью функции MPI_Scatter() каждому процессу передаются определенное количество элементов массива, отвечающего за координаты атомов в кластере и их скорости. Для сбора изменённых координат после взаимодействия использовалась функция MPI_Gather().

Так же для начальной инициализации молекулярного кластера была разработана програм ма, результатом работы которой создаётся файл, впоследствии используемый для параллельных расчетов.

Рисунок 4 – Интерфейс программы для начальной инициализации молекулярного кластера Рисунок 5 – График зависимости времени выполнения расчета от количества процессов В конечном итоге было установлено, что использование параллельных вычислений целесо образно для расчета кластеров с числом атомов N 103, так как время выполнения расчетов при числе процессов равным двум сокращается примерно в 3 раза.

Список литературы 1. Карпович, А. Г. Температура кластеров и межмолекулярный потенциал / А. Г. Карпович // Физика конденсированного состояния: сб. научн. ст. В 2 ч. Ч. 1 / ГрГУ им. Я. Купалы;

редкол.: Е. А. Ровба (гл. ред.) [и др.]. –Гродно: ГрГУ, 2012. – С. 42–45.

2. Антонов А. С. Параллельное программирование с использованием технологии MPI / А. С. Антонов // –М.: Изд-во МГУ, 2004. –71 с 3. Воеводин В. В., Воеводин Вл. В. Параллельные вычисления // СПб.: БХВ–Петербург, 2002.

Карпович Александр Геннадьевич, студент 5 курса физико-технического факультета Гродненского государственного университета имени Янки Купалы, Гродно, Беларусь, karpovich_ag@grsu.by.

УДК 004.4:004. О. М. КОНДРАТЬЕВА, П. C. ПЕРЕСТОРОНИН БИБЛИОТЕКА КЛАССОВ ДЛЯ РАЗРАБОТКИ MPI-ПРИЛОЖЕНИЙ Разработана объектно-ориентированная обертка над библиотекой MPI. Выполнено сравне ние производительности MPI-программ, реализованных в трех вариантах: классическом, с использованием разработанной обертки и с использованием популярной объектно ориентированной библиотеки Boost.MPI.

Введение Бьерн Страуструп придумал язык программирования С++ и на вопрос Что такое C++?

отвечает так: С++ – язык программирования общего назначения с уклоном в сторону систем ного программирования, который:

лучше, чем С;

поддерживает абстракцию данных;

поддерживает объектно-ориентированное программирование;

поддерживает обобщенное программирование [1].

Интерфейс MPI (Message Passing Interface) – интерфейс передачи сообщений – представля ет собой хорошо стандартизованный механизм для построения параллельных программ в моде ли обмена сообщениями. Существуют стандартные привязки MPI к языкам С/С++, Fortran 77/90. Существуют бесплатные и коммерческие реализации почти для всех суперкомпьютерных платформ, а также для сетей рабочих станций UNIX и Windows NT. В настоящее время MPI – наиболее широко используемый и динамично развивающийся интерфейс из своего класса [2].

Однако в библиотеке MPI не используются преимущества объектно-ориентированного и обобщенного программирования языка С++, хотя представляется, что эти возможности языка программирования могут оказаться весьма полезными при разработке параллельных приложений. Парадигма параметризованного программирования в сочетании с объектно ориентированной парадигмой может обеспечить уникальный подход к MPI-программированию.

Параметризованное программирование Концепция параметризованного программирования основана на шаблонах. Язык програм мирования С++ предоставляет программисту шаблоны функций и классов. Шаблоны функций поддерживают обобщенные абстракции процедур, а шаблоны классов – обобщенные абстракции данных. Шаблоны функций и классов дают возможность многократно использовать программ ный код простым способом, безопасным по отношению к типу, который позволяет компилятору автоматизировать процесс реализации типа.

Для достижения параллелизма применяются модели SPMD (Single Program, Multiple Data) и MPMD (Multiple Programs, Multiple Data). В [3] предлагается для упрощения базовых SPMD и MPMD-подходов вместе с MPI-программированием использовать шаблоны и методы объектно ориентированного программирования.

MPI-интерфейс легко поддерживает модель параллелизма SPMD, когда одна и та же про грамма запускается на нескольких процессорах. После запуска программ необходимо распреде лить данные, с которыми каждый процесс будет работать. Для реализации модели MPMD тре буется распределить не только данные, но и функциональные обязанности между процессами.

MPI-задачи группируются по коммуникаторам, которые определяют группу коммуникации.

Работу, выполняемую MPI-программой, можно разделить между группами коммуникаций. Бла годаря использованию рангов и коммуникаторов, MPI-задачи легко идентифицировать и раз личать. Ранг и коммуникатор позволяют структурировать программу как SPMD- или MPMD модель, либо как некоторую их комбинацию.

Для упрощения кода MPI-программы можно использовать ранг и коммуникатор в сочетании с параметризованным программированием и объектно-ориентированными методами. Шаблоны можно использовать не только применительно к различным данным SPMD-модели, но и к зада нию различных типов данных. Это значительно упрощает структуру многих приложений, требу ющих выполнения большого объема одинаковых вычислений, но с различными типами данных.

Для реализации модели MPMD можно использовать динамический полиморфизм (поддер живаемый наследованием и виртуальными методами), параметрический полиморфизм (поддер живаемый шаблонами), объекты-функции и предикаты. Для разделения всего объема работы MPI-приложения эти методы используются в сочетании с рангами и коммуникаторам MPI процессов. При использовании объектно-ориентированного подхода работа программы делится между семействами объектов. Все семейства объектов связываются с различными коммуника торами. Соответствие семейств объектов различным коммуникаторам способствует модульности проекта MPI-приложения. Такой способ разделения также помогает понять, как следует приме нять параллелизм.

Для представления MPI-задач можно использовать шаблоны функций, которые позволяют обобщать процедуры для любого типа данных. Параметризованные функции можно использо вать с MPI-интерфейсом для обработки ситуаций, в которых все процессы выполняют одинако вый код, но работают с различными типами данных.

Динамический полиморфизм удобен для реализации MPMD-модели. Если MPI-задачи рабо тают с указателями на базовые классы, то полиморфизм позволяет MPI-классу также работать с любыми классами, производными от него.

Взаимодействие между MPI-задачами можно упростить, воспользовавшись преимуществами перегрузки операторов.

Авторы [3] утверждают, что применение методов объектно-ориентированного и парамет ризованного программирования в рамках одного и того же MPI-приложения упрощает код и во многих случаях уменьшает его. Тем самым упрощается отладка программ, их тестирование и поддержка. MPI-задачи, реализованные с помощью шаблонных функций, характеризу ются более высокой надежностью при использовании различных типов данных, чем отдельно определенные функции с последующим обязательным выполнением операции приведения типа.

Объектно-ориентированная обертка над MPI Нам показалось удачным использовать шаблон проектирования Абстрактная фабрика [4].

Абстрактная фабрика – порождающий шаблон проектирования, позволяющий изменять пове дение системы, варьируя создаваемые объекты, при этом сохраняя интерфейсы. Он позволяет создавать целые группы взаимосвязанных объектов, которые, будучи созданными одной фабри кой, реализуют общее поведение.

Мы использовали следующие идеи для реализации объектно-ориентированной поддержки MPI:

- коммуникаторы и общие для MPI функции обернуты в классы;

- упрощение взаимодействия с помощью перегрузки операторов превратилось в такие же пе регрузки с оборачиванием стандартных функций в объекты классов Broadcast и Reduce;

- функции-объекты видоизменились в виртуальные функции и фабрики процессов. Это более понятно для того, кто читает код, чем перегруженный operator(). К тому же, С++ позволя ет эмулировать множественные интерфейсы множественным наследованием чисто абстрактных классов.

Можно один раз взять и сделать большой объектно-ориентированный фреймворк над MPI и далее использовать его везде. Программного кода от этого меньше не становится, но он явно смотрится понятнее, читабельнее и приобретает преимущества объектно-ориентированного кода.

Для использования с MPMD-моделью введены интерфейсы процесса и фабрики процессов, что позволяет инкапсулировать разные программы в разные классы и скрыть создание объек тов этих классов в фабрику процессов. Это – прием ООП, благодаря которому множественные проверки ранга в функции main становятся ненужными. Функция main становится минимали стичной.

Классические функции MPI обернуты в классы с перегруженными для различных типов данных операторами и. Практически получаем код отправки сообщения, свободный от явного использования указателей и констант типов. Например:

Objects::Broadcast all(0, Objects::Communicator::World);

all intervalCount;

Объекты типа коммуникаторов обернуты в соответствующие классы. Например, функции, работающие с коммуникаторами, становятся методами класса Communicator, а анализ кода ошиб ки инкапсулирован в методы класса-обертки. Так процедурный подход стандартной библиотеки MPI становится объектно-ориентированным.

В качестве примера приведем классы, которые используются в простой параллельной про грамме для вычисления числа пи:

- фабрика процессов;

- мастер-процесс (вычисление и reduce);

- ведомый процесс (вычисление);

- главный класс приложения, содержащий единственный метод main, создающий фабрику процессов.

Таким образом, разработана библиотека классов, которая представляет собой объектно ориентированную обертку MPI-функций. Библиотека является экспериментальной и не поддерживает MPI-интерфейс в полном объеме.

Библиотека Boost.MPI Boost – собрание библиотек, расширяющих функциональность C++ [5]. Свободно распро страняются по лицензии Boost Software License вместе с исходным кодом. Boost имеет заметную направленность на исследования и расширяемость (метапрограммирование и обобщённое про граммирование с активным использованием шаблонов). Некоторые программисты считают его стандартом де-факто и необходимым дополнением к STL. Другие, напротив, избегают всякого использования библиотеки в проектах, опасаясь введения излишней зависимости в проект и счи тая, что использование этих библиотек слишком повышают требования к знанию программистом C++, так как некоторые части Boost являются весьма сложными.

Одна из библиотек – Boost.MPI – библиотека для передачи сообщений в высокопроизводи тельных параллельных приложениях [6].

Разработчики Boost.MPI активно применяют шаблоны. Это дает пользователям, например, возможность передавать в reduce функцию из стандартной библиотеки:

::boost::mpi::reduce( world, partialValue, ::std::plusdouble(), 0);

Правда, в Boost.MPI нет разделения программ/процессов на отдельные классы, поэтому программа на Boost.MPI внешне выглядит так же, как и на классическом MPI, но только с более удобными объектно-ориентированными вызовами функций. Дополнительно мы получаем кон троль ошибок времени компиляции, ибо все вызовы Boost.MPI строго типизированы, не требуют передачи указателей и/или размеров буферов, за пределы которых легко выйти в классическом MPI.

Разработчики Boost.MPI уверяют, что использование их библиотеки дает минимальное уменьшение производительности [7].

Результаты экспериментов Теперь встает естественный вопрос – как объектно-ориентированный код скажется на про изводительности параллельной программы. Мы провели эксперименты, целью которых бы ло сравнение производительности MPI-программ, реализованных в трех вариантах: классиче ском, с использованием разработанной обертки MPI-функций и с использованием объектно ориентированной библиотеки Boost.MPI.

Исследованные параллельные программы отличало то, что MPI-задачи, из которых они со стояли, являлись не очень большими и слабо взаимодействующими последовательными процес сами. Получилось, что объектно-ориентированная обертка не ухудшает время выполнения про граммы. А при использовании библиотеки Boost.MPI время заметно увеличивалось (примерно в 1.5 раза).

Результаты экспериментов не являются окончательными.

Список литературы 1. Страуструп, Б. Язык программирования С++ / Б. Страуструп. – СПб.: Бином, 2008. – 1104 с.

2. MPI: The Message Passing Interface [Электронный ресурс]. – Режим доступа:

http://www.parallel.ru/tech/tech-dev/mpi.html. – Дата доступа: 10.03.2013.

3. Хьюз, К. Параллельное и распределенное программирование с использованием C++ / К. Хьюз, Т. Хьюз. -– М.: Вильямс, 2004. – 672 с.

4. Гамма, Э. Приемы объектно-ориентированного проектирования. Паттерны проектирования / Э. Гам ма, Р. Хелм, Р. Джонсон, Дж. Влиссидес. – СПб.: Питер, 2007. – 366 с.

5. Boost – Википедия [Электронный ресурс]. – Режим доступа: http://www.ru.wikipedia.org/wiki/Boost. – Дата доступа: 10.03.2013.

6. Boost.MPI [Electronic resource]. – Mode of access: http://www.boost.cowic.de/rc/pdf/mpi.pdf. – Date of access: 10.03.2013.

7. Performance Evaluation [Electronic resource]. – Mode of access: http://www.boost.org/doc/libs/1-52 0/doc/html/mpi/performance.html. – Date of access: 10.03.2013.

Кондратьева Ольга Михайловна, ассистент кафедры многопроцессорных систем и сетей Белорус ского государственного университета, kondratjeva@bsu.by.

Пересторонин Павел Сергеевич, студент 5 курса факультета прикладной математики и информа тики Белорусского государственного университета.

УДК 004.75, 537. К. С. КУРОЧКА, Д. А. ЛЕВКОВИЧ, А. А. КУХАРЕНКО СОЗДАНИЕ ВЫЧИСЛИТЕЛЬНОГО КЛАСТЕРА ДЛЯ РЕШЕНИЯ ЗАДАЧ О РАСПРЕДЕЛЕНИИ ЭЛЕКТРОМАГНИТНОГО ПОЛЯ НА ОСНОВЕ БЕСПЛАТНОГО ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ В статье рассматривается создание вычислительного кластера MPI для моделирования распределения электромагнитного поля. Предлагается решение на основе бесплатного программного обеспечения UNICORE и библиотеки OpenMPI. Взаимодействие конечного пользователя с вычислительной средой происходит через специально созданный для этой цели веб-интерфейс.

Введение Одним из перспективных направлений современной науки является наноплазмоника – раз дел нанооптики, изучающий оптические свойства металлических частиц и наноструктур, обуслов ленные колебаниями электронов проводимости относительно кристаллической решетки. Благо даря присутствию пространственного наномасштаба вещества может происходить локализация и усиление оптических полей (эффект светящего острия). Кроме того, по своей природе метал лические наночастицы обладают собственными колебаниями с частотами в оптической области, от ультрафиолетового до инфракрасного диапазонов.

Материалы с вкраплениями из восстановленных металлов находят применение в качестве оптических сенсоров, спектральных фильтров покрытия, управляющих оптических элементов, преобразователей и усилителей излучений. Значительную часть времени при разработке такого материала занимает производство и изучение его прототипов. Основным предметом исследова ния при этом является электромагнитное поле (ЭМП), по распределению которого можно судить об оптических и других важных физических свойствах конкретного тела. Использование на этой стадии компьютерного моделирования вместо проведения натурных экспериментов позволя ет уменьшить себестоимость и значительно сократить длительность всего процесса разработки.

Моделирование электромагнитного поля Моделирование ЭМП сводится к решению уравнений классической электродинамики уравнений Максвелла [1,2]. Наиболее распространенным и относительно простым в реализации численным методом для решения задач о распределении ЭМП является метод конечных разно стей во временной области (Finite-dierence time-domain, FDTD) [3]. Исследуемое пространство разбивается на множество ячеек (алгоритм Йи (Yee) [4]), размер которых должен быть на поря док меньше длины электромагнитной волны. Величина напряженности и магнитной индукции в каждой ячейке вычисляется по конечно-разностной схеме как результат взаимодействия с сосед ними. Процесс проходит по временным шагам и сводится к последовательному решению системы линейных уравнений.

Для каждой ячейки необходимо хранить вектор напряженности и магнитной индукции.

Поэтому вычислительная сложность задачи зависит от количества ячеек, на которое в свою очередь влияют размер исследуемого пространства и частота источников электромагнитных колебаний. Так для моделирования прохождения света в окрестностях крупной частицы могут потребоваться десятки гигабайт оперативной памяти. Решение этой задачи с помощью персо нального компьютера оказывается крайне затруднительным. Использование распределенных вычислений позволяет преодолеть ограничение по оперативной памяти, объединив ресурсы нескольких компьютеров.

Требования к кластеру для моделирования ЭМП Решение одной задачи занимает от нескольких часов до нескольких суток, причем точное время завершения расчетов заранее не известно. Пользователи кластера должны иметь возмож ность просматривать состояние своих задач и забирать результаты удаленно в любое время суток, без непосредственного физического доступу к вычислительной системе.

Выполнение задач следует организовать в виде очереди. Завершив один расчет, система должна автоматически переходить к следующему, избегая простоев, а у пользователей должна быть возмность управлять очередью: добавлять новые задания, отменять уже добавленные и прерывать выполняющиеся.

По возможности пользователи должны быть избавлены от необходимости вникать во внут реннее устройство кластера. Требуется простой дружественный графический интерфейс, скры вающий лишние детали технической реализации.

Исходя из вышеперечисленных требований предлагается в качестве операционной системы на узлах кластера использовать один из дистрибутивов Linux. Для организации распределен ных вычислений установить библиотеку OpenMPI. Для управления вычислительным процессом и очередью заданий использовать свободное программное обеспечение UNICORE [5]. Доступ ко нечных пользователей организовать через веб-интерфейс, для этого потребуется компьютер с внешним IP-адресом и находящийся в одной локальной сети с кластером.

Структура такой вычислительной системы представлена на рисунке 1.

Рисунок 1 – Предлагаемая структура вычислительной системы.

Создание кластера MPI для моделирования ЭМП На базе компьютерной аудитории организована вычислительная система из десяти узлов следующей конфигурации:

процессор Intel Core Quad Q9650 @ 3.0 GHz, 2Гб оперативной памяти DDR3-1066, 80Гб свободного места на HDD для файлов с результатами решения, Ethernet соединение на скорости 100/1000 Мбит/с.

В качестве операционной системы используется Ubuntu GNU/Linux с библиотекой OpenMPI.

Для доступа к исходным данным решаемых задач настроена сетевая файловая система NFS, при этом один из узлов использовался в качестве сервера. Для управления очередью заданий используется свободное программное обеспечение UNICORE.

OpenMPI использует удаленный доступ к узлам кластера по протоколу SSH. Механизм ав торизации по умолчанию предполагает ввод пароля учетной записи на удаленной системе, что крайне неудобно в случае большого количества процессов. Для решения этой проблемы настро ена авторизация посредством RSA-ключей без пароля. Поскольку все задачи запускаются под специально созданной учетной записью с ограниченными правами и только из локальной сети, такое решение можно считать достаточно безопасным.

Непосредственно для решения задач о распределении ЭМП используется разрабатываемый в Массачусетском технологическом университете свободный пакет MEEP (MIT Electromagnetic Equation Propagation)[6]. Он базируется на численном методе FDTD и позволяет проводить расче ты спектров отражения и прохождения, резонансных частот и соответствующих им мод, находить распределения полей, возникающие в результате воздействия произвольных источников. Имеется возможность задавать граничные условия PML, а также произвольные значения диэлектриче ской и магнитной проницаемости, включая дисперсию и потери.

Доступ конечных пользователей к вычислительной среде осуществляется через специ ально разработанный для этой цели веб-интерфейс. Он представляет собой набор простых PHP-сценариев, вызывающих консольный клиент UNICORE с теми или иными параметрами и возвращающих пользователю отформатированный вывод. Веб-интерфейс позволяет управлять очередью заданий, создавать новые и загружать результаты уже выполнившихся.

Исследование производительности созданного кластера Стандартная тестовая программа cpi, вычисляющая число Пи, показала линейный прирост производительности при передаче минимальных объемов данных по сети (рисунок 2).

Рисунок 2 – Время выполнения тестовой программы cpi.

На эффективность вычислений существенное влияние оказывает производительность ис пользуемого сетевого оборудования. На рисунке 3 сравнивается время решения одной из стан дартный тестовых задач MEEP, при скорости сетевых соединений 100 и 1000 Мб/сек.

Рисунок 3 – Время работы тестовой задачи MEEP при различных сетевых соединениях.

Выводы На базе персональных компьютеров учебной аудитории создан вычислительный кластер MPI позволяющий моделировать распределение ЭМП в нанокомпозитных материалах. Для управления очередью заданий используется свободное программное обеспечение UNICORE. До ступ конечных пользователей осуществляется через веб-интерфейс.

Данная вычислительная система позволяет решать задачи, недоступные даже для доста точно мощного персонального компьютера, при этом использует уже имеющееся оборудование и только свободное программное обеспечение.

Список литературы 1. Матвеев, А. Н. Электричество и магнетизм / Матвеев А. Н. // М.: Высш. школа, 1983. – 463с.

2. Уравнения Максвелла и дифференциальные формы / Болиборух А. А. – М.: МЦНМО, 2002. – 24 с.

3. Электродинамическое моделирование методом конечных разностей во временной области (FDTD) / Под ред. В. Н. Малышева. – СПб.: Изд-во СПбГЭТУ ЛЭТИ, 2000. – 76 с.

4. The FDTD Yee Algorithm [Electronic resource]. – Mode of access: http://dougneubauer.com/yeealgorithm/ – Date of access: 20.01.2013.

5. UNICORE [Electronic resource]. – Mode of access: http://www.unicore.eu/documentation/ – Date of access:

20.01.2013.

6. MEEP [Electronic resource]. – Mode of access: http://ab-initio.mit.edu/wiki/index.php/Meep – Date of access: 20.01.2013.

Курочка Константин Сергеевич, заведуюший кафедрой информационных технологий Гомельско го государственного технического университета им. П. О. Сухого, кандидат технических наук, доцент, kurochka@gstu.by.

Левкович Дмитрий Александрович, магистрант 1 курса факультета автоматизированных и ино фрмационных систем Гомельского государственного технического университета им. П. О. Сухого, dzmitry.leukovich@gmail.com.

Кухаренко Андрей Александрович, магистрант 1 курса факультета автоматизированных и инофр мационных систем Гомельского государственного технического университета им. П. О. Сухого, препода ватель стажер, digiman89@gmail.com.

УДК 004.942 + 537. К. С. КУРОЧКА, А. А. КУХАРЕНКО КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ РАСПРЕДЕЛЕНИЯ ЭЛЕКТРОМАГНИТНОГО ПОЛЯ ВОКРУГ СФЕРИЧЕСКИХ ЧАСТИЦ С ИСПОЛЬЗОВАНИЕМ ВЕКТОРНОГО МЕТОДА КОНЕЧНЫХ ЭЛЕМЕНТОВ Современные наноматериалы, применяемые в оптике, состоят из различных комбинаций сферических частиц. Исследователя интересует распределение электромагнитного поля вблизи данных частиц, что позволяет оценить поле внутри сложных материалов. Поэто му является актуальным разработка методики и алгоритмов для решения задач такого рода. В статье рассматривается применение векторного метода конечных элементов для исследования электромагнитного поля вблизи наночастиц.

Введение Современное развитие науки и техники приводит ко все большему использованию наноком позитов с частицами металлов. Основным конструктивным элементом в нанотехнологии явля ется металлическая частица сферической формы [1]. Поэтому для получения новых материалов целесообразно изучить распределение электромагнитного поля на элементарных объектах. В пер спективе, это позволяет перейти к синтезу материалов с заданными свойствами в виртуальном пространстве, до проведения натурных экспериментов, что в свою очередь позволит сэкономить значительные средства, время и деньги.

Основным предметом исследования наноструктурных объектов является электромагнитное поле (ЭМП) [1,2], которое определяет оптические и физические эффекты, возникающие при воз действии света.

В настоящее время не существует унифицированного метода и соответствующего программ ного обеспечения (ПО), позволяющего решать большинство задач, связанных с распределением ЭМП в наноструктурах. Это все требует от исследователя не только знаний в области физики, химии и нанотехнологии, но и умение ориентироваться в современном ПО и быстро обучаться работе с ним.

Сегодня нашел свое широкое применение при исследовании сложных систем и процессов метод конечных элементов (МКЭ) и его модификация для случая векторных величин. Будем строить математическую модель распределения ЭМП в наноструктурах с помощью векторного метода конечных элементов (ВМКЭ) [3,4].

Моделирование электромагнитного поля с использованием векторного метода ко нечных элементов Напряженность электрического поля, создаваемого источником с плотностью зарядов Jimp в области, характеризуемой электрической и магнитной mu постоянными может быть описана с помощью уравнений Максвелла (J. K. Maxwell ). Исследуемая область может быть как двух мерной, так и трехмерной. Для определения напряженности электрического поля E необходимо решить уравнения Максвелла [3,7]:

E = jµH, (1) H = j E + Jimp, (2) · ( E) = Jimp, (3) j · (µH) = 0, (4) с учетом граничных условий, где H – напряженность магнитного поля, – частота источника, j – мнимая единица, – Гамильтонов (W. R. Hamilton) оператор.

За счет исключения напряженности магнитного поля H в (2) и преобразования (1) можно получить волновое уравнение, называемое уравнением Гельмгольца (H. von Helmholtz ) [3, 5]:

k0 r E = jk0 Z0 Jimp on, E (5) µr µ где µr = и – относительные магнитная и электрическая постоянные, k0 = µ0 и = r µ0 µ – волновое число и внутренний импеданс.

Z0 = Типовые граничные условия для электрических полей включают однородные условия Дири хле (J. P. G. Dirichlet) на идеально проводящей поверхности, а также смешанные на поверхности, обладающей импедансом [3, 4, 5]. Формулировку этих граничных условия можно записать в виде:

n E = P on D, (6) 1 jk n (n E) = KN on N, n E + (7) µr r где P – установленные значения для тангенциальных компонент поля на D, r – нормальный импеданс поверхности на n, KN – известные функции, описанные на границе источника.

Вместо решения граничной задачи воспользуемся вариационной постановкой, полученную путем умножения (5) на весовую функцию Wi и интегрирования по проблемной области, что даст:

E k0 r E d = jk0 Z0 Wi Jimp d.

Wi (8) µr Применяя свойства векторного произведения 1 1 · Wi E ·( Wi ) · ( E) Wi E =, (9) µr µr µr и теорему Гаусса (J.K.F.Gaus) [5] 1 d = d, · Wi E n· · Wi E (10) µr µr а также применяя граничные условия (7), получаем вариационную форму уравнения Гельмголь ца:

1 ( Wi ) ( E) k0 r Wi · E d = (n Wi ) · ( E) d µr N µ r jk (n Wi ) · (n E) + Wi · KN d jk0 Z0 Wi · Jimp (d).

(11) r N Для разбиения рассматриваемой области на конечные элементы, с учетом специфики век торного метода, используются так называемые реберные (edge) элементы, особенностью которых является то, что в отличии от узлового МКЭ значения задаются на ребрах элементов.

Когда электрическое поле интерполируется на каждый элемент, то используются значения тангенциальных компонент на ребрах элементов, поле E в области может быть найдено по формуле:

Nedge ND NiD Ei, D E= Ni Ei + (12) i=1 i= где Nedge – число уникальных ребер элементов в дискретизованной области, исключая те ребра, которые расположены на D, Ei – тангенциальная компонента поля на i-ом ребре, Ni – векторная базисная функция, ND – количество ребер на D, NiD и Ei – векторная базисная функция и D тангенциальное значение поля соответственно.

Подставив (12) в (11), где в качестве Wi используем векторную базисную функцию для ребер элемента, получим:

Nedge Kij Ej, i = 1, 2,..., Nedge, (13) j= где 1 Nj ) k0 r Ni · Nj d + jk0 (n Ni ) (n Nj ) d, Ni ) · ( Kij = ( (14) µr r N ND Ni Jimp d Ni KN d Nj k0 r Ni · Nj d.

D D 2 D bi = jk0 Z0 Ni ) · Ej ( µr N j= (15) В матричном виде уравнение (13) можно записать [K]{E} = {b}. (16) Уравнение (16) представляет собой систему линейных алгебраических уравнений (СЛАУ) решая которое может быть получен вектор {E}. Для нахождения значения поля в любой точке области можно воспользоваться формулой (12) [4].

Таким образом, на основании построенной модели и алгоритма ее исследования можно пред ложить схему использования ВМКЭ (рис. 1).

Рисунок 1 – Схема использования ВМКЭ Верификация Согласно предложенного алгоритма и математической модели было разработано соответ ствующее программное обеспечение (ПО). Программа разработана на языке C# 4 и платформе.NET 4 и получила название ElectroMagnetic Field FEM Modeler (EMFFM). Для верификации рассмотрим следующие задачи:

- сферическая частица, расположенная в области в виде сфере (рис. 2 а), - сферическая частица, размещенная в области в виде куба (рис. 2 б).

Рисунок 2 – Частица в кубе и сфере Источник излучает плоскую монохромную электромагнитную волну. Для данного класса задач существует точное аналитическое решение – теория Ми (G. Mie) [6, 7]. Оно определяется из решения векторного волнового уравнения в сферических координатах:

+ k 2 m2 = 0. (17) В этих координатах это уравнение допускает разделение переменных и имеет частные реше ния вида ln = cos lPlm (cos )zn (mkr), ln = sin lPlm (cos )zn (mkr). (18) В уравнении (18) первый множитель может быть как косинусом, так и синусом, второй – присоединенный полином Лежандра (A–M. Legendre) [5], третий – может быть любой сфериче ской бесселевой (F. W. Bessel ) функцией [5], которая связана с обычной соотношением Zn (p) = Z 1 (p). (19) 2p n+ Общее решение скалярного волнового уравнения есть линейная комбинация таких частных решений. Если u и v являются решениями скалярного волнового уравнения, а Mu, Mv, Nu, Nv – производными векторными полями, то уравнения Максвелла удовлетворяются при E = Mv + iNu, H = m(Mu + iNv ). (20) Составляющие M, N в развёрнутом виде определяются формулами:

1 (r) 1 (r), M = Mr = 0, M =, r sin r 2 (r) 1 2 (r) 1 2 (r) + m2 k 2 r, mkN = mkNr =, mkN =. (21) r2 r r r sin r Для проверки работы программы можно использовать теорию Ми, которая считается дает точное аналитическое решение для задачи рассеяния света (поля) на сфере. Для этого было разработано небольшое тестовое приложение для получения данных на основе аналитического решения в среде Matlab. Результаты верификации представлены на рисунке 3.

Рисунок 3 – Зависимость амплитуды плоской волны от расстояния от центра частицы Выводы Предложена математическая модель и алгоритм исследования распределения ЭМП вокруг сферических частиц. В дальней зоне наблюдается малая погрешность, в отличии от ближней, что вероятно связано с наличием плазмонного эффекта. В модели этот эффект не учтен, что требует ее доработки для получения адекватных результатов в ближней зоне.

Список литературы 1. Виноградов А. П. Электродинамика композитных материалов / А. П. Виноградов – М: УРСС Еди ториал, 2004. – 505 с.

2. Ибрагимов И. М. Основы компьютерного моделирования наносистем: Учебное пособие / И. М. Ибра гимов, А. Н. Ковшов, Ю. Ф. Назаров. – СПб.: Издательство “Лань”, 2010. – 384 с.: ил.

3. Jianming. Jin, The Finite Element Method in Electromagnetics (2nd edition). New York: Wiley, 2002. – 780 p.

4. Jianming, J. Theory And Computation Of Electromagnetic Fields / J. Jianming – John Wiley & Sons, 2010. – 616 p.

5. Jackson J. D. Classical electrodynamics / J. D. Jackson – New York: Wiley, 1998. – 808 p.

6. Хюлст ван де Г. Рассеяние света малыми частицами. / Г. ван де Хюлст. – М.: Издательство иностран ной литературы, 1961. – 537 с.

7. Mie G., 1908, Beitrage zur Optik truber Medien, Speziell killoidaler Metallosungen, Ann. d. Physik IV, 25, 377.

Курочка Константин Сергеевич, заведующий кафедры информационных технологий Гомельско го государственного технического университета им. П.О. Сухого, кандидат технических наук, доцент, kurochka@gstu.by.

Кухаренко Андрей Александрович, магистрант 1 курса факультета автоматизированных и ин формационных систем Гомельского государственного технического университета им. П.О. Сухого, преподаватель-стажер, digiman2006@rambler.ru.

УДК 004. П. К. ШАЛЬКЕВИЧ С.П. КУНДАС АНАЛИЗ ЭФФЕКТИВНОСТИ ИСПОЛЬЗОВАНИЯ ПРОГРАММНЫХ ПАКЕТОВ PVM И MPI ДЛЯ ПАРАЛЛЕЛИЗАЦИИ ВЫЧИСЛЕНИЙ ПРИ МОДЕЛИРОВАНИИ НЕИЗОТЕРМИЧЕСКОГО ВЛАГОПЕРЕНОСА В ПРИРОДНЫХ ДИСПЕРСНЫХ СРЕДАХ Рассматриваются способы параллелизации вычислений с помощью метода конечных элементов при анализе неизотермического влагопереноса в дисперсных средах. Проведены сравнительные исследования применения для этих целей программных пакетов MPI и PVM. Показано, что PVM более эффективен при большом числе входных параметров.

Эффективность применения зависит от количества используемых процессоров и размер ности модели.

Введение Численные методы все чаще используются в технических приложениях не только для раз работки новых устройств или оптимизации работы уже существующих, но и являются основой любой информационной системы. На современном этапе особо актуальной является задача увели чения производительности информационных систем, которая может быть решена только с помо щью применения параллельных компьютерных архитектур, которые обеспечивают необходимые объем памяти и скорость решения [1].

Моделирование большинства сложных физических процессов реализуется с помощью метода конечных элементов (МКЭ) [2–4]. Не исключением является и задача моделирования неизотер мического влагопереноса и конвективной диффузии, для реализации которой необходимо осуще ствить решение дифференциальных уравнений с использованием МКЭ [5].

Применение МКЭ при моделировании неизотермического влагопереноса в природ ных дисперсных средах Полагая, что в природных дисперсных средах выполняется гипотеза локального термо динамического равновесия между фазами, справедливы соотношения Кельвина, Клапейро на–Клаузиуса и известны экспериментальные изотермы сорбции (десорбции) влаги при различ ных температурах, тогда для медленных течений (когда можно пренебречь конвективным пере носом тепла) уравнения неизотермического влагопереноса и конвективной диффузии запишутся в виде [6]:

liq T L ( T ) Lliq liq C = (1) t t Pliq T (Kw Pliq Kw liq g D) Ch + Cwp = (Kh T ) + (2) t t liq C a (liq D C) (uC) liq C b Kd C liq +C + b = (3) t t t a = b (Kd C a) b (4) t Коэффициенты уравнений (1) – (4) находятся из выражений w Cv = ;

T w Cwp = ;

Pliq K0 Kv Pv Khv = v ;

v T K0 Kliq K0 Kv Pv Kww = liq + v ;

liq v T K0 Kliq Kw = liq.

liq Отметим, что объемная теплоемкость, теплопроводность, полное влагосодержание w, коэффи циенты относительной фазовой проницаемости жидкости и пара, а также давление водяного пара являются функциями температуры и давления жидкости [6].

Практическая реализация решения системы уравнений неизотермического влагопереноса с заданными граничными условиями с помощью МКЭ реализована в проекте SPS (Simulation Processes in Soil) [6]. Также указанный метод используется для решения уравнения конвективной диффузии.

Опыт практического использования пакета SPS показал, что при трехмерном моделирова нии неизотермического тепловлагопереноса в некоторых случаях может быть затрачено более 20 часов процессорного времени при последовательном вычислении. Более высокую производи тельность при расчете сложных моделей может обеспечить использование параллельной компью терной архитектуры. Обеспечение высокой производительности моделирования, в таком случае, достигается либо за счет оптимизации использования объемов памяти, либо оптимизации времен ных затрат, что в обоих случаях обусловлено распараллеливанием вычислений, осуществляемых с помощью МКЭ. Рассмотрим параллелизацию метода с помощью создания мультикомпьютера средствами MPI и PVM [7].

Выбор средств параллелизации поставленной задачи Среди десятков систем параллельного программирования наиболее распространенными и эффективными являются программные средства MPI и PVM. Обе системы реализуют модель передачи сообщений, содержат библиотеки функций и подпрограмм для стандартных языков программирования и могут быть применены на одной компьютерной архитектуре, показанной на рисунке 1 [7].

Рисунок 1 - Архитектура кластерной системы PVM (Personal Virtual Machine) общедоступный программный пакет, позволяющий объ единять разнородный набор компьютеров в общий вычислительный ресурс ( виртуальную па раллельную машину ) и предоставляющий возможности управления процессами с помощью ме ханизма передачи сообщений. Вычислительная модель PVM базируется на предположении, что приложение состоит из нескольких задач. Каждая задача ответственна за часть вычислительной нагрузки приложения.

MPI (Message Passing Interface) программный интерфейс для передачи информации, кото рый позволяет обмениваться сообщениями между процессами, выполняющими одну задачу. MPI является наиболее распространённым стандартом интерфейса обмена данными в параллельном программировании, существуют его реализации для большого числа компьютерных платформ.

Используется при разработке программ для кластеров и суперкомпьютеров. Основным средством коммуникации между процессами в MPI является передача сообщений друг другу. MPI харак теризуется статической структурой вычислительной среды, задаваемой до начала выполнения параллельной программы, однако, имеет средства динамического построения на этой структуре виртуальных топологий обмена и создания групп процессов.

С помощью представленных выше программных средств проведены сравнительные иссле дования эффективности их применения для решений задач неизотермического влагопереноса и конвективной диффузии [8].

Сравнение производительности PVM и MPI Обе реализации алгоритма МКЭ с PVM и MPI были протестированы на неоднородном кла стере, состоящем из четырех компьютеров. Полное время выполнения версии PVM приблизи тельно на 20 процентов дольше, чем реализация MPI алгоритма. Однако относительные пара метры реализации PVM лучше (рисунок 1, 2). Скорость вычислений с помощью MPI и PVM методов зависит от числа неизвестных в описанной модели. Если отношение между временем вычисления и временем передачи данных является небольшым (для относительно малой моде ли), использование PVM и MPI не увеличивают скорость вычислений. Модель среднего размера дает лучшее ускорение вычисления (приблизительно 2.7 для 4 блоков обработки). И PVM, и MPI для рассматриваемого типа моделей приблизительно равны. При достижении в кластере предела памяти RAM эффективность MPI значительно уменьшается в пользу MPV.

Анализ полученных результатов Результаты указывают на то, что лучшая производительность обеспечивается при исполь зовании PVM. Стоит также отметить большую зависимость производительности параллельного алгоритма от конфигурации аппаратных средств. Так как на практике параллельные вычисле ния рационально применять при большом числе входных данных, то очевидны преимущества реализации PVM для осуществления параллелизации вычисления рассматриваемой задачи.

Стоит также отметить большую гибкость программного пакета PVM по сравнению с MPI, а также наличие расширенных возможностей контроля вычислений. Таким образом, программное обеспечение PVM является предпочтительным средством для параллелизации расчета неизотер мического влагопереноса в дисперсных средах.

Рисунок 2 – Полученное ускорение вычислений с помощью реализаций PVM и MPI Рисунок 3 – Эффективность реализаций параллелизации МКЭ с помощью MPV и MPI на кластере из двух и четырех компьютеров.

Список литературы 1. Agarwal, R.K. Parallel Computers and Large Problems in Industry / R.K. Agarwal // Computational Methods in Applied Sciences, Elsevier Science Pub. – 1992 – P. 1-11.

2. ANSYS Theory Manual. ANSYS Release. – SAS IP, Inc., 2001. – P. - 1266.

3. COMSOL Multiphysics. User’s Guide. – COMSOL AB, 2007. – P. - 588.

4. MSC/NASTRAN Numerical Methods. User’s Guide. – MSC, 1998. – P. – 297.

5. Сегерлинд, Л. Применение метода конечных элементов: пер. с англ. / Л. Сегерлинд. – М.: Мир, 1979.

– 392 с.

6. Кундас, С. П. Компьютерное моделирование миграции загрязняющих веществ в природных дисперс ных средах / С. П. Кундас, И. А. Гишкелюк, В. И. Коваленко, О. С. Хилько;

под общ. ред. С. П.

Кундаса – Минск: МГЭУ им. А.Д. Сахарова, 2011. – 212.

7. Немнюгин С.А., Стесик О.Л. Параллельное программирование для многопроцессорных вычислитель ных систем / С.А. Немнюгин, О.Л. Стесик - СПб: БХВ-Петербург, 2002. - 400с.

8. Butrylo, B. A Survey of Parallel Solvers for the Finite Element Method in Computational Electromagnetics // B. Butrylo, F. Musy, L. Nicolas, R. Perrussel, R. Scorretti, C. Vollaire / The International Journal for Computation and Mathematics in Electrical and Electronic Engineering – №2 – P. 531-546 – 2004.

Шалькевич Павел Константинович, аспирант кафедры возобновляемых источников энер гии Международного государственного экологического университета (МГЭУ) им. А.Д. Сахарова, pavel.shalkevich@gmail.com Кундас Семен Петрович, д.т.н., проф., главный научный сотрудник НИЛ информационные системы и технологии в экологии, ректор МГЭУ им. А.Д. Сахарова. kundas@iseu.by ДЕТЕРМИНИРОВАННЫЕ СИСТЕМЫ И ПРОЦЕССЫ Банюкевич Е. В. Вейвлетная схема для нахождения численного решения задачи Коши для уравнения колебания струны Баркалин В. В., Плетежов А. А. Моделирование массивов УНТ в высокочастотном электромагнитном поле Баровик Д. В., Корзюк В. И., Таранчук В. Б. Численное исследование корректности одной математической модели низовых лесных пожаров Бойкачев П. В., Филиппович Г. А., Белевич В. Ф. Моделирование параметров СВЧ транзисторов в широком диапазоне частот Бойко В. К., Кадан А. М. Программная реализация алгоритма решения задачи о минимальном числе входов линейных стационарных систем Босяков С. М., Винокурова А. В., Доста А. Н. Конечно-элементный анализ пере мещений костей черепа человека после активации ортодонтического аппарата для расширения верхней челюсти ВувуникянЮ.М. Вычисление спектральных характеристик полиномиальных эво люционных операторов, порождённых дифференциальными уравнениями Гаркуша С. В., Андрушко Д. В. Математическая модель распределения частотно временного ресурса в нисходящем канале связи технологии WIMAX Гулай А. В., Гулай В. А., Козлова О. А., Колешко В. М. AB INITIO моделирование электронных свойств фторидов редкоземельных элементов Джомартова Ш. А., Мазаков Т. Ж. Применение интервальной математики к ана лизу управляемости систем Дмитренко А. А., Седышев С. Ю. Сравнительный анализ энергетических и точно стных характеристик различных способов определения пространственных коор динат источников радиоизлучения Долгая Я. В., Чашинский А. С., Баркалин В. В. Компьютерная реализация метода молекулярных гармоник для моделирования многоатомных квантово механических систем Ержан А. А. Расчет минимальной мощности передатчика для обеспечения требуе мого отношения «сигнал-шум»

Исаченко А. Н., Исаченко Я. А. Отношение связности в матроиде Карпук А. А. Выбор оптимальных рабочих частот для двух радиосредств по крите рию электромагнитной совместимости Киселева Н. Н., Шушкевич Г. Ч. Использование системы компьютерной математи ки MATHCAD при решении задач экранирования Козлова О. А., Нелаев В. В. AB INITIO моделирование электронных свойств двух мерной структуры дисульфида молибдена с вакансионными кластерами Корзюк В. И., Дайняк В. В., Протько А. А. Об одной краевой задаче для линейного уравнения третьего порядка составного типа Корнеев В. Н., Гертман Л. Н., Булак И. А. Математическое моделирование распространения загрязняющих веществ в водохранилище при аварийном сбросе Котов В. С., Голубев Н. Ф., Токарев В. В., Борисенко В. Е. Моделирование диодов Шоттки с МОП канавочной структурой Курочка К. С., Кухаренко А. А. Компьютерное моделирование распределения электромагнитного поля вокруг сферических частиц с использованием век торного метода конечных элементов Левчук Е. А., Чеб Е. С. Моделирование электрического поля в многослойных полупроводниковых структурах методом конечных элементов Метельский А. В., Карпук В. В. Алгоритмы спектрального приведения диффе ренциальной системы с запаздыванием Михайловская Л. В., Плющ О. Б., Долгин Е. В. Нейросетевое моделирование рефлексивного взаимодействия с использованием языка R Михайловская Л. В.


, Плющ О. Б., Трощенко И. А. Применение метода имита ционного моделирования для оценки эффективности проекта реинжиниринга бизнес-процессов предприятия Мороз В. В., Чубач Е. С. Пространственно-временная интерполяционная мо дель оптического потока Мурзабеков З. Н., Айпанов Ш. А. Алгоритм построения оптимального синте зирующего управления в линейно-квадратичной задаче с ограничениями на значения управления Саксонов Е. А., Шередин Р. В. Особенности обработки обезличенных персо нальных данных Слапик В. С. Разработка автоматизированной информационной системы под держки принятия решений о межпроектном перемещении работника на IT предприятии Солонар А. С., Хмарский П. А. Оценка влияния условий наблюдения на пока затели качества модификаций дискретных фильтров Калмана при косвенном измерении Сороговец В. И. Моделирование температурных полей двухслойных сфериче ских тел методом разделения переменных Сороговец В. И., Сороговец И. Б. Моделирование температурных полей двух слойных цилиндрических тел методом разделения переменных Степанова Т. В. Автоматизация календарного планирования и управления проектами IT-компаний Хартовский В. Е., Павловская А.Т. Некоторые вопросы управления линейны ми объектами нейтрального типа Цехан О. Б. Исследование структурных свойств сингулярно возмущенных систем с запаздыванием в системе компьютерной математики Шпак Д. С. О композиции эволюционных операторов Вольтерра – Винера, один из которых линейный Ярмолик С. Н., Храменков А. С. Обнаружение одиночного сигнала известной формы на основе модифицированного последовательного алгоритма Вальда УДК 517. Е. В. БАНЮКЕВИЧ ВЕЙВЛЕТНАЯ СХЕМА ДЛЯ НАХОЖДЕНИЯ ЧИСЛЕННОГО РЕШЕНИЯ ЗАДАЧИ КОШИ ДЛЯ УРАВНЕНИЯ КОЛЕБАНИЯ СТРУНЫ Строится вейвлетная схема для нахождения численного решения задачи Коши. Поскольку самой простой конструкцией вейвлетов на интервале являются периодические вейвле ты, в работе рассмотрены задачи Коши для периодических по переменной x функции u(x, t) с периодическими начальными условиями. Вейвлетная схема строится на основе матриц дифференцирования в базисе вейвлетов. Одновременно строистя и разностная схема для нахождения численного решения дифференциальных уравнений в частных производных.

Вейвлетные и разностные схемы реализуются в системе MATLAB на примере решения уравнения колебания струны. Полученные результаты сравниваются.

Разностная и койфлетная схемы для уравнения колебания струны Дифференциальное уравнение в частных производных 2u 2u = a2 2, (1) t2 x называется уравнением колебания струны [1]. Здесь a2 = const, u(x, t) неизвестная функция.

Вводится сетка по времени tj = · j, j = 0, 1,..., N и по пространству xi = h · i, i = 0, 1,..., 2J 1.

Для построения вейвлетной схемы производные по t и по x аппроксимируются разностными отношениями [2] uj+1 2uj + uj 2u j i i i, t2 i uj 2uj + uj j 2u i+1 i i x2 h i для явной схемы и uj+1 2uj+1 + uj+ j+ 2u i+1 i i x2 h i для неявной схемы.

Здесь uj = u(xi, tj ), i j 2u 2u =, x2 x i (xi,tj ) j 2u 2u =, t2 t i (xi,tj ) j = 0, 1,..., N, i = 0, 1,..., 2J 1.

В результате получается, например, неявная разностная схема для (1) uj+1 2uj+1 + uj+ uj+1 2uj + uj a2 i+1 i i i i i = 0, (2) 2 h к которой необходимо присоединить соответствующие начальные условия и учесть 1–периодич ность функции u(x, t) по переменной x.

В случае вейвлетной схемы производная по t аппроксимируется также как и в разностном методе uj+1 2uj + uj 2u j i i i, t2 i а производная по x заменяется с помощью матрицы дифференцирования второго порядка D(2) в базисе вейвлетов [3–4].

В случае явной схемы 2u j D(2) uj, x где uj = [uj, uj,..., uj 1 ], 01 N D(2) – N N матрица дифференцирования.

В случае неявной схемы 2 u j+ D(2) uj+1.

x В результате получается неявная вейвлетная схема uj+1 2uj + uj a2 D(2) uj+1 = 0.

Выполняются необходимые преобразования, получается I a2 2 D(2) uj+1 = 2uj uj1.

Тогда окончательно имется uj+1 = A1 (2uj uj1 ), (3) где A = (I a2 2 D(2) ).

Схема (2) записывается в виде (h2 + a2 2 )uj+1 a2 2 (uj+1 + uj+1 ) = h2 (2uj uj1 ). (4) i i1 i+1 i i Для перехода от временного слоя j к слою j + 1 решается система (4), которая в матричном виде записывается как Buj+1 = h2 (2uj uj1 ), (5) i где B ленточная матрица.

Обратная к ней матрица B 1 оказывается полной матрицей и для нахождения uj+1 = B 1 h2 (2uj uj1 ) i необходимо на каждом временном слое выполнять умножение полной матрицы B 1 на полный j вектор h2 (2uj ui ), что требует O(N 2 ) операций.

Задача Коши для уравнения колебания струны Ставится задача о нахождении функции u(x, t) – 1–периодичной по переменной x, удовле творяющей уравнению колебания струны 2u 2u = a2 2, (6) t2 x 0 x 1, t 0, и начальным условиям u |t=0 = (x), (7) u = (x), (8) t t= где функции (x) и (x) непрерывно дифференцируемые 1–периодические функции.

Для получения численного решения задачи (6) (8) в вейвлетном базисе используется неяв ная схема (3) и матрица дифференцирования второго порядка. Тогда uj+1 = I a2 2 D(2) 2uj uj1. (9) Так как матрица I a2 2 D(2) не зависит от номера временного слоя j, то она далее обо значена через A, тогда (9) примет вид:

uj+1 = A1 (2uj uj1 ).

Первоначальные значения u0, u1 для задачи (6) (8) находятся из условий (7) и (8) u0 = (x), u + u0, u = t где u u =.

t t t= Для того чтобы матрица A = I a2 2 D(2) была обратима, необходимо чтобы выполнялось следующее условие:

2 2, (10) a D где | |max, | |max - наибольшее собственное значение матрицы D(2) D(2).

D2 = Реализация вейвлетной схемы Рассматривается уравнение колебания струны (6) (8) с параметром а=1 и начальными функциями (x) = sin(2x), (11) (x) = sin(2x). (12) Функция cos(2t) u(x, t) = sin(2t) sin(2x) (13) является решением задачи (6) (8), с начальными условиями (11) (12).

Уравнение колебания струны решается тремя методами: вейвлетным методом, разностным методом и путем непосредственного вычисления по формуле (13).

Из условие (10) следует, что шаг должен удовлетворять неравенству 0, 00143.

Решение данной задачи строится в системе MATLAB [5]. Полученые результаты, представ ленны на рис. 1, 2, 3.

Рисунок 1 – Приближенное решение уравнения колебания струны, полученное по вейвлетной схеме Рисунок 2 – Приближенное решение уравнения колебания струны, полученное по разностной схеме Рисунок 3 – Аналитическое решение уравнения колебания струны Пусть w (xi, tj ) =| u(xi, tj ) uw (xi, tj ) |, r (xi, tj ) =| u(xi, tj ) ur (xi, tj ) |, i = 0, 1,..., 2J 1, j = 0, 1,..., N, J, N N где u(xi, tj ) – аналитическое решение уравнения колебания струны;

uw (xi, tj ) – численное решение уравнения колебания струны, полученное по вейвлетной схеме;

ur (xi, tj ) – численное решение уравнения колебания струны, полученное по разностной схеме.

Тогда максимальное отклонение каждого численного решения от аналитического равно max w (xi, tj ) = 0, 02275, 0i2J 1, 0jN max r (xi, tj ) = 0, 04041, 0i2J 1, 0jN N = 900, J = 8.

Таким образом на основе матриц дифференцирования построена вейвлетная схема для на хождения численного решения дифференциальных уравнений в частных производных. Рассмот рены задачи Коши для периодических функций с периодическими начальными условиями. Вей влетные и разностные схемы были реализованы с помощью системы MATLAB на примере реше ния уравнения колебания струны. При сравнении полученных решений, вейвлетная схема дает более точный результат по сравнению с разностной.

Список литературы 1. Тихонов, А. Н. Уравнения математической физики / А. Н. Тихонов, А. А. Самарский // Москва:

Наука, – 1997. – 736 с.

2. Бахвалов, Н. С. Численные методы / Н. С. Бахвалов, Н. П. Жидков, Г. М. Кобельков // М: Лабора тория Базовых Знаний, – 2000. – 624 с.

3. Добеши, И. Десять лекций по вейвлетам / И. Добеши // Ижевск: НИЦ регулярная и хаотическая динамика, – 2001. – 464 с.

4. Дрёмин, И. М. Вейвлеты и их использование / И. М. Дремин, О. В. Иванов, В. А. Нечитайло // Успехи физических наук, – 2001. – Т.171. – №5. – С. 465 501.

5. Смоленцев, Н. К. Основы теории вейвлетов. Вейвлеты в MATLAB / Н. К. Смоленцев // Москва:

ДМК Прес, – 2005. – 304 с.

Банюкевич Елена Викторовна, магистрант кафедры теории функций, функционального анали за и прикладной математики Гродненского государственного университета имени Янки Купалы, cheb alena@mail.ru.

УДК 004.942-539.2-537. В. В. БАРКАЛИН, А. А. ПЛЕТЕЖОВ МОДЕЛИРОВАНИЕ МАССИВОВ УНТ В ВЫСОКОЧАСТОТНОМ ЭЛЕКТРОМАГНИТНОМ ПОЛЕ Исследуется поведение массивов углеродных нанотрубок в высокочастотном электромаг нитном поле в пакете NAMD. Обнаружено возбуждение крутильных колебаний массива в некоторых условиях. Рассчитываются ИК-спектры этих массивов методом молекулярной динамики. Исследуется прохождение сигнала по линейной цепочке нанотрубок.

Введение Исследование поведения массивов углеродных нанотрубок (УНТ) в электромагнитном поле представляет существенный интерес для разработки наноустройств радио- и СВЧ диапазонов [1]. Это связано с наличием резонансных свойств таких массивов и существенной ролью вандер ваальсовских взаимодействий в их поведении, приводящих к сильной нелинейности динамики массивов в электромагнитном и акустическом полях. При этом для создания методов характери зации и контроля свойств наноматериалов представляется актуальным изучение спектральных характеристик наносистем в широком частотном интервале [2].

Наиболее приемлемым методом моделирования наносистем на основе углеродных нанотру бок (УНТ) представляется метод молекулярной динамики, который подразумевает вычисление траекторий всех атомов системы численным решением классических уравнений движения с использованием эмпирически определяемых потенциалов межатомных сил [3].

Возможности пакета моделирования NAMD В работе для молекулярно-динамического моделирования использовался свободно распро страняемый пакет NAMD (NAnoscale Molecular Dynamics) [4] с графическим интерфейсом VMD (Visual Molecular Dynamics). Пакет NAMD базируется на силовом поле CHARMM, разработанном в основном для аппроксимации межатомного взаимодействия в биополимерах. Его применение для моделирования углеродных нанотрубок представляется поэтому вполне оправданным.


Пакет имеет следующие характерные черты:

- Силовое поле CHARMM учитывает многочастичные связывающие взаимодействия между двумя, тремя и четырьмя атомами и парные несвязывающие взаимодействия: электростатическое и вандерваальсовское.

- Пакет включает алгоритм Эвальда для расчета полного электростатического взаимодей ствия в системе.

- Пакет использует алгоритм Верле для расчета будущих значений координат и скоростей атомов. Для снижения временных затрат при расчете дальнодействующих электростатических сил применяется разностная схема с несколькими шагами по времени. Локальные взаимодействия вычисляются на каждом шаге, а дальнодействующие – один раз за несколько шагов.

- В пакете реализованы следующие возможности: молекулярная динамика при постоянной энергии, молекулярная динамика при постоянной температуре за счет переопределения скоро стей, ланжевеновская динамика, возможность задать периодические граничные условия для рас сматриваемой системы, молекулярная динамика при постоянном давлении, алгоритмы поиска минимума энергетической функции, возможность фиксации координат части атомов системы, использование жестких моделей для молекул воды, задание жестких водородных связей, воз можность задания периодических воздействий на систему.

- Использование графического интерфейса VMD позволяет реализовать интерактивную мо лекулярную динамику с приложением сил к набору атомов.

- Сбалансированная нагрузка на все используемые процессоры. Пакет допускает параллель ные вычисления и использование суперкомпьютерных конфигураций.

Параметры силового поля CHARMM Расчет силы, действующей на атом, является наиболее требовательной к ресурсам частью молекулярной динамики. Сила определяется как отрицательный градиент скалярной функции потенциальной энергии F (r) = U (r). (1) Потенциальная функция предполагает суммирование, U (r) = Ubonded (r) + Unonbonded (r). (2) по большому количеству связывающих и несвязывающих взаимодействий между атомами.

Двухчастичный потенциал растяжения связи описывает гармоническое колебательное дви жение между (i, j) парой ковалентно связанных атомов, Ubond = k (rij r0 )2, (3) где rij = rj ri – расстояние между атомами, r0 – равновесное расстояние и k – коэффициент жесткости связи.

Трехчастичный потенциал изменения угла между связями описывает гармоническое коле бательное движение между (i, j, k) тройкой ковалентно связанных атомов, Uangle = k ( 0 ) + kub (rik rub )2, (4) где в первом слагаемом, – угол между двумя векторами rij = rj ri и rkj = rj rk, 0 – равновесный угол и k – угловая силовая константа. Второе слагаемое Юри-Брэдли используется, чтобы описать нековалентные взаимодействия между крайними i и k атомами, активными, когда константа kub = 0, где rik = rk ri – расстояние между парой атомов и rub – равновесное расстояние.

Четырехчастичный потенциал кручения описывает угловые взаимодействия между плоско стями, сформированными первыми и последними тремя атомами последовательно связанными (i, j, k, l) четверками, k (1 + cos (n + )), n 0, Utors =. (5) k ( )2 n = 0, где угол в радианах между плоскостями (i, j, k) и (j, k, l). Целочисленная неотрицательная константа n определяет период торсионных взаимодействий. Для n 0, – угол сдвига фаз и k – мультипликативная константа. Для n = 0 выступает в качестве равновесного угла и единицы измерения k изменяются на энергия/(радианы)2.

Потенциал Леннард-Джонса определяет слабое дипольное притяжение между удаленными атомами и отталкивание ядер, когда атомы находятся близко друг к другу, 12 Rmin Rmin ULJ = (Emin ), (6) rij rij где rij – расстояние между парой атомов. Параметр Emin = ULJ (Rmin ) – минимальное значение потенциальной энергии.

Cqi qj Uelec =, (7) 0 rij где rij – расстояние между парой атомов, qi и qj заряды соответсвующих атомов. Кулоновская константа C и диэлектрическая постоянная 0 одинаковы для всех электростатических взаимо действий.

Возбуждение массивов УНТ высокочастотным электрическим полем Исследование поведения массивов углеродных нанотрубок (УНТ) в электромагнитном поле представляет существенный интерес для разработки наноустройств радио- и СВЧ диапазонов.

Это связано с наличием у таких массивов резонансных свойств и существенной ролью вандер ваальсовских взаимодействий в их поведении, приводящей к сильной нелинейности динамики массивов в электромагнитном и акустическом полях.

Исследуемая система представляла собой массив из 7 закрытых с одной стороны крышками углеродных нанотрубок длиной 200 и диаметром 13 с хиральными параметрами 10,10, об A A разующих правильную треугольную решетку с минимальным расстоянием между трубками 6 A (рисунок 1).

Над массивом на расстоянии 50 A фиксировался плоский слой графена с в качестве проти воэлектрода к массиву (на рисунке не показан).

Изначально общий заряд всей системы был нулевым. Через время T = 1 пс, заряд атомов на крышке каждой из трубок и проекций этих атомов на графеновой решетке изменяются на +1е и -1е соответственно. Изменение происходит через указанный промежуток времени до тех пор, пока полный заряд на трубках не достигнет +70е, а на графеновом слое – -70е. Затем заряд изменяется в обратную сторону до нуля. В промежутках между изменениями заряда выполня ется релаксация методом молекулярной динамики при температуре 293К и шагом 1фс. Полное время моделирования составило T=41 пс. Такое включение зарядов эквивалентно переменному электрическому полю с частотой 25 ГГц.

Спектры массивов с переменным и постоянным электрическим полем представлены на ри сунке 2.

Представленные данные свидетельствуют о возбуждении как колебательного движения мас сива в переменном электрическом поле, так и поворотной моды массива с увеличивающейся ча стотой. Кроме того, возбуждается малоамплитудное вертикальное движение массива с частотой, много большей частоты изменения зарядов, которое соответствует собственной моде колебаний нанотрубок массива типа растяжение-сжатие.

Рисунок 1 – Кручение массива УНТ под действием электрического поля a) б) Рисунок 2 – ИК-спектры массивов из 7 УНТ в зависимости от частоты в обратных см: а) – в постоянном электрическом поле, соответствующем заряду 70 е на крышках УНТ ;

б) – в переменном электрическом поле Распространение возмущения по цепочке УНТ На рисунке 3 изображен пример устройства на основе линейного массива УНТ. Длина трубок 200А, расстояние между ними 6А. Исходное состояние массива получено в результате геометри ческой оптимизации идеального массива прямолинейных УНТ и демонстрирует существенную роль вандерваальсовских взаимодействий в массивах УНТ вообще. Идея этого устройства состо ит в том, что на вход массива подается сигнал (в нашем случае атомы крышки первой трубки в массиве получают начальную скорость 50 А/фс в поперечном направлении), под действием которого происходит переорганизация массива в результате молекулярнодинамической процеду ры. С течением времени массив УНТ принимает конечное положение, что является результатом взаимодействия сигнала на массив. При подаче другого сигнала, конечный результат изменится.

В принципе, устройство можно отнести к типу запоминающих наноустройств.

начальное состояние через 4 пс через 15 пс.

через 17 пс через 20 пс через 35 пс.

через 40 пс через 49 пс через 57 пс.

через 68 пс через 82 пс через 100 пс.

Рисунок 3 – Массив УНТ с приложением силы на первую трубку.

Временные зависимости поперечных смещений УНТ в массиве для каждой трубки представ лены на рисунке 4.

первая трубка вторая трубка третья трубка четвертая трубка пятая, шестая и седьмая трубки Рисунок 4 – Временные зависимости смещений УНТ в линейном массиве после подачи сигнала на первую трубку.

Следует отметить, что амплитуда смещений уменьшается по мере углубления в массив, при чем для пятой, шестой и седьмой трубок смещения практически не имеют отклика на сигнальное воздействие. Дальше четвертой трубки от не распространился за все время моделирования. На четвертой трубке наблюдается демпфирование сигнала почти в три раза по амплитуде. В целом, требуется дальнейшее исследование линейного массива УНТ как канала перелачи и фиксации информации.

Заключение Проведено моделирование поведения массивов углеродных нанотрубок в высокочастотном электромагнитном поле методом молекулярной динамики в пакете NAMD. Обнаружено возбуж дение крутильных колебаний массива при приложении электростатического поля частотой при близительно 25 ГГц при длине трубок в массиве 200 ангстрем. Рассчитаны спектры массива в постоянном и переменном поле указанной частоты. При исследовании прохождения возмущения по линейной цепочке УНТ обнаружено демпфирование сигнала на уровне нескольких нанотру бок в глубину массива. Указанный эффект может характеризоваться как запоминание сигнала в массиве нанотрубок.

Список литературы 1. Barkaline V, Abramov I., Belogurov E., Chashynski A., Labunov V., Pletezhov A., Shukevich Y. Simulation of Carbon Nanotubes and Resonant Excitation of Their Mechanical Vibrations of by Electromagnetic Field for Nanoradio Applications / V.Barkaline [et al.]// Nonlinear phenomena in complex systems, vol. 15, no.

1 (2012), pp. 23 – 42.

2. Баркалин В.В., Плетежов А.А. Моделирование ИК-спектров массива углеродных нанотрубок в пакете NAMD// Машиностроение. Сб. научн. тр. – Мн., 2010. – Вып.26. – С.140-145.

3. Frenkel, D. Understanding Molecular Simulation: From Algorithms to Applications / B. Smit. Academic Press, 2002. 658 p.

4. Phillips, J.C. Scalable molecular dynamics with NAMD / R.Braun, W.Wang, J.Gumbart, E.Tajkhorshid, E.Villa, C. Chipot, R.D.Skeel, L. Kale, K.Schulten. // J. Comp. Chem, 2005. p.1781-1802.

Баркалин Вячеслав Владимирович, доцент кафедры интеллектуальных систем Белорусского нацио нального технического университета, кандидат физико-математических наук, доцент, barkaline@bntu.by.

Плетежов Александр Александрович, инженер НИЛ динамики систем и механики ма териалов Белорусского национального технического университета, магистр технических на ук,alexandr.pletezhov@gmail.com.

УДК 519. Д. В. БАРОВИК, В. И. КОРЗЮК, В. Б. ТАРАНЧУК ЧИСЛЕННОЕ ИССЛЕДОВАНИЕ КОРРЕКТНОСТИ ОДНОЙ МАТЕМАТИЧЕСКОЙ МОДЕЛИ НИЗОВЫХ ЛЕСНЫХ ПОЖАРОВ Рассматривается математическое описание процессов распространения низовых лесных пожаров. Изучаются вопросы корректности принятой постановки краевой задачи. Также дано обоснование предлагаемого авторами обобщения классической полуэмпирической моде ли Ротермела. Обсуждаются результаты анализа приближенных решений, в частности, зависимость скорости распространения фронта пожара от определяющих параметров задачи.

Введение Из множества природных и антропогенных факторов негативного влияния на состояние и динамику лесных экосистем доминирующими являются пожары, которые наносят значительный материальный и экологический ущерб. Для научно обоснованных, успешных действий, направ ленных на предупреждение, прогноз развития и ликвидацию лесных пожаров, требуется разра ботка соответствующих компьютерных моделей и программных средств, их включение в состав систем поддержки принятия решений по предотвращению чрезвычайных ситуаций в лесах и окрестностях.

В зависимости от того, какие ярусы леса, участки территории вовлечены в процесс рас пространения огня, лесные пожары подразделяются на подземные или почвенные, низовые и верховые.

При почвенных или подземных пожарах (ground res, smouldering res) горит самый нижний ярус леса (подстилочные пожары) или торф (пожары на торфяниках). Такие пожары распростра няются очень медленно, однако могут иногда достигать нескольких метров в глубину и оставаться необнаруженными долгое время. Эффективные методы тушения таких пожаров отсутствуют.

При низовых лесных пожарах (surface res) сгорают опад, напочвенный покров, травы и ку старники. Большинство лесных пожаров начинаются как низовые, которые могут потом перейти в подземные или верховые в зависимости от типа лесных горючих материалов (ЛГМ) и клима тических условий. Характерная скорость распространения фронта низового лесного пожара см/с.

Пожар называется верховым (crown re), если при его распространении повреждаются кроны деревьев. Верховые пожары классифицируются в зависимости от типа взаимодействия с низовы ми пожарами. Если кроны деревьев сгорают в результате воспламенения от огня только низово го пожара, пламя не перекидывается напрямую на соседние кроны, то такие верховые пожары называются пассивными верховыми пожарами (passive crown res). Скорость распространения верхового пожара такого типа совпадает со скоростью распространения низового пожара. Если пожар распространяется как сплошная стена огня и ЛГМ повреждается во всех ярусах леса одно временно, то говорят о повальном верховом лесном пожаре (active crown re или dependent crown re). Верховой пожар называется вершинным верховым (independent crown re или running crown re), если огонь быстро распространяется по кронам деревьев в направлении ветра независимо от низового пожара. Относительно густое расположение деревьев и сильный ветер - необходимые условия распространения лесного пожара таким способом. Характерная скорость распростране ния фронта вершинного верхового лесного пожара 1 м/с, т. е. на два порядка выше, чем низового пожара.

Если горение ЛГМ носит многоочаговый характер, обусловленный разлетом (переносом) горящих частиц из зоны основного (материнского) лесного пожара, то говорят о пятнистом (spotting) лесном пожаре.

Самыми распространенными лесными пожарами являются низовые. На сегодняшний день разработано около полусотни моделей низовых лесных пожаров, при этом только четыре из них активно применяются в различных специализированных программных комплексах [1].

Это эмпирические модели A. McArthur [2] (Австралия), Forestry Canada Fire Danger Group (Канада), W. Hargrove (США) и полуэмпирическая модель Ричарда Ротермела [3] (R. Rothermel, США). Подробный обзор видов лесных пожаров, классификация существующих моделей и библиографические ссылки даны в [1, 4, 5].

1. Основы модели Ротермела Наибольшее применение получила полуэмпирическая модель низовых лесных пожаров Ричарда Ротермела (R. Rothermel) [3]. Ее программные реализации (BehavePlus [6], FARSITE /Fire Area Simulator/ [7], FCCS /Fuel Characteristic Classication System/ [8, 9] и др.) используются в большинстве лесных служб Северной Америки и Европы. Основание широкого распростране ния модели – ее простота. Методика Ротермела на основе элементарных вычислений [3] отвечает на вопрос, какова прогнозируемая скорость распространения фронта низового лесного пожара в направлении ветра в зависимости от характеристик охваченных огнем растительности, угла склона местности и скорости ветра. Перечислим все исходные параметры модели Ротермела. Их немного: 0, кг/м2 – запас лесных горючих материалов (ЛГМ) на местности в абсолютно сухом состоянии;

, м – глубина слоя ЛГМ;

, м1 – удельная поверхность ЛГМ;

h, Дж/кг – теплотвор ная способность сухого горючего;

p, кг/м3 – плотность горючего материала в абсолютно сухом состоянии;

Mf – влагосодержание ЛГМ;

Mx – критическое влагосодержание, т.е. минимальное значение влагосодержания ЛГМ, при достижении которого горение прекращается;

ST – массовая доля всех минеральных веществ в ЛГМ;

Se – массовая доля эффективных минеральных веществ;

V, м/с – скорость ветра на середине высоты пламени, tg – тангенс угла наклона рельефа.

Все параметры, за исключением двух последних (рельеф и скорость ветра), описывают тип горючей растительности. В последние годы в США и Канаде активизированы работы по клас сификации и картографированию типовых видов растительности;

определяются перечисленные выше физико-химические характеристики, необходимые для использования в уравнениях модели Ротермела. Например, в работе [10] приведена классификация 40 типов растительности региона Скалистых гор США, создан соответствующий ”альбом” с фотографиями. В США в настоящее время запущен приоритетный проект в рамках системы FCCS [9] по созданию ГИС-совместимых карт типов растительности всей территории с дискретом 30x30 метров (на текущий момент в заархивированном виде размер базы данных с картой [8] уже превышает 2 гигабайта).

Несмотря на такое широкое использование модели Ротермела, следует отметить ее недостат ки. Оригинальная модель является одномерной, а результатом ее применения является число – скорость распространения фронта пожара в направлении ветра. Модель вообще не отвечает на вопрос, какова скорость фронта пожара в направлениях флангов и против ветра. В разрабо танных позднее программных системах реализованы разные подходы, которые часто являются интуитивными и не содержат должных обоснований.

Одним из вариантов обобщения модели Ротермела для реальных расчетов является метод, изложенный в [11, 12]. В этих работах приведена адаптация модели Ротермела применительно к условиям лесов Республики Беларусь и ее компьютерная реализация. Программный комплекс (ПК) позволяет моделировать в реальном времени распространение лесных пожаров с учетом неоднородности распределения типов растительности и различных преград (ручьи, минерали зованные полосы и др.). В ПК рассчитывается форма контура, периметр и площадь пожара в различные моменты времени. Реализована возможность визуализации результатов на электрон ных картах местности и экспорт в геоинформационные системы. Для наполнения базы данных типовых сценариев распространения пожаров наряду с расчетными формулами Ротермела в ПК используются и результаты вычислений по теоретической модели [13 - 15].

Отметим, как в модели Ротермела учитывается влияние ветра. Первоначально вычисляется скорость распространения фронта пожара в условиях однородного распределения ЛГМ на рав нинной местности при полном отсутствии ветра. Далее полученная скорость распространения пожара умножается на безразмерный коэффициент, пропорциональный (1 + W + S ), где W – отвечает за влияние ветра, S – за уклон рельефа.

Согласно [16] множитель ”учета ветра” W получен эмпирически в лаборатории путем на блюдения за горением опилок, а также с учетом результатов работы [2] по сжиганию травяного покрова в реальных условиях. Коэффициент W вычисляется по формуле [3]:

E W = C · V B ( ), (1) op где V – скорость ветра на середине высоты пламени, а C, B, E и оптимальная плотность упаковки ЛГМ op – функции, зависящие только от удельной поверхности частиц ЛГМ м1 (т.е. отно шения площади поверхности горючих частиц к их объему). Подробно о формулах для функций, упомянутых в уравнении (1), и их физической интрепретации можно прочитать в первоисточнике у Ротермела [3].

В [16] показано, что коэффициент W модели Ротермела очевидно не согласуется с натурны ми наблюдениями в части зависимости степени B от. Например, при более 107 см1 (горение травы) значение B превышает 2. Физически это означает, что скорость распространения фронта горения таких ЛГМ квадратично растет с увеличением скорости ветра. Для ЛГМ со значением = 6.3 см1 получается линейная зависимость (B = 1), а при горении веточек с диаметром тоньше 0.64 см зависимость получается слабее, чем ”корень квадратный” (B 0.5). Такое экс тремальное влияние характерного размера частиц ЛГМ до сегодняшнего дня не было ни экспе риментально, ни теоретически подтверждено [16]. Согласно работам [17, 18] и [19] (среди авторов этой работы есть и сам Ротермел) наблюдения за реальными пожарами указывают на линейную или слегка экспоненциальную зависимость скорости фронта пожара от размеров частиц ЛГМ.



Pages:     | 1 || 3 | 4 |   ...   | 11 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.