авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 | 4 | 5 |   ...   | 11 |
-- [ Страница 1 ] --

УДК 004

ББК 32.81

М34

Рекомендовано Редакционно-издательским советом ГрГУ им. Я. Купалы.

Ред а к ц и он н а я

кол л е г и я :

М. А. Маталыцкий, доктор физико-математических наук, профессор (гл. ред.);

М. К. Буза, доктор технических наук, профессор;

Ю. М. Вувуникян, доктор физико-математических наук, профессор;

В. А. Липницкий, доктор технических наук, профессор;

А. М. Кадан, кандидат технических наук, доцент;

Е. А. Ровба, доктор физико-математических наук, профессор;

Л. В. Рудикова, кандидат физико-математических наук, доцент;

Г. Ч. Шушкевич, доктор физико-математических наук.

Ре ц е н з е н т ы :

Харин Ю. С., член-корреспондент НАН Беларуси, доктор физико-математических наук, профессор, зав. кафедрой математического моделирования Белорусского государственного университета;

Тыщенко В. Ю., кандидат физико-математических наук, доцент кафедры математического анализа и дифференциальных уравнений Учреждения образования «Гродненский государственный университет имени Янки Купалы».

Математическое и компьютерное моделирование систем М34 и процессов : сб. науч. ст. / ГрГУ им. Я. Купалы ;

редкол.:

М. А. Маталыцкий (гл. ред.) [и др.]. – Гродно : ГрГУ, 2013. – 368 с.

ISBN 978-985-515-677- Представлены научные статьи по следующим направлениям: стохастическое моделирование, детерминированные системы и процессы, кластерные системы и параллельные вычисления. Материалы будут полезны научным работникам, спе циалистам в области прикладной математики, информатики, преподавателям ву зов, а также аспирантам, магистрантам и студентам.

УДК ББК 32. © Учреждение образования «Гродненский государственный университет ISBN 978-985-515-677-3 имени Янки Купалы», Предисловие Сборник научных статей Математическое и компьютерное моделирование систем и про цессов, который мы имеем честь вам представить, издается уже в третий раз по инициативе факультета математики и информатики Гродненского государственного университета им. Янки Купалы.

Выход в свет предлагаемого вашему вниманию сборника научных статей стал возможен в ре зультате объединения усилий не только белорусских ученых и ИТ-специалистов, но и их коллег, представляющих различные учебные заведения и научные институты дальнего и ближнего за рубежья, сферу ИТ-бизнеса, а также Представительства компании Cisco в Республике Беларусь, руководителей и инструкторов академий Cisco из Беларуси, Грузии и Казахстана.

Наша республика по праву гордится уровнем своих ИТ-специалистов и программистов. Раз работка программного обеспечения, технологии защиты информации, образовательные услуги в ИТ-сфере являются сегодня одними из ведущих экспортных услуг Республики Беларусь, визит ной карточкой уровня развития нашего государства, показателем неизменно высокого и совре менного уровня университетского ИТ-образования.

Немалая заслуга в этом высококвалифицированных научных работников, сотрудников ве дущих вузов, работы которых представлены среди материалов этого сборника, и отражают ре зультаты прикладных и фундаментальных исследований, выполненных их авторами.

Отличительной особенностью сборника является широкий диапазон рассматриваемых про блем. Это отражает место информационных технологий в современном обществе, их роль и зна чимость, повышенный интерес к ним различных категорий исследователей, необходимость об суждения актуальных вопросов специалистами различных направлений.

Материалы сборника сгруппированы по следующим разделам:

- кластерные системы и параллельные вычисления;

- детерминированные системы и процессы;

- стохастическое моделирование;

Факультет математики и информатики Государственного учреждения образования Грод ненский государственный университет им.Янки Купалы, по инициативе сотрудников которого издается этот сборник, авторитетное учебное подразделение, которое готовит специалистов по важным научным и производственным направлениям, в том числе и по самым современным и актуальным – программированию, компьютерной безопасности, прикладной математике, вклю чая современные компьютерные информационные технологии, математическое, программное и информационное обеспечение компьютерных систем и сетей, автоматизированных систем управ ления, а также по такому современному направлению, как управление информационными ресур сами.

Надеемся, что издание данного сборника будет способствовать должной оценке результатов научно-исследовательской работы, плодотворному обмену опытом работы и научной информа цией, стимулом к консолидации сил и творческой активности по выполнению республиканских научных программ, а также явится обобщением опыта разработки современных информацион ных технологий и практического применения их результатов, способствующих прогрессу нашего общества и улучшению качества подготовки специалистов.

Редакционная коллегия.

.

КЛАСТЕРНЫЕ СИСТЕМЫ И ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ Belov M.A., Halavanau A.A. Speeding up computations in physics with general-purpose graphic processors Анищенко В.В., Парамонов Н.Н., Чиж О.П. Методологические принципы обоснования и выбора параметров отраслевых суперкомпьютеров Анищенко И.И., Родченко В.Г. Алгоритм построения кластерной структуры на основе использования «центра масс» образа класса Бабарика Н.Н., Никитин А.В. Автоматизация системы документооборота и алгоритмы принятия решений Белко А.В., Никитин А.В. Параллельные алгоритмы решения задач молекулярной динамики Гулай А.В., Гулай В.А., Козлова О.А., Колешко В.М. Ab initio моделирование электронных свойств фторидов редкоземельных элементов Карпович А.В. Параллельные вычисления в молекулярной динамике Кондратьева О. Библиотека классов для разработки mpi-приложений Курочка К.С., Левкович Д.А., Кухаренко А.А. Создание вычислительного кластера для решения задач о распределении электромагнитного поля на основе бесплатного программного обеспечения Курочка К.С., Кухаренко А.А. Компьютерное моделирование распределения электромагнитного поля вокруг сферических частиц с использованием векторного метода конечных элементов Шалькевич П.К., Кундас С.П. Анализ эффективности использования программных пакетов pvm и mpi для параллелизации вычислений при моделировании неизотермического влагопереноса в природных дисперсных средах UDK 004.382.2:519. M. A. BELOV A. A. HALAVANAU SPEEDING UP COMPUTATIONS IN PHYSICS WITH GENERAL-PURPOSE GRAPHIC PROCESSORS Numerous problems in physics require huge amount of computations, and up until current decade only supercomputers were able to provide enough computation power. During the last few years general-purpose graphic processing units (GPGPU, commonly refered to as video adapters) provide a supercomputer-class performance. We consider GPGPU application programming interfaces, and provide an example of one-dimensional linear wave equation solution with the use of OpenCL API.

We also provide the results of a performance test of few GPGPU.

Introduction Various numerical problems in physics lead to huge yet parallelizible computation. Almost every problem described via linear equations system, partial dierential equations, Monte-Carlo methods is subject to parallel computation. While x86-based supercomputers are commonly used for these problems, they are quite expensive. Therefore, a cheap alternative is required.

NVidia corporation was the rst who started marketing such an alternative. The introduced CUDA technology was a way to exploit computation power of video adapters for any general application, thus the term GPGPU has appeared. CUDA is available only for nVidia hardware, and possesses a mature toolkit, including a debugger, proler, BLAS and Fourier transform libraries.

Meanwhile, OpenCL [1], an open standard for GPGPU application programming interface (API) was developed. It was adopted by AMD company, as AMD’s own API was not successful, and, up to now it has every major architecture support. OpenCL standard denes a cross-platform library, with the support for heterogeneous computing, OpenGL compatibility, however it lacks special-purpose computation packages, as those which are supplied with CUDA. Fortunately, AMD provides this software within its OpenCL API. NVidia GPGPU also supports OpenCL, while CUDA perform faster on their hardware. CPUs that feature SSE3 command set can also execute OpenCL programs, while various ARM and IBM PPC architectures have beta status of OpenCL support. OpenCL and CUDA APIs are compared in table 1. We generally believe that OpenCL is the best choice for newly developed software, however CUDA is a more matured technology.

Table 1 – CUDA and OpenCL compared Feature nVidia CUDA OpenCL Development facilities debugger, proler, linear algebra libraries debugger Availability on HPC wide uncommon Architectures supported restricted to nVidia nVidia, AMD, x86 with SSE3, ARM, PPC Heterogeneous computing ocially unsupported supported As the result, GPGPU became a cheap way for massively parallel computing. Moreover, modern top-level single-processor video adapters provide computational power of early-2000s top-level supercom– puters. In the gure 1 there is a performance plot for top-level supercomputers, and top-level GPGPU.

One of the fastest x86 CPUs is also shown. Finally, we compare a supercomputer to a video adapter of the same performance in the table 2.

1/ 1/ 1/ 1/ 1970 1975 1980 1985 1990 1995 2000 2005 2010 Figure 1 – Performance (in TFLOPs) of top-level hardware versus production year: supercomputers (stars), single chip video adapters (circles), single chip microprocessor (square) Table 1 – SKIF-K1000-05 and nVidia GeForce GTX 680 compared. Note – SKIF-K1000-05 is a half of the former SKIF-K1000 supercomputer currently installed in the Belarusian State University. Performance marks are halved SKIF-K1000 marks from [2].

Feature SKIF-K1000-0.5 nVidia GeForce GTX Production year 2004 Double-precision performance, GFLOPs 1016 (see the note) Cores number 576 Performance per core, GFLOPs 1.76 (see the note) 0. RAM, GB 576 RAM per core, MB 1024 Memory model distributed shared Consuming power, W 40000 (estimated) Price, USD 840000 [3] Despite the advantages of GPGPU, they are slowly adopted for computational physics purposes and are still mainly used to speed up Monte Carlo simulations in high energy physics. Implementing Monte Carlo simulations on GPU is natural, because it is obvious how to parallelize the problem [4]. A plenty of computational physics tasks involve solution of PDE, and solving PDEs may be signicantly harder. The purpose of this paper is to illustrate how one can easily implement widespread approaches to PDE solution on GPGPU with OpenCL API. We discuss explicit nite-dierence method for heat equation in the rst chapter. In the second chapter we consider method of lines for a wave equation.

OpenCL implementation of nite-dierence method for heat equation.

We discuss the heat equation:

2u u (1) A 2 = 0, t x with imposed boundary conditions (2) u(x, t)|t=0 = u0 (x), u(x, t)|x=0,x=a = u0 (0) = u0 (a) = ub, where A and ub are constants and u0 (x) is an arbitrary function within given constraints.

First and the most naive approach is to replace all derivatives with appropriate nite dierences;

this leads to either explicit or implicit methods. The former ones have convergence issues, the latter ones lead to many-diagonal matrix linear equation systems for every time step [5]. However, we will regard the explicit method just for a purpose of a simple example.

We introduce time step t, divide the coordinate with N points, thus, coordinate step is x = a/(N 1). We also replace u(x, t) with its grid values ui,j = u(ix, jt). Finally, after replacing derivatives in (1) we get:

ui,j+1 ui,j ui+1,j 2ui,j + ui1,j (3) A = 0.

x t Explicitly expressing the term ui,j+1 from (3) we obtain the scheme:

(4) ui,j+1 = (1 2)ui,j + (ui+1,j + ui1,j ), where = (At)/x2.

It’s obvious that points ui,j+1 can be obtained from scheme (4) in any order of space index i, thus this calculations can be done in parallel. We implement this idea into the OpenCL kernel source code, given on image 1.

#include ”task.h“ { const float alpha = 0.5;

// dt/(dx*dx);

int t;

int i = get_global_id(0);

for (t=0;

t TIME_STEPS;

t++) { if ( (i0) && (i(N-1)) ) out[i] = in[i] * (1.0-2.0*alpha) +alpha*(in[i+1]+in[i-1]);

else out[i] = u_b;

barrier(CLK_GLOBAL_MEM_FENCE);

in[i] = out[i];

barrier(CLK_GLOBAL_MEM_FENCE);

} } Figure 2 – Source code of the heat equation solver OpenCL kernel A kernel is a function to be executed on GPU. Copies of this kernel is simultaneously executed on GPU cores. Initial values ui,0 are passed via array in. There are totally N copies, each gets unique number i from 0 to N 1, considered as spatial index. Therefore, there is no need for a loop over i. After that, there goes a loop over time steps. Most kernels calculate new values for next slice ui,j+1 = out, based on current slice ui,j = in. Kernels with identier i equal to 0 and N 1 just set boundary points in accordance with boundary conditions (2). The line barrier(CLK_GLOBAL_MEM_FENCE);

forces every kernel to stop until the layer is completely evaluated. Finally, last layer is returned to main program (not given in this paper) via out array.

The results of productivity test on AMD A6-4455M APU (in stock conguration) are given on gure 3. Calculation speed is measured in million lattice points per second. Speed against number of spatial lattice points N (and number of parallel kernels) is plotted. While N is small the speed grows linearly, then the growth saturates. One could expect saturation at the point where N is less or equal to the number of the cores in the processing unit, but for this particular case the saturation happens when N 4096, while A6-4455M has only 256 cores.

64 128 256 512 1024 2048 4096 8192 16384 32768 Figure 3 – OpenCL solver for the heat equation performance against the number of concurrent kernels. GPGPU has 256 cores.

We can explain this unexpected fact by internal GPU scheduling. The more workload GPU has, the more opportunities its scheduler possesses, thus it operates more eciently. Code, which is given on gure 2 has considerable rate of barrier calls, that decrease eciency of scheduler, because they must be scheduled statically. We believe, that 256 kernel copies (one per core) do not provide enough movable operations, so cores waste their time in idle mode, waiting for barrier synchronization. After N reaches the saturation point, processing units become completely loaded and performance stops its increase.

To sum up, we can draw a preliminary conclusion, that GPGPU usage for PDE solution is ecient in the case of massively parallel code, i. e. when number of concurrent processes is rather large.

OpenCL implementation of the method of line for wave equation.

In this chapter we discus the parallel implementation of the method of lines for hyperbolic wave equation with one spatial dimension:

(5) tt xx = Explicit nite-dierence scheme has issues that prohibit it from general use. Depending on discreti– zation scheme some other methods can be constructed, for example the leap-frog and the Crank Nicholson methods [6], symplectic integrators [7]. We follow another way of solving PDE which is also easy to implement and parallelize, namely, the method of lines.

We discretize the space while leaving the time derivatives, and obtain the system of ordinary dierential equations. This system is then can be integrated by any of known methods (Runge-Kutta, Adams, etc.) [8].

We have applied the most simple form of the method of lines. Nevertheless, it uses high order schemes and provides us with robust data. The used nite dierence for the second order spatial derivative is following:

d2 n (6) (n2 + 16n1 30n + 16n+1 n+2 ) 2 12(X) dt It denes corresponding system of 2N rst order ordinary dierential equations.

We have parallelized solution of 6 in the same way as it was done for the heat equation, namely, every kernel is solving one equation from the system. The source code of the kernel is rather large and is not included in this paper. A speed test was performed on nVidia GTS 450 (192 CUDA cores), the results are presented on gure 4. The method of lines includes more operations than explicit nite-dierence one, thus speed growth saturation is achieved on less number of cores.

64 128 256 512 Figure 4 – OpenCL solver for the wave equation performance against the number of concurrent kernels. GPGPU has 192 cores.

Conclusions The both method of lines and explicit nite-dierence scheme utilize the true parallel manner of PDE integrating and has wide range of applications in hyperbolic, parabolic, and mixed-type equations.

Our results prove that general-purpose GPU can suciently speed up the process of numerical integration and open parallel computing world to everyone without a considerable expense. Moreover, shared memory model provides great scalability and allows use of lattices of size limited only by available memory.

Acknowledgments We are grateful to Moscow nVidia division for provided hardware and technical support.

List of references 1. Accelerated Parallel Processing (APP) AMD SDK [Electronic resource] / Advanced Micro Devices, Inc., 2013. – Mode of access: http://developer.amd.com/tools/heterogeneous-computing/amd-accelerated parallel-processing-app-sdk/. – Date of access: 15.03.2013.

2. SKIF K-1000 - Opteron 2.2 GHz, Inniband [Electronic resource] / TOP500 supercomputer rating – Mode of access: http://www.top500.org/system/173739. – Date of access: 15.03.2013.

3. Новый суперкомпьютер "СКИФ К-1000-05"выполняет 2,5 трлн. операций в секунду [Электронный ресурс] / Белорусская информационная компания БЕЛАПАН. – Минск, 2005. – Режим доступа:

http://belapan.com/archive/2010/02/12/media_superkomp_v2 / – Дата доступа: 15.03.2013.

4. Eglo, D. High Performance Finite Dierence PDE Solvers on GPUs / D. Eglo, QuantAlea GmbH. – Switzerland, 2010.

5. Крылов, В. И. Вычислительные методы высшей математики: в 2 т. / В.И. Крылов, В.В. Бобков, П.И.

Монастырный – Минск: Вышэйшая Школа, 1975. – Т. 2. – 672 с.

6. Crank, J. A practical method for numerical evaluation of solutions of partial dierential equations of the heat conduction type / J. Crank, P. Nicolson // Proc. Camb. Phil. Soc. –1954. – Vol. 43 N.1. – P. 50– 7. Markiewicz, D. W. Survey on Symplectic Integrators / D. W. Markiewicz – Spring, 1999. –P. 13.

8. Green, M. A. Time Dependent Problems and Dierence Methods Bertil Gustafsson / M. A. Green, H.-O.

Kreiss, J. Oliger., Pure and Applied Math. – Wiley, 1996.

Belov Maxim Alexandrovich, Assisting professor of the Department of Physical Informatics, Atomic and Molecular physics, Belarusian State University, mpui@tut.by Halavanau Aliaksei Aliaksandravich, Master student of the Department of Theoretical Physics and Astrophysics, Belarusian State University, aliaksei.halavanau@gmail.com УДК 004.508. В. В. АНИЩЕНКО, Н. Н. ПАРАМОНОВ, О. П. ЧИЖ МЕТОДОЛОГИЧЕСКИЕ ПРИНЦИПЫ ОБОСНОВАНИЯ И ВЫБОРА ПАРАМЕТРОВ ОТРАСЛЕВЫХ СУПЕРКОМПЬЮТЕРОВ Формулируются основные концептуальные принципы для обоснования и выбора базовых технических характеристик предметно-ориентированных отраслевых суперкомпьютерных конфигураций с учетом бюджета проекта, целей создания суперкомпьютера, специфики приложений, тенденций развития суперкомпьютерных технологий и других факторов.

Введение Тенденции развития информационных технологий, наличие и возрастающая доступность высокопроизводительных вычислительных систем (суперкомпьютеров) диктуют необходимость широкого внедрения принципов параллельных вычислений для решения сложнейших задач ма шиностроения, биотехнологии, геологоразведки, контроля окружающей среды, транспорта и свя зи, государственных, коммерческих, военных и других приложений. Появилась потребность со здания суперкомпьютерных конфигураций, оптимально реализующих перспективные матема тические модели и алгоритмы, ориентированные на решение наиболее сложных и наукоемких задач в ключевых экономически значимых секторах экономики. Суперкомпьютеры, оптимизи рованные (архитектурно, функционально, конструктивно-технологически и т. п.) для решения определенных задач конкретной отрасли экономики, называют предметно-ориентированными суперкомпьютерными системами отраслевого назначения (сокращенно – отраслевыми супер компьютерами) [1].

Использование отраслевых суперкомпьютеров может обеспечить наибольшую экономиче скую отдачу вложенных отраслью средств и мультипликативный инновационный эффект. В по следние годы, например, в стратегически важном для Союзного государства Беларуси и России (СГ) топливно-энергетическом секторе экономики резко возрастают потребности в скорости и ка честве высокопроизводительных вычислений при поисках, разведке и разработке месторождений природных ресурсов. Такое положение обусловлено необходимостью решения задач, возникаю щих в связи с истощением разрабатываемых месторождений, снижением эффективности добычи, экономическими и технологическими сложностями в поисках и освоении новых месторождений из-за усложнения условий проведения геологоразведочных работ. Повышение точности и скоро сти расчетов и качества моделирования процессов в технологических задачах поисков, развед ки, разработки и использования месторождений углеводородного и углеродного сырья является наиболее важной и перспективной задачей топливно-энергетического сервиса, решение которой существенно влияет на прирост запасов, экономию ресурсов и использование простаивающего фонда скважин, рост уровня отдачи месторождений [2].

В сложившейся ситуации особое значение приобретают обоснование и выбор базовых параметров суперкомпьютеров, проектируемых для решения задач конкретной отрасли эко номики. Ниже изложен методологический подход для концептуальной оценки характеристик отраслевых кластеров с учетом финансовых возможностей отраслевой структуры, степени развития ее вычислительной инфраструктуры, специфики решаемых задач, мировых тенденций развития суперкомпьютерных технологий и других факторов. Методологические принципы сформулированы на основании практического опыта, полученного авторами в процессе создания и эксплуатации моделей суперкомпьютеров семейства СКИФ. Создан существенный научно технический задел для практического использования созданных вычислительных ресурсов и развития в РБ суперкомпьютерного направления и грид-технологий [3].

Конфликт целей и возможностей отраслевой структуры При разработке проекта суперкомпьютера для отраслевой структуры того или иного уров ня (отраслевой центр обработки данных, исследовательское или учебное заведение, отраслевые структуры типа офисов и т.п.), как правило, возникает естественный конфликт желаний и воз можностей. Поэтому на начальном этапе жизненного цикла отраслевого суперкомпьютера необ ходимо уделить особое внимание совокупности ряда определяющих действий, таких как оценка реального объема финансирования проекта создания кластерной конфигурации (бюджет проек та), анализ назначения и целей создания отраслевой кластерной конфигурации, анализ специфи ки приложений и др. (см. рисунок).

Рисунок 1 – Анализ возможностей и желаний на начальном этапе проектирования отраслевого кластера Оценка бюджета проекта с учетом назначения и целей создания кластера во многом опреде ляет масштаб проекта и базовые параметры создаваемой конфигурации. Заказчик стремится сократить совокупную стоимость владения системой (Total cost of ownership TCO). Напри мер, дополнительные (накладные) расходы во многом зависят от назначения и места установки кластера. Так, если кластер предназначен для установки в отраслевом центре обработки данных (ЦОД), то особое значение имеет наличие (или отсутствие) подготовленного с точки зрения ин женерной инфраструктуры соответствующего помещения. В случае отсутствия оборудованного помещения значительная часть объема финансирования проекта уйдет на создание инженер ной инфраструктуры суперкомпьютерного центра, включающей системы электропитания, теле коммуникаций, кондиционирования, пожарной безопасности и др. Существенное значение имеет сокращение расходов на администрирование, потребление электроэнергии, планируемую модер низацию и т.п. [4].

Совершенно иной объем совокупной стоимости владения системой (Total cost of ownership – TCO) при использовании суперкомпьютеров для низовых отраслевых структур (отделы, офисы и т.п.). По своим параметрам и назначению вычислительные конфигурации, ориентированные на использование непосредственно в офисах, относятся к классу персональных суперкомпьютеров (кластеров). Модели персональных суперкомпьютеров – это небольшие экономичные полнофунк циональные вычислительные комплексы с модульной кластерной архитектурой. Эти изделия за полняют нишу, разделяющую обычные персональные компьютеры и мощные суперкомпьютер ные конфигурации, обеспечивая возможность использования суперкомпьютерных технологий в отдельной организации, подразделении для персональных вычислений [5].

Оценка бюджета проекта и стоимости вычислительной мощности проектируемого суперком пьютера (стоимость 1 Гфлопса), как правило, отрезвляюще действует на его потенциальных пользователей. Необходимо, однако, учитывать, что бурное развитие суперкомпьютерных технологий приводит к существенному увеличению вычислительной плотности и снижению стоимости вычислений. Например, стоимость создания в 2004 году кластера СКИФ К- (пиковая производительность 2,5 Тфлопс) составила 2 млн. USD. Стоимость 1 Гфлопса в этом случае составила 800 USD. Оборудование кластера СКИФ К-1000 располагалось в восьми 19” стойках, бесперебойное электропитание кластера обеспечивалось при помощи восьми стоек ИБП. Стоимость же создания в 2010 году кластера СКИФ-ГРИД (пиковая производительность 8,0 Тфлопс) составила 0,55 млн. USD. Стоимость 1 Гфлопса в этом случае составила примерно 70 USD. Оборудование кластера СКИФ-ГРИД располагается в одной 19” стойке, бесперебойное электропитание кластера обеспечивается при помощи одной стойки ИБП.

Анализ взаимосвязи между классами прикладных задач отрасли и параметрами со здаваемой кластерной конфигурации Главная цель создания любой вычислительной конфигурации – обеспечение эффективного выполнения приложений. Задачи, решаемые в различных отраслях экономики, помимо специ фики назначения отличаются количеством вычислительных операций, размерностью, объёмами входных данных, формами параллелизма, требованиями к времени решения задачи и т.п. Необхо димо адекватно отобразить свойства прикладных задач в создаваемой инструментальной среде.

Эта цель достигается путем выбора соответствующих тактико-технических параметров создава емых суперкомпьютерных конфигураций с учетом специфики отраслевых приложений.Правила оформления материалов предполатают, что в Вашей статье должны присутствовать следующие обязательные элементы:

Например, для геолого-геофизических приложений необходимо учитывать тот факт, что развитие технологий для поиска, разведки и разработки месторождений нефти, газа и других природных ресурсов сопровождается информационным взрывом : количество данных, описы вающих строение недр, растет экспоненциально. От двухмерных представлений нефтегазовых объектов в виде карт и разрезов осуществляется переход к трехмерным математическим ком пьютерным моделям, а изучение процессов фильтрации в пластах добавило четвертое измерение время. При работе с геолого-геофизической информацией особые требования предъявляются к оперативной памяти, системам и устройствам хранения данных. Геофизические данные обыч но имеют большой объем, что предъявляет высокие требования к скорости последовательного доступа к информации. В суперкомпьютерах общего назначения большее внимание уделяется пи ковой производительности системы в вычислениях (а также производительности в тесте Linpack), а производительность подсистемы хранения данных часто бывает посредственной. Внедрение же предметно-ориентированных отраслевых суперкомпьютеров позволит использовать решения, оп тимизированные именно для геолого-геофизических задач [2].

Задачи, решаемые в различных отраслях экономики, помимо специфики назначения отли чаются количеством вычислительных операций, размерностью, объемами входных данных, фор мами параллелизма, требованиями к времени решения задачи и т.п. Время решения больших задач, наряду с перечисленными факторами, существенно зависит от быстродействия использу емой компьютерной техники. Достигнутый современный уровень быстродействия персональных компьютеров – десятки гигафлопс (Гфлопс), суперкомпьютеров – терафлопсы (Тфлопс) и пе тафлопсы, на горизонте – экзафлопсы. В суперкомпьютерных системах созданы предпосылки для реализации параллельной обработки данных. Параллелизм – это возможность одновремен ного выполнения более одной арифметико-логической операции или программной ветви. Для реализации этой возможности необходимо, чтобы один и тот же процессор не назначался раз ным операциям в один и тот же момент времени. Практическая реализация параллелизма во многом определяется спецификой самих приложений. Возможность параллельного выполнения операций определяется правилом Рассела, в соответствии с которым два программных объек та (команды, операторы, программы) могут выполняться параллельно, если наборы входных и выходных данных этих объектов не зависят друг от друга [6].

Для поддержки параллельных вычислений обычно используют классические системы под держки параллельных вычислений, обеспечивающие эффективное распараллеливание приклад ных задач различных классов (как правило, задач с явным параллелизмом): MPI, PVM, Norma, DVM и др. В семействе суперкомпьютеров СКИФ, например, в которых реализована кластер ная архитектура, в качестве базовой классической системы поддержки параллельных вычислений выбран MPI, что не исключает использование других средств. На кластерном уровне с исполь зованием MPI эффективно реализуются фрагменты со сложной логикой вычисления, с крупно блочным (явным статическим или скрытым динамическим) параллелизмом. Для организации же параллельного исполнения задач с потоковыми вычислениями (data-ow), требующими обработ ки в реальном режиме времени, эффективно использование специализированных процессоров, например, графических.

Одной из главных характеристик параллельных вычислительных систем является ускорение Rn этой системы, которое определяется очевидным соотношением: Rn = T1 /Tn, где T1 – время ре шения задачи на однопроцессорной системе, Tn – время решения той же задачи на n-процессорной системе.

Принципиально важные для параллельных вычислений положения определяются известным законом Амдала [6]. В соответствии с этим законом следует: ускорение R системы зависит от потенциального параллелизма задачи (величина k) и от параметров аппаратуры (числа процес соров n);

предельное ускорение системы Rmax (при числе процессоров, стремящемся к бесконеч ности) практически определяется только свойствами задачи (потенциальным параллелизмом):

Rmax = 1/k.

Потенциальный параллелизм задачи k определяется удельным весом скалярных операций:

k = Wsc /W, где W = Wpar +Wsc - общее число операций в задаче;

Wpar – число операций, которые можно выполнять параллельно;

Wsc – число скалярных (нераспараллеливаемых) операций.

С учетом этих соотношений, например, при удельном весе скалярных операций k = 0, ускорение Rn в соответствии с законом Амдала не может превышать величину 10 при любом числе процессоров в системе.

При анализе специфики используемых параллельных алгоритмов (способов) решения за дачи может оказаться полезной оценка стоимости вычислений, определяемой как произведение времени параллельного решения задачи и числа используемых процессоров. Дополнительную информацию для анализа может дать также оценка эффективности En использования парал лельным алгоритмом процессоров при решении задачи: En = Rn/n, где n – число процессоров в системе. Очевидно, что в наилучшем случае Rn = n, а En = 1.

Представляет также интерес оценка минимально возможного времени выполнения парал лельного алгоритма, которое определяется длиной максимального пути вычислительной схемы алгоритма (или диаметром графа вычислительной модели алгоритма) [6, 7].

Мировые тенденции развития суперкомпьютерных технологий Исследования суперкомпьютерного рынка показывают, что в списках Тор500 [8] очевидно подавляющее превосходство суперкомпьютеров с кластерной архитектурой и операционной си стемой ОС Linux. Кластерная архитектура является открытой и масштабируемой, т.е. не накла дывает жестких ограничений к программно-аппаратной платформе узлов кластера, топологии вычислительной сети, конфигурации и диапазону производительности суперкомпьютеров. В та ких мультипроцессорных параллельных вычислительных системах принципиальным моментом является обеспечение необходимой для реализации соответствующих приложений скорости меж процессорного обмена данными (выбор системной сети кластера). По-прежнему основными сете выми интерфейсами – Gigabit Ethernet (GbE) и InniBand (IB). Зачастую порты GbE и IB уже интегрированы в системные платы серверов, используемых в вычислительных узлах кластера.

Технология 10GbE до сих пор остается пока еще довольно дорогой, но уже просматриваются перспективы ее практического использования.

На сегодняшний день явными лидерами рынка процессоров являются две крупнейшие компа нии: Intel и AMD. Рынок процессоров развивается динамично. Начиная с 2008 года, выход новых поколений процессоров фирмы Intel происходит в соответствии с концепцией Tick-Tock ( Тик Так ). Суть этого принципа (Таблица) заключается в том, что перевод производства на новый технологический процесс и внедрение усовершенствованных версий микроархитектуры происхо дит поочередно, примерно с двухгодичным циклом [9]. Стратегия Tick-Tock хорошо согласуется с оптимальной периодичностью обновления серверного парка, которая по оценке экспертов фирмы Intel составляет 4 года. Например, новые процессоры семейства Intel Xeon E5 разрабатывались с прицелом на нагрузки, которые будут в 2015 году.

Перспективным направлением развития суперкомпьютерных технологий является создание кластерных конфигураций с использованием гибридных вычислительных узлов на базе класси ческих мультиядерных процессоров с архитектурой х86-64 и графических процессоров (GPU – Graphics Processing Unit).

Таблица – Эволюция технологических процессов Технологический процесс 32 nm 32nm 22nm 22 nm 14 nm 14 nm Процессор Westmere Sandy Bridge Ivy Bridge Haswell Broadwell Skylake Микроархитектура Nehalem Sandy Bridge Sandy Bridge Haswell Haswell Skylake Год 2010 2011 2012 2013 2014 Современные графические процессоры эффективно обрабатывают и отображают компью терную графику. Непрерывное совершенствование возможностей видеокарт и графических про цессоров, привело к тому, что конфигурации на базе GPU могут решать ряд сложных матема тических задач на порядок быстрее центральных процессоров с классической архитектурой. В настоящее время на процессорном рынке наряду с традиционными процессорами CPU (Central Processing Unit) появились гибридные процессоры APU (Accelerated Processing Unit), объеди няющее на одном полупроводниковом кристалле традиционные вычислительные ядра общего назначения (CPU) с графическим ядром (GPU). Оценивая гибридный процессор, необходимо выяснить параметры графического ядра, обратив особое внимание на возможность использова ния потоковых процессоров (элементы графического ядра) как в графических программах, так и в вычислительных приложениях общего назначения.

Для оптимального выбора процессора необходимо четко сформулировать требования к его основным параметрам: рабочая частота;

поддерживаемый объем основной оперативной памяти;

объем КЭШа второго и третьего уровней;

тип микроархитектуры;

технологический процесс;

TDP;

наличие встроенного контроллера оперативной памяти и его возможности;

наличие графического ядра и его возможности;

стоимость процессора;

энергоэффективность;

количество ядер процессора;

количество операций с плавающей запятой за один рабочий такт, выполняемых ядром;

наличие технологии управления энергопотреблением;

возможности подсистемы ввода-вывода;

сетевые функциональные возможности;

наличие интегрированной поддержки USB 3.0;

возможности по обеспечению защиты данных;

возможность разгона процессора путем увеличения базовой частоты и др. Значимость перечисленных характеристик процессора для принятия решения по его выбору очевидна. В частности, важно помнить, что от технологического процесса зависит тепловыделение и энергопотребление процессоров.

Важным моментом является также оценка сервисных функций процессора с точки зрения управления энергопотреблением суперкомпьютерной конфигурацией в целом. Энергосбережение – важнейшая тенденция нынешнего рынка суперкомпьютеров. В последних редакциях списка Тор500 появилась графа Потребление электропитания.

Заключение Рынок суперкомпьютерных технологий развивается настолько динамично, что уследить за всеми новинками и угнаться за прогрессом просто невозможно. Одно поколение процессоров, сетевых интерфейсов, периферийных устройств и других компьютерных компонентов через короткое время сменяется новым поколением этих изделий на новом технологическом уровне.

Например, лидеры рынка процессоров - компании Intel и AMD предлагают широчайший выбор моделей любой ценовой категории. И от такой возможности выбора процессоров просто разбегаются глаза. Чтобы принять грамотные перспективные технические и административ ные решения необходимо знать для чего создается кластер, какие задачи он будет решать, какой объем финансовых затрат возможен при создании конфигурации, а также оценить ряд других важнейших моментов. В настоящей статье сформулированы основные концептуаль ные принципы для обоснования и выбора базовых техническо-экономических характеристик предметно-ориентированных отраслевых суперкомпьютерных конфигураций с учетом возникно вения естественного конфликта возможностей и желаний на начальном этапе проектирования этих изделий. Изложенная методология, подготовленная на базе длительного практического опыта создания суперкомпьютерных моделей семейства СКИФ, может быть использована при разработке конкретной методики обоснования и выбора базовых параметров отраслевых кластеров.

Список литературы 1. Принципы создания базовых конфигураций суперкомпьютерных систем отраслевого назначения / В.В. Анищенко, В.В. Мурашко, Н.Н. Парамонов, О.П. Чиж // Минск: Ежеквартальный журнал Ин форматика № 1 (33), январь-март 2012 г. Мн: Изд-во ОИПИ НАН Беларуси, 2012. – С. 97–105.

2. Исследования и разработка высокопроизводительных информационно-вычислительных технологий для увеличения и эффективного использования ресурсного потенциала углеводородного сырья Союз ного государства. Концепция научно-технической программы Союзного государства.

3. Развитие суперкомпьютерных систем в Республике Беларусь / В.В. Анищенко, А.М. Криштофик, Н.Н. Парамонов, О.П. Чиж // Минск: Доклады четвертой Международной научной конференции Суперкомпьютерные системы и их применение SSA’2012. - 23-25 октября 2012 г. – Мн: Изд-во ОИПИ НАН Беларуси, С. 103-107.

4. Вычислительное дело и кластерные системы / Вл.В. Воеводин, С.А. Жуматий // М.: Издательство Московского университета, 2007. – 150с., ил. ISBN 978-5-211-05440-0.

5. Семейство типовых персональных кластеров СКИФ-Триада (общие технические требования) – ОИ ПИ НАН Беларуси, Минск, 2008. – С. 17, Анищенко В.В., Жаворонков Д.Б., Качков В.П., Парамонов Н.Н., Рымарчук А.Г., Чиж О.П.

6. Реализация параллельных вычислений: кластеры, грид, многоядерные процессоры, квантовые ком пьютеры / Г.И. Шпаковский // Мн.: БГУ, 2010, декабрь. – 154 с.

7. Принципы построения параллельных вычислительных систем, курс: Вычислительная математика.

Юрий Фролов, Марина Фроленкова, 10 сентября 2009 [Электронный ресурс]. – Режим доступа: http:

//wiki.auditory.ru/.

8. Список пятисот наиболее мощных суперкомпьютеров мира Top500 [Электронный ресурс]. – Режим доступа: http://www.top500.org/.

9. Intel Ivy Bridge: подробности о микроархитектуре – Digital Daily Digest. Илья Коваль, 20 сентября 2011 [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/cpu/617138/print.

Анищенко Владимир Викторович, зам. ген. директора ОИПИ НАН Беларуси, к.т.н, anishch@newman.bas-net.by.

Парамонов Николай Николаевич, ведущий научный сотрудник ОИПИ НАН Беларуси, к.т.н, nick@newman.bas-net.by.

Чиж Олег Петрович, зав. лабораторией ОИПИ НАН Беларуси, к.ф-м.н, otchij@newman.bas-net.by.

УДК 004.02:004. И. С. АНИЩЕНКО, В. Г. РОДЧЕНКО АЛГОРИТМ ПОСТРОЕНИЯ КЛАСТЕРНОЙ СТРУКТУРЫ НА ОСНОВЕ ИСПОЛЬЗОВАНИЯ ЦЕНТРА МАСС ОБРАЗА КЛАССА При решении реальных задач на основе использования методов распознавания образов исследователи сталкиваются с необходимостью формального представления образов классов в соответствующем многомерном признаковом пространстве. Применение кла стерных структур позволяет формализовать процедуру представления образов классов, производить оценку взаимного размещения образов и эталонов классов при построении систем распознавания. В статье рассматривается алгоритм построения кластерных структур на основе использования центра масс образа класса.

Введение В процессе построения системы распознавания на основе анализа наблюдаемых данных мож но выделить три основных этапа.

Подготовительный этап связан с определением алфавита классов, формированием априор ного словаря признаков и построением исходной классифицированной обучающей выборки. Со ответствующий алфавит классов формируется на основе предварительного анализа требований, предъявляемых к системе распознавания. В априорный словарь должны включаться такие при знаки, которые включают наиболее характерные особенности распознаваемых системой клас сов [2].

Второй этап является центральным и направлен на реализацию процедуры обучения. В ре зультате выполнения из априорного словаря признаков исключаются все малоинформативные признаки, которые не обеспечивают разделение формальных образов эталонов классов в призна ковом пространстве принятия решений [6].

Заключительный третий этап связан с выполнением процедуры принятия решения, когда исследуемый образ либо классифицируется к одному из предусмотренных классов, либо выделя ется в отдельный джокер-класс [5].

Формально весь процесс распознавания может быть реализован в результате выполнения следующей последовательности преобразований:

S F1 C F2 A F3 T F4 A F5 E F6 R, (1) где S – алфавит классов;

С – словарь наблюдаемых (измеряемых) характеристик;

A – априор ный словарь признаков;

T – классифицированная обучающая выборка;

A – уточненный словарь признаков для построения пространства решений;

E – множество эталонов классов;

R – множе ство решений;

F1 – алгоритм получения наблюдаемых характеристик;

F2 – алгоритм построения априорного словаря признаков;

F3 – алгоритм формирования классифицированной обучающей выборки;

F4 – алгоритм сепарирования признаков из априорного словаря по степени их инфор мативности для построения пространства решений;

F5 – алгоритм построения образов эталонов классов в пространстве решений;

F6 – алгоритм процедуры принятия решения [1].

Для построения систем распознавания разработан ряд алгоритмов, которые позволяют в автоматическом режиме выполнить как процедуру обучения, так и процедуру принятия решений.

Наиболее узким местом, с точки зрения автоматизации, остаются шаги алгоритма, связанные с формированием словаря признаков и представлением результатов распознавания.

Для формального представления образов классов или эталонов классов в многомерном признаковом пространстве предлагается алгоритм построения кластерных структур, который предусматривает предварительное вычисление центра масс.

Постановка задачи Предположим, что у нас имеются алфавит классов S = {S1, S2,..., Sk } и априорный сло варь признаков A = {A1, A2,..., An }, на основе которых уже сформирована классифицированная обучающая выборка [3].

Пусть каждый отдельный объект класса описывается n признаками из априорного словаря признаков в виде вектор-столбца xT = (x1, x2,..., xn ), где xi – значение i-го признака, и одно значно ассоциируется с одним из классов.

Набор объектов отдельного класса образует исходное описание этого класса в априорном признаковом пространстве. Объединение всех объектов из всех классов образует классифици рованную обучающую выборку, которая описывается в виде таблицы типа объект-свойство и формально представляется в виде матрицы Xnm, где m = m1 + m2 + · · · + mk, а mi - количество объектов i-го класса.

Для формального представления образов классов предлагается на основе всех экземпля ров класса строить соответствующую кластерную структуру. Поскольку каждый отдельный экземпляр класса представляет собой вектор в пространстве Rn c координатами вершины (x1, x2,..., xn ), где xi – значение i-го признака, то объединение всех векторов одного класса в кластерную структуру и будет представлять собой формальное описание класса.

Построение кластерных структур можно осуществить на основании универсального алго ритма, предусматривающего выполнение 4 шагов:

1. Начальная инициализация центров кластеров (например, можно задать начальные значения случайно выбранными точками из пространства, в котором определены данные;

можно выбрать случайные точки из входного массива данных и т.д.).

2. E-шаг (expectation): происходит ассоциация между элементами данных и кластерами, кото рые представлены в виде своих центров (центроидами).

3. M-шаг (maximization): пересчитываются центры кластеров, как средние значения от данных, которые были включены с соответствующий кластер (другими словами, происходит модифика ция параметров модели таким образом, чтобы максимизировать вероятность попадания элемента в выбранный кластер). В случае, если кластер после шага 2 оказался пустым, то происходит ини циализация каким-либо другим способом.

4. Шаги 2-3 повторяются до сходимости, либо пока не выполнится другой критерий остановки алгоритма (например, превышение некоторого числа итераций).

Описание алгоритма Процесс построения кластерных структур может быть организован различными способами.

Например, процесс построения кластерной структуры можно начать с поиска наиболее удаленно го от других вектора. Затем необходимо определить ближайший к найденному вектору предста витель класса, и включить его в состав кластера. Затем вычисляются и запоминаются значения координат вспомогательного вектора, который указывает на середину отрезка, соединяющего два очередных экземпляра класса. В результате формируется скелет кластерной структуры, который содержит 2 mi 1 векторов, из которых mi векторов-экземпляров i-го класса (где mi - количество объектов i-го класса) и mi 1 вспомогательных векторов. В дальнейшем каж дый экземпляр скелета выступает в качестве центра гиперсферы при построении кластерной структуры, представляющей собой объединение областей, образованных пересекающимися ги персферами [4].

Для формирования кластерной структуры предлагается использовать алгоритм построения кластерной структуры на основе использования центра масс образа класса наиболее при ближенной точки для всех экземпляров класса.

Для определения точки, с которой начнется построение кластерной структуры можно ис пользовать различные способы. Например, метод Монте-Карло или выбор наиболее удаленного экземпляра класса и последующее построение по наиболее приближенным к выбранному экзем плярам.

Предлагается начать построение со скелета кластерной стуктуры, используя центры масс образов классов. Далее можно воспользоваться методом гиперсфер.

Для формирования скелета кластерной структуры предлагается использовать следующий алгоритм:

1. Находим наиболее удаленные друг от друга экземпляры классов. Соответственно обозначим их 1 и 2.

2. Находим центр масс образа класса. Построение центра масс для каждого кластера про водим по формуле:

m Xi Ci = i=1. (2) m 3. Позиционируем экземпляры классов 1 и 2 относительно найденного в предыдущем шаге центра масс. Экземпляры классов, находящиеся на границе разделения, отнесем к произволь ному кластеру.

4. Находим наиболее приближенные к центру масс экземпляры классов X (1), X (2) для каж дого из классов 1 и 2. Расстояние между экземпляром класса X (1) и центром масс обозначим l(1), для экземпляра класса X (2) - l(2).

Разделение классов продолжаем до тех пор, пока не останется в точности один экземпляр класса.

Для построения кластерной структуры воспользуемся гиперсферами (далее сферы) радиуса = l2 с центрами в центрах масс кластеров X (1), X (2). Обозначим точку касания двух сфер r(1) (1) (1) – O(1) с координатами (o1,..., on ) и построим сферу радиуса r(1) с центром в O(1).


Для экземпляра X (2) найдем ближайший экземпляр X (3), и расстояние между центрами масс рассматриваемых экземпляров классов обозначим l(2), причем из поиска исключаем X (1).

(2) Построим сферы радиуса r(2) = l 2 с центрами в X (2), X (3) и получим точку касания сфер (2) (2) O(2) = (o1,..., on ). Построим сферу радиуса r(2) с центром O(2). Поскольку X (2) является цен тром двух сфер радиуса r(1) и r(2), то для данного экземпляра выбираем сферу с максимальным радиусом.

Рис. 1 – Сферы с центрами X (1), O(1), X (2), O(2), X (3) Область, объединяющая все сферы, в результате и будет представлять собой кластер класса.

Однако стоит отметить, что алгоритм не гарантирует определения лучшего из возможных расположений центров гиперсфер (достижение глобального минимума суммарного квадратично го отклонения), но гарантирует сходимость к какому-либо решению, т.е. итерации не зациклятся.

Заключение Предложенный алгоритм позволяет получить образ класса в виде кластерной структуры и возможность вычислить объем и плотность кластерной структуры, что позволяет произвести оценку ее компактности.

На основе предложенного алгоритма можно производить оценку взаимного размещения об разов и эталонов классов при построении систем распознавания.

Предложенный подход представления образа класса может оказаться наиболее эффектив ным при построении систем распознавания и экспертных систем.

Список литературы 1. Анищенко И. С. Применение кластерных структур представления классов при построении систем распознавания / И. С. Анищенко, А. И. Жукевич, В. Г. Родченко // Открытые семантические техно логии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2013) : материалы III Междунар. научн.–техн. конф., Минск, 21-23 февраля 2013 г. – Минск:

БГУИР, 2013. – С.295- 2. Васильев, В. И. Проблема обучения распознаванию образов / В. И. Васильев – К: Выща шк. Головное изд-во, 1989.

3. Загоруйко, Н. Г. Прикладные методы анализа данных и знаний / Н. Г. Загоруйко -– Новосибирск:

Изд-во Института математики СО РАН, 1999. 264 с.

4. Жукевич, А. И. Об одном методе построения формальных образов классов при реализации систем рас познавания / А. И. Жукевич, В. Г. Родченко // Известия Гомельского государственного университета имени Ф.Скорины. Гомель, 2010. -– №5(62). -– С. 79–83.

5. Родченко, В. Г. Использование онтологий при построении систем распознавания образов / А. И. Жу кевич, Е. В. Олизарович, В. Г. Родченко // Открытые семантические технологии проектирования интеллектуальных систем = Open Semantic Technologies for Intelligent Systems (OSTIS-2012) : матери алы II Междунар. научн.–техн. конф., Минск, 16-18 февраля 2012 г. – Минск: БГУИР, 2012. – 548 с.

6. Родченко, В. Г. Об одном методе реализации процедуры обучения при построении системы распо знавания образов / В. Г. Родченко // Известия Гомельского государственного университета имени Ф.Скорины. – 2006. – №4. – С. 73–76.

Анищенко Иван Сергеевич, магистрант кафедры программного обеспечения интеллектуальных и компьютерных систем факультета математики и информатики Гродненского государственного универси тета им. Я.Купалы, ivan.ani@mail.ru.

Родченко Вадим Григорьевич, доцент кафедры программного обеспечения интеллектуальных и ком пьютерных систем факультета математики и информатики Гродненского государственного университета им. Я.Купалы, кандидат технических наук, доцент, rovar@mail.ru.

УДК 681. Н. Н. БАБАРИКА, А. В. НИКИТИН АВТОМАТИЗАЦИЯ СИСТЕМЫ ДОКУМЕНТООБОРОТА И АЛГОРИТМЫ ПРИНЯТИЯ РЕШЕНИЙ В работе рассмотрены процессы автоматизации системы документооборота: сбора, обработки и хранения информации. На основе собранной информации существенно услож няется процедура ее оперативной оценки и принятия правильного управленческого решения.

Предлагаются алгоритмы, основанные на методах имитационного моделирования опти мизировать процесс принятия управленческого решения.

Введение Документооборот управленческой и административной деятельности настолько разнообра зен, что заранее трудно предусмотреть все необходимые компоненты автоматизации. Процесс разработки должен быть совмещен с текущей производственной деятельностью. Поэтому, по ставлена задача построения имитационной модели автоматизации управленческой деятельности с нестрого детерминированными системами документооборота. Структура управления документо оборотом представляет собой многоуровневую систему. Сложный характер взаимодействия друг с другом, наличие совмещений многих технологических операций на рабочих местах в системе документооборота (ДО) существенно усложняют процедуры оперативной оценки текущего состо яния всех уровней управления и принятие управляющих решений для повышения эффективности в использовании наличного технологического инструментария, персонала и оборудования.

Проблема организации документооборота в учреждениях посвящены исследования [1]. Од нако у многих лиц, принимающих решения (ЛПР), нет полной уверенности в своевременности принятия решений на основании анализа имеющейся информации. Как правило, весь комплекс программ технологического обеспечения и набор самих технологических операций (ТХОi ) в со ставе технологического процесса документооборота в иерархических построенных учреждениях (ИУ) обладает сложной взаимозависимостью. Во всем технологическом процессе документообо рота (ТПДО) иерархического учреждения (ИУ) выполняется большое число ТХОi, которые используют общую базу данных (ОБД) и вместе с тем они технологически завязаны друг с дру гом таким образом, что выполнение одних ТХОij возможно только мосле завершения других ТХОij.

В данной работе предложен метод имитационного моделирования технологических процес сов предоставления (ТПП) ДО. Метод основан на способе формализованного описания ТПП ДО.

При этом существую проблемы, связанные с отсутствием средств автоматизации адаптационных работ и непригодностью существующих технологий организации обработки, анализа и хранения информации, необходимостью разработки новых методик принятия решений на основе матема тического моделирования.

Указанные особенности реализации ТПП ДО в органах государственного управления опреде лят актуальность использования имитационных моделей (ИМ) в качестве средств формализации иерархии ТПП.

Однако существующие средства автоматизации имитационного эксперимента (ИЭ) не позво ляют оперативным образом создавать и использовать ИМ ТПП в ходе проектного моделирования их рациональной структуры.

Для реализации метода требуется модификация принципов формирования концептуальной модели ТПО ДО. Метод состоит в поэтапном использовании средств и способов автоматиза ции создания и эксплуатации ИМ для анализа ТПП ДО и основан на применении принципов формализации, построения и использования библиотеки ИМ ТПП. Принципы и правила состав ления содержательного описания ТПП ДО и последующего составления формального описания алгоритмов реализации ТПП ДО являются средствами малой автоматизации. Они позволяют облегчить разработку новых и модификацию существующих моделей из библиотек ИМ ТПП.

В предполагаемом комплексе имитационных моделей реализована схема декомпозиции ТПП ДО в иерархической системе построения органов государственного управления на уровне регио на (облисполком, комитет, отдел, специалист, район и т.д.) и принцип детального моделирования каждой компоненты технологии предоставления ДО. Технологические процессы предоставления (ТПП) можно отнести к классу вероятностных процессов сложных систем (СС), поскольку ха рактер поведения клиентов случайный и динамика взаимодействия структурных подразделений органов государственного управления заранее непредсказуема. Это обстоятельство обуславливает наличие следующих особенностей реализации ТПП.

1. Все типы структурных подразделений функционально независимы друг от друга, хотя и объединены по месту расположения и подчинению единому руководству.

2. Каждый вид структурных подразделений обеспечен своим набором ресурсов, необходимых для его реализации. Обе эти особенности позволяют рассматривать динамику взаимодействия структурных подразделений с помощью последовательности независимых друг от друга моделей.

3. Имеет место иерархия подчиненности структурных подразделений, а, следовательно, и иерархия использования моделей. Поэтому можно говорить о необходимости рассмотрения тех нологии оказания структурных подразделений на различных уровнях этой иерархии:

уровень первого типа (УТk );

уровень второго типа (УТСn );

уровень третьего типа, которым подчинено множество УТСn ;

уровень четвертого типа, управляющее предыдущим уровнем.

Это обстоятельство обуславливает необходимость использования последовательности моделей предоставления УТСn на каждом из уровней иерархии (УИ). Поэтому для каждого УИ можно рассматривать свое подмножество типовых по структуре моделей, отличающихся друг от друга характеристиками реализации технологии предоставления УТСn.

Сложный и многофункциональный характер взаимодействия технологических операций (ТХОi ), реализующих УТСn. i-го типа с помощью последовательности микротехнологических операций (MTXOij ), которые уникальны по своей структуре, и связи между которыми должны задаваться соответствующими графами GRFi. Это означает, что каждая УПСi обладает типо вым GRFi для всех структурных подразделений при уникальности характеристик ТХОi и их индивидуальности для каждого OCk.

4. Существует объективная трудность измерения характеристик поведения клиентов при реа лизации практически всех УПСi. Как правило, активный натурный эксперимент в OCk провести невозможно. Поэтому все исследования динамики взаимодействия MTXOij с клиентами и друг с другом носят пассивный (регистрирующий) характер.

5. Существует также технологическая иерархия реализации УТСn. множество УТСn. реализу ется соответствующим множеством технологических процессов, описываемых типовыми графами GRFi, которые определяют реализацию множества ТХОi и, наконец, все множества реализуются множествами последовательностей (MTXOij ).


Перечисленные особенности реализации ТПП в OCk определяют необходимость предвари тельной двухступенчатой декомпозиции алгоритмов обслуживания клиентов ОСk вначале выде ление из ТПП множества основных УТСn, затем представление каждой УТСn последовательно стью (МТХОij ) [2].

Однако у многих лиц, принимающих решения (ЛПР), нет полной уверенности в своевремен ности принятия решений на основании анализа имеющейся информации. Как правило, весь ком плекс программ технологического обеспечения и набор самих технологических операций (ТХОi ) в составе технологического процесса документооборота в иерархических построенных учреждени ях (ИУ) обладает сложной взаимозависимостью. Во всем технологическом процессе документо оборота (ТПДО) иерархического учреждения (ИУ) выполняется большое число ТХОi, которые используют общую базу данных (ОБД) и вместе с тем они технологически завязаны друг с дру гом таким образом, что выполнение одних ТХОij возможно только мосле завершения других ТХОij.

Вместе с тем, для ЛПР в ряде случаев необходимо оперативным образом проводить ана лиз ВСГР, что определяет актуальность разработки способа анализа ТПДО на основе сочетания методов Монте-Карло и сетевого планирования при анализе ВСГР для получения оперативной информации для ЛПР. В данной работе предлагается использовать для этой цели имитацион ную модель (ИМ), построенную на основе сочетания методик сетевого планирования и процедур Монте-Карло [3]. Для построения ИМ ТПДО используются два типа процессов: имитаторы собы тий (PR. SOBi ), имитаторы технологических операций (PR. ТХОij ). Эти процессы представляют бой реентерабельные программы. Количество копий PR. SOBi равно числу событий i, а число копий PR. ТХОij равно ij. Для каждой копии этих процессов в ОБД имеется своя область пере менных, параметров и статистик функционирования процессов. Инициация процесса имитации в 1-ой реализации ВСГР, отображающего имитацию выполнения ИМ ТПДП, начинается с процесса PR. SOB1 и завершается процессом PR. SOB. При этом в направлении от PR. SOB1 до PR. SOBi (прямом направлении) вычисляются ранние сроки свершения событий (tpil ). Далее в обратном направлении (от PR. SOBi до PR. SOB1 ) определяются поздние сроки свершения событий (tnil ) и резервы выполнения этих событий (Ril = tnil tpil ).

После расчета статистик реализации PR. SOBt и определения тех ТХОij, которые лежат на критическом пути KRPl, цикл ВСГР повторяется в 1+1 реализации. В итоге N реализаций с помощью ИМ ТПДО в базе данных модели формируются выборки объема Ntpil,tnil, Rij l=1,i.

Путем наложения друг на друга KPPl формируется граф критических путей (GR. КРР). Кроме того, по выборкам формируются множества оценок статистик свершения событий tpi, tP ii,Ri.

Таким образом, с помощью этих множеств статистик и графа критических путей GR.KPP ЛПР получает возможность анализа динамики и поиска узких мест в технологии реализации ТПДО организации для принятия управляющих воздействий.

Как видим, ИМ ТПДО является удобным средством автоматизации исследований вариантов организации документооборота для неспециалиста по прикладной математике и программирова нию. Наличие общей базы данных позволяет ЛПР рассмотреть оперативным образом возможные варианты организации ТПДО и выбрать из них тот, который обеспечивает минимальное время выполнения ТПДО (min Tkph )).

Список литературы 1. Бабарика H. H., Автоматизация документооборота в системах управления, // Бабарика Н. Н. // Известия Гомельского государственного университета имени Ф. Скорины, № 5(32) (2005), 93–96.

2. Бабарика Н. Н. Имитация вариантов организации распределенного документооборота в учреждениях документооборота в иерархии учреждений // Бабарика Н. Н. // Известия Гомельского государствен ного университета имени Ф. Скорины. 2008.№ 5(50). С. 128– 3. С. И. Жогаль, И. В. Максимей, Задачи и модели исследования операций, Ч. 1. Аналитические модели исследования операций, Уч. пособие, Гомель, БелГУТ, 1994.

Бабарика Николай Николаевич, начальник отдела Ресурсный центр СКИФ Гродненского госу дарственного университета имени Янки Купалы, bnn@grsu.by Никитин Александр Викторович, заведующий кафедрой теоретической физики Гродненского госу дарственного университета имени Янки Купалы, кандидат технических наук, доцент, nik@grsu.by УДК 681. А. В. БЕЛКО, А. В. НИКИТИН ПАРРАЛЛЕЛЬНЫЕ АЛГОРИТМЫ РЕШЕНИЯ ЗАДАЧ МОЛЕКУЛЯРНОЙ ДИНАМИКИ В работе разработан алгоритм распараллеливания расчетов параметров образования кластеров из заряженных частиц. Использование суперкомпьютерной системы позволило значительно сократить время расчета параметров процесса формирования фрактальных кластеров, получена зависимость времени расчета от количества вычислительных узлов.

Полученные результаты могут быть применены при изучении кинетики и механизмов формирования фрактальных кластеров в дисперсных системах.

Введение Рассмотрим коагуляцию твердых частиц в аэрозолях. Эти процессы почти всегда приводят к образованию кластеров, имеющих фрактальную структуру. К таким процессам можно отнести пиролиз и горение газообразных органических и неорганических веществ. Имеются эксперимен тальные данные по образованию фрактальных агрегатов в системах: наночастиц гидрогенизиро ванного кремния, образующегося при термическом разложении силана [1, 2], оксидов алюминия и титана, образующихся при горении капель этих металлов в воздухе [3–5], сажи, образующейся в пропано-воздушном пламени и пиролизе бензола [6, 7], железа, образующегося при термиче ском разложении пентакарбонита железа [8], серебра, образующегося при термолизе оксалата и формиата серебра в режиме горения [9]. Образование агрегатов наночастиц кремния, сажи, же леза, серебра, оксидов алюминия и титана исследовано методами просвечивающей электронной микроскопии.

Наряду с экспериментальными методами исследования структуры объектов, которые явля ются наиболее надежными, применяются методы моделирования. Эти методы эффективны, когда прямые экспериментальные методы либо трудоемки, либо вообще невозможны. Моделирование как метод исследования в первую очередь применим для систем, параметры которых изменяются во времени. Динамические модели позволяют устанавливать связь между параметрами движе ния и физическими свойствами. Например, рассматривая кластер как динамическую систему взаимодействующих частиц, по параметрам движения (энергия, импульс, частота), используя статистические методы, можно найти макроскопические параметры системы [10]. Методы моде лирования позволяют варьировать в широком диапазоне исходные параметры. Это обеспечивает, в сравнении с прямыми экспериментальными методами, возможность более детального исследо вания. Модельные системы обеспечивают наиболее общий подход к изучению агрегации образо вания структур. Структура агрегатов является доминирующим фактором при изучении свойств материалов.

Разработано множество модельных механизмов формирования фрактальных кластеров.

Проведено большое количество численных экспериментов, в которых выявлялись закономер ности фрактальной природы реальных объектов на основе модельных механизмов [11]. Среди моделей следует выделить модели агрегации такие как модель агрегации ограниченной диф фузией (встречается также и название модель Виттена-Сандера) и модель кластер-кластерная агрегация ограниченная диффузией.

Изучение фрактальных кластеров в аэрозолях показало, что в большинстве случаев их мож но описать методами фрактальной геометрии. Фрактальная размерность агрегатов сажи имеет значения 1,7–1,8, что согласуется с моделью кластер-кластерной агрегации ограниченной диффу зией. Фрактальная размерность агрегатов Al2 O3, T iO2, Ag соответственно равна 1,6, 1,45, 1,4. По лученные значения фрактальной размерности слишком малы, чтобы объяснить их с помощью мо делей агрегации. Таким образом модель агрегации ограниченной диффузией, кластер-кластерная агрегация ограниченная диффузией не позволяют генерировать фрактальные кластеры в полном диапазоне размерностей наблюдаемых у физических объектов. Эти модели позволяют получать фрактальные структуры с определенной фрактальной размерностью, однако кинетика процесса и динамические параметры частиц кластера не могут быть определены в рамках этих моделей.

Эта проблема может быть решена применением метода молекулярной динамики.

Метод молекулярной динамики предоставляет информацию о структуре образующихся агрегатов. Основу техники метода молекулярной динамики составляют расчеты траекторий для отдельных частиц, взаимодействующих друг с другом [12–14]. Для решения уравнений движения обычно применяют алгоритм Верле в скоростной форме[14]. Методы молекулярной динамики требует значительных вычислительных ресурсов. Для решения таких задач весьма актуальным является применение суперкомпьютерных систем, которые позволяют значительно сократить время расчетов.

Описание модели В аэрозолях на частицах могут появляться заряды. Их величина обусловлена случайными столкновениями частиц с ионами в газах. Величина заряда частиц аэрозолей сильно флукту ирует от частицы к частице. В среднем заряд частицы соответствует всего лишь нескольким элементарным зарядам [15, 16].

Разработана модель образования фрактальных кластеров с учетом кулоновского взаимодей ствия образующих его частиц. Эта модель отличается от модели кластер-кластерной агрегации ограниченной диффузией тем, что частицам присваивается заряд равный по модулю 1–5 заря да электрона [3, 5, 6]. Количество частиц с положительным зарядом равно количеству частиц с отрицательным зарядом. Частицы перемещаются в соответствии с кулоновским потенциалом взаимодействия. При столкновении частицы объединяются в кластеры. В модели учитывается вращение кластеров и диффузия. Количество частиц в расчетах принималось равным 1250, 2160, 10000. Программа разработана с использованием MS Visual C++ 2008 и библиотеки MPICH версии 1.2.1. Программа состоит из двух частей. Первая часть выполняет распараллеливание и непосредственный расчет параметров модели. Вторая выполняет отображение результатов рас чета (систему кластеров). Отображение кластеров выполняется с использованием библиотеки OpenGL. Алгоритм состоит из этапов (Рисунок 1)[17–18]:

- Инициализация начальных данных на 0 вычислительном процессе (процедура InitData) и их рассылка на все вычислительные процессы (используется стандартная процедура Bcast);

- Маркировка частиц системы на 0 вычислительном процессе (процедура CLSys) и рассылка на все вычислительные процессы (используется стандартная процедура Bcast);

- Вычисление перемещений частиц в системе на каждом вычислительном процессе соответ ствующей ему группы частиц (процедура Main) и обмен данными между вычичлительными про цессами (процедура Obmen). Процедура Obmen использует стандартные процедуры Gather и Bcast;

- Расчет отражение кластеров (группы частиц) от границы области на каждом на каждом вычислительном процессе соответствующей ему группы кластеров (процедура Gran) и обмен данными между вычичлительными процессами (процедура Obmen);

- Запись промежуточных результатов в файл на 0 вычислительном процессе (процедура SaveFile);

- Проверка прекращения вычислительного процесса(в системе остался один кластер или вы полнено определенное количество шагов). Если процесс прекращается, то происходит запись ко нечных результатов в файл (процедура SaveFile), иначе осуществляется преход к пункту 2.

Рисунок 1 – Блок-схема алгоритма расчета Полученные результаты Расчеты выполнялись в ресурсном центре СКИФ Гродненского государственного универ ситета имени Янки Купалы на суперкомпьютерном кластере СКИФ К-1000М-05. Расчеты по формированию структуры фрактальных кластеров выполнялись с использованием от 1 до вычислительных узлов. Получена зависимость времени расчета от количества вычислительных узлов (Рисунок 2).

Рисунок 2 – Зависимость времени расчета от количества вычислительных узлов Анализ полученной зависимости показывает, что увеличение числа вычислительных узлов кла стера приводит к уменьшению времени вычислений в соответствии с обратной экспонентой(1).

Полученный результат хорошо согласуется с теоремой Амдала.

t = 276, 72 exp(0.3z) + 116 (1) где t – время расчета, z – количество вычислительных узлов.

В результате расчетов установлено, что использовании 80 вычислительных узлов позволяет сократить время вычислений в три раза [17, 18]. Увеличение количества вычислительных узлов больше 80 не оказывает значительного влияния на время расчетов.

Разработанная модель позволяет рассчитать параметры процесса образования класте ров(зависимости среднего числа частиц во фрактальных кластерах в системе от времени, временная зависимость числа кластеров в системе). Применение суперкомпьютерных систем для исследования аэрозольных систем позволяет сократить время расчетов и подобрать параметры формирования таких систем в более широком диапазоне.

Список литературы 1. Onischuk, A. A. Formation of Electrical Dipoles during Agglomeration of Uncharged Particles of Hydrogenated Silicon / A. A. Onischuk [et al.] // J. Aerosol Sci. – 2001. – V. 32, – P. 87–105.

2. Onischuk, A. A. Evidence for Long-Range Coulomb Eects during Formation of Nanoparticle Aggregates from Pyrolysis and Combustion Routes / A. A. Onischuk [et al.] // J. Phys. Chem. A. –2000. –V.104. –P. – 10426–10434.

3. Карасев, В. В. Заряды и фрактальные свойства наночастиц – продуктов горения агломератов алюми ния / В. В. Карасев [и др.]. // Физика горения и взрыва. –2001. –Т. 37, № 6. -– С. 133-–135.

4. Karasev, V. V. Formation of titania nanoparticles via combustion of the pyrotechnic mixture / V. V. Karasev [et al.] // 35th International Annual Conference of ICT Energetic Materials:Structure and Properties. June 29 – Jule 2, Federal Republic of Germany, Karlsruhe, – 2004. – Report 139. – C. 1–12.

5. Karasev, V. V. Charged aggregates of nanoparticles – products of aluminum and titanium combustion / V. V. Karasev [et al.] // In: Proceedings of the Fourth Int. High Energy Materials Conference, Editor: M.

Singh, India. – 2003. – P. 1–8.

6. Onischuk, A. A. Evidence for Long-Range Coulomb Eects during Formation of Nanoparticle Aggregates from Pyrolysis and Combustion Routes / A. A. Onischuk, [et al.] // J. Phys. Chem. A. – 2000. – V. 104. – P. 10426–10434.

7. Onischuk, A. A. Evolution of structure and charge of soot aggregates during and after formation in a propane/air diusion ame / A. A. Onischuk [et al.] // J. Aerosol Sci. – 2003. – V. 34. – P. 383–509.

8. Иванов, Н. А. Образование железа и углеродных наноструктур с включениями железа / Н. А. Иванов, А. М. Бакланов, А. А. Онищук // Химическая физика. – 2005. – Т. 24, № 4. – С. 84–94.

9. Колесников, В. Н. Формы кристаллизации металла при термолизе оксалата и формиата серебра в режиме горения и детонации / В. Н. Колесников // Вестник Харковского национального университета.

Химия. – 2005. – Вып. 13(36). – С. 145 – 147.

10. Белко, А. В. Методы построения фрактальных кластеров с учетом различных потенциалов взаимодей ствия / А. В. Белко // Вестник Гродн. гос. ун-та. Сер. 2, Математика. Физика. Техника. Информатика.

Биология. Химия. Экология, – 2003. – № 2. – С. 33–39.

11. Смирнов, Б. М. Физика фрактальных кластеров / Б. М. Смирнов. – М.: Наука, 1991. – 136 с.

12. Урьев, Н. Б. Моделирование динамического состояния дисперсных систем / Н. Б. Урьев, И. В. Кучин // Успехи химии. – 2006. – Т. 75. – C. 36–63.

13. Урьев, Н. Б. Физико-химическая динамика дисперсных систем / Н. Б. Урьев // Успехи химии. – 2004. – Т. 73. – C. 39–62.

14. Гульд, Х. Компьютерное моделирование в физике: В 2-х ч. Ч.2 / Х. Гульд, Я. Тобочник. – М.: МИР, – 1990. – 380 c.

15. Щукин, Е. Д. Коллоидная химия / Е. Д. Щукин, А. В. Перцов, Е. А. Амелина. – М.: Высш.шк., –2004. – 445 с.

16. Фролов, Ю. Г. Курс коллоидной химии. Поверхностные явления и дисперсные системы / Ю. Г. Фро лов. – М.: Химия, 1989. – 464 с.

17. Белко, А. В. Применение параллельных вычислений для моделирования агрегации аэрозольных ча стиц // А. В. Белко, А. В. Никитин / Информационные технологии и программные средства: проек тирование, разработка и применение : сб. науч. ст. / ГрГУ им. Я. Купалы ;

редкол.: Л. В. Рудикова (гл. ред.) [и др.]. – Гродно : ГрГУ, 2011. – С. 262–266.

18. Белко, А. В. Моделирование агрегации заряженных частиц с применением систем параллельной обра ботки данных / А. В. Белко, А. В. Никитин // Вестник Гродн. гос. ун-та. Сер. 2, Математика. Физика.

Информатика, Вычислительная техника и управление. – 2012. – № 3. – С. 84–91.

Белко Александр Витальевич, доцент кафедры информационных систем и технологий ГрГУ им. Я.

Купалы, кандидат физико-математических наук, belko_av@grsu.by Никитин Александр Викторович, зав. кафедрой теоретической физики ГрГУ им. Я.Купалы, кан дидат технических наук, доцент, nik@grsu.by УДК 530. А. Г. КАРПОВИЧ ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ В МОЛЕКУЛЯРНОЙ ДИНАМИКЕ Статья посвящена исследованию зависимости времени расчета параллельной программы от количества процессов. Так же в ней приведены основные методы и функции с помощью которых была доработана программа по динамическому моделированию кластеров.

Введение Развитие вычислительных технологий и средств сопровождалось пониманием того, что ра боты надо делить между многими исполнительными устройствами. Распараллеливание – есте ственный жизненный принцип, основанный на утверждении, что коллектив сильнее одиночки.

Основной критерий эффективности распараллеливания заключается в минимизации времени вы полнения работы. Однако действенен и другой критерий – выбор системы исполнителей, обла дающей минимальной стоимостью и способной закончить работу не позже указанного срока.

Организация параллельности вычислений, когда в один и тот же момент выполняется одно временно несколько операций обработки данных, осуществляется, в основном, за счет введения избыточности функциональных устройств (многопроцессорности). В этом случае можно достичь ускорения процесса решения вычислительной задачи, если осуществить разделение применя емого алгоритма на информационно независимые части и организовать выполнение каждой части вычислений на разных процессорах. Подобный подход позволяет выполнять необходимые вычисления с меньшими затратами времени, и возможность получения максимально-возможного ускорения ограничивается только числом имеющихся процессоров и количеством независимых частей в выполняемых вычислениях.

Распараллеливание программ Старые линейные методы программирования уже не подходят для написания программ, эффективно использующих многопроцессорную технологию. Необходимо поменять стиль про граммирования задач. Но для этого надо иметь минимальное представление о том, какими спо собами можно превратить линейную программу в параллельную. Хотя существуют специальные трансляторы, которые автоматически, без участия програмиста, могут найти в программе куски параллельного кода и дать на выходе исполняемую на кластере задачу, добиться максималь ных результатов с помощью таких трансляторов нельзя. О некоторых подобных трансляторах мы поговорим позже, когда будем обсуждать программное обеспечение кластера. Теперь же рас смотрим некоторые теоретические вопросы построения параллельных вычислений.

Распараллеливание программ - это процесс адаптации алгоритмов, записанных в виде про грамм, для их эффективного исполнения на вычислительной системе параллельной архитектуры.



Pages:   || 2 | 3 | 4 | 5 |   ...   | 11 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.