авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 |
-- [ Страница 1 ] --

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ

ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ

ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ

"МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ

УНИВЕРСИТЕТ

РАДИОТЕХНИКИ, ЭЛЕКТРОНИКИ И АВТОМАТИКИ"

На правах рукописи

ДРОБНОВ СЕРГЕЙ ЕВГЕНЬЕВИЧ

АНАЛИЗ И ОЦЕНКА ФАКТОРОВ, ВЛИЯЮЩИХ НА СКОРОСТЬ

ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ ИНФОРМАЦИИ В

ГРИД-СИСТЕМАХ Специальность 05.13.15 – " Вычислительные машины, комплексы и компьютерные сети" (область исследований №4) ДИССЕРТАЦИЯ на соискание ученой степени кандидата технических наук

Научный руководитель – доктор технических наук, профессор В.К. Раев Москва – ОГЛАВЛЕНИЕ ОГЛАВЛЕНИЕ.................................................................................................... ГЛОССАРИЙ....................................................................................................... ВВЕДЕНИЕ........................................................................................................ ГЛАВА 1 АНАЛИЗ ПРОБЛЕМАТИКИ В ОБЛАСТИ ОРГАНИЗАЦИИ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ В ГРИД-СИСТЕМАХ.

ПОСТАНОВКА ЗАДАЧИ ИССЛЕДОВАНИЯ.............................................. 1.1 Состояние исследований и разработок в области ГРИД-систем. Пути развития распределенных систем................................................................ 1.2 Особенности параллельных вычислений в ГРИД-системах.............. 1.3 Классификация архитектур ГРИД-систем........................................... 1.4. Стек протоколов ГРИД-систем............................................................. 1.5 Постановка задачи.................................................................................. ГЛАВА 2 ИССЛЕДОВАНИЕ И РАЗРАБОТКА МЕТОДОВ АНАЛИЗА СКОРОСТИ ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ ИНФОРМАЦИИ В ГРИД СИСТЕМАХ...................................................................................................... Факторы, замедляющие процесс параллельной обработки 2. информации................................................................................................... 2.2 Обобщенная формула ограничения роста производительности вычислительной ГРИД-системы................................................................. 2.3 Задача минимизация количества вычислительных узлов в ГРИД системах......................................................................................................... 2.4. Метод оценки скорости параллельной обработки в ГРИД-системах гомогенного типа.......................................................................................... 2.5. Метод оценки скорости параллельной обработки в ГРИД-системах гетерогенного типа........................................................................................ Анализ производительности вычислительных узлов с 2.6.

многоядерными процессорами.................................................................... 2.7 Анализ обучения нейронных сетей в ГРИД-системах........................ 2.8. Взаимосвязь объема последовательных вычислений и времени обработки пакетов в ГРИД-системах.......................................................... 2.9. Динамика характеристик загруженности ГРИД-систем в процессе обработки данных......................................................................................... 2.10. Краткие выводы.................................................................................... ГЛАВА ЭКСПЕРИМЕНТАЛЬНОЕ ИССЛЕДОВАНИЕ РАЗРАБОТАННЫХ МЕТОДИК ОЦЕНКИ ПРОИЗВОДИТЕЛЬНОСТИ ГРИД-СИСТЕМ. ВОПРОСЫ ПРАКТИЧЕСКОГО ПРИМЕНЕНИЯ.......... 3.1 Разработка архитектуры и структурной схемы моделируемой ГРИД системы. Имитация решения задач в ГРИД-системе................................ Развертывание ГРИД-системы на примере учебных 3. высокопроизводительных вычислительных кластеров МГТУ МИРЭА.

....................................................................................................................... 3.3 Развертывание высокопроизводительного вычислительного кластера на базе дистрибутива PelicanHPC............................................................. 3.4 Разработка ГРИД-системы на основе инфраструктуры BOINC...... 3.5 Краткие выводы.................................................................................... ЗАКЛЮЧЕНИЕ............................................................................................... БИБЛИОГРАФИЯ........................................................................................... БЛАГОДАРНОСТИ........................................................................................ ПРИЛОЖЕНИЯ............................................................................................... Приложение 1: Акты внедрения ГРИД-системы на базе МГТУ МИРЭА и Московского Государственного Дворца Детского (Юношеского) Творчества....................................................................................................... Приложение 2: Свидетельство о государственной регистрации программы анализа ускорения распределенных вычислений........................................ Приложение Программа анализа ускорения распределенных 3:

вычислений на алгоритмах кластеризации.................................................. ГЛОССАРИЙ Abstraction - абстракция - изменение интерфейса объекта и 1.

преобразование его в более полезную и подходящую форму.

Аccess – доступ - возможность взаимодействия с системной 2.

сущностью (system entity) с целью ее обработки, использования, извлечения сведений и/или получения представления о некоторых или всех ресурсах системной сущности. [RFC 2828] Аccess control - управление доступом - защита ресурсов от 3.

неавторизованного доступа;

процесс, посредством которого использование ресурсов регулируется в соответствии с политикой безопасности (security policy) и разрешается только авторизованным системным сущностям (system entity), [RFC 2828].

Аccess control information - информация для управления доступом 4.

a) Любая информация, используемая в целях управления доступом (access control), включая контекстную информацию. [X.812] b) Контекстная информация может содержать исходные IP-адреса, шифры, тип запрашиваемой операции, время суток и т.д. Часть информации для управления доступом (access control) может относиться к самому запросу, часть - к связи (connection), посредством которой запрос передается, часть к "среде" (например, время суток) [RFC 2829].

Access rights - права доступа - Описание типов авторизованных 5.

взаимодействий, которые субъект может иметь с ресурсом.

Например, это чтение, запись, исполнение, добавление, модификация и удаление. [WSIA Glossary] Accounting Subsystem (AS) - подсистема учета - предназначена для 6.

учета использования вычислительных ресурсов (таких как процессорное время, использование оперативной памяти и так далее), и, в частности, может использоваться для формирования информации о стоимости использования данного ГРИД-ресурса данным пользователем, если взаимоотношения пользователей и провайдеров ресурсов основаны на экономической модели.

Actor - актор 7.

a) Человек или организация (person or organization) - которые могут быть владельцами агентов (agents), запрашивающих или поставляющих Web-службы (Web services).

b) Физический или концептуальный объект, который может выполнять какие-то действия, например, люди, компании, машины, работающее программное обеспечение. Актор может выполнять одну или несколько ролей. Актор на одном уровне абстракции может рассматриваться как роль на более низком уровне абстракции.

Ad-hoc GRID - непосредственное формирование сотрудничающих 8.

гетерогенных вычислительных узлов в логическое сообщество без предварительно сконфигурированной фиксированной инфраструктуры и минимальными административными c требованиями.

Alliance - альянс - коллаборация небольших прикладных сообществ, 9.

создающих свои системы и работающих с ними в среде постоянно действующей ГРИД-инфраструктуры Anonymity - анонимность - свойство или состояние, при котором 10.

имя или идентичность неизвестны или скрыты. [RFC 2828] Anonymous network - анонимная сеть - компьютерные сети, 11.

созданные для достижения анонимности в Интернете и работающие поверх глобальной сети.

Application - приложение - в контексте толкования ГРИД 12.

компьютинга в целом, "приложение" относится к некоторому компонентов, расположенному над уровнями “уровню" инфраструктуры и ресурсов, Приложение - термин, используемый для идентификации некоторого множества элементов программного обеспечения. Приложение выполняет вычислительные работы, управляет данными (доступ, хранение, чтение…) и является носителем многих атрибутов. Любое приложение при активизации (выполнении) содержит информацию, которая позволяет обратиться к лицу, ответственному за выполнение этого приложения.

Application Layer - прикладной уровень модели OSI - описывает 13.

пользовательские приложения, работающие в среде виртуальной организации;

приложения функционируют, используя протоколы, определенные на нижележащих уровнях.

Application middleware - прикладное промежуточное программное 14.

обеспечение - представляет собой специально ориентированное на приложение ППО, встроенные индивидуальные возможности и интерфейсы которого отличны от тех, что общеприняты. Например, это программы сбора информации и средств конфигурации службы обнаружения и мониторинга (Monitoring and Discovery Service, MDS). ПППО тесно связано с общецелевым промежуточным программным обеспечением ГРИД-инфраструктуры.

Application-level gateway - шлюз прикладного уровня - компонент 15.

NAT-маршрутизатора, который понимает какой-либо прикладной протокол, и при прохождении через него пакетов этого протокола модифицирует их таким образом, что находящиеся за NAT пользователи могут пользоваться протоколом.

Architecture - архитектура 16.

a) архитектура системы программного обеспечения или вычислительной системы - структура или структуры этой системы. Такая структура включает программные компоненты, визуализированные свойства этих компонент, отношения между компонентами и ограничения на их использования;

b) архитектура программного обеспечения - абстракция элементов системы программного обеспечения в течение некоторой фазы ее работы. Система может состоять из многих уровней абстракции и многих фаз работы, и каждый уровень и каждая фаза могут иметь свою архитектуру.

Artifact - артефакт - порция цифровой информации. Артефакт может 17.

иметь любой объем и может состоять из других артефактов.

Примеры артефактов: сообщение, URI (Uniform Resource Identifier), XML-документ, PNG-изображение, поток битов.

Attribute - атрибут - отличительная характеристика, описывающая 18.

объект. Атрибуты реальных объектов часто специфицируются в терминах физических характеристик объектов, таких как размер, форма, вес, цвет и т.д. Атрибуты объектов киберпространства могут описывать их размер, способ кодирования, сетевой адрес и т.д.

[WSIA Glossary] Audit guard - защита аудита - используемый от имени владельца 19.

механизм, который позволяет контролировать действия и агентов (agents) для подтверждения выполнения обязательств (obligations).

Authentication - аутентификация - процесс проверки и 20.

подтверждения, что потенциальный партнер по общению действительно представляет человека или организацию (person or organization).

Base GRID service - базовая служба ГРИД - обеспечивает работу 21.

всей ГРИД-системы в целом;

службы подразделяются на следующие подсистемы: подсистема управления загрузкой (Workload Management System, WMS), подсистема управления данными (Data подсистема информационного Management System, DM), обслуживания и мониторинга ГРИД-системы (Information System, IS), подсистема безопасности и контроля прав доступа (Grid Security Infrastructure, GSI), подсистема протоколирования (Logging and Bookkeeping, LB), подсистема учета (Accounting Subsystem, AS).

Binding - связывание 22.

a) связь между интерфейсом (interface), конкретным протоколом (protocol) и форматом данных. Связывание определяет, какой протокол и какой формат данных нужно использовать для передачи сообщений, определенных связанным интерфейсом [WSD Reqs];

b) установление соответствия между интерфейсом (interface) и связанными с ним операциями (operations), с одной стороны, и форматом конкретного сообщения и протоколом его передачи (protocol), с другой стороны;

Bridge - мост - устройство, соединяющее две или несколько 23.

физических сетей и передающее пакеты из одной сети в другую.

Calculation acceleration - ускорение вычислений - изменение 24.

скорости вычислений в одной системе при сравнении со скоростью вычислений в другой системе.

capability - возможность, способность - поименованная часть 25.

функциональности (или свойство), которая объявлена как поддерживаемая или запрашиваемая агентом (agent).

Certificate - сертификат - имеющее электронную подпись 26.

утверждение одной сущности (например, сертификационного центра) о том, что открытый ключ (и какая-то другая информация) другой сущности (например, пользователя ГРИД) имеет некоторый определенный смысл. Стандарт X.509 определяет, какая информация должна содержаться в сертификате, и описывает, в каком виде она должна быть в нем записана (формат данных).

Certificate authority - сертификационный центр - сущность, которая 27.

выпускает сертификаты. В OSG признаются сертификаты, выпускаемые целым рядом сертификационных центров, например, Сертификационная Служба DOEGrids.

Choreography – хореография 28.

a) Хореография определяет последовательность и условия обмена сообщениями между многочисленными взаимодействующими независимыми агентами (agent). При помощи этого обмена выполняется задача достижения целевого состояния.

b) Хореография Web-служб касается взаимодействия служб с их пользователями. Любой пользователь Web-службы, автоматический или нет, является клиентом этой службы. В качестве пользователей могут выступать другие Web-службы, приложения или люди. Транзакции между Web-службами и их клиентами должны быть четко определены во время их выполнения и могут состоять из множества отдельных взаимодействий, чья композиция составляет полную транзакцию.

Эта композиция, ее протоколы передачи сообщений, интерфейсы, установление последовательности и ассоциированная логика и составляет то, что называется хореографией. [WSC Reqs] Cluster - кластер - доступная по сети группа рабочих узлов (при 29.

необходимости вместе с головным узлом), размещённая на некотором сайте. Согласно определению в схеме GLUE, кластер это контейнер, который группирует вместе подкластеры или компьютерные узлы.

кластерная и 30. Cluster and multi-cluster GRIDs model мультикластерная модель ГРИД.

Collective intelligence - коллективный интеллект - сетевые службы, 31.

обрабатывающие данные, собранные из разных источников и от разных участников, и находящие среди них самые полезные для пользователей.

Collective Layer - коллективный уровень отвечает за координацию 32.

использования имеющихся ресурсов.

Collision domain - домен коллизий - это часть сети ethernet, все узлы 33.

которой конкурируют за общую разделяемую среду передачи и, следовательно, каждый узел которой может создать коллизию с любым другим узлом этой части сети.

Color Petri net - Цветная сеть Петри.

34.

Component - компонент 35.

a) Объект программного обеспечения, предназначенный для взаимодействия с другими компонентами, инкапсулирующий некоторую функциональность или набор функциональностей.

Компонента имеет четко определенный интерфейс и ведет себя заранее определенным образом, общим для всех компонент в рамках архитектуры [CCA T&D].

b) Абстрактная единица программного обеспечения и внутреннего состояния, которая обеспечивает преобразования данных через свой интерфейс [Fielding].

c) Единица архитектуры с определенными границами.

Computer element - вычислительный элемент (вычислительный 36.

узел) - термин, используемый в ГРИД-технологиях для обозначения любого вида вычислительного интерфейса, например, интерфейса запуска работы или системы пакетной обработки. Вычислительный элемент состоит из одной или более одинаковых вычислительных машин, управляемых одним единственным планировщиком, настроенным на принятие и запуск ГРИД-работ. Сами машины не обязательно должны быть идентичными, но должны иметь одну и ту же операционную систему и одну и ту же архитектуру процессора.

Connection - соединение - виртуальный канал связи транспортного 37.

уровня, установленный между двумя программами для их коммуникации [RFC 2616].

Connectivity Layer - связывающий уровень - составляют протоколы, 38.

которые обеспечивают обмен данными между компонентами базового уровня и протоколы аутентификации.

Critical section - Критическая секция - часть программы, в которой 39.

есть обращение к совместно используемым данным.

Data center – центр обработки данных - специализированное здание 40.

для размещения (хостинга) серверного и коммуникационного оборудования и подключения абонентов к каналам сети Интернет.

Data communication protocol - протокол передачи данных - набор 41.

соглашений интерфейса логического уровня, которые определяют обмен данными между различными программами.

Data federation - объединение данных - процесс интеграции данных 42.

в одном виртуальном месте для быстрого удовлетворения запроса прикладной программы.

Data GRID - проект, финансируемый Европейским Союзом. Цель 43.

проекта - создание следующего поколения вычислительной инфраструктуры обеспечения интенсивных вычислений и анализа общих крупномасштабных баз данных (от сотен терабайт до петабайт) для международных научных сообществ.

Decommissioning - вывод из эксплуатации - процесс уничтожения 44.

компонента ГРИД, после которого компонент становится недоступным для планировщика.

Digital signature - цифровая подпись - значение, которое 45.

вычисляется по криптографическому алгоритму и присоединяется к объекту данных таким образом, что любой получатель этих данных может использовать эту подпись для проверки источника и целостности данных. (См data origin authentication service, data integrity service, digitized signature, electronic signature, signer в [RFC 2828]).

Discovery - обнаружение - определение местонахождения машинно 46.

обрабатываемого описания ресурса, связанного с Web-службой (Web service) Ресурс должен отвечать некоторым функциональным критериям и может быть заранее неизвестен. Поиск описания выполняется путем сопоставления набора функциональных и других критериев с набором описаний ресурсов. Цель поиска - найти соответствующий ресурс, связанный с Web-службой.

Distributed Computing Environment (DCE) - среда распределенных 47.

вычислений - набор сильно интегрированных технологий, разработанных для того, чтобы упростить проведение распределённого компьютинга.

Document - документ - любые данные, которые могут быть 48.

представлены в цифровой форме [UeB Glossary].

Domain - домен - идентифицированное множество агентов (agent) 49.

и/или ресурсов, которое является субъектом ограничений одной или более политик (policiy).

Encapsulation - инкапсуляция - метод построения модульных 50.

сетевых протоколов, при котором логически независимые функции сети абстрагируются от нижележащих механизмов путём включения или инкапсулирования этих механизмов в более высокоуровневые объекты.

Encryption - шифрование - криптографическое преобразование 51.

данных из открытого текста в зашифрованную форму, что позволяет скрыть исходное содержание текста и, тем самым, предохранить его от прочтения или использования. Если это преобразование обратимо, соответствующий обратный процесс называется дешифровкой. Дешифровка возвращает зашифрованный текст в его исходное состояние. [RFC 2828] End point - конечная точка - ассоциация между связыванием 52.

(binding) и сетевым адресом, специфицированным через URI (Uniform Resource Identifier), которая может быть использована для связи с экземпляром службы (service). Конечная точка указывает конкретное место для доступа к службе с использованием конкретного протокола (protocol) и формата данных [WSD Reqs].

Enterprise GRID - ГРИД уровня предприятия - совокупность 53.

взаимосвязанных компонентов ГРИД, находящихся под контролем специального менеджера GME (grid management entity). Как правило, ГРИД уровня предприятия управляются одной компанией.

ГРИД уровня предприятия отличаются от традиционных дата центров методами управления и технологиями: a. службы управления ориентированы на приложения, а не на компоненты;

b.

возможность объединения и совместного использования сетевых ресурсов;

c. гибкость за счет быстрого и автоматизированного предоставления услуг.

Enterprise Grid Computing - ГРИД-компьютинг уровня 54.

предприятия - вид ГРИД-компьютинга, включающий в качестве предоставляемой услуги коммерческие приложения.

E-Science GRID - научная ГРИД (научные исследования, 55.

использующие большие вычислительные мощности) Federation - объединение - одноранговое связывание ресурсов в 56.

рамках OSG или во внешних по отношению к OSG ГРИД-системах.

Создание объединения ресурсов или ГРИД-систем позволяет упростить поддержку миграции работ между интегрируемыми объектами.

Gatekeeper - привратник - процесс, который на сайте обрабатывает 57.

входящие запросы на выполнение работ и проверяет права на использование связанных с каждой работой вычислительных ресурсов. Процесс привратник запускает процесс менеджера работ после успешной аутентификации.

Global GRID - глобальные ГРИД - устанавливаются в Интернете, 58.

предоставляя отдельным пользователям или организациям мощность ГРИД независимо от того, где в мире эти пользователи находятся. Это также называют Интернет-компьютингом.

Globus Toolkit - инструментальный пакет Globus - свободно 59.

распространяемый пакет программного обеспечения, предназначенный для построения ГРИД. Он разрабатывается в рамках Проекта Globus и большого ряда других проектов, поддерживаемых во всем мире.

GLUE Schema - схема GLUE - деятельность в контексте схемы 60.

GLUE имеет своей целью определение общей концептуальной модели данных, которую можно было бы использовать для обнаружения и мониторинга ГРИД-ресурсов. Ставится задача определить, опубликовать и сделать доступными для использования общие схемы интероперабельности между европейскими и американскими ГРИД-проектами в области физики.

GRID (грид, сеть) - географически распределенная информационная 61.

система - технология распределённых вычислений, в которой вычислительная система («суперкомпьютер») представлена в виде соединенных сетью вычислительных узлов, слабосвязанных, гомогенных или гетерогенных компьютеров, работающих вместе для выполнения большого количества заданий. ГРИД-технология применяется для решения разного рода научных задач, требующих значительных вычислительных ресурсов.

GRID accounting - система учета в ГРИД - система учета, следящая 62.

за использованием ресурсов членами виртуальных организаций и предоставляющая отслеживаемую информацию в общепринятом для ГРИД виде. Основное внимание при этом обращается на расходование времени CPU и дисковой памяти.

GRID computing - ГРИД-компьютинг, ГРИД-вычисления 63. вычисления в среде ГРИД.

GRID infrastructure - инфраструктура ГРИД - географически 64.

распределённая инфраструктура, объединяющая множество ресурсов разных типов (процессоры, долговременная и оперативная память, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки, независимо от места их расположения.

GRID Laboratory Uniform Environment (GLUE) - лаборатория по 65.

созданию единообразной ГРИД-среды спонсируется Объединенным Техническим и Координационным Правлением по ГРИД в сфере Ядерной Физики и Физики Высоких Энергий (High Energy and Nuclear Physics Intergrid Joint Technical and Coordination Boards). Целью GLUE является поддержка интероперабельности между европейскими ГРИД-системами в сфере физики (EDG, Data Tag и т.д.) и аналогичными американскими проектами (iVDGL, PPDG, GriPhyN). Лаборатория GLUE тщательно анализирует каждую службу, требуемую работающим в ГРИД-среде комплексным приложением или тестируемой экспериментальной системой, начиная с операций самого нижнего уровня, для которых необходима интероперабельность в рамках международных проектов.

GRID monitoring - ГРИД-мониторинг - сбор, анализ и публикацию 66.

информации от распределенной рабочей инфраструктуры с целью определения статуса серверов и хода выполнения приложения;

ГРИД-мониторинг включает в себя регулярную регистрацию данных о производительности CPU, сетей и запоминающих устройств.

GRID protocols stack - стек протоколов ГРИД - стек протоколов, в 67.

котором каждый уровень предназначен для решения узкого круга задач и используется для предоставления услуг для более высоких уровней. Структура аналогична сетевой модели OSI (Open Systems Interconnection Reference Model;

модель взаимодействия открытых систем). Стек протоколов включает аппаратный, связывающий, ресурсный, коллективный и прикладной уровни.

GRID service - ГРИД-сервис - OGSA определяет ГРИД-сервис как 68.

веб-сервис, который предоставляет набор корректно определенных интерфейсов, определенных на языке WSDL, и следует специфическим конвенциям для их создания и композиции сложных распределенных систем.

GRID User Interface (UI) - интерфейс пользователя - предназначен 69.

для обеспечения доступа пользователя к ресурсам ГРИД. Через UI пользователь осуществляет запуск заданий на выполнение, пересылает данные с одного ресурса хранения данных на другой, контролирует процесс выполнения задания, получает результат выполнения задания.

GRID User Management System (GUMS) - система управления 70.

пользователями ГРИД - служба отображения идентичности в ГРИД (Grid Identity Mapping Service) Она отображает удостоверение для каждой новой работы, приходящей на сайт, на соответствующее удостоверение этого сайта и затем отсылает полученное отображение программе привратника. Особенно хорошо GUMS годится для гетерогенной среды с большим числом привратников. C помощью GUMS можно легко реализовать политику одноразового пользования для многих сайтов, обеспечивая оптимальное управление и безопасность доступа к ГРИД-ресурсам сайтов.

ГРИД-ориентированный 71. GRID-oriented data mining интеллектуальный анализ данных.

Group - группа виртуальной организации (ВО) - организационная 72.

структура, определяемая ВО, которая относится к подразделению всего проекта ВО, и в которой числится некоторое подмножество членов ВО.

Head Node - головной узел - не вполне четко определенный термин, 73.

который обычно относится к узлу кластера поставщика (Resource Provider Cluster), через который поступают задания на выполнение работ. В простом кластере головной узел это узел, в котором расположены программы привратника и мониторинга. В более сложном кластере эти программы могут располагаться на нескольких различных узлах;

делая понятие "головного узла" не вполне ясным. Считается, что головной узел соединен по сети с группой рабочих узлов.

Host - хост - вычислительный элемент как физическая единица. Этот 74.

элемент характеризует физическую конфигурацию вычислительного узла, включая процессоры, программное обеспечение, элементы памяти и т.д.

Hosting - хостинг - услуга по предоставлению вычислительных 75.

мощностей для физического размещения информации на сервере, постоянно находящемся в сети.

Information System (IS) – в ГРИД-системах подсистема 76.

информационного обслуживания и мониторинга. Решает задачу сбора и управления данными о состоянии ГРИД, получая информацию от множества распределенных источников (поставщиков). Подсистема предназначена для постоянного контроля функционирования ГРИД и обеспечения своевременного реагирования на возникающие проблемы.

Integrity (целостность) – термин, связанный с гарантией того, что 77.

информация не будет случайно или умышленно изменена или уничтожена [NSA Glossary].

Intra-GRID - интра-ГРИД, университетские ГРИД - ГРИД, в 78.

которых объём ресурсов ограничивается ресурсами единственной организации, предназначены для пользователей, являющихся членами головной организации.

Knowledge GRID - ГРИД знаний - ГРИД знаний является 79.

расширением стандартного ГРИД, где данные, ресурсы и службы сопровождаются четким описанием смысла, который аннотирован семантическими метаданными, так, что как машина, так и человек могут в них разобраться. Целью является создание такой инфраструктуры, которая бы предназначалась не только для вычислений и управления данными, но явилась бы проникающей управляемой знаниями инфраструктурой.

Knowledge management - менеджмент знаний - систематические 80.

процессы, благодаря которым создаются, сохраняются, распределяются и применяются основные элементы интеллектуального капитала, необходимые для успеха организации;

стратегия, трансформирующая все виды интеллектуальных активов в более высокую производительность, эффективность и новую стоимость.

Loose coupling - слабое связывание - зависимость между 81.

взаимодействующими системами. Эта зависимость может быть разделена на реальную и искусственную. Слабое связывание описывает конфигурацию, при которой искусственная зависимость сведена к минимуму.

a) Реальная зависимость - это совокупность свойств или служб, которые одна система заимствует у других систем. Реальная зависимость всегда существует и не может быть уменьшена.

b) Искусственная зависимость - это совокупность факторов, которым система должна подчиняться, чтобы иметь возможность пользоваться свойствами или службами, предоставляемыми другой системой. Типичными факторами искусственной зависимости являются языки программирования, платформы, API и т.д. Искусственная зависимость всегда существует, но она или ее стоимость могут быть уменьшены.

MAC-address - MAC-адрес - уникальный физический адрес сетевой 82.

карты или порта маршрутизатора в локальной сети, который прописывается самим производителем.

Management (управление) - использование возможностей 83.

управления в системе управления, с тем чтобы система могла выполнять мониторинг стоимости, отслеживание состояний и управление сущностями с целью создания и поддержания устойчивой операционной среды.

Message - сообщение 84.

a) Основная единица данных, пересылаемая от одного агента (agent) Web-служб (Web services) другому в контексте Web-служб.

b) Основная единица связи между Web-службой (Web service) и потребителем (requester): данные, передаваемые или получаемые Web-службой как одна логическая пересылка [WSD Reqs].

MIMD, Multiple Instruction Multiple Data - Вычислительная 85.

система со множественным потоком команд и множественным потоком данных.

MISD, Multiple Instruction Single Data - вычислительная система со 86.

множественным потоком команд и одиночным потоком данных.

Mobile GRID - мобильные ГРИД - мобильные ГРИД предоставляют 87.

доступ к ГРИД-службам через такие мобильные устройства, как PDA и смартфоны.

Multi-agent system - многоагентная система - система, образованная 88.

несколькими взаимодействующими интеллектуальными агентами.

National GRID - национальные ГРИД - располагают только теми 89.

компьютерными ресурсами, которые доступны в границах соответствующего государства. К национальным ГРИД доступ имеют только организации национального значения, они обычно поддерживаются правительственными фондами.

Network Element - сетевой элемент - сетевой маршрут или 90.

множество сетевых переключений. Он включает в себя как информацию о сквозном сетевом пути, так и информацию о последовательности сетевых переключений (hops).

Network Element - сетевой элемент - физический компонент ГРИД, 91.

являющийся сетевым устройством, как, например, роутер.

Network Protocol - сетевой протокол - набор правил и действий 92.

(очерёдности действий), позволяющий осуществлять соединение и обмен данными между двумя и более включёнными в сеть устройствами.

Next Generation GRID (ГРИД следующего поколения) - ГРИД, 93.

которой присущи следующие свойства: прозрачность (transparent) и надёжность (reliable);

открытость для самых различных сообществ пользователей и поставщиков;

проникаемость (pervasive) и повсеместность безопасность и обеспечение (ubiquitous);

управляемого доступа в пространстве административных доменов;

лёгкость использования и программирования;

живучесть (persistent);

использование стандартов для программного обеспечения и протоколов;

человеко-центричность (person-centric);

масштабируемость;

простота конфигурации и управления.

Open GRID Forum (OGF) - сообщество пользователей, 94.

разработчиков и производителей для стандартизации ГРИД компьютинга. Она была создана в 2006 году в результате слияния Global Grid Forum и Enterprise Grid Alliance.

Open Grid Services Architecture (OGSA) - OGSA является 95.

сервисно-ориентированной архитектурой ГРИД для использования в различных научных и индустриальных областях. Эта архитектура опирается на веб-технологии, особенно на WSDL и SOAP, хотя в значительной степени предполагает независимость от способа обработки данных на транспортном уровне. Коротко говоря, OGSA является архитектурой распределенных информационно вычислительных систем на основе сервисов, обеспечивающая интероперабельность в рамках неоднородной распределенной системы и возможность взаимодействия и совместной обработки информации различными типами ресурсов. По форме OGSA представляет из себя обобщение веб-сервисной архитектуры, отвечающее требованиям ГРИД-компьютинга.

Peer-to-peer (p2p) - одноранговая сеть.

96.

Permanent storage - постоянная память - система хранения данных, 97.

или набор данных в системе хранения, в которой физический файл может быть создан и удален только владельцем этого набора данных.

Permission - разрешение - вид политики (policy), которая определяет 98.

допустимые действия и состояния агента и/или ресурса.

Perceptron (перцептрон) – модель нейронной сети, предложенная Ф.

99.

Розенблаттом. Модель состоит из входного слоя сенсоров, внутренних слоев нейронов (опционально) и выходного слоя.

100. Personal GRID - персональные ГРИД - ГРИД, в которых доступ разрешен на персональном уровне самим собственникам и некоторым друзьям собственников.

101. Petri Nets (cети Петри) - математический аппарат для моделирования динамических дискретных систем, впервые описанный К. Петри.

102. Policy - политика - констатация четко определенных требований, условий или предпочтений, которые выставляются поставщиком и/или потребителем. Они используются в инфраструктуре при формулировании решений, определяющих те или иные действия и/или операции.

103. Protocol - протокол - набор формальных правил, описывающих, как пересылаются данные, особенно по сети. Протоколы низкого уровня определяют электрические и физические стандарты, которые должны соблюдаться, последовательность битов и байтов, передачу данных и обнаружение ошибок, коррекцию потока битов.

Протоколы высокого уровня регулируют форматирование данных, включая синтаксис сообщений, терминал для диалога с компьютером, наборы символов, последовательность сообщений и т.д.

104. Proxy - прокси - агент (agent), который ретранслирует сообщение агента потребителя (requester agent) агенту поставщика (provider agent), выступая перед Web-службой (Web service) в качестве потребителя.

105. Resource Layer - ресурсный уровень - это ядро многоуровневой системы, протоколы которого взаимодействуют с ресурсами, используя унифицированный интерфейс и не различая архитектурные особенности конкретного ресурса.

106. Scale Out - масштабирование наружу - масштабирование приложения или службы при помощи использования множества экземпляров компонентов служб. Является синонимом горизонтального масштабирования.

107. Scale Up - масштабирование вверх - масштабирование приложения или службы за счет повышения производительности или вместимости, путем добавления ресурсов в экземпляры службы или компоненты. Является синонимом вертикального масштабирования.

108. Semantically saturated knowledge GRID - семантически насыщенные ГРИД знаний - ГРИД, в которых технологии промежуточного программного обеспечения становятся все более автономными и интеллектуальными.

109. Service-oriented GRID - сервисно-ориентированный ГРИД - ГРИД, в котором сервисы используется и для виртуализации ресурсов, и для обеспечения других функциональных возможностей ГРИД.

110. Session - сессия - продолжительное взаимодействие объектов системы (system entities), часто с участием пользователя, в течение которого сохраняется некоторое состояние (state) этого взаимодействия [WSIA Glossary]. Такое взаимодействие не обязательно ограничивается одним соединением (connection) между элементами системы.

111. SIMD, Single Instruction, Multiple Data - вычислительная система с одиночным потоком команд и множественным потоком данных.

112. SISD, Single Instruction stream over a Single Data stream вычислительная система с одиночным потоком команд и одиночным потоком данных.

113. SOAP - Simple Object Access Protocol - формальный набор соглашений, определяющих формат и правила обработки SOAP сообщений.(SOAP Эти соглашения касаются message) взаимодействия между SOAP-узлами (SOAP nodes), генерирующими и принимающими SOAP-сообщения с целью обмена информацией на пути передачи SOAP-сообщения (SOAP message path).

114. Stochastic Petri net - стохастическая сеть Петри – сеть Петри, в которой временные задержки являются случайными величинами.

115. Subcluster - субкластер - в схеме GLUE субкластер представляет собой гомогенный набор узлов, в котором гомогенность, определена тем, что все необходимые атрибуты узлов этого набора имеют одинаковые значения. Например, субкластером является набор узлов, имеющих одинаковые атрибуты процессоров, оперативной памяти, операционной системы, сетевых интерфейсов и т.д.

Субкластеры обеспечивают удобный способ формирования полезных наборов узлов.

116. Tier 0 - начальный уровень (уровень 0) ГРИД-иерархии - сайт, из которого выбираются необработанные данные. Интерактивная система автоматизации эксперимента обращается к ресурсам начального уровня. При проведении LHC-экспериментов иерархия начинается с сайтовой организации уровня 0 - ЦЕРНа. Лаборатория Ферми (Fermilab) является сайтовой организацией уровня 0 при проведении RUN II-экспериментов на ускорителе Теватрон (Tevatron).

117. Tier 1 - уровень 1 - уровень, расположенный в ГРИД-иерархии ниже уровня 0. Обычно сайт уровня 1 предлагает механизмы хранения, анализа, службы и предоставляет широкую подписку (например, может быть единственный сайт уровня 1 в стране или регионе, который связан с множеством сайтов уровня 2 в этой стране или регионе).

118. Tier 2 - уровень 2 - уровень 2 находится в ГРИД-иерархии ниже уровня 1. Обычно сайты уровня 2 представлены вычислительными средствами региональных научных организаций, обеспечивающих распределённый компьютинг.

119. Tools - инструментарий - в контексте ГРИД-компьютинга, инструментарий относится к уровню ГРИД-компонент (то есть ниже уровня приложений и выше уровня промежуточного программного обеспечения и остова). Уровень инструментария охватывает брокеры ресурсов, средства мониторинга и отладки.

120. Virtual Organization (VO) - виртуальная организация - динамичное объединение пользователей, ресурсов и служб. VO участвует в контрактах между поставщиками ресурсов и виртуальными организациями, которыми регулируются использование ресурсов и технические политики. Какая-нибудь группа пользователей и служб, входящих в состав VO, может образовать sub-VO, которая действует на основе контрактов вышестоящей VO.

ВВЕДЕНИЕ В последние годы в ИТ-сообществе не ослабевает интерес к теоретическим и практическим вопросам организации параллельной обработки информации в географически распределенных вычислительных системах. Географически распределенные вычисления (англ. GRID computing, см. Глоссарий) - технология распределённых вычислений, в которой вычислительная система («суперкомпьютер») представлена в виде соединенных сетью вычислительных узлов, слабосвязанных, гомогенных или гетерогенных компьютеров, работающих вместе для выполнения большого количества заданий. ГРИД применяется для решения задач, требующих значительных вычислительных ресурсов.

Спектр решаемых задач относится к множеству областей, от разведки нефти и газа, проблем сверхпроводимости и генетики [1], до анализа данных с марсохода Curiosity [2] и моделирования процесса формирования планетарных систем [3]. Уже несколько лет поступающая с Большого Адронного Коллайдера информация обрабатывается специально созданной ГРИД-системой LCG (LHC Computing GRID), включающей в себя 170 компьютерных центров в 36 странах мира и обрабатывающей массив данных в 25 Петабайт [4, 5].

Последние исследования в области ГРИД-систем затрагивают множество проблем, связанных с инфраструктурой (мониторинг и интеграция систем) до внедрения и анализа результатов работы конкретных ГРИД-систем в сфере облачных вычислений [6].

Однако, несмотря на широкое распространение ГРИД-систем и большое число посвященных им публикаций, остается относительно мало освещенным вопрос анализа производительности и определения полного спектра факторов, влияющих на скорость обработки данных в этих системах. Ближайшая к этой проблеме публикация [7] затрагивает вопрос анализа ускорения вычислений на многоядерных процессорах, где анализируется зависимость ускорения вычислений от количества ядер и потоков в процессоре. В [8] проанализированы некоторые из алгоритмов обмена информацией и выявлены сильные и слабые стороны этих алгоритмов. Рассмотренные автором и приведенные в списке источников ресурсы далеко не исчерпывающи в своей попытке охватить ряд основных аспектов проблематики в данной предметной области, однако в них в полной мере не освещено влияние специфических особенностей ГРИД систем на скорость обработки данных. В работах [47-50, 53, 55, 57] автором предпринимались попытки более детально проанализировать вопросы влияния основных параметров на характеристики ГРИД-систем.

Настоящая диссертация в значительной мере посвящена вопросам анализа ускорения параллельной обработки данных в географически распределенных системах с интенсивным межпроцессорным обменом.

Целью настоящей работы является восполнение пробелов в анализе и оценке факторов, влияющих на скорость параллельной обработки информации в географически распределенных информационных системах.

Предметная область исследования определяется следующими задачами:

1. Проведение анализа существующих методов расчета времени и скорости вычислений в ГРИД-системах.

2. Определение зависимости скорости вычислений в ГРИД-системах от количества вычислительных узлов.

3. Разработка методов оценки оптимального в смысле ускорения вычислений количества вычислительных узлов в ГРИД-системах.

4. Разработка методик, позволяющих проводить оценку времени вычислений и ускорения вычислений в ГРИД-системах.

5. Внедрение научных положений, выводов и рекомендаций диссертации в учебный процесс МГТУ МИРЭА и практические разработки.

Структура диссертации включает в себя развитый Глоссарий из современных терминов и дефиниций, относящихся к теме диссертации, Введение, три главы основного текста, Заключение, Библиографию ( наименований) и 3 Приложения. Объем диссертации 145 страниц, в т.ч. рисунков и 5 таблиц.

ГЛАВА 1 АНАЛИЗ ПРОБЛЕМАТИКИ В ОБЛАСТИ ОРГАНИЗАЦИИ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ В ГРИД-СИСТЕМАХ. ПОСТАНОВКА ЗАДАЧИ ИССЛЕДОВАНИЯ.

1.1 Состояние исследований и разработок в области ГРИД-систем.

Пути развития распределенных систем.

Фигурирующие объемы данных в различных вычислительных задачах, требующих распределенной обработки, составляют десятки терабайт, а для расчетов, связанных с этими задачами, задействуются компьютеры по всему миру [9-19]. Вычислительные мощности, которые обеспечиваются ГРИД системами, очень велики и продолжают увеличиваться. Так, например, объемы данных, которые планируется получить в ходе экспериментов в БАК, составляют порядка 500 Тб [5].

Количество участников в проекте SETI@HOME составляет несколько десятков тысяч человек из разных стран мира [28]. Возникли такие масштабные проекты, как облачная служба Amazon EC2 (Elastic Compute Cloud) [20], Ubuntu Enterprise Cloud (UEC) в Canonical Ubuntu 9.10 [21], LCG - вычислительный ГРИД для большого адронного коллайдера (БАК) [22], ряд проектов добровольных вычислений «@HOME» [23-27] с охватом аудитории по всей планете.

С увеличением масштабов ГРИД-систем все больше проявляют свое влияние специфические для систем такого рода архитектурные особенности, сказывающиеся на скорости вычислений и времени, затрачиваемом на решение задач. Анализ этих особенностей может позволить определить наиболее подходящие параметры систем для решения конкретных задач. Научные публикации авторов, исследующих вопросы построения ГРИД-систем, посвящены анализу либо параллельных вычислений в целом, либо отдельных аспектов ГРИД систем (в основном, алгоритмам распределения нагрузки), но множеству остальных параметров все еще не уделено достаточно внимания.

Анализ существующих проектов по построению ГРИД-систем позволяет ряду исследователей сделать вывод о трех основных направлениях развития ГРИД-технологии и связанной с ними классификации ГРИД-систем [29, 53, 55 и др.]:

1. Вычислительные ГРИД (Computational GRID);

2. ГРИД для интенсивной обработки данных(Data GRID);

3. Семантический ГРИД для оперирования данными из различных баз данных (Semantic GRID).

Целью первого направления является достижение максимальной скорости вычислений за счет глобального распределения операций между множеством компьютеров, а также, возможно, серверами и суперкомпьютерами. Задача распределяется между множеством отдельных систем, на которых проводится обработка информации, после чего результаты поступают на основной сервер. Каждый из вычислительных узлов может рассматриваться, как самостоятельная вычислительная система, выполняющая поставленную работу и имеющая доступ к сети. Вычислительные ГРИД во многих случаях являются более рентабельными, чем суперкомпьютеры равной вычислительной мощности.

Целью второго направления является обработка огромных объемов данных относительно несложными программами. Поэтому вычислительные ресурсы ГРИД-инфраструктуры в этом случае зачастую представляют собой кластеры персональных компьютеров. А вот доставка данных для обработки и пересылка результатов в этом случае представляют собой достаточно сложную задачу. Одним из крупнейших проектов, целью которого является создание ГРИД-системы для обработки научных данных, является проект EGEE (Enabling Grids for E sciencE) [30]. EGEE - проект, направленный на построение грид инфраструктуры, которая сможет использоваться в многочисленных научных исследованиях в Европе. Консорциум участников проекта включает более 70 институтов из 27 европейских стран. Стартовой площадкой для EGEE служит LHC Computing Grid, целью которого является предоставление вычислительных ресурсов для анализа данных, поступающих от БАК. Начав с этой инфраструктуры, EGEE добавляет ресурсы из всех частей света и привлекает пользователей из ряда других сообществ, чтобы сформировать самую большую в мире ГРИД инфраструктуру, которая могла бы использоваться в многочисленных областях науки. В результате научно-исследовательское сообщество Европы получает в своё распоряжение мощнейшую вычислительную платформу, услуги которой — круглосуточный доступ к крупнейшим вычислительным ресурсам. Доступ не зависит от месторасположения потребителей и будет основываться на использовании научных сетей Geant и NRNs. Российские участники EGEE образовали региональный консорциум РДИГ (Российский ГРИД для интенсивных операций с данными — Russian Data Intensive GRID, RDIG) [31].

ГРИД-системы третьего направления (семантические ГРИД) предоставляют инфраструктуру для выполнения вычислительных задач на основе распределенного мета-информационного окружения, позволяющего оперировать данными из разнотипных баз, различных форматов, представляя результат в формате, определяемом приложением [32, 33, 51, 52].

1.2 Особенности параллельных вычислений в ГРИД-системах.

Использование ГРИД-систем актуально в задачах, алгоритмы решения которых подразумевают возможность распараллеливания большей части вычислений с обменом данными между вычислительными узлами и сервером [34].

В работах [47, 50, 55] выявлены два ключевых фактора, затрудняющих осуществление параллельных вычислений в ГРИД-среде:


1. Нестабильность работы большого количества вычислительных узлов и сети, по которой передаются пакеты с информацией;

2. Недостаточная предсказуемость времени отклика на запрос, связанная с прохождением пакетов через множество сетевых устройств и с различиями в протоколах связи используемых во внешних компьютерных сетях и для межпроцессорного обмена. Так же сказывается ограничение скорости обмена пакетами.

Статистические данные по скорости интернет-каналов приведены на Рис. 1.1 и не требует комментария.

Среди других параметров ГРИД-систем следует выделить масштабируемость, возможную сегментированность, высокую интенсивность и сложность внешнего информационного обмена, работу на высоких уровнях модели OSI (англ. open systems interconnection basic reference model — базовая эталонная модель взаимодействия открытых систем), доступность, настраиваемость, управляемость параметров.

Можно выделить и множество других параметров, относящихся к таким аспектам организации ГРИД-систем, как безопасность, архитектура построения, специфика решаемых задач и др. В данной работе необходимое внимание уделено архитектурным особенностям и факторам, сказывающимся на динамике информационных потоков.

Рис. 1.1. Максимально зарегистрированные значения скорости интернет каналов в различных странах [http://www.speedtest.net от 23.08.2010] Стабильная организация параллельных вычислений с интенсивным обменом информацией между вычислительными узлами ГРИД-системы является нетривиальной задачей, возможность решения которой целесообразно рассматривать для каждой системы отдельно. При этом если объемная задача, которую необходимо решить, может быть разбита на большое количество небольших, независимых частей, то ГРИД технология оказывается эффективным и относительно дешевым решением в отличие от суперкомпьютеров, которые оказываются неоправданно дорогим и зачастую неэффективным решением.

Примерами таких задач являются:

• Массовая обработка потоков экспериментальных, статистических или других данных большого объема;

• Визуализация больших наборов данных области (отдельные визуального представления обрабатываются независимо, а потом объединяются);

• Сложные бизнес-приложения с большими объемами вычислений.

Рис. 1.2. Схема инфраструктуры DEISA [35] Интерес представляет применение ГРИД-систем для координации использования различных суперкомпьютеров и кластеров. Проект DEISA, схема которого представлена на Рис. 1.2 [35], может служить примером этого направления, в котором проводится объединение суперкомпьютерных центров. Финансируемый Европейской Комиссией с 2002 года, этот проект объединяет 11 национальных суперкомпьютерных центров в 7 странах Европы.

1.3 Классификация архитектур ГРИД-систем Как показывают исследования [34, 36, 40], фундаментальная разница между ГРИД-технологиями и перспективным видением ГРИД следующего поколения (NGG, Next Generation GRID) состоит в расстановке приоритов между проникаемостью и способностью к самоуправлению. Под проникаемостью здесь понимается сложное свойство, зависящее от других примитивных атрибутов, среди которых главными являются: доступность, ориентация на пользователя или настраиваемость и динамическое взаимодействие.

В Табл. 1.1 представлена классификация ГРИД-систем на основе четырех признаков – доступность, настраиваемость, интерактивность и управляемость параметров [37].

Таблица 1.1. Классификация ГРИД-систем по доступности, настраиваемости, интерактивности и управляемости параметров.

Категори Главное отличие Цель и Под- от проект Примеры проектов новейших категории традиционных а ГРИД- ГРИД-систем систем OurGrid hoc Без Ad ГРИД (www.ourgrid.org) и предопределенн Доступ GRID доступа myGrid ых точек входа ность (www.mygrid.org.uk) Мобильны Поддержка Akogrimo е ГРИД мобильности (www.mobilegrids.or клиентов, служб g), ISAM или того и (Инфраструктура другого мобильных приложений, www.inf.ufrgs.br/~isa m/English) Поддержка Беспровод беспроводной Home Grid and ные ГРИД связи между Office Grid ГРИД-узлами и (wirelessgrids.net) интерфейсом Поддержка Явные явного CrossGrid Интера Интеракт интеракти взаимодействия (www.crossgrid.org) ктивно ивные вные с and edutain@grid сть ГРИД ГРИД пользователями (www.edutaingrid.eu) в реальном времени Контекст Взаимодействие RUNES чувствител со средой, (Reconfigurable ьные построение Ubiquitous гриды контекста и Networked адаптация Embedded Systems, поведения www.ist-runes.org), SENSE (Smart Embedded Network of Sensing Entities, www.sense-ist.org), Hydra(Networked Embedded System Middleware for Heterogeneous Physical Devices in a Distributed Architecture, www.hydra.eu.com), and MORE (Network-centric Middleware for Group communication and Resource Sharingacross Heterogeneous Embedded Systems, www.ist-more.org) Используемые Настра Настраив Персональ индивидуально Personal Grid иваемо аемые ные ГРИД и/или Лично сть ГРИД принадлежащие Реализуют Akogrimo Персонали глобально (www.mobilegrids.or зованные настраиваемые g) and MyGrid ГРИД ГРИД-порталы (www.mygrid.org.uk) Управл Управляе Автономн С попыткой IBM OptimalGrid яемост мые ые ГРИД моделирования and AutoMAGI ь ГРИД поведения автономной нервной сиcтемы OntoGrid Используют (www.ontogrid.net/o ГРИД технологии ntogrid/index.jsp), знаний знания для InteliGrid поддержки (www.inteligrid.com) самоуправления,and K-Wf Grid (Knowledge-Based Workflow System for Grid Applications, www.kwfgrid.eu) Используют Органичн абстракции Organic Grid ые ГРИД муравейника для поддержания самоуправления Классификация ГРИД систем по размеру, типу решения, модели доступа, интерактивности, степени персонализации и схеме управления представлена на Рис. 1.3 [37].

Рис 1.3. Классификация традиционных и современных ГРИД-систем (NGG — Next Generation grids) [37].

Каждая ГРИД-система может относиться к нескольким критериям классификации.

Модели ГРИД-систем, исследуемых в настоящей работе, содержат в качестве обязательного элемента единый сервер рассылающий вычислительным узлам задачи и принимающий результаты вычислений. В связи с этим, результаты работы применимы для любых ГРИД-систем из указанных в классификации в Табл. 1.1 и Рис. 1.3 за исключением распределенных и гибридных по схеме управления (Management Distributed / Hybrid на Рис. 1.3).

Для распределенных и гибридных схем управления необходима модификация результатов работы или же преобразование архитектуры ГРИД-системы путем условного объединения серверов.

Классификация ГРИД по типу используемого оборудования и характеристикам вычислительных узлов.

В вычислительных ГРИД-системах ключевыми параметрами являются циклы CPU (central processing unit, центральное процессорное устройство) и GPU (graphics processing unit, графический процессор). В зависимости от оборудования, на котором они развернуты, вычислительные ГРИД-системы делятся на:

• Настольные;

• Серверные;

• Инструментальная ГРИД.

В настольных ГРИД большую часть ресурсов составляют неиспользуемые ресурсы настольных компьютеров, тогда как ресурсы серверных ГРИД обычно ограничиваются ресурсами, доступными на серверах.

Инструментальные ГРИД включают нетривиальный элемент оборудования, который управляется удаленно и передает данные для анализа.

ГРИД служб или ГРИД утилит предоставляют коммерческие компьютерные услуги (циклы CPU и дисковую память), которые, работающие в исследовательских или промышленных областях специалисты, могут при необходимости купить.

Глобальные ГРИД устанавливаются в Интернете, предоставляя отдельным пользователям мощность независимо от того, где эти пользователи географически локализованы.

Свободно масштабируемые ГРИД дают возможность пользователям Интернета предоставить свои компьютерные ресурсы для коллективного выполнения задач, требующих больших вычислительных мощностей.

Несвободно масштабируемые ГРИД содержат только те машины, которые им определены заранее.

Национальные ГРИД располагают только теми компьютерными ресурсами, которые доступны в границах соответствующего государства.

Проектные ГРИД подобны национальным, но в отношении объединения ресурсов они не ограничиваются ресурсами одного государства, а объединяют много географических и административных областей. Они доступны только для зарегистрированных членов и сотрудничающих организаций.

Интра-ГРИД или университетские ГРИД, в которых объём ресурсов ограничивается ресурсами единственной организации, предназначены для пользователей, являющихся членами головной организации.

Ведомственные ГРИД доступны только для сотрудников конкретного ведомства.

Персональным ГРИД свойственна весьма ограниченная организационная структура. Доступ к ним разрешен на персональном уровне самим собственникам, или некоторым объединениям собственников.

Классификация по типу доступа к ГРИД-системам.

Ad-hoc ГРИД – система интерактивных взаимодействующих гетерогенных вычислительных узлов в логическое сообщество без предварительно сконфигурированной фиксированной инфраструктуры и c минимальными административными требованиями ГРИД [38].

инфраструктура расширена так, что начинает включать динамические подсоединения, не требуя наличия формальных, чётко определенных, входных точек ГРИД, наличие которых подтверждено общим согласием.

Пример системы представлен на Рис.1.4.

Рис. 1.4. Ad-hoc GRID-система [40] Рис. 1.5. Мобильная Ad-hoc GRID-система [40] Беспроводные ГРИД расширяют номенклатуру ГРИД-ресурсов включением беспроводных устройств различных размеров и свойств, таких как датчики, мобильные телефоны, ноутбуки, специальные инструменты и сетевые интерфейсные устройства [39].

Мобильные ГРИД-системы предоставляют доступ к ГРИД-службам через такие мобильные устройства, как PDA и смартфоны. Миллионы продаваемых мобильных устройств дают высокую вычислительную мощность наравне с мобильностью. В чрезвычайных ситуациях, таких, как естественные катастрофы и активные военные операции, беспроводные мобильные устройства могут оказаться единственным доступным средством коммуникации и вычислительного обслуживания. Пример системы представлен на Рис. 1.5.


Примерами существующих ГРИД-проектов с рассмотренными схемами доступа могут служить проекты Akogrimo (www.mobilegrids.org), и ISAM (www.inf.ufrgs.br/~isam/English) MADAM (www.intermedia.uio.no/display/madam/Home).

1.4. Стек протоколов ГРИД-систем Общая структура ГРИД-систем описывается в виде стека протоколов [40]. В такой модели каждый уровень предназначен для решения узкого круга задач и используется для предоставления услуг для более высоких уровней. Верхние уровни ближе к пользователю и работают с наиболее абстрактными объектами, тогда как нижние уровни сильно зависят от физической реализации ГРИД-ресурсов. Стек ГРИД протоколов включает 5 уровней и схематически представлен на Рис.1.6.

1. Прикладной уровень (Application Layer) описывает пользовательские приложения, работающие в среде виртуальной организации;

приложения функционируют, используя протоколы, определенные на нижележащих уровнях.

2. Коллективный (Collective Layer) уровень отвечает за координацию использования имеющихся ресурсов.

3. Ресурсный уровень (Resource Layer) – это ядро многоуровневой системы, протоколы которого взаимодействуют с ресурсами, используя унифицированный интерфейс и не различая архитектурные особенности конкретного ресурса.

4. Связывающий уровень (Connectivity Layer) составляют протоколы, которые обеспечивают обмен данными между компонентами базового уровня и протоколы аутентификации.

5. Аппаратный уровень (Fabric Layer) составляют протоколы, по которым соответствующие службы непосредственно работают с ресурсами.

Рис. 1.6. Стек протоколов ГРИД [40].

Для задач, решаемых в данной диссертации необходима информация как об архитектуре ГРИД-системы, так и о среде обмена данными, т.е.

предоставляемая на аппаратном и связывающем уровнях стека протоколов.

Аппаратный уровень: управление локальными ресурсами. На этом уровне обеспечивается доступ к распределенным ресурсам, необходимый протоколам более высокого уровня. Спектр возможных ресурсов достаточно широк - это могут быть компьютеры, устройства хранения данных, каталоги, сетевые ресурсы и т. п. При этом ресурс может быть логической сущностью файловой системой) или (распределенной физической (кластером компьютеров). Реализация такого ресурса может включать внутренние протоколы (например, NFS), однако подобные протоколы не включаются в стек ГРИД. Компоненты аппаратного уровня реализуют локальные операции, специфические для каждого данного ресурса (логического или физического). Этот уровень представляет собой набор интерфейсов для управления локальными ресурсами.

Связывающий уровень: коммуникации и безопасность.

Коммуникационные протоколы связывающего уровня должны обеспечивать надежный транспорт и маршрутизацию сообщений, а также присвоение имен объектам сети, а протоколы аутентификации этого уровня, основываясь на коммуникационных, предоставляют криптографические механизмы для идентификации и проверки подлинности пользователей и ресурсов. Инфраструктура поддержки включает централизованную выдачу сертификатов, управление сертификатами и ключами и т. д.

Ресурсный уровень: совместное использование ресурсов. На этом уровне с помощью коммуникационных и аутентификационных протоколов, входящих в нижележащий связывающий уровень, проводится согласование методов безопасности, инициализацию и мониторинг ресурсов, и управление ими. Для доступа к локальным ресурсам и дальнейшего управления ресурсный уровень вызывает соответствующие функции аппаратного уровня. Заметим, что протоколы ресурсного уровня предназначены исключительно для работы с локальными ресурсами, они не учитывают глобальное состояние системы. Этим занимается коллективный уровень, располагающийся выше. Ресурсный уровень включает два основных класса протоколов:

• информационные протоколы, предназначенные для получения информации о структуре и состоянии ресурса, его конфигурации, текущей загрузке и политике (то есть, условиях) предоставления ресурсов (например, стоимости их использования);

• протоколы управления, обеспечивающие согласованность доступа к разделяемому ресурсу и определяющие необходимые операции, которые ресурс должен выполнить инициализация (скажем, процесса или доступ к данным).

Коллективный уровень: координация ресурсов. Протоколы коллективного уровня отвечают за взаимодействие всех элементов пула ресурсов, что и отражено в самом названии. В качестве примера глобальных функций и сервисов, реализуемых протоколами этого уровня, можно назвать службу каталогов, распределение ресурсов, планирование и брокерские услуги, службы мониторинга, диагностики, репликации данных, коллективной авторизации.

Прикладной уровень: запуск приложений в ГРИД-среду. Этот высший уровень ГРИД-архитектуры включает пользовательские приложения, которые исполняются в среде объединенных ресурсов. В процессе исполнения приложения используют протоколы нижележащих уровней, обеспечивающие доступ к необходимым службам, а также прикладные программные интерфейсы, соответствующие данным протоколам. Приложения могут вызываться через достаточно сложные оболочки и библиотеки. Эти оболочки сами могут определять протоколы, сервисы и прикладные программные интерфейсы, однако подобные надстройки не относятся к фундаментальным протоколам и сервисам, определяющим архитектуру ГРИД-систем.

1.5 Постановка задачи.

При расчете ускорения вычислений, достигаемого при распараллеливании задачи, достаточно часто используется закон ограничения роста производительности вычислительной системы с увеличением количества вычислительных узлов, так же известный, как закон Амдала [41].

Пусть распределенная система состоит из s одинаковых простых универсальных устройств. Предположим, что при выполнении параллельной части алгоритма все s устройств загружены полностью.

Тогда максимально возможное ускорение равно:

RA =, (1.1) (1 ) + s где - доля последовательно выполняемых операций (от 0 до 1). Влияние доли последовательно выполняемых операций на ускорение проиллюстрировано на Рис. 1.7.

Рис. 1.7. Иллюстрация к закону Амдала (1.1) [50].

Так же можно встретить оценку ускорения Густавсона-Барсиса [42]:

R ГБ = s ( s 1) ГБ, (1.2) где ГБ - доля времени на выполнение последовательных операций (от до 1).

При рассмотрении взаимосвязи между коэффициентами и ГБ выясняется, что оценки RA и RГБ совпадают. Обозначим через время выполнения одной операции. Если всего выполняется N операций, то пусть N1 означает число операций в последовательной части, а N2 - в параллельной части. Общее время реализации алгоритма равно:

N T = N 1 +.

s Следовательно:

N1 = = ;

N1 + N 2 N 1+ N N1 ГБ = = ;

N2 1 N N1 + 1+ s s N s ГБ = ;

1 + ( s 1) s ( s 1) s R ГБ = s ( s 1) ГБ = s = = RA.

1 + ( s 1) s + (1 ) Таким образом, оценки по Амдалу (1.1) и Густавсону-Барсису (1.2) полностью совпадают [42]. Оценка ускорения по Амдалу с одной стороны применима к практически любой параллельной системе и распараллеливаемой для нее задаче и позволяет оценить максимальное теоретическое ускорение, достигаемое в каждом конкретном случае.

В то же время теория Амдала и вытекающие из нее оценки не позволяют:

Во-первых, определить зависимость скорости вычислений в ГРИД системах от количества вычислительных узлов, что обусловило бы более точные оценки временных и ресурсных затрат на решение поставленных перед ГРИД-системами задач.

Во вторых, эта теория не дает ответа на вопрос, как определяется оптимальное в смысле ускорения вычислений количества вычислительных узлов в ГРИД-системах, учитывающих основные параметры систем. При этом необходимо учитывать как параметры ГРИД-системы, так и параметры решаемых задач.

В третьих, на базе этой теории не разработаны методики, позволяющие проводить оценку времени вычислений и ускорения вычислений в ГРИД-системах, для возможно более точного определения времени необходимого на решение поставленной задачи при известных параметрах системы.

Что касается вопросов архитектуры, динамики информационных потоков и нагрузки на элементы ГРИД-системы, то, как уже отмечалось, в известных публикациях в основном освещаются проблемы распределения нагрузки по вычислительным узлам и устройство самих вычислительных узлов, рассмотрению производительности и достигаемого ускорения (или замедления) вычислений в ГРИД-системах уделено меньше внимания. В основе анализа этих аспектов лежат закон Амдала и оценка ускорения Густавсона-Барсиса, хорошо зарекомендовавшие себя в области распараллеливания вычислений. В то же время специфичным для ГРИД систем особенностям уделено значительно меньше внимания. В частности, закон Амдала позволяет определять максимально достигаемое ускорение вычислений в целом для распределенных вычислений, но при этом не учитываются особенности архитектуры ГРИД-систем. Как было показано автором, влияние архитектурных особенностей приводит к падению ускорения при существенно большом количестве вычислительных узлов [50, 53, 55].

Указаны основные типы ГРИД-систем с точки зрения решаемых задач и определен класс систем, которые попадают в рамки рассмотрения настоящей работы. Выявлены отличия ГРИД-систем и решаемых ими задач от суперкомпьютеров. Определена классификация архитектур ГРИД-систем по типу решения, по размеру, доступности, интерактивности, степени персонализации и типу управления. На основе рассмотрения стека протоколов ГРИД с описанием всех уровней:

аппаратного, связывающего, ресурсного, коллективного и прикладного, выявлен критерий полноты входных параметров разрабатываемой модели.

Показано ограничение в применении существующих методов расчета ускорения в параллельных системах без специализации на каком-либо типе таких систем. На основании вышеуказанного сформулированы основные задачи настоящей работы.

Целью диссертационной работы является анализ и оценка факторов ускорения вычислений в географически распределенных информационных системах (ГРИД) с целью выявления обновленных методик расчета скорости вычислений и смежных показателей ГРИД-систем. Для достижения этой цели сформулированы следующие основные задачи:

1. Провести анализ зависимости ускорения вычислений от архитектурных особенностей ГРИД-систем с определением оптимального в смысле ускорения вычислений количества вычислительных узлов в конкретных ГРИД-системах.

2. Разработать программный комплекс для определения ускорения вычислений в ГРИД-системах на основе разработанных методов.

3. Разработать математическую модель клиент-серверного взаимодействия с учетом особенностей архитектуры и организации ГРИД-систем.

4. Исследовать процесс обучения нейронных сетей с применением ГРИД-систем.

5. Исследовать влияние многоядерности вычислительных узлов на ускорение вычислений в ГРИД-системах.

6. Разработать обобщенный метод оценки ускорения вычислений в ГРИД-системах гомогенного и гетерогенного типов.

7. Разработать имитационную модель ГРИД-систем для анализа и имитации их работы.

8. Внедрить научные положения, выводы и рекомендации диссертации в практические разработки и учебный процесс МГТУ МИРЭА.

ГЛАВА 2 ИССЛЕДОВАНИЕ И РАЗРАБОТКА МЕТОДОВ АНАЛИЗА СКОРОСТИ ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ ИНФОРМАЦИИ В ГРИД-СИСТЕМАХ 2.1 Факторы, замедляющие процесс параллельной обработки информации Асимптотические свойства закона Амдала не могут рассматриваться без учета факторов, способных внести существенный вклад в скорость процесса вычислений при большом количестве вычислительных узлов в ГРИД-системе. Отличительной особенностью ГРИД-систем (при сравнении с кластерами и другими системами, предназначенными для параллельных вычислений) является географическая удаленность вычислительных узлов и, как следствие, появление временных задержек при обмене данными.

Дополнительные задержки, возникающие в ГРИД-системах при передаче данных, разделяются на несколько типов [48, 50, 53, 55]:

1. Установка соединения для начала передачи;

2. Передача данных для расчетов от сервера к вычислительному узлу или же результатов вычислений от вычислительного узла к серверу;

3. Возникновение очереди вычислительных узлов к серверу на получение и обработку результатов.

Первые два типа задержек уменьшают на некое определенное значение ускорение системы. Третий тип задержки, как будет показано, может свести ускорение системы к нулю.

Предположим, что при обмене данными между вычислительным узлом и сервером вычислительный узел единожды проводит проверку активности сервера, после чего отправляет рассчитанные данные и получает новый пакет. Для каждого из пакетов в задаче временная задержка составит:

T1 = q k, (2.1) где q - общее количество пакетов в задаче, k - время задержки для проверки активности сервера и обмена системной информацией.

После соединения сервера и вычислительного узла начинается обмен данными со скоростью, являющейся меньшей между сервером и вычислительным узлом. Однако, при учете того, что сервер может обрабатывать несколько вычислительных узлов одновременно и количество вычислительных узлов достигает достаточно больших значений, можно считать, что обмен происходит со скоростью, максимально возможной для стороны сервера. В случае, если среднестатистическая скорость будет меньше скорости сервера, расчеты задержки на обмен данными будут определять верхнюю возможную границу ускорения, но не смогут быть меньше реального значения ускорения системы. Таким образом задержка на передачу данных составит:

r T2 = q, (2.2) e где q - общее количество пакетов в задаче, r - объем данных для обмена (результаты вычислительного узла и новый пакет от сервера), e - скорость обмена со стороны сервера (бит/сек.).

В объем данных для обмена включены и результаты вычислительного узла и новый пакет от сервера в силу последовательности обмена данными, схема которой приведена на Рис.

2.1. Стрелками обозначено направление передачи данных. Скобкой объединены действия, составляющие повторяющийся на протяжении всех расчетов блок операций.

Вычислительный Сервер узел соединение пакет соединение результат пакет … … Рис. 2.1. Последовательность обмена данными между вычислительным узлом и сервером Как видно из схемы последовательности обмена данными, после первого соединения и передачи пакета выполняется одна и та же последовательность действий: соединение, передача результата, передача пакета. Таким образом, между передачей результата и передачей пакета отсутствуют дополнительные временные задержки, и объем данных суммируется. Не смотря на то, что обмен происходит параллельно, предполагается, что передача всегда происходит последовательно. Это связано с тем, что серверу может потребоваться предварительная проверка/обработка результатов перед посылкой нового пакета.

При больших количествах вычислительных узлов задержка на ожидание в очереди к серверу будет являться наиболее существенной. Она возникает в случае, когда вычислительные узлы выстраиваются в очередь к серверу для обмена данными. Для анализа вероятности возникновения очереди и ее длины необходимо определить частоту обращений вычислительных узлов к серверу:

cs z=, (2.3) t где c - количество вычислительных узлов, s - время обработки пакета на сервере, t - время обработки пакета на вычислительном узле.

Время обработке пакета на сервере – время, затрачиваемое сервером между окончанием приема результатов вычислений и началом передачи нового пакета. Время обработки пакета на вычислительном узле – время, затрачиваемое вычислительным узлом между окончанием приема пакета и началом соединения с сервером для отправки результатов вычислений.

Длина очереди к серверу составит (2.4) [43].

z n+ n n!1 z n m( z, n) = n k (2.4), z n + z k! + n! max((n z),0) k = где z - частота обращений вычислительных узлов к серверу (обращений в секунду), n - количество каналов сервера для обработки запросов вычислительных узлов (ед.).

Вероятность возникновения очереди составит (2.5) [43].

zh h!

n p ( z, n) = min1 n k (2.5),1.

n + h=0 z + z k! n! max((n z ),0) k = 2.2 Обобщенная формула ограничения роста производительности вычислительной ГРИД-системы Теперь, просуммировав все дополнительные задержки и учтя их влияние на замедление расчетов в системе можно привести обобщенную формулу ограничения роста производительности вычислительной ГРИД системы при существенном росте количества вычислителей [55, 57]:

1 (2.6) S (a, c, k, t, e, r, n) =, r r a + (1 a ) 1 + k + r p z c,, t, n m z c,, t, n 1 + c t et e e n + z n n!1 z n m( z, n) = n k (2.4), z n + z k! + n! max((n z),0) k = zh h!

n p ( z, n) = min1 n k (2.5),1, n + h=0 z + z n! max((n z ),0) k =0 k!

где a - доля последовательных вычислений (значение в интервале от 0 до 1);

c - количество вычислительных узлов;

k - задержка перед началом передачи данных (сек.);

t - время расчета одного пакета на одном вычислительном узле (сек.);

r - объем пакета (бит), e - скорость передачи со стороны сервера (бит/сек.);

n - количество каналов обработки вычислительных узлов на сервере;

m - длина очереди к серверу (2.4);

p вероятность возникновения очереди к серверу (2.5).

Точка максимума ускорения вычислений в зависимости от количества вычислителей определяется по формуле (2.7).

S (a, c, k, t, e, r, n) = 0. (2.7) c Влияние каждой из временных задержек проиллюстрировано на Рис.

2.2. В качестве примера для иллюстрации влияния временных задержек были выбраны следующие параметры:

• доля последовательных вычислений - 0.2;

• количество вычислительных узлов варьируется;

• задержка перед началом передачи данных - 0.5 с;

• время расчета одного пакета на одном вычислительном узле - 70 с;

• объем пакета - 30 килобит;

• скорость передачи со стороны сервера - 30 килобит в секунду;

• количество каналов обработки вычислительных узлов – 1.

Перечисленные значения параметров позволяют наглядно показать степень падения ускорения при сравнительно небольшом количестве вычислительных узлов. Временная задержка в очереди к серверу для определенного количества вычислительных узлов, как видно из Рис. 2.2, образует точку максимума, а в дальнейшем значение ускорения устремляется к нулю.

Рис. 2.2. Иллюстрация влияния каждой из временных задержек в формуле (2.6). а) T1,2,3 (2.6), б) T1(2.1), в) T2(2.2), г) T3(2.4,2.5) 2.3 Задача минимизация количества вычислительных узлов в ГРИД системах Практический интерес представляет рассмотрение задачи о минимизации количества вычислительных узлов ГРИД-системы для заданного времени вычислений. Для некоторого заданного времени вычислений T необходимо найти оптимальное в смысле ускорения количество вычислительных узлов. Остальные параметры системы считаются фиксированными. Самому процессу оптимизации поддается распараллеливаемая часть задачи, следовательно, для этой подзадачи последовательная часть равна 0. И ускорение, согласно закону Амдала будет равно количеству работающих вычислителей. Если задача решается t1 секунд времени на одном вычислителе, то на с вычислителях время t потребуется TA =. Значение ускорения S рассчитывается при a=0.

c Каждый распараллеливаемый этап опишем следующими характеристиками [50, 53]:

1. доля последовательных вычислений a = 0;

2. время расчета одного пакета на одном вычислительном узле меняются от этапа к этапу;

3. объем пакета меняется от этапа к этапу;

4. остальные параметры вычислительной среды остаются постоянными на протяжении всего решения задачи.



Pages:   || 2 | 3 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.