авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 | 2 ||

««Cloud Computing: Education, Research, Development» Conference Program Moscow, RAS ...»

-- [ Страница 3 ] --

Nexp – количество экспериментов для пары параметров тип топологии/стратегии распространения вируса.

Nnetlenth – количество узлов в сети.

Niter – число итераций в реализации алгоритма моделирования.

C – экспериментальная константа O(Nnetlenth * Niter) – сложность алгоритма моделирования для количества узлов в сети равное Nnetlenth и количестве шагов алгоритма моделирования равного Niter.

Оценка делается с тем допущением, что алгоритмы заражения сети и кластеризации зараженных узлов линейно зависят от размерности задачи.

Тезисы При подстановке в качестве исходных параметров Ntop = 7, Nstr = 2, Nexp = 100, Niter = 100, Nnetlenth = 100 000, даже не зная точную трудоемкость можно сделать первичную оценку размерно сти задачи: 7 * 2 * 100 * O((10^5) * 10^2)+С = 1.4 * (10^3) * O(10^7) + C Алгоритм программы можно представить следующей последовательностью:

1 - инициализация сети 2 - итерация 2.1 - поиск зараженного узла 2.2 - проход по списку узлов сети и попытка заражения 3.3 - переход к следующей итерации 3 – подсчет значений и запись статистической информации Алгоритм моделирования является итерационным, следовательно, существует прямая зависимость по дан ным между каждой итерацией. По этой причине распараллелить итерации (100) внутри каждого экспе римента крайне затруднительно. Наиболее эффективным решением поставленной задачи будет распа раллеливание проведения самих численных экспериментов. Каждый численный эксперимент не зависит по данным, от какого либо другого численного эксперимента.

Проведя ряд экспериментов на нескольких различных вычислительных устройствах, можно сделать вывод, что наиболее критическим для скорости расчета задачи является количество вычислительных узлов (ядер) и их производительность (тактовая частота). Параметры устройств хранения- не являются критичными.

Время расчета на системе с двуядерным процессором AMD Athlon 64 x2 6400+, используя только одно ядро, одного численного эксперимента (100 итераций заражения на сети в 100000 узлов для одного из типов сетей, и одной из стратегий распространения) равно ~6100.

Аналогичный эксперимент с использованием 1 ядра на 4 ядерном Intel® Xeon® X5550 2.67 ГГц занял – ~5300 секунд (оценочное время полного расчета 1400 задач составит более 2000 часов).

Считая, время расчета не зависящим от типа топологии сети, использую аппаратные средства, предо ставляемые по программе “Университетский кластер” (четырех ядерный процессор Intel® Xeon® E 2,33 ГГц в 8 блейд-серверах) можно многократно ускорить время выполнения расчета.

Полный расчет задачи (1400 экспериментов), может быть произведен приблизительно за 60-70 часов, что является крайне выгодным с точки зрения итогового времени проведения расчета и быстрого получе ния данных эксперимента, для дальнейшего анализа.

Нижегородский Адрес: 603950, г. Нижний Новгород, пр. Гагарина, 23, государственный университет Сайт: www.unn.ru.

им. Н.И. Лобачевского Тезисы Образовательный проект «Интернет-университет суперкомпьютерных технологий»

Гергель Виктор Павлович Актуальность проблемы Появление вычислительных кластеров и многоядерных компьютеров позволило значительно расширить масштаб применения высокопроизводительных вычислений. Многие инженерные и технологические про цессы в машиностроении, фармацевтике, энергетике, биоинженерии и нанотехнологиях теперь суще ственно опираются на использование кластерных систем. То, что раньше можно было решить только на дорогих, а потому для многих практически недоступных суперкомпьютерах, сегодня можно сделать с помощью недорогих и эффективных кластерных систем. Широкое использование параллельных вычис лительных технологий стало характерной чертой нашего времени.

В настоящий момент на первый план выходит задача разработки нового и адаптации существующего научно-методического обеспечения для массовой подготовки специалистов в области суперкомпьютер ных технологий и параллельного программирования, в особенности – дистанционно, с использованием возможностей глобальной сети Интернет.

Цели и задачи проекта Целью образовательного проекта «Интернет-университет суперкомпьютерных технологий» является организация массовой подготовки специалистов в области суперкомпьютерных технологий с активным использованием возможностей глобальной сети Интернет.

Для достижения поставленных целей планируется осуществление следующих задач:

• Разработка научно-методического обеспечения для проведения занятий в области суперкомпьютерных технологий;

• подготовка новых и адаптация существующих курсов лекций;

• Создание организационных предпосылок для дистанционного обучения, в порядке эксперимента, группы из 50-100 человек.

• Масштабирование проекта для одновременного дистанционного обучения группы из нескольких сотен слушателей.

• Партнерам проекта на пилотной стадии являются:

• Компания «ИНТУИТ.РУ»;

• Издательство «Открытые системы»;

• Научно-исследовательский вычислительный центр Московского государственного университета им.

М.В. Ломоносова (НИВЦ МГУ);

• Нижегородский государственный университет им. Н.И. Лобачевского (ННГУ).

Принципы образовательной деятельности Образовательная деятельность Университета ориентирована на обучение самого широкого круга обу чаемых (студенты, специалисты, преподаватели) и предусматривает наличие различных направлений подготовки для учета разных профессиональных требований в области суперкомпьютерных технологий (пользователи, программисты, инженеры).

Согласование массовости обучения и качества получаемого образования обеспечивается за счет при влечения к деятельности Университета ведущих специалистов страны в области суперкомпьютерных технологий, активного использования современных ИТ-технологий для организации учебного процесса, применения двухуровневой системы обучения.

Тезисы Двухуровневая система обучения в рамках Университета включает:

• Базовый уровень подготовки ориентирован на самый широкий круг обучаемых (студенты, специали сты, преподаватели) и организуется в форме дополнительного образования на основе технологий дис танционного обучения с использования сети Интернет (включая проведение учебных занятий в виде видео-конференций). Планируемая длительность данного вида обучения – 1 год.

• Профильный (углубленный) уровень подготовки организуется в опорных образовательных центрах университетов-участников проекта. Длительность такого обучения регулируется образовательными программами, реализуемых в соответствующих образовательных центрах.

Слушателям, успешно прошедших базовый уровень подготовки, будет выдаваться сертификат Универси тета. Слушатели, прошедших обучение в образовательных центрах Университета, будут получать госу дарственные дипломы университетов-участников, в которых организованы соответствующие образова тельные центры.

Пермский Адрес: 614990, г. Пермь, ул. Букирева, 15, государственный Сайт: www.psu.ru университет Тезисы О подготовительном этапе Программы «Университетский кластер»

в Пермском государственном университете Деменев А.Г., Любимов Д.В., Русаков С.В., Терпугов В.Н.

Активно растущие научные и образовательные потребности Пермского государственного университета (ПГУ) в современной распределенной инфраструктуре высокопроизводительных вычислений (далее – Инфраструктура) обусловили необходимость соответствующих исследований, разработок и инноваций.

Такая Инфраструктура необходима университету, т.к. создание такой Инфраструктуры должно позво лить: решать фундаментальные и инженерные задачи с широкой областью применения, эффективное решение которых возможно только с использованием мощных (суперкомпьютерных) вычислительных ресурсов;

решать проблему подготовки высококонкурентоспособных на мировом уровне специалистов, обладающих компетенциями эффективно решать задачи в приоритетных направлениях науки, техноло гий и техники, а также развивать критические и прорывные технологии.

Поэтому коллективом авторов доклада при поддержке администрации университета был в конце 2008 г. инициирован и спланирован, а затем в 2009 г. реализован локальный инновационный проект ПГУ. Основными целями проекта являлись:

• создание в ПГУ действующего прототипа единой информационной инфраструктуры, обеспечиваю щей университету доступ к передовым аппаратно-программным технологиям и компетенциям в области высокопроизводительных вычислений;

• повышение уровня использования параллельных и распределенных (в т.ч. «облачных») вычислений в образовательной и научно-исследовательской деятельности ПГУ.

Эти цели соответствуют целям Программы «Университетский кластер» (далее – Программа), поэтому этот проект был заявлен ПГУ для поддержки в рамках этой Программы. Никаких дополнительных ресурсов для реализации проекта получить не удалось (хотя попытки предпринимались), поэтому пришлось ори ентироваться на более эффективное использование уже имеющихся вычислительных кластеров. При создании действующего прототипа Инфраструктуры было учтено, что грамотное использование техно логий виртуализации позволяет повысить надежность работы информационных систем, обеспечить высо кую производительность при относительно недорогих решениях, рационально использовать имеющееся оборудование и инженерно-технических работников. В прототипе Инфраструктуры применяются вир туализация платформ и различные виды виртуализации ресурсов. В ходе проекта приходилось решать следующие задачи: создание и анализ реестров оборудования, вычислительных платформ и программ ного обеспечения, используемого в ПГУ для высокопроизводительных вычислений;

создание виртуальных компьютеров, объединение их в вычислительные кластеры, грид-сети и вычислительное «облако»;

соз дание информационных и вычислительных сервисов;

создание системы удаленного доступа к сервисам и ресурсам;

создание (адаптация) регламентов администрирования и доступа к ресурсам, руководств системных администраторов и пользователей;

апробация и подготовка рекомендаций для научно исследовательской и образовательной деятельности;

моделирование распределенных вычислительных систем и процессов.

Целенаправленное создание и развитие Инфраструктуры стало одним из основных направлений дея тельности Научно-образовательного центра «Параллельные и распределенные вычисления» ПГУ, соз данного в феврале 2009 г. Авторы доклада – члены Дирекции центра, а директор центра, доц. Деме нев А.Г. – руководитель локального проекта и представитель ПГУ в Программе. Успешная реализация в 2006-2007 гг. Инновационной образовательной программы ПГУ (приоритетный нацпроект «Обра зование») обеспечила наличие необходимых для данного проекта материально-технических ресурсов и соответствующего уровня кадрового потенциала.

Самарский государственный Адрес: 443001, Самара, Московское ш., 34, аэрокосмический Сайт: www.ssau.ru университет Тезисы Разработка параллельных методов оптимизации нанофотонных многослойных тонкопленочных структур изготавливаемых методом наноимпринтинга.

П.Г. Серафимович^, С.Б. Попов, С.Н. Хонина*^, Н.Л. Казанский* Совершенствование технологий изготовления наноструктур открывает новые возможности при создании современных оптических устройств. Наноимпринтинг (nanoimprinting lithography) является перспективным методом недорогого массового производства наноструктур.1 Этот метод позволяет изготавливать одно мерные и двумерные многослойные структуры.

В данной работе рассмотрена оптимизация нанофотонных структур на примере многослойного пропу скающего спектрального фильтра (рис. 1). Принцип работы этого оптического устройства базируется на волноводном резонансе (guided-mode resonance – GMR).2 В отличие от плазмонного резонанса, для воз буждения GMR не требуется использование металла.

В соответствии с теорией связанных волн, распространение света в однослойном волноводе, корругиро ванном дифракционной решеткой, описывается уравнением где Ei – амплитуда плоской волны, соответствующей i-му порядку, z – координата, перпендикулярная направлению волновода, k – волновое число, g – диэлектрическая проницаемость волновода, – высота дифракционной решетки, – угол падения света, – период дифракционной решетки. В случае отсутствия дифракционной решетки () приведенное уравнение переходит в волновое уравнение для диэлектрического волновода.

Геометрические параметры волновода и решетки, а также свойства материалов используются для опти мизации, рассчитываемого спектрального фильтра (рис. 2). Создаваемый спектральный фильтр может быть одно- или многополосным (рис. 3).

Экспериментальный образец или оттиск для наноимпринтинга изготавливается напылением материала с высоким индексом рефракции на дифракционную решетку изготовленную из материала с низким индексом рефракции.

Первоначальная дифракционная решетка может быть изготовлена, например, с помощью относительно недорогого метода интерферометрической литографии.

* Институт систем обработки изображений РАН, ^ serp@smr.ru, khonina@smr.ru Тезисы Электромагнитное моделирование прохождения света через многослойную структуру, включающую элементы рельефа с размером порядка длины волны падающего света, является ресурсоемкой зада чей.3 Тем более ресурсоемкой является оптимизация подобных наноструктур. Учитывая, что методом оптимизации, как правило, является стохастический метод поиска глобального экстремума, решение данной задачи с помощью высокопроизводительных вычислительных средств – суперкомпьютера или кластера – становится оправданным. Для расчета диффракции света на наноструктурах в данной работе использован RCWA алгоритм, осно ванный на теории связанных волн. В качестве метода оптимизации выбрана параллельная реализация стохастического метода.

Список литературы 1. J. Phys. D: Appl. Phys. (2004) R123–R141, Progress in nanoimprint technology and its applications, L Jay Guo.

2. R. Magnusson and S. S. Wang, New principle for optical filters, Appl. Phys. Lett. 61, 1022–1024 (1992).

3. Казанский Н.Л., Серафимович П.Г., Харитонов С.И., Расчет оптимальных пересечений фотоннокристаллических волноводов методом передаточной матрицы // Известия Самарского научного центра РАН, 2002, Том 4, № 2, с. 300-307.

4. Волотовский С.Г., Казанский Н.Л., Попов С.Б., Серафимович П.Г., Сойфер В.А., Фурсов В.А., Методологические аспекты создания параллельных приложений в области компьютерной оптики и обработки изображений, Труды научно-методической конф. «Телематика 2002», С-Петербург, 2002. – С.163-165.

Санкт-Петербургский Адрес: 190008, Санкт-Петербург, ул. Лоцманская, д. 3, Государственный Морской Сайт: www.smtu.ru Технический Университет Тезисы Применение распределенных вычислительных технологий в корабельной гидродинамике и динамике корабля И.В. Ткаченко, И.В. Стецюк При проектировании новой морской техники необходимо добиваться не только ее оптимальных кон структивных параметров, но и обеспечивать безопасность эксплуатации объекта в суровых условиях Мирового океана на весь период его службы. Решение подобного рода задачи неразрывно связано с определением гидродинамических и динамических характеристик морского сооружения. На гидро динамические характеристики морской техники значительное влияние оказывает динамика океана.

Поэтому, на современном этапе развития корабельной науки встает вопрос о решении комплексных задач — гидродинамики и динамики корабля и гидродинамики корабля и динамики океана.

Решение сопряженной задачи гидродинамики и динамики океана, позволяющей учесть воздействие оке ана на гидродинамические характеристики морской техники, требует одновременного моделирования гидродинамических процессов как возле исследуемого тела, так и в окружающей морской среде. Наи более полно такие процессы можно воспроизвести в рамках модели вязкой жидкости. Для сопряженной задачи характерен огромный диапазон рассматриваемых масштабов течения от десятков километров до сотен микрон. Поэтому решение задачи гидродинамики корабля и динамики морской среды даже в упрощенной постановке невозможно получить без применения технологий распределенных вычисле ний.

В докладе представляются результаты моделирования, полученные с помощью разрабатываемого в СПбГМТУ гидродинамического кода FlowFES-MPI, гидродинамических характеристик корабельных тел с учетом воздействия на них гидрофизических полей океана. Обсуждаются аспекты моделирования турбулентных течений на основе URANS и LES подходов, вопросы стратегии создания распределенных алгоритмов и повышения их эффективности.

Санкт-Петербургский Адрес: 195251, Санкт-Петербург, ул. Политехническая, д. 29, государственный Сайт: www.spbstu.ru политехнический университет Тезисы Применение высокопроизводительных вычислений для анализа характеристик корректирующих кодов П.В. Трифонов Коды, исправляющие ошибки, используются в разнообразных системах хранения и передачи инфор мации. В настоящее время к таким системам предъявляются требования по обеспечению вероятности ошибки декодирования до 1012 и ниже. Проверка выполнения данного требования с помощью ими тационного моделирования требует непомерных вычислительных затрат. Вследствие этого возникает потребность в использовании аналитических методов предсказания корректирующей способности кодов. Способность кода исправлять ошибки, в основном, определяется его минимальным расстоянием.

Однако для многих практически значимых кодов отсутствуют удовлетворительные теоретические оценки их минимального расстояния. Это приводит к необходимости использования алгоритмических средств исследования характеристик корректирующих кодов. Большинство известных методов оценки минималь ного расстояния сводятся к задаче декодирования соответствующего кода. Вместе с тем, известно, что декодирование линейных кодов по критерию максимума правдоподобия является NP-полной задачей, т. е. поиск ее решения требует значительных вычислительных затрат.

Задача нахождения минимального расстояния линейного кода эквивалентна задаче поиска ненулевого кодового слова минимального веса. Для его нахождения порождающая матрица может быть приведена к диагональному виду на некоторых позициях I : |I | = k, где k — размерность кода, после чего иссле дованы линейные комбинации нескольких строк преобразованной таким образом матрицы.1 Данный метод требует перебора достаточно большого числа множеств I {1, 2,..., n}, где n — длина кода.

При наличии вычислительно эффективного (возможно, субоптимального) алгоритма декодирования рас сматриваемого кода может быть использован подход, состоящий в применении этого алгоритма для декодирования незначительно зашумленных кодовых слов.2 В некоторых случаях декодирование ока зывается ошибочным, причем его результат является, как правило, одним из ближайших соседей исхо дного кодового слова. Вместе с тем, может потребоваться рассмотрение большого числа различных зашумленных версий кодового слова, прежде чем удастся получить подходящую ошибку декодирова ния. С вычислительной точки зрения данный алгоритм сводится к многократному вычислению гиперболи ческого тангенса и суммированию элементов массивов чисел с плавающей запятой. Рассмотренные выше алгоритмы могут быть достаточно просто реализованы на параллельных вычисли тельных системах с использованием технологии MPI. При этом предъявляются достаточно слабые тре бования к быстродействию сети передачи сообщений, т. к. она используется исключительно для сбора найденных кодовых малого веса, количество которых должно быть невелико при надлежащем выборе параметров алгоритма.

Список литературы Canteaut A., Chabaud F. A new algorithm for finding minimum-weight words in a linear code: Application to McEliece’s cryptosystem and to narrow sense BCH codes of length 511 // IEEE Transactions on Information Theory. — 1998. — January. — Vol. 44, no. 1. — Pp. 367–378.

Hu X.-Y., Fossorier M. P. C. On the computation of the minimum distance of low-density parity- check codes // Proceedings of IEEE International Conference on Communications. — Vol. 2. — 2004.

Ryan W. E. An introduction to LDPC codes // CRC Handbook for Coding and Signal Processing for Recording Systems / Ed. by B. Vasic. — CRC Press, 2004.

Саратовский Адрес: 410012, г. Саратов, ул. Астраханская, д. 83, государственный Сайт: www.sgu.ru университет Тезисы Автоматизация развертывания приложений в Cloud инфраструктуру с помощью Chef.

Щербаков М.Г.1,2, Ишанов К.Б. Одной из задач, выполняемой специалистом, работающим с вычислительными облаками (Public Clouds), Тезис на междуна является автоматизация развертывания приложений на сервера. В целях экономии средств, приложе родную конференцию ния в Cloud-инфраструктуре необходимо разворачивать только на время работы. Под развертыванием «Облачные вычис (deployment) понимается заказ серверов у Cloud-провайдера, установка необходимых системных паке ления. Образование.

тов и целевого приложения. В общем случае, приложение может быть распределенным и требовать Исследования. Разра установку на несколько узлов. В данном контексте проблема минимизации времени и усилий на развер ботка».

тывание приложений в Cloud инфраструктуре становится особенно остро.

Одним из подходов в решении проблемы является автоматизация реализованная с помощью скриптов на bash. Однако, у данного подхода есть некоторые минусы: трудность написания и отладки кода, про блемы переносимости и повторного использования в других задачах.

Opscode Chef позволяет запрограммировать задачи развертывания приложений на более высоком уровне, абстрагируясь от конкретной операционной системы (*NIX подобной). Программирование заключается в создании «рецептов» (recipes) для «поваренной книги» (cookbooks). Рецепты могут содер жать в себе основную логику, информацию о пакетах для установки, шаблонах и прочее. Рецепты пишутся на языке Ruby (Internal Ruby DSL), используя так называемые ресурсы. Последние представляют собой некоторые интерфейсы, например, ресурс Service, позволяющий управлять сервисами в системе.


Программисту не нужно заботиться о том, какая конкретно команда будет использована на целевой *NIX платформе — chkconfig, sysv-rc-conf или какая-то другая для добавления сервиса в автозагрузку.

Достаточно написать service «example_service» { action [:enable] }.

Chef позволяет работать как в режиме клиент-сервер, так и без сервера. В режиме клиент-сервер, Chef обеспечивает поиск атрибутов среди всех зарегистрированных узлов, что позволяет каждому из клиен тов узнавать о появлении нового узла, и атрибутов (некие глобальные переменные), ему присвоенных.

Возможен индексированный поиск по произвольным данным, сохраненным в JSON формате на Chef сервере. Количество ресурсов в Chef постоянно увеличивается, вот лишь некоторые из них: mdadm (управление RAID устройствами), route (маршрутизация), user (пользователи), cron (планировщик), deploy (выписывание из систем контроля версий и развертывание) и т.д. Также существует возможность добавления собственных ресурсов. Для управления Chef- сервером возможно использование REST API, что позволяет расширять границы применения фреймворка. Для установки самого Chef-клиента можно использовать специально подготовленные образы (images) на Cloud -провайдере и возможности фрейм ворка по интеграции с Cloud-провайдерами (например, использование UserData на EC2).

На данный момент можно найти около сотни готовых к использованию cookbooks от Opscode и других организаций, включающих в себя установку многих известных программных пакетов (apache, hadoop, java, nagios, tomcat6 и т.д.). Упомянутые возможности делают Chef удобным инструментом в работе с Cloud-инфраструктурой.

Поволжский региональный центр новых информационных технологий, Саратовский государственный университет, Саратов Grid Dynamics, Саратов Сибирский государственный Адрес: 630102, г. Новосибирск, ул. Кирова, д.86, университет телекоммуникаций Сайты: www.sibsutis.ru, www.cpct.sibsutis.ru и информатики Тезисы Архитектура, анализ и организация функционирования распределенных вычислительных систем Хорошевский В.Г., Курносов М.Г., Мамойленко С.Н.

Ведение. В рамках программы «Университетский кластер» Центр параллельных вычислительных техно логий ГОУ ВПО «Сибирский государственный университет телекоммуникаций и информатики» прово дит исследования в области архитектуры, анализа и организации функционирования распределенных вычислительных и GRID систем.

1. Инструментарий параллельного мультипрограммирования. Создан и развивается инстру ментарий (модели, методы и программное обеспечение) организации эффективного функциониро вания распределенных вычислительных систем (ВС) в мультипрограммных режимах. В этих режимах пространственно-рассредоточенные ресурсы ВС используются для одновременного решения множества задач, представленных параллельными программами с различными количествами ветвей.

Другой важной проблемой является создание моделей и алгоритмов для организации эффективного решения параллельных задач на современных распределенных ВС с иерархической структурой и мультиархитектурной организацией. Разработаны методы вложения в современные распределенные ВС параллельных программ с целью минимизации времени их выполнения. Предложены структурно ориентированные алгоритмы коллективных взаимодействий в распределенных ВС. Модели и методы реализованы программно в коммуникационной библиотеке TopoMPI.

Использование колоссальных потенциальных возможностей современных ВС безусловно определя ется их надежностью и способами организации функционирования. Несмотря на высокую надежность микроэлектроники вероятность возникновения отказов в распределенных ВС повышается с ростом коли чества вычислительных узлов. В такой ситуации особую актуальность приобретает организация отка зоустойчивого функционирования распределенных ВС. Коллективом Центра развиваются методы само контроля, самодиагностики распределенных ВС и организации отказоустойчивого выполнения парал лельных программ. Достигнутые результаты внедрены в свободно-распространяемый пакет создания кон трольных точек восстановления DMTCP – Distributed MultiThreaded CheckPointing.


2. Анализ функционирования распределенных ВС. В области анализа функционирования разра ботаны методы расчета показателей надежности и живучести распределенных ВС и осуществимости параллельного решения задач. Полученные формулы позволяют осуществлять экспресс-анализ функцио нирования распределенных ВС как в стационарном, так и в переходном режимах.

3. Пространственно-распределенная мультикластерная ВС. Инструментальную базу исследований составляет вычислительная инфраструктура программы «Университетский кластер», а также созданная и развиваемая Центром совместно с Лабораторией вычислительных систем Института физики полупро водников им. А.В. Ржанова СО РАН пространственно-распределенная мультикластерная ВС (GRID модель). Система включает больше 200 процессорных ядер и имеет производительность несколько TFLOPS. Мультикластерная система используется для отработки архитектурных решений в области пространственно-распределенных вычислительных и GRID систем, отладки инструментальных средств параллельного мультипрограммирования и подготовки специалистов в области параллельных вычисли тельных технологий.

Тамбовский Адрес: 392000 г. Тамбов, ул. Интернациональная д. государственный Сайт: www.tsutmb.ru университет Тезисы Project of Parallel Computer Algebra G.I. Malaschonok Current algebraic objects. There are defined stan The project Parallel Computer Algebra have been dard numerical algebras: Z, Q, Cz, Cq, Zp and started in Tambov University in 2003 in cooperation Zp32. We denote Cz = {a + ib : a, b Z, i2 = –1} with ISP RAS. In 2008 we have started the ParCA- and Cq = {a + ib : a, b Q, i2 = –1}.

project and this year we plan to realize the main part of ParCA-3 system. We carried out experiments The polynomial package consists of the classes of on Myrinet-IBM cluster of Tambov University and in polynomials (polynom) of many variables, rationals Joint Supercomputer Center of RAS. The main fea- (Rational), rationals in factoring form (FactorPol), and tures of current version of ParCA system are pre- sum of factoring rationals (FactorPolSum). The class sented in this talk. Ring of polynomial package defines the algebraic space in the form of polynomial ring. The algebraic Structure of ParCA-3 system Three parts of the space V1 = {u, v C, x, y, z R, n, m Z} is ParCA-3 system are Front End, Kernel and Parallel defined by the ring R1 = C[u, v]R[x, y, z]Z[n, m].

part. Each part consists of several packages.

The func package contains the class of functions (F).

(1) The Front End part consists of two packages:

Each function of this class contains two dynamical frontend and showGraph. The frontend package fields: name — for title of this function and X — for is a collection of classes which support the low the array of elements, which are the arguments of this level notebook programming for users of ParCA function. Therefore this class permits to construct any system. The showGraph package is devoted to composition of transcendental and rational functions.

the visualization of functions, The matrix package contains the classes of dense (2) The Kernel part consists of four packages: num and sparse matrices in two forms: in-core and out ber, polynom, func, and matrix. These pack of-core. The out-of-core form of matrices is necessary ages support corresponding mathematical for very large matrices, which cannot be disposed in objects: numbers, polynomials, functions and core. The main matrix methods are: “adjoint”, “det”, matrices.

“kernel”, “toEchelonForm”, “inverse”.

(3) The Parallel part consists of two packages: par Computation algorithms for symbolic-numerical matri java and parca. The parjava package is a Java ces are the most interesting objects for parallelization.

MPI interface. The parca package consists of all parallel programmes of the ParCA system. The following matrix algorithms were obtained in parallel form:

The computational paradigm Principles of alge braic structures. 1. Matrix multiplication.

2. Computation of adjoint, inverse and echelon form 1. Each mathematical object is an element of some of matrix.

algebra (algebraic structure).

3. Computation of determinant and kernel.

2. Each algebra is represented by some class in cor 4. Computation of matrix characteristic polynomial.

responding package. Therefore each element of algebra may be defined by the value of dynami- 5. Computation of adjoint matrix for the polynomial cal fields of their class and each operation of matrix on the base of polynomial FFT algorithm.

this algebra is represented by some method of 6. Solving system of linear equations in the fraction their class. field of Z on the base of p-adic lifting.

3. In the top of the algebraic hierarchy we put some Next polynomial algorithms were obtained in paral

Abstract

algebra and call it “element”. The alge- lel form:

braic hierarchy is represented by the correspond- 1. Polynomial multiplication.

ing class hierarchy with Element class in the 2. Computation of the Groebner basis for given top. Each class which represents some real alge ideal.

braic structure has to extend this abstract class of Elements. There are no dynamical fields in this class but all possible operations for the main types of usually used algebraic structures with one and two binary operations must be defined in this class of Elements.

Тюменский Адрес: 625003, г. Тюмень, Семакова, д. E-mail: rector@utmn.ru государственный Сайт: www.utmn.ru университет Тезисы Виртуальные среды и угрозы информационной безопасности Бойко Александр Васильевич Виртуальная машина является потенциально опасным объектом виртуальной инфраструктуры, ввиду ее изначальной незащищенности и простоты модификации данных. Кража файлов мгновенных сним ков (снапшотов) способна привести к утечке информации, поскольку они содержат все последующие изменения данных на виртуальном диске и полный снимок оперативной памяти виртуальной машины с момента создания снимка. Угрозой является и потенциальная возможность захвата всех ресурсов хоста виртуализации одной виртуальной машиной, в результате которой остальные виртуальные машины могут прекратить нормальную работу. Ряд проблем безопасности связан с дисковой подсистемой виртуальных машин, а также сервером управления.

В докладе излагаются общие проблемы, связанные со спецификой обеспечения информационной безо пасности виртуальных сред, а также приводятся организационные и технические методы борьбы по про тиводействию типовым угрозам. В частности рассматриваются такие новые виды угроз, характерные для виртуальной инфраструктуры как:

• Атака на виртуальную машину путем: атаки из другой виртуальной машины, атаки на диск и файлы конфигурации виртуальной машины, атаки на сеть репликации виртуальных машин, атаки на сеть и систему хранения данных содержащей файлы виртуальной машины, атаки на средства резервного копирования виртуальной машины.

• Атака на хост виртуализации путем: атаки средствами скомпрометированного сервера управления виртуальной инфраструктурой, атаки на внутренние сервисы гипервизора, атаки с использованием агентов гипервизора от сторонних производителей.

• Атака на ресурсы хоста виртуализации путем: неконтролируемого роста числа виртуальных машин, неправильного планирования разграничения пулов ресурсов.

• Атака на сервер управления виртуальной инфраструктуры путем атак на родительскую ОС, СУБД, Сервисы управления Перечисленные угрозы являются существенными и способны нанести значительный ущерб безопасно сти, начиная от несанкционированного доступа непосредственно к данным виртуальных машин заканчи вая полным выводом из строя всей виртуализированной IT-инфраструктуры.

В заключении приводится классификация существующих специализированных систем защиты виртуаль ной инфраструктуры, позволяющих в значительной мере повысить безопасность виртуальных сред.

© Copyright 2010 Hewlett-Packard Development Company, L.P. Содержащаяся здесь информация может быть изменена без предваритель ного уведомления. Данный документ предназначен только для информационных целей. HP предоставляет только те гарантии на свои про дукты и услуги, которые изложены в гарантийных обязательствах, прилагающихся к этим продуктам и услугам. Никакие сведения в данном документе не могут рассматриваться как дополнительные гарантийные обязательства. HP не несёт ответственности за технические, редак торские и другие ошибки в данном документе.

HP_Univerce_Cluster51-0737-80A4-0410-MOS

Pages:     | 1 | 2 ||
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.