авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |   ...   | 13 |

«ISBN ???-?-??????-??-? ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ. Переславль-Залесский, 2009 615.07 УДК А. А. Толчёнов, Д. В. Зубов, А. В. Сергеева ...»

-- [ Страница 7 ] --

– MultiGen (ЧелГУ) – система расчета биологической ак – тивности молекул с учетом их конформационного мно гообразия, прогнозирование и проектирование в химии (лекарства и другие соединения);

– пакет расчета аэромеханики подвижных плохообтекае мых тел (НИИ механики МГУ имени М. В. Ломоносо ва);

– обработка и поиск XML-данных (НИИ механики МГУ имени М. В. Ломоносова);

– программная система формирования фокусированных радиолокационных изображений (НИИ КС);

– программная система моделирования широкополосных пространственно-временных радиолокационных сигна лов (НИИ КС);

– программная система поточечной обработки цветных и полутоновых видеоданных космических систем дистан ционного зондирования (НИИ КС);

18 С. М. Абрамов – программная система классификации гиперспектраль ных изображений со спутника LANDSAT (ИПС РАН);

• 14 параллельных приложений собственной разработки, сре ди которых:

– ИПС РАН, Росгидромет: модель проф. В. М. Лосева и другие метеорологические модели;

– ОИПИ НАН Беларуси, Республиканский Гидрометео рологический центр: численные методы прогнозирова ния погоды, модели регионального прогноза погоды на 48 часов;

– ИЦИИ ИПС РАН: три прикладные системы искусствен ного интеллекта: АКТИС – классификация текстов по – заданным в процессе обучения классам (глубокий ана лиз текста, высокая релевантность);

INEX – извлече – ние знаний из неструктурированных текстов на есте ственном языке, заполнение заданной реляционной БД;

MIRACLE (система разработана на OpenTS) – инстру – ментальная система для проектирования интеллекту альных систем;

– ОИПИ НАН Беларуси, РНПЦ «Кардиология» и УП «НИИЭВМ»: кардиологический комплекс на базе кла стера «СКИФ»;

– ИВВиИС: кардиологическая экспертная система реаль ного времени «ADEPT-C».

9.4. Сервисная сеть ServNet (версии 1 и 2) для суперЭВМ семейства «СКИФ»

Разработка сервисной сети [24] (ServNet версии 1 и 2) для супер ЭВМ интересна тем, что удалось небольшим и простым аппаратным изделием поддержать достаточно богатый набор возможностей. С по мощью управляющей сети ServNet можно было:

• селективно включать и отключать питание на любом узле суперЭВМ;

• селективно выполнить аппаратный сброс любого вычисли тельного узла;

• селективно осуществлять подключение к порту RS232 узла, а это, в свою очередь, обеспечивает взаимодействие с узлом кластера в консольном режиме Linux serial console, а также возможность удаленной работы в режиме BIOS Setup, если Исследования суперкомпьютерных технологий в ИПС РАН BIOS узла поддерживает взаимодействие через последова тельный интерфейс.

Возможность удаленного доступа с управляющей станции на се риальную консоль узла позволяет реализовывать различные функ ции управления узлом:

Упомянутые выше возможность работы с Linux serial console вы числительного узла и удаленной работы в режиме BIOS Setup.

• Возможность управления загрузчиком (LILO) операцион ных систем вычислительного узла. На сериальную консоль может быть сконфигурировано управление LILO и, если на узлах установлено несколько различных операционных си стем, то можно с управляющей станции выбрать тип ОС, загружаемой на каждом узле и таким образом на всем кла стере (или на части узлов) может быть загружена та или иная ОС (из предустановленных на узле).

• Возможность изменять параметры загрузки ядра Linux на каждом узле.

• Возможность «посмертного» просмотра некоторого количе ства последних строк (до 4 Кбайтов), выведенных на сери альную консоль. При «зависании» вычислительной систе мы, когда уже не работают ни системная, ни вспомогатель ная сети кластера, в независимой памяти адаптера ServNet сохраняется информация о состоянии системы перед «за висанием». Таким образом, с управляющей станции можно восстановить картину последних «мгновений жизни» вычис лительной системы и понять причину сбоя. Данная возмож ность поддержана только в ServNet, ее нет в аналогичных западных разработках.

9.5. Вхождение в мировой рейтинг Top суперкомпьютеров семейства «СКИФ» Ряда Из шестнадцати опытных образцов и вычислительных устано вок семейства «СКИФ», созданных в 2000–2003 гг., две суперкомпью терные установки вошли в мировой рейтинг пятисот самых мощных ЭВМ Тор50011.

11http://www.top500.org/ 20 С. М. Абрамов Рис. 1. СуперЭВМ «СКИФ К-1000»

• В ноябре 2003 года суперЭВМ «СКИФ К-500» заняла место в рейтинге Тор500, показав пиковую производитель ность 716.8 Gflops, реальную производительность на задаче Linpack – 471.6 Gflops (65.79% от пиковой).

– • В ноябре 2004 года суперЭВМ «СКИФ К-1000» (Рис. 1) за няла 98 место в рейтинге Тор500, показав пиковую произво дительность 2534 Gflops, реальную производительность на задаче Linpack –– 2032 Gflops (80.19% от пиковой).

Добавим, что суперкомпьютер «СКИФ К-1000» на момент созда ния (октябрь 2004 года) являлся самой мощной из всех вычислитель ных систем, установленных на территориях России, СНГ и Восточной Европы. В рейтинге Top Cranch (поддержан агентством перспектив ных оборонных исследований – DARPA) суперкомпьютер «СКИФ К – 1000» занял тогда первое место в мире на задаче расчета столкнове ния трех автомобилей.

Исследования суперкомпьютерных технологий в ИПС РАН В ноябре 2004 г. суперкомпьютеры «СКИФ К-1000» и «СКИФ К 500», конструкторская и программная документация суперкомпью теров Ряда 2 семейства «СКИФ» успешно прошли государственные испытания с присвоением литеры «О1 ». Государственная комиссия отметила готовность промышленного выпуска суперкомпьютеров се мейства «СКИФ» Ряда 2 с производительностью до 15 триллионов операций в секунду (15 Tflops), соответствующих международным стандартам по техническим показателям, составу, комплектности и программному обеспечению. Очень важным результатом программы «СКИФ» являлась подготовленная производственная база, возмож ности участников программы «СКИФ» позволяющие серийно выпус кать:

• суперкомпьютеры с производительностью до 15 Тфлопс – – по технологиям, ранее проверенным на суперЭВМ Ряда семействе «СКИФ»;

• отечественные адаптеры высокоскоростных сетей SCI для кластеров – полных аналогов адаптеров фирмы Dolphin (SCI – PCI64/66 Dolphin ICS, 1D- и 2D-тор, D330, D337, D335);

• адаптеры сервисной сети СКИФ-ServNet.

9.6. Общая оценка результатов суперкомпьютерной программы «СКИФ» Союзного государства Программа «СКИФ» была признана одной из самых успешных программ Союзного государства. Так, в Постановлении Совета Ми нистров Союзного государства от 21 апреля 2005 г. № 17 «Об итогах выполнения программы Союзного государства «Разработка и освое ние в серийном производстве семейства высокопроизводительных вы числительных систем с параллельной архитектурой (суперкомпьюте ров) и создание прикладных программно-аппаратных комплексов на их основе» вместо дежурного «принять представленный отчет» было сказано:

Совет Министров Союзного государства постановляет:

1. Считать завершенной программу Союзного государства «Раз работка и освоение в серийном производстве семейства высокопро изводительных вычислительных систем с параллельной архитек турой (суперкомпьютеров) и создание прикладных программно-ап паратных комплексов на их основе» и одобрить представленный На циональной академией наук Беларуси и Федеральным агентством по 22 С. М. Абрамов науке и инновациям (Министерство образования и науки Россий ской Федерации) отчет об итогах ее реализации в 2000–2004 годах (прилагается).

2. Федеральному агентству по науке и инновациям и Националь ной академии наук Беларуси подготовить и внести установленным порядком в Совет Министров Союзного государства предложение о дальнейшем развитии работ в области создания и разработки вы сокопроизводительных вычислительных систем в рамках Союзного государства.

3. Настоящее постановление вступает в силу со дня его подпи сания.

Немного позже эти результаты получили и высокую правитель ственную оценку. За работу «Разработка конструкторской и про граммной документации, подготовка промышленного производства и выпуск образцов высокопроизводительных вычислительных систем (суперкомпьютеров) семейства «СКИФ» Ряда I и Ряда II» была при суждена премия Правительства Российской Федерации в области на уки и техники за 2006 год группе исполнителей Программы «СКИФ».

Лауреатами стали:

• От ИПС РАН, Переславль-Залесский: Айламазян Альфред Карлович (посмертно), Абрамов Сергей Михайлович, Ада мович Алексей Игоревич, Коваленко Максим Русланович, Пономарев Александр Юрьевич, Шевчук Юрий Владими рович;

• От НИЦЭВТ, Москва: Слуцкин Анатолий Ильич;

• От компании «Т-Платформы», Москва: Опанасенко Всево лод Юрьевич;

• От ОИПИ НАН Беларуси, Минск: Анищенко Владимир Вик торович, Парамонов Николай Николаевич.

Пожалуй, самым важным результатом программы «СКИФ» мож но назвать восстановление и создание кооперационных связей, орга низацию такой команды исполнителей, которой по плечу самые слож ные задачи в области суперкомпьютерных технологий.

Это особенно ярко проиллюстрировал опыт создания «СКИФ К 1000». Как отмечалось, в ноябре 2004 г. суперкомпьютер «СКИФ К 1000» занял 98-е место в рейтинге Top500. При этом суперкомпьюте ры из «первой сотни», кроме участников программы «СКИФ», вы пускали в это время только США, Япония и Китай. Многие другие Исследования суперкомпьютерных технологий в ИПС РАН страны Западной Европы и Азии обладали развитой суперкомпью терной отраслью и создавали суперкомпьютеры, входящие в Top500, но не в «первую сотню»!

Этот факт доказывал тезис, что на этот момент команда исполни телей программы «СКИФ» действительно достигла мирового уровня в освоении суперкомпьютерных технологий. И не использовать такой ресурс в интересах России и Беларуси было бы ошибкой.

10. 2005–2007 годы: бюрократические проволочки и потеря темпа Еще в середине 2004 г. в сотрудничестве ИПС РАН с белорус скими и российскими организациями были подготовлены предложе ния по формированию новой суперкомпьютерной программы Союз ного государства: «Разработка и использование программно-аппа ратных средств ГРИД-технологий и перспективных высокопроизво дительных (суперкомпьютерных) вычислительных систем семейства «СКИФ» (шифр «СКИФ-ГРИД»)».

К сожалению, предложения по формированию новой суперком пьютерной программы Союзного государства «СКИФ-ГРИД» рас сматривались, согласовывались, утверждались в российских ведом ствах12 долгих три с лишним года: с 2004 по март 2007 года. А без го сударственной поддержки продолжения научного направления про граммы «СКИФ» научный задел и потенциал команды исполнителей программы «СКИФ» безнадежно терялся.

Общеизвестно, что мировые суперкомпьютерные технологии раз виваются по закону Мура – приблизительно «удвоение за год», – по – – всем основным показателям. Это обстоятельство означает, что 1 год простоя приводит к потере 1/2 части задела и потенциала;

2 года простоя –– от задела и потенциала остается 1/4 часть и т. д. Это поз воляет оценить тот ущерб, который был нанесен бюрократическими проволочками научному заделу и потенциалу, ранее огромным тру дом созданному исполнителями программы «СКИФ».

В силу указанных обстоятельств, в 2005–2007 годах исследования в области суперкомпьютерных и grid-технологий институтом выпол нялись в инициативном порядке и в рамках фундаментальных иссле дований Российской академии наук.

12В Беларуси согласования были завершены весной 2005 года.

24 С. М. Абрамов В 2005 году была реализована распределенная вычислительная сеть T-Grid в г. Переславле-Залесском, объединяющая в единую сеть часть вычислительных ресурсов ИПС РАН и Университета города Переславля. Вычисления в сети T-Grid производились с использова нием среды динамического автоматического распараллеливания про грамм –– Т-Системы. Проведены эксперименты по запуску Т-прило жений на гетерогенных кластерах и системе T-Grid, а также по ис пользованию стенда T-Grid в метакластерной установке (120 процес соров).

В это же время была начата разработка основных принципов и аппаратных компонент сервисной сети (ServNet версии 3) для супер ЭВМ семейства «СКИФ» Ряда 3 с большим числом узлов – десятки – тысяч и более. Отличия данной версии ServNet от предыдущих были в следующем:

• ServNet версии 3 был ориентирован на суперЭВМ, создан ные на базе blade-решений – вычислитель суперЭВМ соби – рался из шасси, внутри шасси устанавливались вычисли тельные модули;

• соответственно, в сети ServNet версии 3 использовались две печатные платы: ServNet CNB – плата управления шасси и – подключенные к ней платы ServNet Т-60 – по одной плате – на каждый вычислительный узел;

• для связи в единую сеть платы ServNet Т-60 снабжались интерфейсами RS 485, а плата ServNet CNB – интерфейсами – RS 485 и Ethernet 10Base-T;

• в рамках монтажного шкафа все платы ServNet CNB объ единяются сетью RS 485. И все платы ServNet Т-60 каждого шасси подключаются при помощи RS 485 к соответствую щей плате ServNet CNB;

• в каждом шкафу одна из плат ServNet CNB (или несколько для надежности) подключаются к Ethernet-сегменту, охва тывающему все шкафы, и управляющие станции суперЭВМ.

Таким образом, была обеспечена практически безграничная мас штабируемость сервисной сети для суперЭВМ любого диапазона про изводительности.

ServNet версии 3 была востребована при построении суперком пьютеров «СКИФ МГУ» и «СКИФ Урал» в 2008 году. К этому вре мени разработка была полностью завершена, и был развернут выпуск аппаратуры ServNet версии 3 на базе опытного производства ИПС Исследования суперкомпьютерных технологий в ИПС РАН РАН. Всего в короткий срок нами было выпущено необходимое (для суперЭВМ «СКИФ МГУ» и «СКИФ Урал») количество изделий: бо лее 800 плат ServNet Т-60 и 80 плат ServNet CNB.

Выполнялись в эти же годы и работы по развитию OpenTS – – современной реализации Т-системы. В 2004 году на Open TS обрати ла внимание корпорация Microsoft. В результате нескольких рабочих обсуждений был оформлен контракт на сравнительный анализ эф фективности использования системы OpenTS и библиотеки MPI для написания прикладных программ. Задача исследования была постав лена следующим образом. Корпорация Microsoft выбрала два при ложения13, которые разрабатывались многие годы на базе библио теки MPI усилиями сотен программистов – сторонников движения – Open Source. Таким образом, выбранные приложения были макси мально оптимизированы (отшлифованы) – насколько это позволяет – MPI-подход. Сотрудники ИПС РАН в сжатые сроки, не более 3-х ме сяцев, должны были переписать две отобранные системы с MPI на OpenTS. Результат считался бы положительным, если в Т-системе код получился бы более ясным и компактным. При этом допускалась потеря производительности до 30%.

Тем самым корпорация Microsoft явно выражала свои предпо чтения: допуская даже небольшую потерю производительности про грамм важно повысить производительность труда программистов, обеспечить более ясный и компактный код (а, значит, и более на дежный код: меньше строчек – меньше места для ошибок, большая – ясность –– меньше причин для ошибок).

Результаты данной работы были неожиданными даже для нас:

• огромные программные комплексы были в двухмесячный срок 2–3 программистами переписаны на OpenTS, отлажены и запущены;

• было достигнуто радикальное улучшение компактности ко да –– Т-программы были значительно меньше, чем MPI-про граммы: для Powray – в 7–15 раз, а для ALCMD – в 7 раз;

– – • при этом Т-программы и MPI-программы показывали при мерно одинаковую производительность.

13Powray – пакет построения реалистичных трехмерных сцен методом трас – сировки лучей;

ALCMD – программа для расчетов в области молекулярной – динамики.

26 С. М. Абрамов Данный сравнительный анализ выполнялся в операционной си стеме Linux –– для которой и была изначально разработана система OpenTS. Результаты анализа показались корпорации Microsoft ин тересными, и в 2006 году наше сотрудничество было продолжено в рамках нового контракта, целью которого был перенос OpenTS из операционной системы Linux в операционную систему Windows Compute Cluster Server. Контракт был успешно выполнен в 2006 го ду: ядро Т-системы было перенесено в WinCCS, транслятор с язы ка Т++ был интегрирован в Visual Studio, был разработан интерак тивный инсталлятор, справочная подсистема и все остальные компо ненты, традиционные для систем программирования под Windows.

Результаты представлялись на международной конференции и вы ставке «Supercomputing’2006’», Тампа, США, ноябрь, 2006. В после дующие годы (2007–2008) новые версии OpenTS нами создавались в кросс-платформенном варианте: один и тот же код OpenTS можно было собрать в дистрибутив для операционной системы Linux и для Windows Compute Cluster Server.

В 2005–2007 годах в ИПС РАН была разработана система сбора данных о показаниях сенсоров узлов вычислительных кластеров, в которой осуществляется постоянный сбор данных и накопление ин формации об отказах оборудования. Система предназначена не толь ко для сбора информации, но и для упреждающего предсказания на базе собранных данных вероятного отказа оборудования, а также нетипичного поведения аппаратных и программных средств супер ЭВМ. Система установлена на разных суперкомпьютерах семейства «СКИФ»: Переславль, Москва, Минск, Челябинск, Томск и др.

В 2006–2007 году в дополнение к Т-системе была создана и раз вивалась библиотека Т-Sim параллельного программирования на ос нове шаблонных классов С++. В ее состав включен набор шабло нов –– функций высшего порядка, применяющих операции, передан ные пользователем (программистом), к множеству входных данных – – модель map-reduce. Поведение шаблонов определяется как классами стратегиями, переданными программистом, так и типами элементов, составляющих входное и результирующее множества. При создании параллельных программ на основе T-Sim разработчик может исполь зовать как высокоуровневые функции-шаблоны (в наиболее простых случаях), так и реализуя нестандартные решения с использовани ем механизмов Т-системы или механизмов активных сообщений. Это Исследования суперкомпьютерных технологий в ИПС РАН позволяет пользователю выбирать инструменты, наиболее адекват ные задаче.

В 2006 году нами был предложен новый подход к созданию вы числительных Web-сервисов на основе системы автоматического ди намического распараллеливания программ, основанный на автома тической генерации вычислительных grid-сервисов по описанию Т программ. Были разработаны программные средства генерации grid сервисов, поддерживающие метакластерные и гетерогенные конфи гурации за счет механизма сериализации объектов в XML-форму.

Была реализована возможность использования протокола MPI для обмена данными и другие дополнительные возможности. Разработан ные программные средства предназначены для организации инстру ментальной среды создания grid-приложений с использованием систе мы автоматического динамического распараллеливания программ T Sim.

Нами были выполнены исследования среды на основе интеграции разнородных источников данных Open Grid Software Architecture – – Data Access Integration (OGSA-DAI) (данный пакет является про граммным обеспечением с открытыми исходными кодами, что позво ляет дополнять его необходимыми модулями). Создан набор допол нений к пакету OGSA-DAI, позволяющий осуществлять подключение источников данных XML СУБД Sedna. В рамках проекта «Виртуаль ная обсерватория» – веб-средства предоставления доступа к данным – grid-сред для конечных пользователей, – создана система самоописа – ния структур разделов Виртуальной обсерватории и поисковый сер вис, включающий в себя ряд улучшенных пользовательских функ ций.

10.1. Июнь 2007–2008 год: Первый этап исполнения суперкомпьютерной программы «СКИФ-ГРИД»

Союзного государства К весне 2007 года было закончено формирование и согласова ние, и в июне 2007 года началось исполнение суперкомпьютерной Программы14 Союзного государства «СКИФ-ГРИД», в которой ИПС 14Исполнение: 2007–2010 годы, полное наименование программы: «Разработ ка и использование программно-аппаратных средств ГРИД-технологий и пер спективных высокопроизводительных (суперкомпьютерных) вычислительных си стем семейства «СКИФ»».

28 С. М. Абрамов РАН является головным исполнителем от России. Программа вклю чает четыре направления работ:

• GRID-технологии: исследование, создание, развитие и внед рение средств высокопроизводительных вычислений на ос нове GRID-технологий;

поддержка гетерогенных, террито риально-распределенных вычислительных комплексов.

• Суперкомпьютеры семейства «СКИФ» (Ряд 3 и 4): созда ние суперкомпьютеров «СКИФ» нового поколения на базе новых перспективных процессоров и вычислительных узлов, новых технических средств системной сети, управления си стемой, спецвычислителей и гибридных узлов, разработка соответствующего программного обеспечения.

• Защита информации: реализация (аппаратных и программ ных) средств защиты информации в создаваемых вычисли тельных комплексах.

• Пилотные системы: реализация прикладных систем в пер спективных областях применения создаваемых высокопро изводительных вычислительных систем, решение актуаль ных задач на суперкомпьютерах и GRID-системах, усилия по подготовке и переподготовке кадров в области суперком пьютерных и GRID-технологий.

К исполнению Программы привлечено большое количество ор ганизаций. В том числе, российских исполнителей программы – бо – лее 20, среди них: ГЦ РАН, ИКИ РАН, ИПМ им. М. В. Келдыша РАН, ИППИ РАН, ИПХФ РАН, ИХФ РАН, НИВЦ МГУ, НИИ КС, НИИФХБ МГУ, НИИЯФ МГУ, ННГУ, НПЦ «Элвис», ОИЯИ, ООО «Т-Платформы», ООО «ЮникАйСиз», ПензГУ, СПбАЭП, СПбГПУ, ТГУ, Химический факультет МГУ, ЧелГУ, ЮУрГУ. В последующих разделах обсуждаются только основные результаты первого этапа выполнения программы «СКИФ-ГРИД».

10.2. Разработка решений для Grid-технологий Среди разработок для совершенствования системы доступа к на учным данным скажем о «Виртуальной обсерватории». В этой обла сти выполнены: развитие механизмов работы с источниками данных и метаданных, разработка дополнительных средств внешнего поиска, включая поддержку нечетких запросов, и обмена данными между ло гически взаимосвязанными виртуальными обсерваториями, а также улучшение пользовательского и административного интерфейсов.

Исследования суперкомпьютерных технологий в ИПС РАН Была выполнена еще одна интересная разработка – программное – обеспечение SKIF@Home, которое позволяет развертывать вычисли тельные сети, использующие для высокопроизводительных, распре деленных вычислений мощности неполностью загруженных персо нальных компьютеров (так называемых «компьютеров-доноров»). От аналогов (таких как, например, пакет BOINC – основы известных – проектов SETI@Home и Folding@Home) ПО SKIF@Home отличает ис пользование технологии виртуальных машин для обеспечения «кон тракта» между донором и организаторами сети: разграничение про граммного окружения вычислительных приложений и компьютера, на котором устанавливается ПО SKIF@Home, ограничения объемов памяти, используемой сетью. Разработана оригинальная методика ограничения доли процессорного времени: при помощи графическо го интерфейса администратор компьютера-донора способен задать ограничения с точностью до нескольких процентов. В состав разра ботанного ПО входит веб-сервис, проводящий точный учет ресурсов (процессорного времени, памяти), предоставленного для проведения расчетов отдельными донорами. Нами была показана работоспособ ность в прототипе среды SKIF@Home распределенных приложений, разработанных с использованием библиотеки X-Com, что открывает широкие возможности по использованию среды SKIF@Home.

В эти же годы сотрудниками института:

• была усовершенствована система предсказания отказов кла стерных установок (СПОКУ);

• разработан ряд алгоритмов статистического анализа дан ных показаний сенсоров кластерных установок;

• разработана и реализована схема предсказания отказов обо рудования на основе экстраполяции показаний сенсоров в ближайшее будущее (при этом вероятным отказом считает ся выход прогнозного значения за пределы расчетного ин тервала);

• разработана и реализована схема оценки качества предска заний, а также сопоставления вновь получаемых данных со статистической моделью данной кластерной установки;

• разработана система оповещения администраторов устано вок о возможных отказах оборудования, усовершенствован веб-сайт, позволяющий администраторам просматривать и анализировать данные, накопленные в хранилище.

30 С. М. Абрамов 10.3. Дальнейшее развитие OpenTS Система параллельного программирования OpenTS доработана до поддержки гетерогенных распределенных вычислительных архи тектур (grid-систем, территориально-распределенных неоднородных вычислительных систем). В том числе, в OpenTS поддержана отка зоустойчивость исполнения Т-приложений в версии системы OpenTS для платформы Windows:

• доработанная в части отказоустойчивости реализация наи более употребимого подмножества функций MPI – DMPI;

– • доработанная в части отказоустойчивости реализация среды исполнения Т++ программ.

Была разработана система генерации Web-сервисов для Т-функ ций в системе OpenTS для платформы Windows Compute Cluster Server (WCCS). ИПС РАН также были разработаны средства ви зуализации процесса параллельного исполнения Т++ программ для платформы WCCS, позволяющие наглядно отображать во время ис полнения ключевые характеристики среды исполнения Т++.

В системе OpenTS были поддержаны многоядерные вычисли тельные архитектуры под управлением ОС семейств UNIX и Win dows. Осуществлен перенос под Windows модуля OpenTS, который позволяет Т-программе эффективно задействовать все вычислитель ные ядра всех процессоров SMP-системы.

10.4. СКИФ-Полигон и пилотные прикладные системы Помимо одиночных суперкомпьютерных установок упомянем еще об одном результате, который достигнут в рамках первого этапа ис полнения программы «СКИФ-ГРИД»: это создание распределенной вычислительной системы «СКИФ-Полигон» (см. Рис. 2). «СКИФ-По лигон» объединяет суперкомпьютерные центры, в которых распо ложены суперЭВМ семейства «СКИФ» и научно-исследовательские центры, которым необходим доступ к вычислительным ресурсам. К осени 2008 года были объединены ресурсы суперкомпьютерных цен тров, расположенных в самых разных городах Беларуси и России:

Минск, Москва, Переславль-Залесский, Челябинск, Томск, Ставро поль, Владимир и другие города. Суммарная пиковая производитель ность системы «СКИФ-Полигон» сегодня превышает 100 Tflops. В дальнейшем предусмотрено расширение состава участников «СКИФ Полигона» и увеличение его производительности. Система «СКИФ Исследования суперкомпьютерных технологий в ИПС РАН Рис. 2. Схема распределенной вычислительной си стемы СКИФ-Полигон Полигон» является эффективной платформой, на которой проводят ся разработки системного и прикладного программного обеспечения для суперЭВМ семейства «СКИФ». Разрабатываемые программные комплексы предназначены для выполнения научных и инженерных расчетов в таких важнейших областях как:

• исследования в области обработки данных в здравоохране нии (например, система для обработки и хранения цифро вых маммограмм);

• исследования в области проектирования лекарств с задан ными свойствами;

• расчеты в интересах разработки новых материалов, в том числе –– наноматериалов;

• исследования в области биоинформатики;

• расчеты, связанные с обеспечением безопасности атомных электростанций;

• расчеты в интересах различных разделов наук о Земле 32 С. М. Абрамов Таблица 1. Основные характеристики СуперЭВМ «СКИФ МГУ»

Производительность пиковая/Linpack: 60 / 47.17 Tflops (КПД=78.6%) Вычислительных узлов: Число CPU Intel Xeon E5472, 3,0 GHz / ядер: 1250 / Суммарная память узлов RAM / HDD: 5.5 ТБ / 15ТБ Конструктив узла: blade Монтажных шкафов вычислителя: Системная сеть: Infiniband DDR Задержка при передаче пакетов данных: 2.2 мкс Вспомогательная сеть: Gigabit Ethernet Сервисная сеть: СКИФ ServNet v.3 + IPMI Занимаемая площадь: 96 кв.м.

Потребляемая мощность установки в целом: 520 кВт • и другие исследования.

10.5. СуперЭВМ Ряда 3 семейства «СКИФ»

К марту 2008 года было завершено создание еще двух суперком пьютеров Ряда 3 семейства «СКИФ»:

• «СКИФ МГУ», Linpack-производительность 47.17 Tflops;

пи ковая производительность 60 Tflops, Таблица 1;

• «СКИФ Урал», Linpack-производительность 12.2 Tflops, пи ковая производительность 16 Tflops.

Обе эти суперЭВМ созданы на базе одинаковых технических ре шений, разработанных в рамках первого этапа программы «СКИФ ГРИД». В суперЭВМ использованы самые передовые технические решения:

• четырехъядерные процессоры, выполненные по технологии 42 нм –– Intel Xeon E5472, 3.0 GHz – использованы впервые в – России;

• системная сеть DDR InfiniBand;

вспомогательная сеть Giga bit Ethernet, сервисная сеть СКИФ ServNet v.3;

• высокая плотность упаковки в «СКИФ МГУ» и «СКИФ Урал» достигнута за счёт использования отечественных сер веров-лезвий, имеющих плотность вычислительной мощно сти на 20% лучшую, чем у любых других серверов-лезвий.

Исследования суперкомпьютерных технологий в ИПС РАН Суперкомпьютеры Ряда 3 «СКИФ МГУ» и «СКИФ Урал» пред назначены для решения задач со сложной логикой и большим коли чеством вычислений.

10.6. Вхождение суперЭВМ семейства «СКИФ» в рейтинг Top В рамках исполнения программы «СКИФ» и первого этапа про граммы «СКИФ-ГРИД» было выпущено девятнадцать опытных об разцов суперкомпьютеров Рядов 1, 2 и 3 семейства «СКИФ», вне рамок Программ в различные организации России и Беларуси по ставлено более 60 суперкомпьютеров семейства «СКИФ».

Пять суперкомпьютеров семейства «СКИФ» вошли в мировой рейтинг Тор500 –– пятисот самых мощных суперЭВМ мира. Это очень серьезный результат и для России, и для Беларуси, поскольку за всю историю развития вычислительной техники в СССР и в странах СНГ было всего шесть суперкомпьютеров, которые вошли в мировой рей тинг Тор500 с признанием мировым сообществом их отечественного происхождения. Вот эти шесть суперЭВМ (см. Рис. 3):

• суперЭВМ «МВС 1000М» вошла в рейтинг Тор500 в июне 2002 года заняв 64 место с производительностью 0.734 Tflops на тесте Linpack, пиковая производительность – 1.024 Tflops.

– Разработчики: НИИ «Квант», ИПМ имени М. В. Келдыша РАН, МСЦ РАН;

• суперЭВМ «СКИФ К-500» вошла в рейтинг Тор500 в нояб ре 2003 года заняв 405 место с производительностью 0. Tflops на тесте Linpack, пиковая производительность – 0. – Tflops;

• суперЭВМ «СКИФ К-1000» вошла в рейтинг Тор500 в нояб ре 2004 года заняв 98 место с производительностью на тесте Linpack 2 Tflops, пиковая производительность – 2.534 Tflops.

– • суперЭВМ «СКИФ Cyberia» вошла в рейтинг Тор500 в июне 2007 года заняв 105 место с производительностью на тесте Linpack 9.013 Tflops, пиковая производительность – 12. – Tflops;

• суперЭВМ «СКИФ Урал» вошла в рейтинг Тор500 в июне 2008 года заняв 282 место с производительностью на тесте Linpack 12.2 Tflops, пиковая производительность 15.9 Tflops;

34 С. М. Абрамов Рис. 3. Все шесть признанные отечественные супер ЭВМ в Тор500. Пять из шести – суперкомпьютеры – семейства «СКИФ»

• суперЭВМ «СКИФ МГУ» вошла с рейтинг Тор500 в июне 2008 года, заняв 36 место с производительностью на тесте Linpack 47.1 Tflops, пиковая производительность 60 Tflops.

Кроме этих шести, были и другие суперЭВМ на территории Рос сии, которые входили в список Top500, но они все являлись импорт ными вычислительными системами.

Еще раз подчеркнем: из шести вошедших в рейтинг Top500 оте чественных суперЭВМ пять являются суперкомпьютерами семейства «СКИФ». То есть, развитие суперкомпьютерных технологий на тер ритории СНГ сегодня в подавляющей доле обеспечено союзными су перкомпьютерными программами «СКИФ» и «СКИФ-ГРИД». Это иллюстрирует большое значение, которое играют научно-технические Исследования суперкомпьютерных технологий в ИПС РАН Рис. 4. СуперЭВМ семейства «СКИФ» Ряда 3, од новременно вошедшие в последнюю редакцию (июнь 2008 года) рейтинга Тор программы Союзного государства в деле развития инновационных и наукоемких технологий в России и Беларуси.

Завершая обсуждение вхождения суперкомпьютеров семейства «СКИФ» в мировой рейтинг Top500 отметим следующее обстоятель ство: в последней редакции (июнь 2008 года) рейтинга Тор500 Россия впервые получила следующие результаты:

(1) В рейтинге Тор500 одновременно присутствовало три отече ственные суперЭВМ семейства «СКИФ» Ряда 3 (см. Рис. 4):

«СКИФ МГУ», «СКИФ Урал» и «СКИФ Cyberia». До это го, как правило, в выпусках рейтинга либо находилась одна отечественная суперЭВМ, либо ни одной.

(2) СуперЭВМ «СКИФ МГУ» заняла в рейтинге 36 место – это – самое высокое достижение российских суперЭВМ.

(3) В аналитическом отчете, которым сопровождается выпуск рейтинга Тор500, Россия впервые вышла из категории «и другие страны» и была отмечена отдельно.

В Таблице 2 представлены основные параметры суперкомпьюте ров семейства «СКИФ» Ряда 1, 2, 3 и 4. Кроме того в таблице ука заны элементы суперЭВМ, являющиеся отечественной интеллекту альной собственностью – в дополнение к общим схемотехническим – решениям, конструкторской и программной документации на супер ЭВМ семейства «СКИФ», которые всегда разрабатываются нами и принадлежат нам.

36 С. М. Абрамов Таблица 2. Суперкомпьютеры семейства «СКИФ»

Ряд 1, 2, 3 и Годы, пиковая Ядер в Форм производитель- Сетевые решения CPU/ фактор ность Примечание Ряд вспомогательной/ разряд (расчетный системной сети (CPUs/U) ность диапазон) Отечественный FastEthernet/ 4U–1U 2000–2003, SCI (2D-тор).

1/32 SCI (2D-тор), 0.020–0.5 TFlops Охлаждение:

(0.5–2) Myrinet воздух ServNet v.1, v.2.

1U, Ускорители:

GbEthernet/ 2003–2007, HyperBlade FPGA, ОВС.

1/32– 2 SCI (3D-тор), 0.1–5 Tflops Охлаждение:

Infiniband (2) воздух 1U, blades ServNet v.3.

20 CPU 2007–2008, GbEthernet/ Охлаждение:

2–4/ 3 в 5U 5–150 Tflops Infiniband DDR воздух-вода-фреон (2–4) Новые подходы к blades Infiniband QDR/ охлаждению.

64 CPU 2009–2011, отечественная Ускорители:

4–8/ 4 в 6U 500–5 000 Tflops системная сеть FPGA, GPU, (3D-тор) (10.667) МЦОС...

11. Перспективы развития супекомпьютерных работ в ИПС РАН. Суперкомпьютеры Ряда 4 семейства «СКИФ»

Суперкомпьютеры Ряда 1, 2 и 3 – это разработки, которые уже – выполнены в рамках программы «СКИФ» и первого этапа програм мы «СКИФ-ГРИД». На втором этапе запланирована разработка тех нических решений для суперЭВМ Ряда 4. Эта работа уже во многом сделана: выполнены большая часть исследований и часть конструк торских разработок. При наличии достаточного финансирования ко манда исполнителей программы «СКИФ-ГРИД» готова завершить все исследования, подготовить конструкторскую и программную до кументацию и выпустить опытные образцы с пиковой производитель ностью (см. Рис. 5):

• к ноябрю 2009 года – 0.5 Pflops;

– • к ноябрю 2010 года – 1.0 Pflops;

– • к марту 2012 года – 5.0 Pflops.

– Исследования суперкомпьютерных технологий в ИПС РАН Рис. 5. Семейство суперЭВМ «СКИФ»: Ряд 1, 2, 3 и В любом случае, в рамках программы «СКИФ-ГРИД» мы под готовим технические решения, всю необходимую конструкторскую документацию, изготовим модули, из которых возможно собрать та кие суперЭВМ. Будут ли суперЭВМ семейства «СКИФ» Ряда 4 с производительностью 0.5–5 Pflops изготовлены в указанные сроки –– это вопрос наличия политической воли и вопрос расширения финан сирования данных работ. Потому что данные суперЭВМ – 0.5, 1 и – 5 Pflops, –– требуют соответствующего дополнительного финансиро вания работ. Мы надеемся, что и в дальнейшем Союзное государство и Россия будет оказывать необходимую поддержку отечественных су перкомпьютерных разработок.

Благодарности За то, что посчастливилось работать в Институте программных систем Российской академии наук, автор благодарен судьбе и тем 38 С. М. Абрамов людям, которые способствовали такому повороту в судьбе, в первую очередь: Айламазяну А. К. и Кондратьеву Н. В.

Автор благодарен всем сотрудникам ИПС РАН, с которыми вы пала честь работать вместе в 1986–2008 гг., и всем коллегам из ор ганизаций-партнеров по суперкомпьютерным исследованиям наше го института: БГУ, БГУИР, ГЦ РАН, ИВВиИС, ИКИ РАН, ИПМ им. М. В. Келдыша РАН, ИППИ РАН, ИПХФ РАН, ИХФ РАН, Ком пания СКС, НИВЦ МГУ, НИИ КС, НИИ механики МГУ, НИИФХБ МГУ, НИИЭВМ, НИИЯФ МГУ, ННГУ, НПЦ «Элвис», ОИПИ НАН Беларуси, ОАО «НИЦЭВТ», ОИЯИ, ООО «ЮникАйСиз», ПензГУ, РосНИИ РП, СПбАЭП, СПбГПУ, ТГУ, Химический факультет МГУ, ЦНТК РАН, ЧелГУ, ЮУрГУ и др.

Список литературы [1] Абрамов С. М. Программа ДАРОС. Единая система электронных вычисли тельных машин. СПО ЕС2704. Руководство программиста. Ц5.00079-01 02. – М.: НИЦЭВТ, 1987. – [2] Абрамов С. М., Барбан А П, Сибиркова Л А. Средства взаимодействия с машиной динамической архитектуры в ОС 7 ЕС // 1-я Всесоюзная кон ференция «Проблемы создания суперЭВМ, суперсистем и эффект их приме нения», 15–17 сентября 1987 г. Т. 1. – Минск: ИМ АН БССР, 1987, c. 97–98.

– [3] Абрамов С. М., Барбан А П, Михнушев Д П, Сибиркова Л А. Программное обеспечение комплекса ЕС ЭВМ: машина динамической архитектуры // Tематический сборник, серия ВТ. Вопросы РЭ, № 7, 1988, c. 1–25.

[4] Абрамов С. М., Абакумов А А, Адамович А. И., Нестеров И А, Пименов С. П., Рядченко А В, Хаткевич М. И., Шевчук Ю. В. Концепция раз работки ПО МДА // Тезисы докладов. Всесоюзная конференция молодых ученых и специалистов по проблемам кибернетики и вычислительной техни ки. – Москва–Переславль-Залесский, 1989.

– [5] Abramov S. M., Adamowitch A. I., Nesterov I. A, Pimenov S. P., Shev chuck Yu. V. Principles of software tools implementation for multiprocessor with automatic dynamic parallelizing // The 16th International School Program ming’91. – Sofia, Bulgaria, 1991. – [6] Пономарев А. Ю. Интерфейсная плата DAD005. Техническое описание. – М.: – НИЦЭВТ, 1994. [7] Шевчук Ю. В. TTOLS. Электронный ресурс. – http://www.botik.ru/~sizif/ – ttools/, 1996. [8] IPCA: Transputer: Software: Compilers: Gcc:.Электронный ресурс. Раздел «Internet Parallel Computing Archive». – http://wotug.kent.ac.uk/parallel/ – transputer/software/compilers/gcc/pereslavl/, 1996. Исследования суперкомпьютерных технологий в ИПС РАН [9] Abramov S. M., Adamowitch A. I., Nesterov I. A, Pimenov S. P., Shevchuck Yu. V. Autotransformation of evaluation network as a basis for automatic dynamic parallelizing // The 6th NATUG Meeting, NATUG’1993. Spring Meeting «Transputer: Research and Application». – Vancouver, Canada: IOS – Press, May 10. [10] Абрамов С. М., Адамович А. И., Нестеров И. А, Пименов С. П., Шевчук Ю. В. Автотрансформация вычислительной сети – основа для автомати – ческого и динамического распараллеливания // Теоретические и прикладные основы программных систем. – Переславль-Залесский: Институт программ – ных систем РАН, 1994, c. 103–124. [11] Adamowitch A. I., Nesterov I. A, Pimenov S. P., Shevchuck Yu. V. cT: an Imperative Language with Parallelizing Features Supporting the Computation Model “Autotrasformation of the Evaluation Network” // Parallel Computing Technologies: Third International Conference, 1995, c. 127–141. [12] Nesterov I. A, Suslov I V Towards programming of numerical problems within the system providing automatic parallelizing // The 7th SIAM Conference on Parallel Proc-Essing for Scientific Computing. – San-Francisco, CA, 1995, c. 716.

– 5, [13] Абрамов С. М., Адамович А. И. Т-система – среда программирования – с поддержкой автоматического динамического распараллеливания про грамм // Программные системы. Теоретические основы и приложения ред. А. К. Айламазян. – М.: Наука-Физматлит, 1999, c. 201–214. – [14] Адамович А. И., Коваленко М. Р., Конышев А. П. Реализация в Т-систе ме программы построения качественных изображений трехмерных сцен методом трассировки лучей // Программные системы. Теоретические осно вы и приложения ред. А. К. Айламазян. – М.: Наука-Физматлит, 1999, c. 224– – 233. [15] Абрамов С. М., Адамович А. И., Конышев А. П. Т-система – среда про-– граммирования с поддержкой автоматического динамического распаралле ливания программ. Тезисы докладов // Десятая юбилейная международная конференция по вычислительной механике и современным прикладным про граммным средствам, Переславль-Залесский, 7–12 июня 1999 г. – М.: МГИУ, – 1999, c. 14–15.

[16] Абрамов С. М., Адамович А. И., Коваленко М. Р. Т-система – среда – програм-мирования с поддержкой автоматического динамического распа раллеливания программ. Пример реализации алгоритма построения изоб ражений методом трассировки лучей // Программирование. – 25 (2), 1999, – c. 100–107. 6, [17] Абрамов С. М., Анищенко В. В., Парамонов Н. Н., Чиж О. П. Разработка и опыт эксплуатации суперкомпьютеров семейства «СКИФ» // Материалы конференции. I международная конференция «Информационные системы и технологии» (IST’2002), 5–8 ноября 2002 г. – Минск, 2002, c. 115–117. 9. – [18] Абламейко С. В., Абрамов С. М. Основные результаты суперкомпьютер ной программы «СКИФ» Союзного государства // АКИИ’03: Третий рас ширенный семинар «Использование методов искуственного интеллекта и вы сокопроизводительных вычислениях и в аэрокосмических исследованиях».

Труды семинара. – М.: Физматлит, 2003. – ISBN 5-940-52-065-9, c. 135–140.

– – 40 С. М. Абрамов [19] Абрамов С. М., Адамович А. И., Коваленко М. Р., Слепухин А. Ф., Пара монов Н. Н. Кластерные системы семейства суперкомпьютеров «СКИФ»

// Научный сервис в сети Интернет: Труды Всероссийской научной конфе ренции, 22–27 сентября 2003 г., Новороссийск. – М.: Изд-во МГУ, 2003, c. 147– – 151.

[20] Абрамов С. М., Адамович А. И., Коваленко М. Р., Роганов В. А. Биат лон для СКИФов: быстро и точно. Математика, информатика: теория и практика // Сборник трудов, посвященный 10-летию Университета города Переславля ред. А. К. Айламазян. – Переславль-Залесский: Изд-во «Универ – ситет города Переславля», 2003. – ISBN 5-901795-02-4, c. 91–96. 9. – [21] Абрамов С. М., Васенин В. А., Мамчиц Е Е, Роганов В. А., Слепухин А. Ф.

Динамическое распараллеливание программ на базе параллельной редукции графов. Архитектура программного обеспечения новой версии Т-системы // Труды конференции. Всероссийская научная конференция «Высокопро изводительные вычисления и их приложения», 30 октября–2 ноября 2000 г., г. Черноголовка. – М.: Изд-во МГУ, 2000, c. 261–264. 9. – [22] Абрамов С. М., Васенин В. А., Мамчиц Е Е, Роганов В. А., Слепухин А. Ф. Архитектура программного обеспечения новой версии Т-системы // Сборник научных трудов. Научная сессия МИФИ–2001, 22–26 января 2001 г.

Т. 2, 2001, c. 234.

[23] Абрамов С. М., Кондратьева А В, Роганов В А, Чеповский А М. Проекти рование высокопроизводительного процессора обработки графов // Инфор мационные технологии. – 3, 2001. 9. – [24] Суперкомпьютерная программа «СКИФ». Электронный ресурс. Раздел «Ре зультаты :: 2003 :: Управляющая сеть кластеров “СКИФ”». – http://skif.

– pereslavl.ru/, 2003.

[25] Плюснин В. У., Кушнеров Ф Р. Вычислительные системы с динамической архитектурой. Статья на Веб-сайте «Виртуальный компьютерный музей». – – http://compmus9.valuehost.ru/histussr/dynaarc.htm, 04.03.2003. Исследовательский центр мультипроцессорных систем ИПС имени А. К. Айламазяна РАН S. M. Abramov. HPC Researches in the Program Systems Institute of Russian Academy of Sciences: Retrospectives and Perspectives // Proceedings of Program Systems institute scientific conference “Program systems: Theory and applications”.

— Pereslavl-Zalesskij, 2009. — p. ??. — ISBN ???-?-??????-??-? (in Russian).

Abstract. This article describes supercomputers technologies researches and developments conducted or planed in the Ailamazyan Program Systems Institute of Russian Academy of Sciences. The corresponding projects and its results since 1984 are discussed.

ISBN ???-?-??????-??-? ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ. Переславль-Залесский, УДК А. О. Погосов Анализ интеграционных платформ и архитектур для создания единого информационного пространства в медицине Аннотация. В данной статье приводится обзор существующих комплекс ных решений для организации взаимодействия медицинских информаци онных систем. Рассматриваются такие архитектуры и платформы, как Oracle HTB, InterSystems Ensemble HealthShare, Microsoft Connected Health Framework Architecture, CSAM Plexus. Ключевой особенностью, объединя ющей эти системы, является стандартизация на основе HL7.

1. Введение Во всем мире информационные системы для предприятий здра воохранения все более и более сосредоточены на создании крупно масштабных механизмов обмена клинической информацией между организациями. При этом основными требованиями ЛПУ являются тотальный контроль за расходами, с одной стороны, и значительное повышение качества оказываемой медицинской помощи, – с другой.

– Достижение этих целей остро потребовало от информационных технологий предоставить защищенную безопасную среду по обмену медицинскими данными, т. е. разработать технологические средства для создания единого информационного пространства (ЕИП). У от дельных разработчиков ИТ для здравоохранения было не много ар гументов в пользу поддержки существующих западных стандартов.

Да и сама разработка качественной полнофункциональной специали зированной архитектуры (платформы) для реализации механизмов ЕИП и широкого обмена медицинскими данными требует значитель ных вложений.

Таким образом, зачастую в рамках одного крупного ЛПУ одно временно эксплуатируются несколько информационных систем раз ных производителей. Поддержание электронной медицинской карты (ЭМК) пациента при использовании нескольких МИС дает возмож ность работникам здравоохранения принимать решения на основе бо лее полной информации, что позволяет сократить количество врачеб ных ошибок.

2 А. О. Погосов Однако, с другой стороны, по мнению аналитиков Oracle, до сих пор решение задачи создания единой медкарты «почти не представ лялось возможным»: данные о пациентах записывались в разных, не совместимых между собою форматах, и хранились в системах, ис пользующих несогласованную терминологию и плохо разработанные механизмы обмена данными с другими системами.

В последние годы на рынок специализированных технологиче ских платформ для обмена медицинскими данными вышли ведущие западные производители технологического программного обеспече ния: Oracle, InterSystems, Microsoft, IBM и др., предлагающие как концептуальные, так и готовые технологические решения (платфор мы), на основе которых можно строить ЕИП и механизмы обмена медицинскими данными в достаточно широких рамках – от ведом – ственного уровня до национального.

2. Стандарт HL7 как основа интеграционных решений Ключевым моментом, определяющим успешность решения дан ной задачи, становится стандартзация, а именно, использование эта лонной информационной модели – RIM (Reference Information Model) – в рамках развития стандарта HL7 v.3.

HL7 впервые был предложен в 1987 г. в США в качестве стан дарта для электронного обмена клинической, финансовой и админи стративной информацией среди независимых компьютерных меди цинских систем. В июне 1994 г. Американский национальный инсти тут стандартов (ANSI) объявил HL7 ANSI аккредитованным стан дартом.

Спецификации этого Стандарта были разработаны в соответст вии с априорно определенными целями. Основная цель HL7 – облег – чить связь медицинских информационных систем. Первичная цель состоит в том, чтобы обеспечить стандарты для обмена данными сре ди медицинских компьютерных приложений, которые устраняют или хотя бы уменьшают специальное программирование интерфейса и обеспечивают сопровождение, которое может требоваться в против ном случае.

Эти цели обеспечиваются следующими элементами:

• механизм передачи сообщений автоматизирует обмен инфо рацией внутри медицинской организации;

Анализ интеграционных платформ и архитектур • нормализованная структура предметной области, описанная в стандарте, может предотвратить разработку специального универсального процесса или модели данных как для этого обмена, так и для системы в целом.

Разработчики стандарта указывают на возможности использо вать RIM в качестве основы для разработки архитектуры МИС, или в качестве отправной точки для системного анализа и дизайна архи тектуры МИС. В настоящее время эталонная информационная мо дель RIM рассматривается Американским национальным институ том стандартов ANSI (American National Standards Institute) в каче стве национального стандарта и, возможно, в качестве стандарта ISO (International Organization for Standardization). Европейский комитет по стандартизации медицинской информации (CEN – TC251) также – проявляет интерес к указанной модели.

Нормативно RIM устроена следующим образом. Основой моде ли являются классы, объединяемые в один или большее число паке тов, отражающих предметную область. Атрибуты, отношения и диа граммы состояния ассоциированы с классами. Модель представляет ся с помощью языка унифицированного моделирования UML (unified modeling language).

Пример диаграммы классов RIM приводится ниже (рис. 1).


Основными «скелетными» (back-bone) классами RIM являются:

• Действие (Act) предназначено для представления действий, происходящих в процессе оказания медицинской помощи;

• Участие (Participation) предназначено для представления контекста действия;

• Сущность (Entity) предназначена для представления физи ческих объектов;

• Роль (Role) предназначена для определения ролей сущно стей, участвующих в действии;

• Связь Действий (ActRelationship) предназначена для пред ставления связи между действиями;

• Связь Ролей (RoleLink) предназначена для представления связей между индивидуальными ролями.

4 А. О. Погосов Рис. 1. Диаграмма классов RIM Действия, Сущности и Роли в дальнейшем порождают множе ство производных специализированных классов. Итак, RIM представ ляет собой множество UML классов, имеющих атрибуты определен ного стандартом HL7 типа. Классы связаны друг с другом множе ством ассоциаций, определяемых уникальными ролевыми именами, или связями генерализации (наследования). Атрибуты и связи обла дают свойствами кардинальности. Различные атрибуты классов мо дели кодируются с помощью определенных стандартом HL7 кодов.

3. ORACLE HTB — технологическая платформа создания репозитория медицинских данных Ответом корпорации Oracle на требования времени стала разра ботка Oracle Healthcare Transaction Base (HTB), предназначенной для интеграции и обмена медицинской информацией.

Анализ интеграционных платформ и архитектур В ее основу положены результаты разработки международного стандарта хранения и обмена информацией Health Level 7 версии 3 и не имеющей аналогов справочной информационной модели RIM.

Она объединяет репозиторий медицинских данных, платформу для разработки бизнес-приложений и интеграционную платформу и предоставляет комплексный инструментарий по созданию едино го хранилища медицинской информации с использованием сервисов, обеспечивающих совместимость с существующими и будущими ин формационными системами.

Применение этого стандарта позволяет собрать данные о паци ентах и ЛПУ из разрозненных систем для хранения в центральном репозитории с сохранением их реального значения и производить за щищенный обмен информацией в электронном виде между различ ными медицинскими учреждениями.

HTB является программным обеспечением для интеграции дан ных, позволяющим выполнять сбор и хранение данных из существу ющих информационных систем, а также удаление дублирующей ин формации с целью создания единой электронной медицинской карты.

В программный интерфейс HTB включены следующие компонен ты:

• объектная модель предприятия;

• службы поддержки терминологии;

• службы настройки;

• службы поддержки рабочих процессов и HL7-службы;

• службы аудита.

Ядро HTB отвечает за:

• работу с данными через Интернет;

• поддержку рабочих процессов;

• платформенную безопасность;

• обмен данными с помощью беспроводных протоколов.

Объектная модель предприятия определяет способ хранения кли нической информации и всех операций по ее изменению. Она исполь зует модель стандарта обмена сообщениями HL7 v3.

Под терминологиями подразумеваются кодированные данные, такие как списки медикаментов, списки диагнозов, предопределен ные списки значений (например, возможные значения пола, названия месяцев и т.п.), переводы терминов на различные языки (Enterprise Terminology Services).

6 А. О. Погосов Рис. 2. Модель применения HTB Службы настройки состоят из служб поиска и опций профиля.

Службы HL7 осуществляют хранение и использование всех RIM объектов: сущностей, полей, действий и их участников, отношений между действиями. Для этого используется служба входящих со общений –– IMS (Inbound Message Service), которая преобразует со держимое сообщений HL7 v3 в семантически эквивалентные данные HTB-репозитория.

Службы аудита – это по сути службы фиксирования значений – событий, связанных с действиями операторов МИС, а также событий, связанных с безопасностью.

Службы поддержки безопасности определяют модели идентифи кации и авторизации и приложения по их настройке. Модель иден тификации включает в себя единую точку входа во все приложения (Single Sign-On) и поддержку электронных средств идентификации, а модель авторизации – средства обеспечения безопасности ролей и – данных.

Применение платформы HTB выглядит следующим образом.

HTB предоставляет доступ к унифицированным на основе HL7 RIM данным, хранящимся в репозитарии, через сервисы, реализованные в виде J2EE интерфейсов. Разработчики должны на основе этих ин терфейсов создавать собственные приложения. Кроме того, разра ботчикам предоставляются сервисы сообщений (Messaging Services), Анализ интеграционных платформ и архитектур позволяющие организовать обмен данными между МИС и HTB непо средственно в форме сообщений стандарта HL7.

3.1. Сервисы сообщений Взаимодействие HTB с другими системами – источниками дан – ных — может быть реализовано на основе сервисов сообщений. Сооб щения соответствуют стандарту сообщений HL7 v3 в формате XML.

Разработчикам потребуется реализовать Interface Engine. Фактиче ски Interface Engine будет играть при таком взаимодействии роль адаптора, через который к HTB подключаются отдельные «внешние»

приложения и системы.

3.2. Аналитическая поддержка принятия врачебных решений Oracle Healthcare Intelligence позволяет аналитикам и ответствен ным за принятие решений лицам, работающим в медицинских орга низациях, проводить анализ и представлять отчеты на основе накоп ленных Oracle HTB данных, а также обмениваться ими с работни ками здравоохранения. Oracle Healthcare Intelligence интегрируется с Oracle HTB и расширяет ее возможности поддержанием следующих интеллектуальных сервисов здравоохранения:

• Анализ и представление отчетов о клинических и админи стративных мерах.

• Анализ и составление отчетов об основных заявленных фи нансовых операциях.

Oracle Healthcare Intelligence предлагает дополнительный инстру ментарий для проведения анализа и представления отчетов с целью удовлетворить требования, предъявляемые здравоохранительными учреждениями к анализу данных.

3.3. Создание единой надежной медицинской карты пациента Использование Oracle Healthcare Transaction Base для обеспече ния совместимости данных поможет улучшить качество оказываемой пациентам медицинской помощи и сократить расходы, связанные с управлением информационной системой.

8 А. О. Погосов 4. InterSystems Ensemble HealthShare — технологическая платформа обмена медицинскими данными HealthShare (обмен медицинской информацией) – это техноло – гическая платформа от InterSystems, которая включает предвари тельно подготовленные компоненты для обмена медицинской инфор мацией, плюс среда разработки для настройки и расширения этих компонентов для потребностей каждой системы обмена информаци ей. HealthShare специально cпроектирован, чтобы радикально умень шить время, затраты и риски, связанные с разработкой, построением и использованием системы обмена медицинской информацией.

Рис. 3. InterSystems Ensemble HealthShare HealthShare является новой версией системы интеграции Ensem ble, которая была специально разработана для региональных орга низаций по сбору медико-санитарной информации (Regional Health Information Organizations – RHIO) и других приложений для обмена – медицинской информацией. Выпущенная в 2003, Ensemble уже ши роко используется в проектах здравоохранения разных масштабов от интеграции в пределах единственной больницы до разработки и раз вертывания общенациональной системы медицинских электронных записей, например, такой как реализована в Голландии.

Анализ интеграционных платформ и архитектур HealthShare включает три компонента, которые вместе составля ют комплексные требования к развертыванию систем обмена меди цинской информацией между несколькими организациями:

• HealthShare Hub выступает в роли центрального реестра па циентов, с «указателями» на больницы и системы в офисах врачей, которые содержат клинические данные пациентов.

• HealthShare Gateway подключает участвующие медицинские компьютеры и пользователей к системе обмена.

• HealthShare Viewer – сложный web-портал, предоставляю – щий доступ к демографическим и клиническим данным па циента докторам и другим сотрудникам медицинских учре ждений.

Для успешной работы система информационного обмена должна обеспечивать надежную связь при минимальных стоимости и усили ях, при большом количестве существующих медицинских информа ционных систем. В HealthShare это достигнуто применением комби нации трех технологий: адаптеров, преобразования данных и бизнес процессов.

Адаптеры Ensemble – программные компоненты многократного – использования, которые обеспечивают связь с приложениями, и в них изолирована от остальной части системы вся специфическая для приложения логика. Ensemble включает обширную библиотеку пред варительно подготовленных адаптеров, которые отвечают потребно стям многих приложений обмена медицинской информацией. Там, где приложения-источники или приложения-приемники не позволя ют использовать стандартные адаптеры, могут быть быстро созданы собственные адаптеры.

HealthShare был разработан, опираясь на шесть основных прин ципов.

4.1. Удобство и простота использования Медицинские работники хотят видеть «удаленные» (нелокаль ные) клинические данные, то есть данные, указываемые другими ме дицинскими работниками, используя то же самое приложение, что используется и для «локальных» данных. К сожалению, наиболее распространенные информационные медицинские системы сегодня 10 А. О. Погосов не предоставляют эту возможность, а их доработка потребует значи тельного времени. Инструмент для просмотра медицинской инфор мации при существующей сложности выполняемых операций должен быть простым в использовании с возможностью гибкой настройки с богатой функциональностью и интуитивно-понятным интерфейсом, доступным с любого устройства, поддерживающего браузер.


4.2. Безопасность и секретность Система должна строго соответствовать стандартам безопасно сти и секретности. Строгая идентификация, доступ на основе ро лей, структурированная политика безопасности, журналы регистра ции обращений, в которые ведется запись всей деятельности всех пользователей, являются обязательными для достижения этих целей.

4.3. Производительность, масштабируемость и надежность Система должна обеспечить близкий к масштабу реального вре мени доступ к клиническим данным, обслуживает ли она нескольких пользователей пилотной версии системы или несколько тысяч поль зователей в масштабе целого государства. При этом она обеспечивает круглосуточное функционирование семь дней в неделю без переры вов.

4.4. Соответствие стандартам Стандарты –– ключ к функциональной совместимости. Следуя стандартам в каждой фазе обмена данными, особенно HL7 v2, HL v3, web-сервисам и CDA, система гарантирует способность взаимо действия с новыми и существующими медицинскими информацион ными системами на основе этих стандартов.

4.5. Гибкость и настраиваемость Требования к функциональным возможностям систем обмена ме дицинской информацией и стандарты быстро развиваются, они не окончательные и находятся еще только в начале своего развития.

Идет становление различных архитектур систем обмена медицинской информацией. Система должна позволять реализовывать архитек туры многократного развертывания: централизованные, децентрали зованные и гибридных конфигураций. Система должна быть очень гибкой и способной к быстрым изменениям, чтобы соответствовать меняющимся требованиям.

Анализ интеграционных платформ и архитектур 4.6. Простота в управлении Как «система систем», обмен медицинской информацией пред ставляет сложную среду для системного администрирования и обес печения высокого уровня готовности. Система должна поддержать множество администраторов с различными ролями, иметь минималь ные требования по обслуживанию и иметь полнофунциональный web-портал для управления всеми компонентами и выполнения всех административных функций системы.

5. Microsoft Connected Health Framework Architecture — технологическая платформа для создания информационных решений для здравоохранения Microsoft предлагает собственные решения для здравоохране ния, которые получили фирменное наименование – Connected Health – Framework Architecture. В центр бизнес-процессов в этой архитектуре помещен пациент. Другим концептуальным тезисом этой архитекту ры является «здравоохранение, управляемое знаниями» (Knowledge Driven Health). Анализируя требования, предъявляемые к архитекту ре в национальном масштабе США, можем отметить, что американ цы отказываются от поддержки единого идентификатора персоны в своем национальном ЕИП, усматривая в этом посягательства на права личности, и предпочитают строить ЕИП из связанных меж ду собой записей и системы каталогов и указателей на источни ки информации о пациенте. При этом предполагается, что отнюдь не вся информации о пациенте будет доступна в «Common Health Infrastructure», например информация о лечении от наркомании или алкоголизма. Описывая сложность и масштабность задачи построе ния национального ЕИП, дают такие определения, что предполагает ся построить «сеть сетей» или «систему систем». По мнению Microsoft архитектура ЕИП будет децентрализованной, в ней не будет универ сального идентификатора пациента и не будет центрального храни лища медицинских данных.

Microsoft выработала свой взгляд на то, каким образом будут эволюционировать ИТ в здравоохранении. Три основных тенденции этой эволюции будут заключаться в следующем:

12 А. О. Погосов • Связанные системы (Connected systems) – системы будут – связаны между собой с помощью сетей. Эта связь охва тит приложения, устройства, сервисы и организации здраво охранения. Это позволит рационализировать процессы ока зания медицинской помощи, улучшит информированность агентов, участвующих в этих процессах, и понизит стои мость медпомощи. Взаимодействие будет осуществляться на основе открытых стандартов, что позволит включиться во взаимодействие «унаследованным» системам и приложени ям.

• Информационно управляемое программное обеспечение (In formation-driven software) – значительно улучшит и облегчит – поиск, организацию и использование медицинской информа ции, приведет к улучшению сотрудничества и повышению качества оказания медицинской помощи.

• Взаимодействующая среда (Collaborative environments) – бо – гатство интерфейсов и новый опыт улучшат взаимодействие между работниками здравоохранения и пациентами с помо щью применения высококачественного аудио и видео, а так же и естественной речи.

Microsoft создала the Connected Health Framework Architecture, чтобы предложить решение, удовлетворяющее вышеуказанным тре бованиям. Разработчики ПО приглашаются к использованию Connec ted Health Framework для создания информационных решений для здравоохранения (e-Health solutions) на прочном фундаменте пред лагаемой архитектуры.

Connected Health Framework сосредоточивает внимание на двух основных направлениях: бесшовной (плавной) интеграции приложе ний и их способности к взаимодействию и межоперабельности. Эти два ключевых направления получили свое соответствующее отра жение в Connected Health Business Framework и в Connected Health Technical Framework.

Чтобы обеспечить возможность интеграции между существую щими системами и приложениями, необходимо удовлетворять следу ющим четырем концептуальным архитектурным требованиям:

• Сервисно-ориентированная архитектура (Service-orientation) –– модульный подход на основе открытых стандартов и про токолов, понижающий зависимость интегрируемых систем друг от друга и обеспечивающий межоперабельность.

Анализ интеграционных платформ и архитектур • Федеративные данные (Federated data) – данные, имеющие – локализацию в силу локализации самого медицинского об служивания, должны, как правило, храниться непосред ственно в местах своего создания и администрирования. Эти данные могут кэшироваться (накапливаться) на различных уровнях (организация, регион, страна) и быть доступными на любом уровне хранения.

• Федеративная безопасность (Federated security) – допускает – легкое управление процессами подтверждения подлинности и прав, делегируя эту функциональность доверенным участ никам (trusted parties).

• Доверительность (Trustworthiness) – надежные, устойчивые – к ошибкам системы, которые «просто работают».

Ключом к успеху, по мнению Microsoft, является сервисно-ориен тированная архитектура (SOA). Именно эта архитектура должна обеспечить синтаксическую и семантическую межоперабельность.

Архитектура должна быть основана на таких стандартах, как XML, SOAP, WEB services.

Connected Health Framework Technical Framework предлагает ре шать вопросы межоперабельности на основе стандартов (standards based approach). Основные архитектурные проблемы заключаются в следующем:

• Множественность платформ, локализаций, языков, возмож ностей и прав;

• Необходимость управления идентичностью;

• Интеграция требований (Integration challenges);

• Гибкость;

• Безопасность;

• Масштабирование, производительность и работоспособ ность;

• Необходимость в общем концентраторе (Common Hub).

6. CSAM Plexus — интеграционный портал Норвежская компания CSAM International представляет универ сальное интеграционное решение для медицины CSAM Plexus. Бази руясь на одном портале, Plexus объединяет разнородные информаци онные системы больниц и поликлиник. Тем самым, авторизованным 14 А. О. Погосов пользователям обеспечивается доступ к любой нужной медицинской информации, включая полную историю болезни.

CSAM Plexus является не просто еще одним средством автома тизации –– это, по сути, «цифровой» мост между информационными системами различных лечебных учреждений, их сотрудниками и па циентами. Специализированное портальное интеграционное решение разработано при участии самих медицинских работников.

Лежащие в основе продукта технологии позволяют создать наи более эффективную систему обмена клиническими и другими дан ными как между больницами и поликлиниками, так и внутри самих лечебных учреждений.

CSAM Plexus предоставляет следующие возможности:

• унифицированный доступ к различным системам обработки и хранения медицинской информации на основе стандарта обмена медицинскими данными HL7;

• создание хранилища медицинских данных, собираемых на основе интегрированных источников первичной информа ции — включая статистическую и аналитическую части;

• в качестве функциональной основы хранилища данных в портале используется единый регистр записей (ЭМК) паци ентов (EHR);

• инструментарий для гибкой внутренней настройки потоков данных, медицинских бизнес-процессов, а также всего ком плекса имеющихся интегрированных систем обработки ме дицинской информации;

• web-интерфейс, оптимизированный для использования в карманных компьютерах (PDA);

• реализация алгоритмов разделения технического и функци онального доступа к данным для безопасного управления медицинской информацией.

6.1. Архитектура CSAM Plexus Решение базируется на технологиях Oracle. Ядром архитектуры CSAM Plexus является, так называемый, «базовый слой», состоящий из интеграционной базы данных (ODS & DW) и механизмов управ ления (HUB).

Анализ интеграционных платформ и архитектур Рис. 4. Архитектура CSAM Plexus За взаимодействие с системами управления первичной медицин ской информацией (универсальные системы автоматизации ЛПУ, ре гистры единой электронной карты пациента, лабораторные и радио логические системы) отвечают интеграционные адаптеры, которые могут использовать модели документов, описанных на XML.

В состав базового слоя также входит модуль генерации уникаль ных идентификаторов (OID).

Взаимодействие с интерфейсом осуществляется посредством веб сервисов и визуальных веб-компонентов (портлетов).

16 А. О. Погосов Имеется мощная система генерации отчетной информации (Re ports).

CSAM Plexus может интегрироваться с системами на базе Oracle Healthcare Transaction Base, в основе которых лежит стандарт хра нения и обмена информацией в области здравоохранения HL7 v.3, что позволяет осуществлять сбор данных из специализированных и разнородных систем и приложений (клинических, финансовых, адми нистративных и др.). С этим решением также интегрируются Oracle BI Clinical Data Warehouse и Oracle Identity Management Suite.

7. Технологии порталов Интерес к портальным технологиям со стороны разработчиков архитектуры и механизмов ЕИП и ЕМК весьма высок. Парадигма порталов часто рассматривается как наиболее приемлемое решение для реализации интерфейса конечного пользователя (front end) ЕИП.

Поэтому мы решили включить в работу краткий обзор портальных технологий.

Портал представляет собой информационную систему, обеспечи вающую организацию необходимых для решения задач проекта ин формационных разделов и функциональных модулей путем сборки сайтов из набора типовых приложений.

С момента появления в 1997 году, технология порталов в своем развитии прошла несколько поколений. Для первого поколения ос новной целью было предоставление доступа к контенту путем обес печения персонализации информации, унифицированного поиска и управления интерфейсом на базовом уровне. Во втором поколении технологический фундамент пополнился надежной расширяемой сре дой приложений и их базовой интеграцией, зачатками функций кол лективной работы. В третьем поколении появилась интеграция про цессов, а также базовая поддержка веб-служб и множественных порталов. Четвертое поколение имело поддержку интегрированных порталов, композитных приложений и стандартов портлетов – Java – Specification Request 168 (JSR 168) и Web Services for Remote Portlets (веб-службы для удаленных портлетов, WSRP). В пятом становится возможным конструирование, перестройка и реализация композит ных приложений и процессов.

Анализ интеграционных платформ и архитектур Одним из ведущих решений портальной технологии является продукт OracleAS Portal, выступающий в роли организующего ре сурса, который обеспечивает всем участникам бизнес-процессов (со трудникам, партнёрам, клиентам) авторизованный, прозрачный, пер сонализированный, согласованный, многоканальный доступ к бизнес приложениям, внутренним и внешним информационным источникам.

7.1. Программные компоненты и сервисы, образующие среду реализации OracleAS Portal Промежуточный уровень – сервисы портала, библиотеки портле – тов, средства бизнес-анализа, сервисы федеративного поиска, сред ства коллективной работы, сервисы однократной авторизации, сер висы делегированного администрирования, средства описания, реа лизации и мониторинга бизнес-процессов, сервисы кэширования, ин тернет сервер, сервисы многоканального доступа.

Инфраструктурный уровень — база метаданных, база приклад ных данных, служба каталогов.

Портальное решение на основе OracleAS Portal обеспечивает воз можность охватить все информационные ресурсы организации, ис пользуемые пользователем в его повседневной деятельности, – сред – ства работы с документами, традиционные средства коллективного взаимодействия, аналитические и бизнес-приложения, внутренние и внешние информационные источники и новостные узлы, средства федеративного поиска, средства реализации и мониторинга бизнес процессов.

OracleAS Portal основывается на платформе приложений Oracle Application Server 10g, что обеспечивает высокий уровень доступно сти, масштабируемости, защищённости и управляемости реализуе мых на его основе портальных решений.

8. Анализ тенденций стандартизации здравоохранения в РФ и в мире Развитие собственных национальных стандартов идет в направ лении локализации зарубежных стандартов ISO, DICOM, HL7. Осо бую роль в стандартизации здравоохранения играет стандарт HL с информационной моделью RIM и архитектурой клинических до кументов CDA. Практически все рассмотренные выше концепции интеграции и обмена медицинской информацией, а также готовые 18 А. О. Погосов технологические платформы интеграции выбрали стандарт HL7 с информационной моделью RIM и архитектурой клинических доку ментов CDA за основу своих архитектур. Конечно, используются и другие стандарты, но ключевую роль все-таки играет HL7. К использованию стандарта HL7 наблюдаются разные подходы. Так, InterSystems HealthShare широко использует архитектуру клиниче ских документов CDA стандарта HL7 и в меньшей степени ори ентирован на поддержку всего множества сообщений HL7. Oracle Healthcare Transaction Base широко использует справочную инфор мационную модель RIM стандарта HL7, на основе которой разрабо тан репозитарий для интеграции медицинской информации.

Список литературы [1] Oracle HTB Implementation Guide (www.oracle.com/industries/healthcare).

[2] HTB - HL7 Version 3 Conformance Specification(www.oracle.com/industries/ healthcare).

[3] HL7 Reference Information Model(www.hl7.org/Library/data-model/RIM).

[4] Computer Technologies in Medicine, Стандарт «Уровень 7»(www.ctmed.ru).

[5] Ensemble HealthShare: Обмен медицинской информацией. Обзор. Inter Systems(www.intersystems.ru/healthshare/healthshare_wp.html).

[6] Oracle Healthcare Transaction Base: Обмен информацией для повышения ка чества системы здравоохранения: Oracle Россия, 2006.

[7] Отчет о НИР «Исследование механизмов обмена медицинскими данными в сети ЛПП БР».

Исследовательский центр медицинской информатики ИПС РАН A. O. Pogosov. The analysis of integrated platforms and architectures for medical common information zone organization // Proceedings of Program Systems institute scientific conference “Program systems: Theory and applications”. — Pereslavl-Zalesskij, 2009. — p. ??. — ISBN ???-?-??????-??-? (in Russian).

Abstract. This article provides an overview of the existing integrated solutions for the data exchange between health information systems. Such platforms and architectures as Oracle HTB, InterSystems Ensemble HealthShare, Microsoft Connected Health Framework Architecture, CSAM Plexus are analysed. The key feature that unites these systems, is standardizing using HL7.

ISBN ???-?-??????-??-? ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ. Переславль-Залесский, 519.687. УДК Г. И. Есин, А. А. Кузнецов, В. А. Роганов Экспериментальная реализация отказоустойчивой системы распределенных вычислений "SkyTS" для параллельного счета ресурсоемких Т++ приложений в гетерогенной распределенной вычислительной среде Аннотация. В данной работе рассмотрен подход к реализации распре деленной вычислительной системы, предназначенной для счета ресурсо емких Т++ приложений. Дано описание экспериментальной реализации этого подхода в виде системы SkyTS“, которая обладает свойствами отка ” зоустойчивости, масштабируемости и поддержкой неоднородных вычисли тельных сетей.

1. Введение OpenTS — система параллельного программирования, разрабо танная в ИПС РАН в 2000-2004 годах в рамках суперкомпьютерного проекта СКИФ“ Союзного государства России и Беларуси. После ” успешного завершения программы СКИФ“ разработка OpenTS бы ” ла продолжена в рамках программы СКИФ-ГРИД“ и различных ” академических проектов.

Система OpenTS (Open T-System) [1, 6] представляет собой со временную и наиболее удачную реализацию концепции Т-системы — программной среды параллельного программирования с поддержкой автоматического динамического распараллеливания приложений, ко торая сочетает в себе функциональную и императивную парадигмы программирования. OpenTS — это среда поддержки исполнения при ложений, написанных на языке Т++. Данный язык программирова ния является параллельным диалектом Си++ и расширяет исход ный язык семью новыми ключевыми словами. В остальных извест ных нам системах программирования, в которых взяты за основу языки Си/Си++, набор новых ключевых слов и команд значительно шире, что осложняет процесс изучения языка и создания программ.

Среда поддержки исполнения Т++ приложений (Т-приложений), бе рет на себя основную часть работы по организации параллельного 2 Г. И. Есин, А. А. Кузнецов, В. А. Роганов счета (синхронизация, распределение нагрузки, транспортировка со общений). Тем самым, система OpenTS позволяет снизить затраты на разработку параллельных программ, увеличить глубину парал лелизма и более полно использовать возможности аппаратной части мультипроцессора за счет распараллеливания в динамике.

Изначально система OpenTS разрабатывалась в среде Linux для функционирования на Linux-кластерах и рабочих станциях. В ходе развития системы ее исходный код и подсистема сборки были пор тированы на ОС Windows [4], что позволило расширить ее область применения на кластерные установки под управлением инфраструк туры Windows HPCS 2008“ фирмы Microsoft.

” Концепция Т-системы хорошо подходит для Grid-компьютинга.

Вычислительные задания (Т-задачи), которые порождает пользова тельское Т-приложение, могут быть вычислены не только на любом узле сильносвязанного кластера, но и в принципе на любом компью тере в сети Интернет. Поскольку Т-задачи имеют свой вес“, а для уз ” лов распределенной системы вводится понятие надежности, то можно организовать работу Т-приложения так, что наиболее весомые (зна чимые) Т-задачи верхнего уровня распределяются планировщиком по наиболее надежным счетным узлам вычислительной системы. Со ответственно, менее значимые задачи могут быть назначены на менее надежные листовые узлы в общей иерархии узлов системы. Поэтому в перспективе систему OpenTS можно использовать не только для кластеров, но и для территориально-распределенных неоднородных установок.



Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |   ...   | 13 |
 





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.