Распределённая платформа для управления ресурсами гетерогенного кластера

В связи с широким распространением в научной среде проектов на базе разнообразных Grid-платформ актуальной становится проблема их эффективного совместного использования. Существенным ограничением на этом пути является, в первую очередь, несовместимость подходов, на которых они основаны. В работе пре...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2008
Автори: Дорошенко, А.Е., Рухлис, К.А., Мохница, А.С.
Формат: Стаття
Мова:Російська
Опубліковано: Інститут програмних систем НАН України 2008
Теми:
Онлайн доступ:https://nasplib.isofts.kiev.ua/handle/123456789/1442
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Распределённая платформа для управления ресурсами гетерогенного кластера / А.Е. Дорошенко, К.А. Рухлис, А.С. Мохница // Пробл. програмув. — 2008. — N 2-3. — С. 150-156. — Бібліогр.: 16 назв. — рус.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
_version_ 1860187965505929216
author Дорошенко, А.Е.
Рухлис, К.А.
Мохница, А.С.
author_facet Дорошенко, А.Е.
Рухлис, К.А.
Мохница, А.С.
citation_txt Распределённая платформа для управления ресурсами гетерогенного кластера / А.Е. Дорошенко, К.А. Рухлис, А.С. Мохница // Пробл. програмув. — 2008. — N 2-3. — С. 150-156. — Бібліогр.: 16 назв. — рус.
collection DSpace DC
description В связи с широким распространением в научной среде проектов на базе разнообразных Grid-платформ актуальной становится проблема их эффективного совместного использования. Существенным ограничением на этом пути является, в первую очередь, несовместимость подходов, на которых они основаны. В работе представлена распределённая платформа для управления ресурсами гетерогенного кластера, объединяющая возможности сервисно-ориентированной архитектуры Globus4 и р2р-системы JXTA. Платформа предоставляет средства для взаимодействия на гетерогенных ресурсах приложений на основе упомянутых архитектур, а также включает в себя средства для доступа к ресурсам гомогенных кластеров. Использование платформы демонстрируется на примере взаимодействия нескольких приложений JXTA и Globus между собой, а также с гомогенным кластером. Nowadays Grid-based scientific projects become more wide-spread. However, the essential restriction of effective sharing use of them is an incompatibility of approaches on which Grid platforms are organized. Paper is dedicated to the distributed platform for heterogeneous cluster resource management combining service-oriented architecture Globus4 and р2р system JXTA. The platform gives means for applications on the basis of the mentioned architectures to interact on heterogeneous resources, and also includes interface to access the homogeneous clusters. Use of a platform is demonstrated on the example of JXTA and Globus applications interaction and also on communication with a homogeneous cluster.
first_indexed 2025-12-07T18:05:10Z
format Article
fulltext Паралельне програмування. Розподілені системи і мережі © А.Е. Дорошенко, К.А. Рухлис, А.С. Мохница, 2008 150 ISSN 1727-4907. Проблеми програмування. 2008. № 2-3. Спеціальний випуск УДК 004.075 РАСПРЕДЕЛЁННАЯ ПЛАТФОРМА ДЛЯ УПРАВЛЕНИЯ РЕСУРСАМИ ГЕТЕРОГЕННОГО КЛАСТЕРА А.Е. Дорошенко, К.А. Рухлис, А.С. Мохница Институт программных систем НАН Украины, 03187, Киев, просп. Академика Глушкова, 40. E-mail: dor@isofts.kiev.ua В связи с широким распространением в научной среде проектов на базе разнообразных Grid-платформ актуальной становится проблема их эффективного совместного использования. Существенным ограничением на этом пути является, в первую очередь, несовместимость подходов, на которых они основаны. В работе представлена распределённая платформа для управления ресурсами гетерогенного кластера, объединяющая возможности сервисно-ориентированной архитектуры Globus4 и р2р-системы JXTA. Платформа предоставляет средства для взаимодействия на гетерогенных ресурсах приложений на основе упомянутых архитектур, а также включает в себя средства для доступа к ресурсам гомогенных кластеров. Использование платформы демонстрируется на примере взаимодействия нескольких приложений JXTA и Globus между собой, а также с гомогенным кластером. Nowadays Grid-based scientific projects become more wide-spread. However, the essential restriction of effective sharing use of them is an incompatibility of approaches on which Grid platforms are organized. Paper is dedicated to the distributed platform for heterogeneous cluster resource management combining service-oriented architecture Globus4 and р2р system JXTA. The platform gives means for applications on the basis of the mentioned architectures to interact on heterogeneous resources, and also includes interface to access the homogeneous clusters. Use of a platform is demonstrated on the example of JXTA and Globus applications interaction and also on communication with a homogeneous cluster. Введение В связи с широким распространением в научной среде проектов на базе разнообразных Grid- платформ [1, 2] актуальной становится проблема их эффективного совместного использования. Существенным ограничением на этом пути является в первую очередь несовместимость подходов, на которых они основаны. На данный момент большинство популярных Grid-платформ могут быть разделены на два типа: сервисно- ориентированные и основанные на p2p (табл. 1) [3]. Таблица 1. Основные Grid-платформы (по типам) Сервисно-ориентированные Основанные на P2P Globus Toolkit 3.x, 4.x JXTA IBM Grid Toolbox JGroups JINI Coherence gLite Oracle Grid (core components) В числе преимуществ сервисно-ориентированных платформ упомянем независимость от клиентской платформы (для основанных на веб-сервисах систем); доступность сервисов по всему миру (при условии удовлетворения требованиям безопасности); наличие дополнительных подсистем (распределённой файловой системы, сквозной системы безопасности). К недостаткам сервисно-ориентированных платформ отнесем отсутствие мобильности, низкую приспособленность к кэшированию различных бизнес-объектов, слабые средства обмена сообщениями и поиска новых узлов. Иными словами, сервисно-ориентированные платформы лишены преимуществ, присущих p2p-системам. 1. Существующее положение дел и требования к гибридным платформам Наиболее распространёнными Grid-платформами являются сервисно-ориентированная Globus Toolkit 4 (GT4) [4] и р2р-система JXTA [5]. К списку вышеописанных возможностей они добавляют: совместимость с большинством существующих энтерпрайз-технологий; независимость от низкоуровневых платформ; соответствие стандартам OGSA/OGSI (GT4) [6, 7]; способность работать в слабосвязанных и защищённых брандмауэром окружениях. Кратко охарактеризуем каждый из вышеупомянутых проектов. Паралельне програмування. Розподілені системи і мережі 151 1.1. JXTA. Проект JXTA – открытая спецификация протоколов по организации и обслуживанию p2p-сетей обмена данными различного типа, предложенная Sun Microsystems в 2001 году. Данные протоколы представляют собой набор XML-сообщений, позволяющих любому устройству (ПК, мобильный телефон, КПК), подключенному к сети, децентрализовано обмениваться информацией и взаимодействовать независимо от базовой сетевой топологии. Использование XML в качестве языка описания данных обеспечивает независимость от конкретной платформы, языка программирования, типа сетевого соединения или транспортного протокола. Взаимодействие в JXTA можно представить как обмен по сети одним и более объявлений, представляющих собой XML-документ, описывающий любой ресурс в p2p-сети (узлы, группы, каналы, сервис и т.д.). В JXTA существует 2 категории узлов: периферийные и суперузлы (super-peers). Периферийными являются узлы, защищенные брандмауэром с краткосрочным, невыделенным, низкоскоростным подключением к сети. Суперузлы делятся на маршрутизаторы (rendezvous) и ретрансляторы (relay peers). Ретрансляторы обеспечивают доступ в сеть JXTA узлам в обход брандмауэров и NAT-систем. Цель маршрутизирующие узлов состоит в координировании в сети JXTA, а также обеспечении необходимой области действия для распространения сообщений. Если узлы расположены в различных подсетях, то сеть должна содержать хотя бы один маршрутизирующий узел. Эффективное распространение сообщений от периферийных узлов осуществляется с помощью слабосвязной сети. Каждый маршрутизирующий узел ведет RPV (Rendezvous Peer View) – список известных маршрутизаторов, упорядоченный по Peer ID. Из-за отсутствия механизма усиления связности всех списков RPV в сети JXTA упомянутый список может иметь временно или постоянно несвязное представление о других маршрутизирующих узлах. В стабильной сети (при низком коэффициенте текучести пользователей) список каждого узла будет сходиться из-за того, что маршрутизирующие узлы время от времени обмениваются случайным подмножеством RPV друг с другом. При опубликовании периферийным узлом объявления, его индекс передается маршрутизирующему узлу через систему SRDI (Shared Resource Distributed Index, распределенный индекс общих ресурсов). После этого маршрутизатор применяет DHT-функцию (Distributed Hash Table) для передачи индекса другому узлу в RPV- списке. В целях репликации индекс будет разослан соседям по списку выбранного маршрутизирующего узла. Процесс поиска предполагает использование той же DHT-функции для обнаружения маршрутизатора, ответственного за хранение данного индекса. Как только маршрутизатор найден, он передаст запрос периферийному узлу, опубликовавшему объявление, и последний вступит в контакт с узлом, пославшим запрос. Если DHT-функция не сможет найти узел, ответственный за объявление, то запрос будет перенаправлен вверх и вниз по RPV-списку пока не будет найдено совпадение, либо не отменен запрос, либо будут достигнуты пределы списка. Данный процесс называется «случайным блужданием». Спецификация протоколов JXTA включает в себя следующие стандарты: Peer Discovery Protocol (нахождение новых узлов и предоставляемых ими сервисов); Peer Resolver Protocol (отсылка и обработка обычных запросов); Rendezvous Protocol (описание поведения маршрутизирующих узлов); Peer Information Protocol (получение информации о статусе других узлов сети); Pipe Binding Protocol (описание механизма выделения виртуального коммуникационного канала между оконечными узлами); Endpoint Routing Protocol (определение набора сообщений, используемых для организации роутинга между двумя узлами). 1.2. Globus Toolkit. Grid-платформа Globus (рис. 1) обеспечивает программную инфраструктуру, которая дает возможность приложениям работать с распределенными разнородными вычислительными ресурсами как с единой виртуальной машиной. Центральным элементом системы Globus является инструментарий Globus Toolkit, который определяет основные сервисы и возможности, требующиеся для создания Grid. Инструментарий состоит из набора компонентов, реализующих базовые сервисы, такие как защита, размещение ресурса, управление ресурсами и связь. Globus Toolkit обеспечивает набор сервисов, которые разработчики инструментальных средств или приложений могут использовать для их специфических нужд. Он создан как слоистая архитектура, в которой сервисы верхнего глобального уровня смонтированы на уже существующих низкоуровневых локальных сервисах ядра. Инструментарий является модульным и приложение может использовать функции Globus без библиотеки обменов. Инструментарий Globus состоит из следующих функций: • основанный на протоколе HTTP администратор распределения ресурсов GRAM – используется для распределения вычислительных ресурсов, контроля и управления вычислением на этих ресурсах; Паралельне програмування. Розподілені системи і мережі 152 Рис. 1. Типовая Grid-платформа GT • расширенная версия протокола передачи файлов GridFTP – применяется для доступа к данным; расширения включают использование протоколов защиты уровня связности, частичного доступа к файлу и управления параллелизмом для высокоскоростных передач; • аутентификация и связанные с ней сервисы безопасности GSI (Grid Security Infrastructure); • распределенный доступ к информации о структуре и состоянии, который основан на протоколе облегченного доступа к каталогам LDAP (Lightweight Directory Access Protocol); этот сервис используется для определения стандартного протокола информации о ресурсе и связанной с ним информационной модели; • удаленный доступ к данным через последовательный и параллельный интерфейсы GASS (Global Access to Secondary Storage), включая интерфейс к GridFTP; • построение, кэширование и размещение выполнимых программ GEM (Globus Executable Management); • резервирование и распределение ресурсов GARA (Globus Advanced Reservation and Allocation). Клиентское приложение (рис. 2) через заранее сгенерированный при создании сервиса промежуточный объект (стаб) обращается к фабрике сервисов (также через стаб) для создания экземпляра нужного сервиса. После проверки системой безопасности GT прав на выполнение этой операции клиент получает от фабрики сервисов GSH (Grid Service Handle) уникальный идентификатор экземпляра сервиса. Через этот идентификатор посредством клиентского стаба уже можно вызывать методы требуемого сервиса. Рис. 2. Взаимодействие клиентского приложения с GT Grid-сервисом Клиентское приложение Клиентский стаб Стаб фабрики сервиса Фабрика Стаб сервиса Экземпляр (ы) сервиса GT-платформа на узле Паралельне програмування. Розподілені системи і мережі 153 1.3. Требования к гибридным Grid-платформам. Отметим несколько проектов посвящённых проблеме интеграции Grid-платформ: D-Grid [8], Gridbus [9], Handle system [10], Advanced Resource Conntector [11], Shoal [12], CoG project [13], hWLM project [14]. Недостатком перечисленных платформ является предоставление средств интеграции исключительно по специальным аспектам (например, добавление возможности поиска узла к ядру GT). Кроме того, большинство из них предлагает средства интеграции при условии модификации базовых компонент существующих платформ, что является недопустимым в большинстве реальных производственных сред. Отметим, что в процессе интеграции GT4 и JXTA необходимо было реализовать дополнительные возможности: доступ из Grid-платформы к неGrid-ресурсам (MPI-кластер), сетевым хранилищам и ресурсам с доступом по SSH/SFTP. Несмотря на то, что в основу интегрированной системы положены различные по сути платформы, администрирование должно происходить из одного центра, без необходимости знания конкретных особенностей управления GT4 и JXTA. Таким образом, основные требования к интегрированной платформе таковы: • возможность использования лучших черт каждой из базовых платформ; • кроссплатформенное использование приложений; • улучшенное управление задачами и балансировкой; • минимизация TCO; • возможность использования сквозной аутентификации; • более сбалансированное управление ресурсами; • улучшенная масштабируемость и защищённость от сбоев; • усовершенствованные средства администрирования. 2. Описание разработанной платформы Высокоуровневая архитектура (рис. 3) предлагаемой платформы [15] состоит из трёх основных частей: GT4-подсистем, JXTA-подсистем и системы запуска заданий (task execution engine). GT4 была дополнена следующими сервисами: • сервис взаимодействия с JXTA (через эту подсистему GT4-сервисы могут связываться с узлами JXTA, осуществлять запросы поиска ресурсов, предоставление услуг обмена сообщениями). • подсистема отказоустойчивости – для поддержки либо автоматической, либо полуавтоматической отказоустойчивости вычислений; • сервисы для ASB –для предоставления доступа из GT4 к неGrid-контроллируемым ресурсам. Платформа JXTA была расширена: • средствами взаимодействия с GT4; • поддержкой отказоустойчивости вычислений; • подсистемой для ASB. Платформа предоставляет средства поддержки отказоустойчивости, а также распределённого кэша. Отказоустойчивость вычислений может контролироваться платформой (по определённому расписанию), либо управляться из пользовательского приложения (пользователь вызывает систему сохранения состояния в тех точках приложения, где считает нужным). Для предоставления средств доступа к неGrid-ресурсам были созданы подсистема ASB и удалённый GAR- инсталлятор, которые доступны как из GT4-, так и JXTA-приложений. Также, для решения проблем с безопасностью (различные подходы и подсистемы в базовых платформах) разработана подсистема сквозной безопасности (SSO) выполнения задачи. Базовая последовательность действий следующая. Пользователь предоставляет менеджеру задач паспорт и авторизационные данные при запуске задания. По этим параметрам менеджер задач собирает данные от поставщиков системы безопасности о пользователе и создаёт для задания авторизационную запись. Когда определённая подсистема (SS) предлагаемой платформы нуждается в авторизационной информации приложения, она обращается к SSO, которая получает авторизационную запись для данной задачи, и проверят наличие требуемых полномочий. После проверки требуемая информация возвращается SS, которая на основе этих данных решает разрешить ли доступ к ресурсу или нет. Разработанный менеджер задач работает с «пакетом задачи» – заархивированным файлом, содержащим: паспорт задачи, библиотеки, ресурсы необходимые для выполнения задачи, ее дистрибутив. Паспорт задачи содержит информацию о целевой для задачи платформе (-ах) (например, GT4, JXTA, MPI), авторизационные Паралельне програмування. Розподілені системи і мережі 154 данные пользователя, минимальное/максимальное количество узлов необходимых для запуска этой задачи и т.д. Ресурсами являются: GAR-архивы GT4, пакеты задач для JXTA, дополнительные скрипты, необходимые для запуска задачи (для кластера MPI). Дистрибутив задачи содержит собственно основное пользовательское приложение. Менеджер задач анализирует паспорт задания, делает запрос о доступных ресурсах всем узлам, анализирует доступность необходимых вычислительных ресурсов для запуска задачи и выполняет её (отправляет на запуск на выбранные узлы). Каждый локальный для узла менеджер задач отвечает за мониторинг жизненного цикла задачи на своём узле. В случае некритической (несистемной) ошибки на узле локальный менеджер задач обязан восстановить выполнение задачи с последней сохранённой точки восстановления. Если менеджер задач на основном узле получает сообщение о недоступности менеджера задач на вычислительном узле, то он перезапускает задачу на другом доступном узле с последней сохранённой точки восстановления. Все операции по пересылки задач и их запуска контролируются через механизм SSO, который может ограничивать количество доступных узлов для выполнения задачи. В случае недоступности ресурсов для выполнения задачи по причине авторизации, менеджер задач может быть сконфигурирован на автоматическую генерацию запроса на авторизацию владельцу ресурса (администратору) по электронному адресу. Рис. 3. Высокоуровневая архитектура разработанной гибридной платформы 3. Практическое использование Для тестирования платформы разработано несколько приложений. Первое тестирует падение производительности при отказе вычислительных узлов. В случае обычных GT4- и JXTA-приложений это приводит к большим накладным расходам, учитывая необходимость перезапуска задач. С помощью созданной платформы получено уменьшение накладных расходов благодаря применению подсистемы самовосстановления состояния задачи после сбоя и соответствующей подсистемы менеджера задач (рис. 4). Тестовое приложение – программа распределённого умножения матриц. Тестирование проводилось с последовательным принудительным отключением узлов и проверкой уровня падения производительности после каждой итерации. Паралельне програмування. Розподілені системи і мережі 155 Рис. 4. Падение производительности при аварийном отключении узлов Второе приложение показывает потери производительности при использовании механизма поиска вычислительных узлов (рис. 5). Базовые условия: кластер с установленной гибридной платформой и выполняющейся на нём задачей (упомянутое умножение двух матриц); последовательный запуск дополнительных узлов; проверка ускорения; повторный цикл, с использованием матриц большего размера. Рис. 5. Ускорение с использованием механизма поиска новых вычислительных узлов Заключение Разработана платформа, отвечающая поставленным требованиям, основные из которых: модификация базовых платформ без модификации ядра; объединение базовых платформ на системном, а не пользовательском уровне; наличие средств восстановления вычислений после сбоя; сквозная системы безопасности. При этом, существует необходимость в дальнейшем улучшении гибридной платформы, а именно: улучшение и расширение системы сквозной аутентификации, усовершенствование подсистемы кэширования, интеграция с платформой JNGI [16]. Паралельне програмування. Розподілені системи і мережі 156 1. Berman, F., Fox, G., Hey T. (eds). Grid Computing: Making the Global Infrastructure a Reality. Chichester: John Wiley & Sons – 2003 – 1060 p. 2. Optimal Grid; Overview, http://www.alphaworks.ibm.com/tech/optimalgrid. 3. Stockinger, Heinz. Defining the Grid: A Snapshot on the Current View, http://hst.web.cern.ch/hst/publications/DefiningTheGrid-1.1.pdf. 4. Grid Services for Distributed System Integration, http://www.globus.org/alliance/publications/papers/ieee-cs-2.pdf 5. Sun JXTA, http://jxta.org. 6. Open Grid Service Infrastructure (OGSI) Specification, v.1.0, http://forge.gridforum.org/projects/ogsi-wg. 7. Open Grid Service Architecture (OGSA), http://www.globus.org/ogsa. 8. D-Grid Integration project, http://www.d-grid.de/index.php?id=61&L=1. 9. The Gridbus Project, http://gridbus.org. 10. Handle System – Globus Toolkit Integration Project, http://www.globus.org/toolkit/projects/handle_system.html. 11. Advanced Resource Connector, http://www.nordugrid.org/middleware/. 12. Shoal – A Generic Dynamic Clustering Framework, https://shoal.dev.java.net/. 13. CoG, http://wiki.cogkit.org/index.php/Main_Page. 14. hWLM – Heterogeneous Workload Management and Grid Integration, http://web.comlab.ox.ac.uk/oucl/research/areas/softeng/eWLM. 15. Doroshenko, A., Rukhlis K. An extension of Globus Toolkit for Grid Computing Optimization. Proc. Cracow Grid Workshop’06, CYFRONET AGH, 2007. – P. 408–416. 16. Verbeke J., Nadgir N., Ruetsch G., Sharapov I., Framework for peer-to-peer distributed computing in a heterogeneous, decentralized environment, in: Proceedings of Third International Workshop on Grid Computing, 2002. – P. 1–12.
id nasplib_isofts_kiev_ua-123456789-1442
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
issn 1727-4907
language Russian
last_indexed 2025-12-07T18:05:10Z
publishDate 2008
publisher Інститут програмних систем НАН України
record_format dspace
spelling Дорошенко, А.Е.
Рухлис, К.А.
Мохница, А.С.
2008-07-31T10:23:26Z
2008-07-31T10:23:26Z
2008
Распределённая платформа для управления ресурсами гетерогенного кластера / А.Е. Дорошенко, К.А. Рухлис, А.С. Мохница // Пробл. програмув. — 2008. — N 2-3. — С. 150-156. — Бібліогр.: 16 назв. — рус.
1727-4907
https://nasplib.isofts.kiev.ua/handle/123456789/1442
004.075
В связи с широким распространением в научной среде проектов на базе разнообразных Grid-платформ актуальной становится проблема их эффективного совместного использования. Существенным ограничением на этом пути является, в первую очередь, несовместимость подходов, на которых они основаны. В работе представлена распределённая платформа для управления ресурсами гетерогенного кластера, объединяющая возможности сервисно-ориентированной архитектуры Globus4 и р2р-системы JXTA. Платформа предоставляет средства для взаимодействия на гетерогенных ресурсах приложений на основе упомянутых архитектур, а также включает в себя средства для доступа к ресурсам гомогенных кластеров. Использование платформы демонстрируется на примере взаимодействия нескольких приложений JXTA и Globus между собой, а также с гомогенным кластером.
Nowadays Grid-based scientific projects become more wide-spread. However, the essential restriction of effective sharing use of them is an incompatibility of approaches on which Grid platforms are organized. Paper is dedicated to the distributed platform for heterogeneous cluster resource management combining service-oriented architecture Globus4 and р2р system JXTA. The platform gives means for applications on the basis of the mentioned architectures to interact on heterogeneous resources, and also includes interface to access the homogeneous clusters. Use of a platform is demonstrated on the example of JXTA and Globus applications interaction and also on communication with a homogeneous cluster.
ru
Інститут програмних систем НАН України
Паралельне програмування
Розподілені системи та мережі
Распределённая платформа для управления ресурсами гетерогенного кластера
A Distributed Platform for Heterogeneous Computing Cluster Resourse Management
Article
published earlier
spellingShingle Распределённая платформа для управления ресурсами гетерогенного кластера
Дорошенко, А.Е.
Рухлис, К.А.
Мохница, А.С.
Паралельне програмування
Розподілені системи та мережі
title Распределённая платформа для управления ресурсами гетерогенного кластера
title_alt A Distributed Platform for Heterogeneous Computing Cluster Resourse Management
title_full Распределённая платформа для управления ресурсами гетерогенного кластера
title_fullStr Распределённая платформа для управления ресурсами гетерогенного кластера
title_full_unstemmed Распределённая платформа для управления ресурсами гетерогенного кластера
title_short Распределённая платформа для управления ресурсами гетерогенного кластера
title_sort распределённая платформа для управления ресурсами гетерогенного кластера
topic Паралельне програмування
Розподілені системи та мережі
topic_facet Паралельне програмування
Розподілені системи та мережі
url https://nasplib.isofts.kiev.ua/handle/123456789/1442
work_keys_str_mv AT dorošenkoae raspredelennaâplatformadlâupravleniâresursamigeterogennogoklastera
AT ruhliska raspredelennaâplatformadlâupravleniâresursamigeterogennogoklastera
AT mohnicaas raspredelennaâplatformadlâupravleniâresursamigeterogennogoklastera
AT dorošenkoae adistributedplatformforheterogeneouscomputingclusterresoursemanagement
AT ruhliska adistributedplatformforheterogeneouscomputingclusterresoursemanagement
AT mohnicaas adistributedplatformforheterogeneouscomputingclusterresoursemanagement