Escalonamento de aplicações paralelas: de clusters para grids
Autor(a) principal: | |
---|---|
Data de Publicação: | 2007 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFSCAR |
Texto Completo: | https://repositorio.ufscar.br/handle/ufscar/356 |
Resumo: | Different algorithms provide efficient scheduling of parallel applications on distributed and heterogeneous computational platforms, such as computational grids. Most scheduling algorithms for such environments require an application model represented by a directed acyclic graph (DAG), selecting tasks for execution according to their processing and communication characteristics. The obtainment of DAGs for real applications, however, is not a simple quest. The required knowledge about the application tasks and the communication among them, considering existing transmission cycles, harden the elaboration of appropriate graphs. Particularly, MPI programs, that represent a meaningful portion of existing parallel applications, usually present a cyclic communication model among the master and the processing nodes. This behavior prevents most scheduling algorithms to be employed as they recursively traverse the graphs to prioritize the tasks. In this sense, this work presents a mechanism for the automatic creation of DAGs for real MPI application originally developed for homogeneous clusters. In order to do so, applications go through a monitored execution in a cluster and the collected data are used for the elaboration of an appropriate DAGs. Data dependencies are identified and existing cycles among the tasks are eliminated. The HEFT scheduling algorithm is used to evaluate the application model and the schedule obtained is then automatically converted into an RSL (Resource Specification Language) file for execution in a grid with Globus. Results from running real applications and simulations show using the grid can be advantageous. |
id |
SCAR_d913f65f42eadea166701c3578c5b0f6 |
---|---|
oai_identifier_str |
oai:repositorio.ufscar.br:ufscar/356 |
network_acronym_str |
SCAR |
network_name_str |
Repositório Institucional da UFSCAR |
repository_id_str |
4322 |
spelling |
Jacinto, Daniele SantiniGuardia, Hélio Crestanahttp://lattes.cnpq.br/1780902767520967http://lattes.cnpq.br/4978298159144069d2ff7be1-986b-45a2-b62d-7b2b8c90cd242016-06-02T19:05:26Z2008-01-022016-06-02T19:05:26Z2007-08-24JACINTO, Daniele Santini. Escalonamento de aplicações paralelas: de clusters para grids. 2007. 129 f. Dissertação (Mestrado em Ciências Exatas e da Terra) - Universidade Federal de São Carlos, São Carlos, 2007.https://repositorio.ufscar.br/handle/ufscar/356Different algorithms provide efficient scheduling of parallel applications on distributed and heterogeneous computational platforms, such as computational grids. Most scheduling algorithms for such environments require an application model represented by a directed acyclic graph (DAG), selecting tasks for execution according to their processing and communication characteristics. The obtainment of DAGs for real applications, however, is not a simple quest. The required knowledge about the application tasks and the communication among them, considering existing transmission cycles, harden the elaboration of appropriate graphs. Particularly, MPI programs, that represent a meaningful portion of existing parallel applications, usually present a cyclic communication model among the master and the processing nodes. This behavior prevents most scheduling algorithms to be employed as they recursively traverse the graphs to prioritize the tasks. In this sense, this work presents a mechanism for the automatic creation of DAGs for real MPI application originally developed for homogeneous clusters. In order to do so, applications go through a monitored execution in a cluster and the collected data are used for the elaboration of an appropriate DAGs. Data dependencies are identified and existing cycles among the tasks are eliminated. The HEFT scheduling algorithm is used to evaluate the application model and the schedule obtained is then automatically converted into an RSL (Resource Specification Language) file for execution in a grid with Globus. Results from running real applications and simulations show using the grid can be advantageous.Algoritmos diferentes possibilitam o escalonamento eficiente de aplicações paralelas em plataformas computacionais heterogêneas e distribuídas, tais como grids computacionais. Vários algoritmos de escalonamento para esses ambientes necessitam de um modelo de aplicação representado por um grafo acíclico direcionado (GAD), selecionando tarefas para execução de acordo com suas características de comunicação e de processamento. A obtenção de um GAD para uma aplicação real, contudo, não é uma questão simples. O conhecimento necessário sobre as tarefas da aplicação e as comunicações entre elas, considerando ciclos de transmissão, dificulta a elaboração de um grafo apropriado. Particularmente, programas MPI, os quais representam uma parcela significativa das aplicações paralelas, apresentam um modelo de comunicação cíclico entre o nó master e os nós de processamento. Esse comportamento impede a utilização de muitos algoritmos de escalonamento devido ao fato de eles percorrerem o grafo recursivamente para priorizar as tarefas. Nesse sentido, esse trabalho apresenta um mecanismo para a criação automática de GADs para aplicações MPI reais originalmente desenvolvidas para clusters homogêneos. Para essa implementação, aplicações são monitoradas durante a execução em um cluster e os dados coletados são usados para a elaboração de um GADs apropriados. Dependências de dados são identificadas e ciclos existentes entre as tarefas são eliminados. O algoritmo de escalonamento HEFT é usado para avaliar o modelo de aplicação e o escalonamento obtido é então automaticamente convertido em um arquivo RSL (Resource Specification Language) para execução em um grid com Globus. Resultados de execuções de aplicações reais e simulações demonstram que o uso de grid pode ser vantajoso.application/pdfporUniversidade Federal de São CarlosPrograma de Pós-Graduação em Ciência da Computação - PPGCCUFSCarBRGrade computacionalEscalonamentoMPIClusterMPIComputational gridsDirect acyclic graph (DAG)application scheduler: HEFTGlobusGridSimCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOEscalonamento de aplicações paralelas: de clusters para gridsinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesis-1-1f4f6f94b-4ba6-4f29-9636-a7fbcc822215info:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFSCARinstname:Universidade Federal de São Carlos (UFSCAR)instacron:UFSCARORIGINAL1631.pdfapplication/pdf1988300https://repositorio.ufscar.br/bitstream/ufscar/356/1/1631.pdfe305adb917a8fdf720897942982390b7MD51THUMBNAIL1631.pdf.jpg1631.pdf.jpgIM Thumbnailimage/jpeg6572https://repositorio.ufscar.br/bitstream/ufscar/356/2/1631.pdf.jpg781f8c8796565f1ea47f3e6c7fd7eff2MD52ufscar/3562023-09-18 18:30:36.84oai:repositorio.ufscar.br:ufscar/356Repositório InstitucionalPUBhttps://repositorio.ufscar.br/oai/requestopendoar:43222023-09-18T18:30:36Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR)false |
dc.title.por.fl_str_mv |
Escalonamento de aplicações paralelas: de clusters para grids |
title |
Escalonamento de aplicações paralelas: de clusters para grids |
spellingShingle |
Escalonamento de aplicações paralelas: de clusters para grids Jacinto, Daniele Santini Grade computacional Escalonamento MPI Cluster MPI Computational grids Direct acyclic graph (DAG) application scheduler: HEFT Globus GridSim CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
title_short |
Escalonamento de aplicações paralelas: de clusters para grids |
title_full |
Escalonamento de aplicações paralelas: de clusters para grids |
title_fullStr |
Escalonamento de aplicações paralelas: de clusters para grids |
title_full_unstemmed |
Escalonamento de aplicações paralelas: de clusters para grids |
title_sort |
Escalonamento de aplicações paralelas: de clusters para grids |
author |
Jacinto, Daniele Santini |
author_facet |
Jacinto, Daniele Santini |
author_role |
author |
dc.contributor.authorlattes.por.fl_str_mv |
http://lattes.cnpq.br/4978298159144069 |
dc.contributor.author.fl_str_mv |
Jacinto, Daniele Santini |
dc.contributor.advisor1.fl_str_mv |
Guardia, Hélio Crestana |
dc.contributor.advisor1Lattes.fl_str_mv |
http://lattes.cnpq.br/1780902767520967 |
dc.contributor.authorID.fl_str_mv |
d2ff7be1-986b-45a2-b62d-7b2b8c90cd24 |
contributor_str_mv |
Guardia, Hélio Crestana |
dc.subject.por.fl_str_mv |
Grade computacional Escalonamento MPI |
topic |
Grade computacional Escalonamento MPI Cluster MPI Computational grids Direct acyclic graph (DAG) application scheduler: HEFT Globus GridSim CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
dc.subject.eng.fl_str_mv |
Cluster MPI Computational grids Direct acyclic graph (DAG) application scheduler: HEFT Globus GridSim |
dc.subject.cnpq.fl_str_mv |
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
description |
Different algorithms provide efficient scheduling of parallel applications on distributed and heterogeneous computational platforms, such as computational grids. Most scheduling algorithms for such environments require an application model represented by a directed acyclic graph (DAG), selecting tasks for execution according to their processing and communication characteristics. The obtainment of DAGs for real applications, however, is not a simple quest. The required knowledge about the application tasks and the communication among them, considering existing transmission cycles, harden the elaboration of appropriate graphs. Particularly, MPI programs, that represent a meaningful portion of existing parallel applications, usually present a cyclic communication model among the master and the processing nodes. This behavior prevents most scheduling algorithms to be employed as they recursively traverse the graphs to prioritize the tasks. In this sense, this work presents a mechanism for the automatic creation of DAGs for real MPI application originally developed for homogeneous clusters. In order to do so, applications go through a monitored execution in a cluster and the collected data are used for the elaboration of an appropriate DAGs. Data dependencies are identified and existing cycles among the tasks are eliminated. The HEFT scheduling algorithm is used to evaluate the application model and the schedule obtained is then automatically converted into an RSL (Resource Specification Language) file for execution in a grid with Globus. Results from running real applications and simulations show using the grid can be advantageous. |
publishDate |
2007 |
dc.date.issued.fl_str_mv |
2007-08-24 |
dc.date.available.fl_str_mv |
2008-01-02 2016-06-02T19:05:26Z |
dc.date.accessioned.fl_str_mv |
2016-06-02T19:05:26Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
JACINTO, Daniele Santini. Escalonamento de aplicações paralelas: de clusters para grids. 2007. 129 f. Dissertação (Mestrado em Ciências Exatas e da Terra) - Universidade Federal de São Carlos, São Carlos, 2007. |
dc.identifier.uri.fl_str_mv |
https://repositorio.ufscar.br/handle/ufscar/356 |
identifier_str_mv |
JACINTO, Daniele Santini. Escalonamento de aplicações paralelas: de clusters para grids. 2007. 129 f. Dissertação (Mestrado em Ciências Exatas e da Terra) - Universidade Federal de São Carlos, São Carlos, 2007. |
url |
https://repositorio.ufscar.br/handle/ufscar/356 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.confidence.fl_str_mv |
-1 -1 |
dc.relation.authority.fl_str_mv |
f4f6f94b-4ba6-4f29-9636-a7fbcc822215 |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Federal de São Carlos |
dc.publisher.program.fl_str_mv |
Programa de Pós-Graduação em Ciência da Computação - PPGCC |
dc.publisher.initials.fl_str_mv |
UFSCar |
dc.publisher.country.fl_str_mv |
BR |
publisher.none.fl_str_mv |
Universidade Federal de São Carlos |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFSCAR instname:Universidade Federal de São Carlos (UFSCAR) instacron:UFSCAR |
instname_str |
Universidade Federal de São Carlos (UFSCAR) |
instacron_str |
UFSCAR |
institution |
UFSCAR |
reponame_str |
Repositório Institucional da UFSCAR |
collection |
Repositório Institucional da UFSCAR |
bitstream.url.fl_str_mv |
https://repositorio.ufscar.br/bitstream/ufscar/356/1/1631.pdf https://repositorio.ufscar.br/bitstream/ufscar/356/2/1631.pdf.jpg |
bitstream.checksum.fl_str_mv |
e305adb917a8fdf720897942982390b7 781f8c8796565f1ea47f3e6c7fd7eff2 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFSCAR - Universidade Federal de São Carlos (UFSCAR) |
repository.mail.fl_str_mv |
|
_version_ |
1802136244104200192 |