Detalhes bibliográficos
Título da fonte: Repositório Institucional da UFMG
id UFMG_fa0baef3280d1ef7b119b575afc39716
oai_identifier_str oai:repositorio.ufmg.br:1843/RVMR-78VMZS
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
reponame_str Repositório Institucional da UFMG
instacron_str UFMG
institution Universidade Federal de Minas Gerais (UFMG)
instname_str Universidade Federal de Minas Gerais (UFMG)
spelling Renato Antonio Celso FerreiraDorgival Olavo Guedes NetoWagner Meira JuniorFrancisco José Silva e SilvaTulio Coelho Tavares2019-08-09T19:52:11Z2019-08-09T19:52:11Z2006-08-18http://hdl.handle.net/1843/RVMR-78VMZSA Ciência da Computação tem evoluído e alcançado diversas áreas do conhecimento tais como a biologia, a geografia, a astronomia, entre outras. Os Sistemas de Fluxo de Trabalho Científico foram criados com o objetivo de ajudar os pesquisadores dessas áreas nos seus processos de análise de dados. Esses sistemas permitem aos cientistas criar e organizar tarefas relativas aos seus experimentos; executar essas tarefas eficientemente e transparentemente em um ambiente distribuído; assim como monitorar toda a execução.Os desafios para o projeto e a implementação desses sistemas são muitos, principalmente devido às características das aplicações que geram os fluxos de trabalho científicos. Elas são consideradas aplicações intensivas em dados e processamento as quais criam uma enorme quantidade de dados durante a execução e executam por longos períodos. Desta forma, alguns dos desafios para projetar os sistemas de fluxo de trabalho científico são: armazenar, pesquisar e gerenciar grandes bases de dados distribuídas, gerenciar os dados de entrada e de saída, escalonar e monitorar a execução desses fluxos de trabalho em ambientes distribuídos, assim como tratar a ocorrência de falhas tanto de software quanto de hardware que podem acontecer durante a execução.Este trabalho investiga o uso de mecanismos que, de forma transparente, aumentem a disponibilidade de sistemas de fluxo de trabalho científico, de tal forma que o trabalho a ser refeito após uma falha no sistema seja mínimo. Esses mecanismos utilizam como base características próprias desses sistemas para a construção de um sistema de armazenamento dos dados necessários para a recuperação das aplicações após uma falha. Esse sistema provê um armazenamento assíncrono dos dados de tal forma que não há necessidade do travamento da execução das aplicações para que ele aconteça. Os resultados experimentais mostram que o sistema é capaz escalar a grandes bases de dados, e que a nossa abordagem introduz muito pouco overhead na execução das aplicações.Scientific workflow systems provide scientists with a suite of tools and infrastructure to build data analysis applications from reusable components and execute them. The challenges to implementing workflow middleware support for scientific applications are many. Analysis oftentimes requires processing of large volumes of data through a series of simple and complex operations.To support data processing efficiently, a workflow middleware system should leverage distributed computing power and storage space (both disk and memory space) and implement optimizations for large data retrieval and scheduling of I/O and computation components. Another challenging issue is to enable fault tolerance in the middleware fabric. An analysis workflow with complex operations on large data can take long time to execute. The probability of a failure during execution should be considered. Efficient mechanisms are needed to support recovery from a failure without having to redo much of the computation already done.In this thesis, we propose and evaluate a fault tolerance framework for applications that process data using a pipelined network of user-defined operations in a distributed environment. We provide functionality and protocols to efficiently manage input, intermediate, and output data and associated metadata and to recover from certain types of faults that may occur in the system. In our approach, intermediate results and messages exchanged among application components are maintained in a distributed data management infrastructure along with additional metadata. The infrastructure consists of a persistent storage manager that stores check-pointed information in a distributed database and a distributed cache that reduces the overhead of check-pointing. We have developed a protocol among the various components of the system to manage check-points and related information efficiently. The experimental results show that our approach provides an asynchronous data storage mechanism that minimizes overhead to the execution of the workflow.Universidade Federal de Minas GeraisUFMGComputaçãoProcessamento eletrônico de dados Processamento distribuídoTolerancia a falha (Computação)tolerancia a falhasFluxo de trabalhosDesempenho e disponibilidade em sistemas de fluxo de trabalho científico intensivos em dadosinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGORIGINALtuliocoelhotavares.pdfapplication/pdf735961https://repositorio.ufmg.br/bitstream/1843/RVMR-78VMZS/1/tuliocoelhotavares.pdf3f167a860a359326d6ea0b65c936e525MD51TEXTtuliocoelhotavares.pdf.txttuliocoelhotavares.pdf.txtExtracted texttext/plain163823https://repositorio.ufmg.br/bitstream/1843/RVMR-78VMZS/2/tuliocoelhotavares.pdf.txt9af94d56a838fabe7b97452b17ad11a8MD521843/RVMR-78VMZS2019-11-14 09:13:17.478oai:repositorio.ufmg.br:1843/RVMR-78VMZSRepositório InstitucionalPUBhttps://repositorio.ufmg.br/oaiopendoar:2019-11-14T12:13:17Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
_version_ 1813547510217572352