Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads

Detalhes bibliográficos
Autor(a) principal: Meyer, Vinícius
Data de Publicação: 2022
Tipo de documento: Tese
Idioma: eng
Título da fonte: Biblioteca Digital de Teses e Dissertações da PUC_RS
Texto Completo: https://tede2.pucrs.br/tede2/handle/tede/10326
Resumo: Os sistemas de computação continuam a evoluir para facilitar o aumento do desempenho ao processar cargas de trabalho em grandes data centers. A virtualização é uma tecnologia que permite que vários aplicativos sejam executados em um único computador físico, gerando várias vantagens, incluindo rápido provisionamento de recursos e melhor utilização de hardware. Os provedores de computação em nuvem adotam essa estratégia para usar sua infraestrutura de forma mais eficiente, reduzindo o consumo de energia. Apesar disto, nossas pesquisas na área têm mostrado que vários serviços em nuvem competindo por recursos compartilhados são suscetíveis à interferência entre aplicativos, o que pode levar a uma degradação significativa do desempenho e, consequentemente, a um aumento de quebras no número de acordos de nível de serviço. No entanto, o escalonamento de recursos de última geração em ambientes virtualizados ainda depende principalmente da capacidade dos recursos, adotando heurísticas como o bin-packing, ignorando essa fonte de sobrecarga. Mas, nos últimos anos, o escalonamento com reconhecimento de interferência ganhou força, com a investigação de maneiras de classificar os aplicativos em relação ao seu nível de interferência e a proposta de modelos estáticos e políticas para o escalonamento de aplicativos co-hospedados em nuvem. Os resultados preliminares nesta área já mostram uma melhoria considerável na redução de quebra de SLAs, mas acreditamos fortemente que ainda existem oportunidades de melhoria nas áreas de classificação de aplicações e estratégias de escalonamento dinâmico. Portanto, o objetivo principal deste trabalho é estudar o comportamento dos perfis de interferência dos aplicativos em nuvem ao longo de todo o seu ciclo de vida e sua suscetibilidade às variações da carga de trabalho, em busca de oportunidades para melhorar o compartilhamento de recursos em ambientes virtualizados com novas estratégias de escalonamento dinâmico. Para tanto, exploramos algumas questões específicas de pesquisa relacionadas à natureza dinâmica do processo, tais como: Como classificar aplicações baseadas na interferência de recursos em tempo real? Quando as classificações devem ser executadas? Quantos níveis devem ser usados? Quando devem ser escalonados? Quais são as compensações com o custo de migração? Para responder a todas essas perguntas, criamos uma arquitetura de escalonamento com reconhecimento de interferência que integra esses tópicos mencionados para lidar com cargas de trabalho dinâmicas sensíveis à latência em ambientes virtualizados. As contribuições deste estudo são: (i) uma análise do impacto das variações da carga de trabalho no perfil de interferência de aplicativos em nuvem; (ii) uma forma precisa e otimizada de classificar aplicativos em tempo real; (iii) uma nova estratégia de escalonamento com reconhecimento de interferência dinâmica para aplicativos em nuvem; e (iv) uma arquitetura dinâmica que combina as técnicas acima para entregar um escalonamento eficiente com reconhecimento de interferência em ambientes virtualizados. Os resultados evidenciaram que nossa arquitetura melhorou em média 25% a eficiência geral de utilização de recursos quando comparada com estudos relacionados.
id P_RS_b1bbfcd395c91e33a4a45c03f8c8ad7d
oai_identifier_str oai:tede2.pucrs.br:tede/10326
network_acronym_str P_RS
network_name_str Biblioteca Digital de Teses e Dissertações da PUC_RS
repository_id_str
spelling De Rose, Cesar Augusto Fonticielhahttp://lattes.cnpq.br/6703453792017497http://lattes.cnpq.br/4959450647445224Meyer, Vinícius2022-06-28T14:01:51Z2022-03-21https://tede2.pucrs.br/tede2/handle/tede/10326Os sistemas de computação continuam a evoluir para facilitar o aumento do desempenho ao processar cargas de trabalho em grandes data centers. A virtualização é uma tecnologia que permite que vários aplicativos sejam executados em um único computador físico, gerando várias vantagens, incluindo rápido provisionamento de recursos e melhor utilização de hardware. Os provedores de computação em nuvem adotam essa estratégia para usar sua infraestrutura de forma mais eficiente, reduzindo o consumo de energia. Apesar disto, nossas pesquisas na área têm mostrado que vários serviços em nuvem competindo por recursos compartilhados são suscetíveis à interferência entre aplicativos, o que pode levar a uma degradação significativa do desempenho e, consequentemente, a um aumento de quebras no número de acordos de nível de serviço. No entanto, o escalonamento de recursos de última geração em ambientes virtualizados ainda depende principalmente da capacidade dos recursos, adotando heurísticas como o bin-packing, ignorando essa fonte de sobrecarga. Mas, nos últimos anos, o escalonamento com reconhecimento de interferência ganhou força, com a investigação de maneiras de classificar os aplicativos em relação ao seu nível de interferência e a proposta de modelos estáticos e políticas para o escalonamento de aplicativos co-hospedados em nuvem. Os resultados preliminares nesta área já mostram uma melhoria considerável na redução de quebra de SLAs, mas acreditamos fortemente que ainda existem oportunidades de melhoria nas áreas de classificação de aplicações e estratégias de escalonamento dinâmico. Portanto, o objetivo principal deste trabalho é estudar o comportamento dos perfis de interferência dos aplicativos em nuvem ao longo de todo o seu ciclo de vida e sua suscetibilidade às variações da carga de trabalho, em busca de oportunidades para melhorar o compartilhamento de recursos em ambientes virtualizados com novas estratégias de escalonamento dinâmico. Para tanto, exploramos algumas questões específicas de pesquisa relacionadas à natureza dinâmica do processo, tais como: Como classificar aplicações baseadas na interferência de recursos em tempo real? Quando as classificações devem ser executadas? Quantos níveis devem ser usados? Quando devem ser escalonados? Quais são as compensações com o custo de migração? Para responder a todas essas perguntas, criamos uma arquitetura de escalonamento com reconhecimento de interferência que integra esses tópicos mencionados para lidar com cargas de trabalho dinâmicas sensíveis à latência em ambientes virtualizados. As contribuições deste estudo são: (i) uma análise do impacto das variações da carga de trabalho no perfil de interferência de aplicativos em nuvem; (ii) uma forma precisa e otimizada de classificar aplicativos em tempo real; (iii) uma nova estratégia de escalonamento com reconhecimento de interferência dinâmica para aplicativos em nuvem; e (iv) uma arquitetura dinâmica que combina as técnicas acima para entregar um escalonamento eficiente com reconhecimento de interferência em ambientes virtualizados. Os resultados evidenciaram que nossa arquitetura melhorou em média 25% a eficiência geral de utilização de recursos quando comparada com estudos relacionados.Computing systems continue to evolve to facilitate increased performance when processing workloads in large data centers. Virtualization technology enables multiple applications to be created and executed on a single physical computer, yielding various advantages, including rapid provisioning of resources and better utilization of hardware. Cloud computing providers have adopted this strategy to use their infrastructure more efficiently, reducing energy consumption. However, our research in this field has shown that multiple cloud services contending for shared resources are susceptible to crossapplication interference, which can lead to significant performance degradation and consequently an increase in the number of broken service level agreements (SLA). Nevertheless, state-of-the-art resource scheduling in virtualized environments still relies mainly on resource capacity, adopting heuristics such as bin-packing, thus overlooking this source of overhead. But in recent years interference-aware scheduling has gained traction, and applications are now being classified based on their interference level and the proposal of static cost models and policies for scheduling co-hosted cloud applications. Preliminary results in this area already show a considerable improvement in the reduction of broken SLAs, yet we strongly believe that there are still opportunities to improve in the areas of application classification and dynamic scheduling strategies. Therefore, this work’s primary goal is to study the behavior of cloud applications’ interference profiles over their entire life cycle, and their susceptibility to workload variations, looking for opportunities to improve resource sharing in virtualized environments with novel dynamic scheduling strategies. To this end, we explored some specific research questions related to the dynamic nature of the process, such as: How can applications be classified based on resource interference in real-time? When should classifications be executed? How many levels should be used? When should they be scheduled? What are the trade-offs with migration cost? To answer all of these questions, we created an interference-aware scheduling architecture that integrates the aforementioned topics to better manage dynamic latencysensitive workloads in virtualized environments. The contributions of this study are: (i) an analysis of the impact of workload variations in the interference profile of cloud applications; (ii) a precise and optimized way to classify applications in real-time; (iii) a novel dynamic interference-aware scheduling strategy for cloud applications; and (iv) a dynamic architecture that combines the above techniques to deliver efficient interference-aware scheduling in virtualized environments. Our results show an average 25% improvement of overall resource utilization efficiency with our architecture compared to related studies.Submitted by PPG Ciência da Computação (ppgcc@pucrs.br) on 2022-06-27T19:05:14Z No. of bitstreams: 1 VINICIUS_MEYER_TES.pdf: 1158161 bytes, checksum: 920c6e999e4f0c96a5400628ee5868c0 (MD5)Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2022-06-28T13:48:35Z (GMT) No. of bitstreams: 1 VINICIUS_MEYER_TES.pdf: 1158161 bytes, checksum: 920c6e999e4f0c96a5400628ee5868c0 (MD5)Made available in DSpace on 2022-06-28T14:01:51Z (GMT). No. of bitstreams: 1 VINICIUS_MEYER_TES.pdf: 1158161 bytes, checksum: 920c6e999e4f0c96a5400628ee5868c0 (MD5) Previous issue date: 2022-03-21Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESapplication/pdfhttps://tede2.pucrs.br/tede2/retrieve/184624/VINICIUS_MEYER_TES.pdf.jpgengPontifícia Universidade Católica do Rio Grande do SulPrograma de Pós-Graduação em Ciência da ComputaçãoPUCRSBrasilEscola PolitécnicaInterference-aware SchedulingDynamic Latency-sensitive WorkloadsMachine LearningResource ManagementCloud ComputingSimulationEscalonamento Ciente de InterferênciaCargas de Trabalho Dinâmicas Sensíveis à LatênciaAprendizado de MáquinaGerenciamento de RecursosComputação em NuvemSimulaçãoCIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAOInterference-aware cloud scheduling architecture for dynamic latency-sensitive workloadsinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisTrabalho não apresenta restrição para publicação-4570527706994352458500500600-8620782570833253013590462550136975366info:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da PUC_RSinstname:Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)instacron:PUC_RSTHUMBNAILVINICIUS_MEYER_TES.pdf.jpgVINICIUS_MEYER_TES.pdf.jpgimage/jpeg5441https://tede2.pucrs.br/tede2/bitstream/tede/10326/4/VINICIUS_MEYER_TES.pdf.jpg17c82a41964ea542df9aa3b5168c3625MD54TEXTVINICIUS_MEYER_TES.pdf.txtVINICIUS_MEYER_TES.pdf.txttext/plain231584https://tede2.pucrs.br/tede2/bitstream/tede/10326/3/VINICIUS_MEYER_TES.pdf.txt3b4cc445323cb97c346db9e0488f530bMD53ORIGINALVINICIUS_MEYER_TES.pdfVINICIUS_MEYER_TES.pdfapplication/pdf1158161https://tede2.pucrs.br/tede2/bitstream/tede/10326/2/VINICIUS_MEYER_TES.pdf920c6e999e4f0c96a5400628ee5868c0MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-8590https://tede2.pucrs.br/tede2/bitstream/tede/10326/1/license.txt220e11f2d3ba5354f917c7035aadef24MD51tede/103262022-06-28 20:00:16.277oai:tede2.pucrs.br:tede/10326QXV0b3JpemE/P28gcGFyYSBQdWJsaWNhPz9vIEVsZXRyP25pY2E6IENvbSBiYXNlIG5vIGRpc3Bvc3RvIG5hIExlaSBGZWRlcmFsIG4/OS42MTAsIGRlIDE5IGRlIGZldmVyZWlybyBkZSAxOTk4LCBvIGF1dG9yIEFVVE9SSVpBIGEgcHVibGljYT8/byBlbGV0cj9uaWNhIGRhIHByZXNlbnRlIG9icmEgbm8gYWNlcnZvIGRhIEJpYmxpb3RlY2EgRGlnaXRhbCBkYSBQb250aWY/Y2lhIFVuaXZlcnNpZGFkZSBDYXQ/bGljYSBkbyBSaW8gR3JhbmRlIGRvIFN1bCwgc2VkaWFkYSBhIEF2LiBJcGlyYW5nYSA2NjgxLCBQb3J0byBBbGVncmUsIFJpbyBHcmFuZGUgZG8gU3VsLCBjb20gcmVnaXN0cm8gZGUgQ05QSiA4ODYzMDQxMzAwMDItODEgYmVtIGNvbW8gZW0gb3V0cmFzIGJpYmxpb3RlY2FzIGRpZ2l0YWlzLCBuYWNpb25haXMgZSBpbnRlcm5hY2lvbmFpcywgY29ucz9yY2lvcyBlIHJlZGVzID9zIHF1YWlzIGEgYmlibGlvdGVjYSBkYSBQVUNSUyBwb3NzYSBhIHZpciBwYXJ0aWNpcGFyLCBzZW0gP251cyBhbHVzaXZvIGFvcyBkaXJlaXRvcyBhdXRvcmFpcywgYSB0P3R1bG8gZGUgZGl2dWxnYT8/byBkYSBwcm9kdT8/byBjaWVudD9maWNhLgo=Biblioteca Digital de Teses e Dissertaçõeshttp://tede2.pucrs.br/tede2/PRIhttps://tede2.pucrs.br/oai/requestbiblioteca.central@pucrs.br||opendoar:2022-06-28T23:00:16Biblioteca Digital de Teses e Dissertações da PUC_RS - Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)false
dc.title.por.fl_str_mv Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
title Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
spellingShingle Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
Meyer, Vinícius
Interference-aware Scheduling
Dynamic Latency-sensitive Workloads
Machine Learning
Resource Management
Cloud Computing
Simulation
Escalonamento Ciente de Interferência
Cargas de Trabalho Dinâmicas Sensíveis à Latência
Aprendizado de Máquina
Gerenciamento de Recursos
Computação em Nuvem
Simulação
CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO
title_short Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
title_full Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
title_fullStr Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
title_full_unstemmed Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
title_sort Interference-aware cloud scheduling architecture for dynamic latency-sensitive workloads
author Meyer, Vinícius
author_facet Meyer, Vinícius
author_role author
dc.contributor.advisor1.fl_str_mv De Rose, Cesar Augusto Fonticielha
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/6703453792017497
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/4959450647445224
dc.contributor.author.fl_str_mv Meyer, Vinícius
contributor_str_mv De Rose, Cesar Augusto Fonticielha
dc.subject.eng.fl_str_mv Interference-aware Scheduling
Dynamic Latency-sensitive Workloads
Machine Learning
Resource Management
Cloud Computing
Simulation
topic Interference-aware Scheduling
Dynamic Latency-sensitive Workloads
Machine Learning
Resource Management
Cloud Computing
Simulation
Escalonamento Ciente de Interferência
Cargas de Trabalho Dinâmicas Sensíveis à Latência
Aprendizado de Máquina
Gerenciamento de Recursos
Computação em Nuvem
Simulação
CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO
dc.subject.por.fl_str_mv Escalonamento Ciente de Interferência
Cargas de Trabalho Dinâmicas Sensíveis à Latência
Aprendizado de Máquina
Gerenciamento de Recursos
Computação em Nuvem
Simulação
dc.subject.cnpq.fl_str_mv CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO
description Os sistemas de computação continuam a evoluir para facilitar o aumento do desempenho ao processar cargas de trabalho em grandes data centers. A virtualização é uma tecnologia que permite que vários aplicativos sejam executados em um único computador físico, gerando várias vantagens, incluindo rápido provisionamento de recursos e melhor utilização de hardware. Os provedores de computação em nuvem adotam essa estratégia para usar sua infraestrutura de forma mais eficiente, reduzindo o consumo de energia. Apesar disto, nossas pesquisas na área têm mostrado que vários serviços em nuvem competindo por recursos compartilhados são suscetíveis à interferência entre aplicativos, o que pode levar a uma degradação significativa do desempenho e, consequentemente, a um aumento de quebras no número de acordos de nível de serviço. No entanto, o escalonamento de recursos de última geração em ambientes virtualizados ainda depende principalmente da capacidade dos recursos, adotando heurísticas como o bin-packing, ignorando essa fonte de sobrecarga. Mas, nos últimos anos, o escalonamento com reconhecimento de interferência ganhou força, com a investigação de maneiras de classificar os aplicativos em relação ao seu nível de interferência e a proposta de modelos estáticos e políticas para o escalonamento de aplicativos co-hospedados em nuvem. Os resultados preliminares nesta área já mostram uma melhoria considerável na redução de quebra de SLAs, mas acreditamos fortemente que ainda existem oportunidades de melhoria nas áreas de classificação de aplicações e estratégias de escalonamento dinâmico. Portanto, o objetivo principal deste trabalho é estudar o comportamento dos perfis de interferência dos aplicativos em nuvem ao longo de todo o seu ciclo de vida e sua suscetibilidade às variações da carga de trabalho, em busca de oportunidades para melhorar o compartilhamento de recursos em ambientes virtualizados com novas estratégias de escalonamento dinâmico. Para tanto, exploramos algumas questões específicas de pesquisa relacionadas à natureza dinâmica do processo, tais como: Como classificar aplicações baseadas na interferência de recursos em tempo real? Quando as classificações devem ser executadas? Quantos níveis devem ser usados? Quando devem ser escalonados? Quais são as compensações com o custo de migração? Para responder a todas essas perguntas, criamos uma arquitetura de escalonamento com reconhecimento de interferência que integra esses tópicos mencionados para lidar com cargas de trabalho dinâmicas sensíveis à latência em ambientes virtualizados. As contribuições deste estudo são: (i) uma análise do impacto das variações da carga de trabalho no perfil de interferência de aplicativos em nuvem; (ii) uma forma precisa e otimizada de classificar aplicativos em tempo real; (iii) uma nova estratégia de escalonamento com reconhecimento de interferência dinâmica para aplicativos em nuvem; e (iv) uma arquitetura dinâmica que combina as técnicas acima para entregar um escalonamento eficiente com reconhecimento de interferência em ambientes virtualizados. Os resultados evidenciaram que nossa arquitetura melhorou em média 25% a eficiência geral de utilização de recursos quando comparada com estudos relacionados.
publishDate 2022
dc.date.accessioned.fl_str_mv 2022-06-28T14:01:51Z
dc.date.issued.fl_str_mv 2022-03-21
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://tede2.pucrs.br/tede2/handle/tede/10326
url https://tede2.pucrs.br/tede2/handle/tede/10326
dc.language.iso.fl_str_mv eng
language eng
dc.relation.program.fl_str_mv -4570527706994352458
dc.relation.confidence.fl_str_mv 500
500
600
dc.relation.cnpq.fl_str_mv -862078257083325301
dc.relation.sponsorship.fl_str_mv 3590462550136975366
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Pontifícia Universidade Católica do Rio Grande do Sul
dc.publisher.program.fl_str_mv Programa de Pós-Graduação em Ciência da Computação
dc.publisher.initials.fl_str_mv PUCRS
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv Escola Politécnica
publisher.none.fl_str_mv Pontifícia Universidade Católica do Rio Grande do Sul
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da PUC_RS
instname:Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)
instacron:PUC_RS
instname_str Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)
instacron_str PUC_RS
institution PUC_RS
reponame_str Biblioteca Digital de Teses e Dissertações da PUC_RS
collection Biblioteca Digital de Teses e Dissertações da PUC_RS
bitstream.url.fl_str_mv https://tede2.pucrs.br/tede2/bitstream/tede/10326/4/VINICIUS_MEYER_TES.pdf.jpg
https://tede2.pucrs.br/tede2/bitstream/tede/10326/3/VINICIUS_MEYER_TES.pdf.txt
https://tede2.pucrs.br/tede2/bitstream/tede/10326/2/VINICIUS_MEYER_TES.pdf
https://tede2.pucrs.br/tede2/bitstream/tede/10326/1/license.txt
bitstream.checksum.fl_str_mv 17c82a41964ea542df9aa3b5168c3625
3b4cc445323cb97c346db9e0488f530b
920c6e999e4f0c96a5400628ee5868c0
220e11f2d3ba5354f917c7035aadef24
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da PUC_RS - Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS)
repository.mail.fl_str_mv biblioteca.central@pucrs.br||
_version_ 1799765356551602176