Discovering and learning preferred operators for classical planning with neural networks

Detalhes bibliográficos
Autor(a) principal: Minini, Pedro Probst
Data de Publicação: 2023
Tipo de documento: Dissertação
Idioma: eng
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFRGS
Texto Completo: http://hdl.handle.net/10183/264237
Resumo: Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticas
id URGS_e53d734b46e4895d2650412591ee1a44
oai_identifier_str oai:www.lume.ufrgs.br:10183/264237
network_acronym_str URGS
network_name_str Biblioteca Digital de Teses e Dissertações da UFRGS
repository_id_str 1853
spelling Minini, Pedro ProbstRitt, Marcus Rolf Peter2023-09-01T03:31:35Z2023http://hdl.handle.net/10183/264237001176193Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticasIn a planning task, an agent must choose the most efficient action from a po tentially large set of actions at each step. During a heuristic search, logic-based planners use preferred operators to reduce the branching factor significantly. This work presents a method for sampling and learning preferred operators, aiming for their applicability across the entire state space of a planning task. We demon strate that these learned preferred operators have competitive results compared to the current best logic-based approach. Our objective is to identify ideal pre ferred operators, situated along the shortest paths leading to some goal. How ever, due to the huge size of search state spaces, we introduce a novel sampling strategy tailored for extracting preferred operators that approximate the ideal ones. Our research shows we can obtain high-quality preferred operators from a sample set covering a fraction of the state space. To understand this new category of preferred operators, we conduct controlled experiments using planning tasks where we have access to the entire state space with perfect cost-to-goal estimates. We systematically compare the proposed approach to baselines, evaluate the ef fectiveness of learned preferred operators learned from several sample set sizes, and assess their performance when combined with different heuristic functions.application/pdfengHeurísticaOperadores preferidosAprendizado de máquinaClassical planningHeuristic searchDiscovering and learning preferred operators for classical planning with neural networksDescoberta e aprendizado de operadores preferidos para planejamento clássico com redes neurais info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2023mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001176193.pdf.txt001176193.pdf.txtExtracted Texttext/plain112986http://www.lume.ufrgs.br/bitstream/10183/264237/2/001176193.pdf.txt65c54c878f1ff74914526e9d6de3283aMD52ORIGINAL001176193.pdfTexto completo (inglês)application/pdf566514http://www.lume.ufrgs.br/bitstream/10183/264237/1/001176193.pdffa546ee1af1d7e234a5d9f9725dd4bbaMD5110183/2642372023-09-02 03:34:53.34615oai:www.lume.ufrgs.br:10183/264237Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532023-09-02T06:34:53Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Discovering and learning preferred operators for classical planning with neural networks
dc.title.alternative.pt.fl_str_mv Descoberta e aprendizado de operadores preferidos para planejamento clássico com redes neurais
title Discovering and learning preferred operators for classical planning with neural networks
spellingShingle Discovering and learning preferred operators for classical planning with neural networks
Minini, Pedro Probst
Heurística
Operadores preferidos
Aprendizado de máquina
Classical planning
Heuristic search
title_short Discovering and learning preferred operators for classical planning with neural networks
title_full Discovering and learning preferred operators for classical planning with neural networks
title_fullStr Discovering and learning preferred operators for classical planning with neural networks
title_full_unstemmed Discovering and learning preferred operators for classical planning with neural networks
title_sort Discovering and learning preferred operators for classical planning with neural networks
author Minini, Pedro Probst
author_facet Minini, Pedro Probst
author_role author
dc.contributor.author.fl_str_mv Minini, Pedro Probst
dc.contributor.advisor1.fl_str_mv Ritt, Marcus Rolf Peter
contributor_str_mv Ritt, Marcus Rolf Peter
dc.subject.por.fl_str_mv Heurística
Operadores preferidos
Aprendizado de máquina
topic Heurística
Operadores preferidos
Aprendizado de máquina
Classical planning
Heuristic search
dc.subject.eng.fl_str_mv Classical planning
Heuristic search
description Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticas
publishDate 2023
dc.date.accessioned.fl_str_mv 2023-09-01T03:31:35Z
dc.date.issued.fl_str_mv 2023
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/264237
dc.identifier.nrb.pt_BR.fl_str_mv 001176193
url http://hdl.handle.net/10183/264237
identifier_str_mv 001176193
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Biblioteca Digital de Teses e Dissertações da UFRGS
collection Biblioteca Digital de Teses e Dissertações da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/264237/2/001176193.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/264237/1/001176193.pdf
bitstream.checksum.fl_str_mv 65c54c878f1ff74914526e9d6de3283a
fa546ee1af1d7e234a5d9f9725dd4bba
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv lume@ufrgs.br||lume@ufrgs.br
_version_ 1810085627241168896