Discovering and learning preferred operators for classical planning with neural networks
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Dissertação |
Idioma: | eng |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFRGS |
Texto Completo: | http://hdl.handle.net/10183/264237 |
Resumo: | Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticas |
id |
URGS_e53d734b46e4895d2650412591ee1a44 |
---|---|
oai_identifier_str |
oai:www.lume.ufrgs.br:10183/264237 |
network_acronym_str |
URGS |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
repository_id_str |
1853 |
spelling |
Minini, Pedro ProbstRitt, Marcus Rolf Peter2023-09-01T03:31:35Z2023http://hdl.handle.net/10183/264237001176193Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticasIn a planning task, an agent must choose the most efficient action from a po tentially large set of actions at each step. During a heuristic search, logic-based planners use preferred operators to reduce the branching factor significantly. This work presents a method for sampling and learning preferred operators, aiming for their applicability across the entire state space of a planning task. We demon strate that these learned preferred operators have competitive results compared to the current best logic-based approach. Our objective is to identify ideal pre ferred operators, situated along the shortest paths leading to some goal. How ever, due to the huge size of search state spaces, we introduce a novel sampling strategy tailored for extracting preferred operators that approximate the ideal ones. Our research shows we can obtain high-quality preferred operators from a sample set covering a fraction of the state space. To understand this new category of preferred operators, we conduct controlled experiments using planning tasks where we have access to the entire state space with perfect cost-to-goal estimates. We systematically compare the proposed approach to baselines, evaluate the ef fectiveness of learned preferred operators learned from several sample set sizes, and assess their performance when combined with different heuristic functions.application/pdfengHeurísticaOperadores preferidosAprendizado de máquinaClassical planningHeuristic searchDiscovering and learning preferred operators for classical planning with neural networksDescoberta e aprendizado de operadores preferidos para planejamento clássico com redes neurais info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2023mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001176193.pdf.txt001176193.pdf.txtExtracted Texttext/plain112986http://www.lume.ufrgs.br/bitstream/10183/264237/2/001176193.pdf.txt65c54c878f1ff74914526e9d6de3283aMD52ORIGINAL001176193.pdfTexto completo (inglês)application/pdf566514http://www.lume.ufrgs.br/bitstream/10183/264237/1/001176193.pdffa546ee1af1d7e234a5d9f9725dd4bbaMD5110183/2642372023-09-02 03:34:53.34615oai:www.lume.ufrgs.br:10183/264237Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532023-09-02T06:34:53Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
dc.title.pt_BR.fl_str_mv |
Discovering and learning preferred operators for classical planning with neural networks |
dc.title.alternative.pt.fl_str_mv |
Descoberta e aprendizado de operadores preferidos para planejamento clássico com redes neurais |
title |
Discovering and learning preferred operators for classical planning with neural networks |
spellingShingle |
Discovering and learning preferred operators for classical planning with neural networks Minini, Pedro Probst Heurística Operadores preferidos Aprendizado de máquina Classical planning Heuristic search |
title_short |
Discovering and learning preferred operators for classical planning with neural networks |
title_full |
Discovering and learning preferred operators for classical planning with neural networks |
title_fullStr |
Discovering and learning preferred operators for classical planning with neural networks |
title_full_unstemmed |
Discovering and learning preferred operators for classical planning with neural networks |
title_sort |
Discovering and learning preferred operators for classical planning with neural networks |
author |
Minini, Pedro Probst |
author_facet |
Minini, Pedro Probst |
author_role |
author |
dc.contributor.author.fl_str_mv |
Minini, Pedro Probst |
dc.contributor.advisor1.fl_str_mv |
Ritt, Marcus Rolf Peter |
contributor_str_mv |
Ritt, Marcus Rolf Peter |
dc.subject.por.fl_str_mv |
Heurística Operadores preferidos Aprendizado de máquina |
topic |
Heurística Operadores preferidos Aprendizado de máquina Classical planning Heuristic search |
dc.subject.eng.fl_str_mv |
Classical planning Heuristic search |
description |
Em uma tarefa de planejamento, um agente deve escolher a ação mais eficiente de um conjunto potencialmente grande de ações em cada passo. Durante uma busca heurística, planejadores lógicos usam operadores preferidos para reduzir significativamente o fator de ramificação. Este trabalho apresenta um método para amostragem e aprendizagem de operadores preferidos, visando sua aplica bilidade em todo o espaço de estados de uma tarefa de planejamento. Demons tramos que esses operadores preferidos aprendidos têm resultados próximos à melhor abordagem lógica atual. Nosso objetivo é identificar os operadores prefe ridos ideais, que estão situados ao longo dos caminhos mais curtos que levam a algum objetivo. No entanto, devido ao enorme tamanho dos espaços de estado, apresentamos uma nova estratégia de amostragem adaptada para extrair opera dores preferidos que aproximam os ideais. Nossa pesquisa mostra que podemos obter operadores preferidos de alta qualidade a partir um conjunto de amostras que abrange uma fração do espaço de estados. Para obter uma compreensão mais aprofundada sobre essa nova categoria de operadores preferidos, realiza mos experimentos controlados usando tarefas de planejamento sobre as quais temos acesso a todo o espaço de estados com estimativas perfeitas de custo para o objetivo. Nós comparamos sistematicamente a abordagem proposta com ba selines, avaliamos a eficácia dos operadores preferidos aprendidos com variados tamanhos de conjuntos de amostras e avaliamos o desempenho quando combi nados com diferentes funções heurísticas |
publishDate |
2023 |
dc.date.accessioned.fl_str_mv |
2023-09-01T03:31:35Z |
dc.date.issued.fl_str_mv |
2023 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/264237 |
dc.identifier.nrb.pt_BR.fl_str_mv |
001176193 |
url |
http://hdl.handle.net/10183/264237 |
identifier_str_mv |
001176193 |
dc.language.iso.fl_str_mv |
eng |
language |
eng |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
instacron_str |
UFRGS |
institution |
UFRGS |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
collection |
Biblioteca Digital de Teses e Dissertações da UFRGS |
bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/264237/2/001176193.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/264237/1/001176193.pdf |
bitstream.checksum.fl_str_mv |
65c54c878f1ff74914526e9d6de3283a fa546ee1af1d7e234a5d9f9725dd4bba |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
repository.mail.fl_str_mv |
lume@ufrgs.br||lume@ufrgs.br |
_version_ |
1810085627241168896 |