Aprendizado em sistemas multiagente através de coordenação oportunista.
Autor(a) principal: | |
---|---|
Data de Publicação: | 2009 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFRGS |
Texto Completo: | http://hdl.handle.net/10183/26857 |
Resumo: | O tamanho da representação de ações e estados conjuntos é um fator chave que limita o uso de algoritmos de apendizado por reforço multiagente em problemas complexos. Este trabalho propõe o opportunistic Coordination Learning (OPPORTUNE), um método de aprendizado por reforço multiagente para lidar com grandes cenários. Visto que uma solução centralizada não é praticável em grandes espaços de estado-ação, um modode reduzir a complexidade do problema é decompô-lo em subproblemas utilizando cooperação entre agentes independentes em algumas partes do ambiente. No método proposto, agentes independentes utilizam comunicação e um mecanismo de cooperação que permite que haja expansão de suas percepções sobre o ambiente e para que executem ações cooperativas apenas quando é melhor que agir de modo individual. O OPPORTUNE foi testado e comparado em dois cenários: jogo de perseguição e controle de tráfego urbano. |
id |
URGS_985b7495991061182a1f55348a044acc |
---|---|
oai_identifier_str |
oai:www.lume.ufrgs.br:10183/26857 |
network_acronym_str |
URGS |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
repository_id_str |
1853 |
spelling |
Oliveira, Denise deBazzan, Ana Lucia Cetertich2010-11-25T04:21:34Z2009http://hdl.handle.net/10183/26857000759645O tamanho da representação de ações e estados conjuntos é um fator chave que limita o uso de algoritmos de apendizado por reforço multiagente em problemas complexos. Este trabalho propõe o opportunistic Coordination Learning (OPPORTUNE), um método de aprendizado por reforço multiagente para lidar com grandes cenários. Visto que uma solução centralizada não é praticável em grandes espaços de estado-ação, um modode reduzir a complexidade do problema é decompô-lo em subproblemas utilizando cooperação entre agentes independentes em algumas partes do ambiente. No método proposto, agentes independentes utilizam comunicação e um mecanismo de cooperação que permite que haja expansão de suas percepções sobre o ambiente e para que executem ações cooperativas apenas quando é melhor que agir de modo individual. O OPPORTUNE foi testado e comparado em dois cenários: jogo de perseguição e controle de tráfego urbano.The size of the representation of joint states and actions is a key factor that limits the use oh standard multiagent reinforcement learning algorithms in complex problems. This work proposes opportunistic Coordination Learning (OPPORTUNE), a multiagent reinforcement learning method to cope with large scenarios. Because a centralized solution becomes impratical in large state-action spaces, one way of reducing the complexity is to decompose the problem into sub-problems using cooperation between independent agents in some parts of the environment. In the proposed method, independent agents use communication and cooperation mechanism allowing them to extended their perception of the environment and to perform cooperative actions only when this is better than acting individually. OPPORTUNE was tested and compared in twm scenarios: pursuit game and urban traffic control.application/pdfporInteligência artificialSistemas multiagentesCadeias : MarkovMultiagent systemsReinforcement learningCoordinationAprendizado em sistemas multiagente através de coordenação oportunista.Towards joint learning in multiagent systems through oppotunistic coordination info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2009doutoradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSORIGINAL000759645.pdf000759645.pdfTexto completoapplication/pdf1906118http://www.lume.ufrgs.br/bitstream/10183/26857/1/000759645.pdfc2e77a133ad1d72dc2269826a12a33a7MD51TEXT000759645.pdf.txt000759645.pdf.txtExtracted Texttext/plain217997http://www.lume.ufrgs.br/bitstream/10183/26857/2/000759645.pdf.txt95f9bc422afed7bddf481b704c1c2079MD52THUMBNAIL000759645.pdf.jpg000759645.pdf.jpgGenerated Thumbnailimage/jpeg1018http://www.lume.ufrgs.br/bitstream/10183/26857/3/000759645.pdf.jpg072ec55b9af5f4378405ea4fb130608fMD5310183/268572018-10-18 07:38:28.171oai:www.lume.ufrgs.br:10183/26857Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532018-10-18T10:38:28Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
dc.title.pt_BR.fl_str_mv |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
dc.title.alternative.en.fl_str_mv |
Towards joint learning in multiagent systems through oppotunistic coordination |
title |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
spellingShingle |
Aprendizado em sistemas multiagente através de coordenação oportunista. Oliveira, Denise de Inteligência artificial Sistemas multiagentes Cadeias : Markov Multiagent systems Reinforcement learning Coordination |
title_short |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
title_full |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
title_fullStr |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
title_full_unstemmed |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
title_sort |
Aprendizado em sistemas multiagente através de coordenação oportunista. |
author |
Oliveira, Denise de |
author_facet |
Oliveira, Denise de |
author_role |
author |
dc.contributor.author.fl_str_mv |
Oliveira, Denise de |
dc.contributor.advisor1.fl_str_mv |
Bazzan, Ana Lucia Cetertich |
contributor_str_mv |
Bazzan, Ana Lucia Cetertich |
dc.subject.por.fl_str_mv |
Inteligência artificial Sistemas multiagentes Cadeias : Markov |
topic |
Inteligência artificial Sistemas multiagentes Cadeias : Markov Multiagent systems Reinforcement learning Coordination |
dc.subject.eng.fl_str_mv |
Multiagent systems Reinforcement learning Coordination |
description |
O tamanho da representação de ações e estados conjuntos é um fator chave que limita o uso de algoritmos de apendizado por reforço multiagente em problemas complexos. Este trabalho propõe o opportunistic Coordination Learning (OPPORTUNE), um método de aprendizado por reforço multiagente para lidar com grandes cenários. Visto que uma solução centralizada não é praticável em grandes espaços de estado-ação, um modode reduzir a complexidade do problema é decompô-lo em subproblemas utilizando cooperação entre agentes independentes em algumas partes do ambiente. No método proposto, agentes independentes utilizam comunicação e um mecanismo de cooperação que permite que haja expansão de suas percepções sobre o ambiente e para que executem ações cooperativas apenas quando é melhor que agir de modo individual. O OPPORTUNE foi testado e comparado em dois cenários: jogo de perseguição e controle de tráfego urbano. |
publishDate |
2009 |
dc.date.issued.fl_str_mv |
2009 |
dc.date.accessioned.fl_str_mv |
2010-11-25T04:21:34Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/26857 |
dc.identifier.nrb.pt_BR.fl_str_mv |
000759645 |
url |
http://hdl.handle.net/10183/26857 |
identifier_str_mv |
000759645 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
instacron_str |
UFRGS |
institution |
UFRGS |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
collection |
Biblioteca Digital de Teses e Dissertações da UFRGS |
bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/26857/1/000759645.pdf http://www.lume.ufrgs.br/bitstream/10183/26857/2/000759645.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/26857/3/000759645.pdf.jpg |
bitstream.checksum.fl_str_mv |
c2e77a133ad1d72dc2269826a12a33a7 95f9bc422afed7bddf481b704c1c2079 072ec55b9af5f4378405ea4fb130608f |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
repository.mail.fl_str_mv |
lume@ufrgs.br||lume@ufrgs.br |
_version_ |
1810085189058035712 |