Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
Autor(a) principal: | |
---|---|
Data de Publicação: | 2005 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFRGS |
Texto Completo: | http://hdl.handle.net/10183/4404 |
Resumo: | Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão. |
id |
URGS_11c7b9556309c214157d2c3a9720f077 |
---|---|
oai_identifier_str |
oai:www.lume.ufrgs.br:10183/4404 |
network_acronym_str |
URGS |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
repository_id_str |
1853 |
spelling |
Côrtes, Deise da SilvaAlvares, Luis Otavio Campos2007-06-06T17:35:58Z2005http://hdl.handle.net/10183/4404000501085Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.application/pdfporInteligência artificialAgentes inteligentesRedes neuraisModelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2005mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSORIGINAL000501085.pdf000501085.pdfTexto completoapplication/pdf759067http://www.lume.ufrgs.br/bitstream/10183/4404/1/000501085.pdf9f345f016854280a4e6634694d8648e5MD51TEXT000501085.pdf.txt000501085.pdf.txtExtracted Texttext/plain143379http://www.lume.ufrgs.br/bitstream/10183/4404/2/000501085.pdf.txtbf119fa60e1f9fc1bac5d3e33610e8a2MD52THUMBNAIL000501085.pdf.jpg000501085.pdf.jpgGenerated Thumbnailimage/jpeg1038http://www.lume.ufrgs.br/bitstream/10183/4404/3/000501085.pdf.jpgc838a4496fe5f0f8869edc722c41c783MD5310183/44042018-10-17 08:47:57.61oai:www.lume.ufrgs.br:10183/4404Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532018-10-17T11:47:57Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false |
dc.title.pt_BR.fl_str_mv |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
spellingShingle |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos Côrtes, Deise da Silva Inteligência artificial Agentes inteligentes Redes neurais |
title_short |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_full |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_fullStr |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_full_unstemmed |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
title_sort |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos |
author |
Côrtes, Deise da Silva |
author_facet |
Côrtes, Deise da Silva |
author_role |
author |
dc.contributor.author.fl_str_mv |
Côrtes, Deise da Silva |
dc.contributor.advisor1.fl_str_mv |
Alvares, Luis Otavio Campos |
contributor_str_mv |
Alvares, Luis Otavio Campos |
dc.subject.por.fl_str_mv |
Inteligência artificial Agentes inteligentes Redes neurais |
topic |
Inteligência artificial Agentes inteligentes Redes neurais |
description |
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão. |
publishDate |
2005 |
dc.date.issued.fl_str_mv |
2005 |
dc.date.accessioned.fl_str_mv |
2007-06-06T17:35:58Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10183/4404 |
dc.identifier.nrb.pt_BR.fl_str_mv |
000501085 |
url |
http://hdl.handle.net/10183/4404 |
identifier_str_mv |
000501085 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFRGS instname:Universidade Federal do Rio Grande do Sul (UFRGS) instacron:UFRGS |
instname_str |
Universidade Federal do Rio Grande do Sul (UFRGS) |
instacron_str |
UFRGS |
institution |
UFRGS |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFRGS |
collection |
Biblioteca Digital de Teses e Dissertações da UFRGS |
bitstream.url.fl_str_mv |
http://www.lume.ufrgs.br/bitstream/10183/4404/1/000501085.pdf http://www.lume.ufrgs.br/bitstream/10183/4404/2/000501085.pdf.txt http://www.lume.ufrgs.br/bitstream/10183/4404/3/000501085.pdf.jpg |
bitstream.checksum.fl_str_mv |
9f345f016854280a4e6634694d8648e5 bf119fa60e1f9fc1bac5d3e33610e8a2 c838a4496fe5f0f8869edc722c41c783 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS) |
repository.mail.fl_str_mv |
lume@ufrgs.br||lume@ufrgs.br |
_version_ |
1810085040790437888 |