Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos

Detalhes bibliográficos
Autor(a) principal: Côrtes, Deise da Silva
Data de Publicação: 2005
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFRGS
Texto Completo: http://hdl.handle.net/10183/4404
Resumo: Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
id URGS_11c7b9556309c214157d2c3a9720f077
oai_identifier_str oai:www.lume.ufrgs.br:10183/4404
network_acronym_str URGS
network_name_str Biblioteca Digital de Teses e Dissertações da UFRGS
repository_id_str 1853
spelling Côrtes, Deise da SilvaAlvares, Luis Otavio Campos2007-06-06T17:35:58Z2005http://hdl.handle.net/10183/4404000501085Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.application/pdfporInteligência artificialAgentes inteligentesRedes neuraisModelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisUniversidade Federal do Rio Grande do SulInstituto de InformáticaPrograma de Pós-Graduação em ComputaçãoPorto Alegre, BR-RS2005mestradoinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSORIGINAL000501085.pdf000501085.pdfTexto completoapplication/pdf759067http://www.lume.ufrgs.br/bitstream/10183/4404/1/000501085.pdf9f345f016854280a4e6634694d8648e5MD51TEXT000501085.pdf.txt000501085.pdf.txtExtracted Texttext/plain143379http://www.lume.ufrgs.br/bitstream/10183/4404/2/000501085.pdf.txtbf119fa60e1f9fc1bac5d3e33610e8a2MD52THUMBNAIL000501085.pdf.jpg000501085.pdf.jpgGenerated Thumbnailimage/jpeg1038http://www.lume.ufrgs.br/bitstream/10183/4404/3/000501085.pdf.jpgc838a4496fe5f0f8869edc722c41c783MD5310183/44042018-10-17 08:47:57.61oai:www.lume.ufrgs.br:10183/4404Biblioteca Digital de Teses e Dissertaçõeshttps://lume.ufrgs.br/handle/10183/2PUBhttps://lume.ufrgs.br/oai/requestlume@ufrgs.br||lume@ufrgs.bropendoar:18532018-10-17T11:47:57Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
spellingShingle Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
Côrtes, Deise da Silva
Inteligência artificial
Agentes inteligentes
Redes neurais
title_short Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_full Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_fullStr Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_full_unstemmed Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
title_sort Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos
author Côrtes, Deise da Silva
author_facet Côrtes, Deise da Silva
author_role author
dc.contributor.author.fl_str_mv Côrtes, Deise da Silva
dc.contributor.advisor1.fl_str_mv Alvares, Luis Otavio Campos
contributor_str_mv Alvares, Luis Otavio Campos
dc.subject.por.fl_str_mv Inteligência artificial
Agentes inteligentes
Redes neurais
topic Inteligência artificial
Agentes inteligentes
Redes neurais
description Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
publishDate 2005
dc.date.issued.fl_str_mv 2005
dc.date.accessioned.fl_str_mv 2007-06-06T17:35:58Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/4404
dc.identifier.nrb.pt_BR.fl_str_mv 000501085
url http://hdl.handle.net/10183/4404
identifier_str_mv 000501085
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Biblioteca Digital de Teses e Dissertações da UFRGS
collection Biblioteca Digital de Teses e Dissertações da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/4404/1/000501085.pdf
http://www.lume.ufrgs.br/bitstream/10183/4404/2/000501085.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/4404/3/000501085.pdf.jpg
bitstream.checksum.fl_str_mv 9f345f016854280a4e6634694d8648e5
bf119fa60e1f9fc1bac5d3e33610e8a2
c838a4496fe5f0f8869edc722c41c783
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv lume@ufrgs.br||lume@ufrgs.br
_version_ 1810085040790437888