Aplicando modelos de aprendizado por reforço profundo em um jogo adversário
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Trabalho de conclusão de curso |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFRJ |
Texto Completo: | http://hdl.handle.net/11422/14791 |
Resumo: | Este trabalho tem como objetivo explorar a área de aprendizado por reforço profundo, que tem apresentado grandes evoluções nos últimos anos e é considerada por diversos pesquisadores a área mais próxima da chamada Inteligência Artificial Geral ou Inteligência Artificial Forte. Uma variação do jogo da velha é apresentada e um modelo é proposto para o treinamento de um agente inteligente capaz de jogar este jogo, de tal forma que as ações do agente combinam uma parte numérica com uma parte categórica. Para isto, este trabalho introduz grande parte da modelagem encontrada na área de Aprendizado por Reforço Profundo. São exploradas diversas configurações para o treinamento deste agente a fim de validar a que apresenta o melhor desempenho no jogo. A pontuação é calculada com base em partidas contra um agente proposto ao longo do trabalho que age em partes de forma aleatória e em partes de forma inteligente. Por fim, são apresentados os resultados obtidos nos experimentos, desafios encontrados e propostas de melhoria para trabalhos futuros. |
id |
UFRJ_0cfc91df59c3359eaf98df8c46b2e616 |
---|---|
oai_identifier_str |
oai:pantheon.ufrj.br:11422/14791 |
network_acronym_str |
UFRJ |
network_name_str |
Repositório Institucional da UFRJ |
repository_id_str |
|
spelling |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversárioAprendizado por reforçoAprendizado computacionalInteligência artificialRedes neuraisCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::LOGICAS E SEMANTICA DE PROGRAMASEste trabalho tem como objetivo explorar a área de aprendizado por reforço profundo, que tem apresentado grandes evoluções nos últimos anos e é considerada por diversos pesquisadores a área mais próxima da chamada Inteligência Artificial Geral ou Inteligência Artificial Forte. Uma variação do jogo da velha é apresentada e um modelo é proposto para o treinamento de um agente inteligente capaz de jogar este jogo, de tal forma que as ações do agente combinam uma parte numérica com uma parte categórica. Para isto, este trabalho introduz grande parte da modelagem encontrada na área de Aprendizado por Reforço Profundo. São exploradas diversas configurações para o treinamento deste agente a fim de validar a que apresenta o melhor desempenho no jogo. A pontuação é calculada com base em partidas contra um agente proposto ao longo do trabalho que age em partes de forma aleatória e em partes de forma inteligente. Por fim, são apresentados os resultados obtidos nos experimentos, desafios encontrados e propostas de melhoria para trabalhos futuros.Universidade Federal do Rio de JaneiroBrasilInstituto de ComputaçãoUFRJMenasché, Daniel Sadochttp://lattes.cnpq.br/9931198850020140http://lattes.cnpq.br/3988000608743699Silva, João Carlos Pereira dahttp://lattes.cnpq.br/9413102524215939Caarls, Wouterhttp://lattes.cnpq.br/1164394299894445Montalvão, Tiago Carvalho Gomes2021-08-16T22:54:00Z2023-12-21T03:08:06Z2021-06-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesishttp://hdl.handle.net/11422/14791porinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRJinstname:Universidade Federal do Rio de Janeiro (UFRJ)instacron:UFRJ2023-12-21T03:08:06Zoai:pantheon.ufrj.br:11422/14791Repositório InstitucionalPUBhttp://www.pantheon.ufrj.br/oai/requestpantheon@sibi.ufrj.bropendoar:2023-12-21T03:08:06Repositório Institucional da UFRJ - Universidade Federal do Rio de Janeiro (UFRJ)false |
dc.title.none.fl_str_mv |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
title |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
spellingShingle |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário Montalvão, Tiago Carvalho Gomes Aprendizado por reforço Aprendizado computacional Inteligência artificial Redes neurais CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::LOGICAS E SEMANTICA DE PROGRAMAS |
title_short |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
title_full |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
title_fullStr |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
title_full_unstemmed |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
title_sort |
Aplicando modelos de aprendizado por reforço profundo em um jogo adversário |
author |
Montalvão, Tiago Carvalho Gomes |
author_facet |
Montalvão, Tiago Carvalho Gomes |
author_role |
author |
dc.contributor.none.fl_str_mv |
Menasché, Daniel Sadoc http://lattes.cnpq.br/9931198850020140 http://lattes.cnpq.br/3988000608743699 Silva, João Carlos Pereira da http://lattes.cnpq.br/9413102524215939 Caarls, Wouter http://lattes.cnpq.br/1164394299894445 |
dc.contributor.author.fl_str_mv |
Montalvão, Tiago Carvalho Gomes |
dc.subject.por.fl_str_mv |
Aprendizado por reforço Aprendizado computacional Inteligência artificial Redes neurais CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::LOGICAS E SEMANTICA DE PROGRAMAS |
topic |
Aprendizado por reforço Aprendizado computacional Inteligência artificial Redes neurais CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::TEORIA DA COMPUTACAO::LOGICAS E SEMANTICA DE PROGRAMAS |
description |
Este trabalho tem como objetivo explorar a área de aprendizado por reforço profundo, que tem apresentado grandes evoluções nos últimos anos e é considerada por diversos pesquisadores a área mais próxima da chamada Inteligência Artificial Geral ou Inteligência Artificial Forte. Uma variação do jogo da velha é apresentada e um modelo é proposto para o treinamento de um agente inteligente capaz de jogar este jogo, de tal forma que as ações do agente combinam uma parte numérica com uma parte categórica. Para isto, este trabalho introduz grande parte da modelagem encontrada na área de Aprendizado por Reforço Profundo. São exploradas diversas configurações para o treinamento deste agente a fim de validar a que apresenta o melhor desempenho no jogo. A pontuação é calculada com base em partidas contra um agente proposto ao longo do trabalho que age em partes de forma aleatória e em partes de forma inteligente. Por fim, são apresentados os resultados obtidos nos experimentos, desafios encontrados e propostas de melhoria para trabalhos futuros. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-08-16T22:54:00Z 2021-06-17 2023-12-21T03:08:06Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/11422/14791 |
url |
http://hdl.handle.net/11422/14791 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal do Rio de Janeiro Brasil Instituto de Computação UFRJ |
publisher.none.fl_str_mv |
Universidade Federal do Rio de Janeiro Brasil Instituto de Computação UFRJ |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFRJ instname:Universidade Federal do Rio de Janeiro (UFRJ) instacron:UFRJ |
instname_str |
Universidade Federal do Rio de Janeiro (UFRJ) |
instacron_str |
UFRJ |
institution |
UFRJ |
reponame_str |
Repositório Institucional da UFRJ |
collection |
Repositório Institucional da UFRJ |
repository.name.fl_str_mv |
Repositório Institucional da UFRJ - Universidade Federal do Rio de Janeiro (UFRJ) |
repository.mail.fl_str_mv |
pantheon@sibi.ufrj.br |
_version_ |
1815456020877541376 |