Aprendizado por reforço no ambiente de jogos
Autor(a) principal: | |
---|---|
Data de Publicação: | 2024 |
Tipo de documento: | Trabalho de conclusão de curso |
Idioma: | por |
Título da fonte: | Repositório Institucional da UCS |
Texto Completo: | https://repositorio.ucs.br/11338/13649 https://youtu.be/EJDXiCnRy70 |
Resumo: | A Inteligência artificial (IA) tem se tornado uma presença cada vez mais constante em nosso cotidiano, com aplicações que abrangem desde chatbots e carros autônomos até reconhecimento de imagem e jogos. A IA tem sido objeto de estudo e reflexões desde a década de 1950, quando Turing propôs o Teste de Turing, também conhecido como Jogo da Imitação. Este teste provocou um debate sobre a capacidade das máquinas de pensar e os limites da inteligência computacional. Nesse contexto, os jogos surgem como um domínio intrigante para a IA, oferecendo um ambiente rico para exploração. Com regras definidas e de fácil compreensão, assim dispensando a necessidade de um especialista, permitindo a participação de pessoas comuns em experimentos e treinos. Dentre os diferentes paradigmas de aprendizado em IA, o Aprendizado por Reforço (AR) se destaca. Este tipo de aprendizado tem a capacidade de aprender diretamente através da interação com o ambiente, sem a necessidade de amostragem. Essa habilidade de tomar decisões em ambientes incertos é uma vantagem significativa, especialmente no ambiente complexo dos jogos eletrônicos. Um exemplo notável de algoritmo de AR é o Q-Learning. Este algoritmo se destaca por não exigir um modelo prévio do ambiente, permitindo um aprendizado direto a partir da experiência acumulada. Para implementação de modelo de IA capaz de aprender a jogar o jogo Pong de forma autônoma, foi utilizado o algoritmo Dueling Deep Q-networks (DDQN) na linguagem pyhton, que é uma evolução do Deep Q-networks (DQN), que combina o Q-Learning e redes neurais profundas em conjunto com a biblioteca gymnasium. Como resultado o modelo chega ao ponto de sempre ganhar, conseguindo atingir a pontuação final máxima de 21 pontos e equiparando aos melhores resultados dos trabalhos relacionados. Esses avanços na aplicação de IA e AR em jogos eletrônicos não apenas demonstram o potencial dessas técnicas, mas também abrem caminho para novas possibilidades de pesquisa e desenvolvimento, contribuindo significativamente para o avanço contínuo da IA e AR nesse campo dinâmico. [resumo fornecido pelo autor] |
id |
UCS_a9963977202eea5f08813d3dc6de7650 |
---|---|
oai_identifier_str |
oai:repositorio.ucs.br:11338/13649 |
network_acronym_str |
UCS |
network_name_str |
Repositório Institucional da UCS |
repository_id_str |
|
spelling |
Silva, Jonatan Amaral daBoff, ElisaCasa, Marcos EduardoWebber, Carine Geltrudes2024-08-15T17:48:38Z2024-08-15T17:48:38Z2024-08-122024-07-04https://repositorio.ucs.br/11338/13649https://youtu.be/EJDXiCnRy70A Inteligência artificial (IA) tem se tornado uma presença cada vez mais constante em nosso cotidiano, com aplicações que abrangem desde chatbots e carros autônomos até reconhecimento de imagem e jogos. A IA tem sido objeto de estudo e reflexões desde a década de 1950, quando Turing propôs o Teste de Turing, também conhecido como Jogo da Imitação. Este teste provocou um debate sobre a capacidade das máquinas de pensar e os limites da inteligência computacional. Nesse contexto, os jogos surgem como um domínio intrigante para a IA, oferecendo um ambiente rico para exploração. Com regras definidas e de fácil compreensão, assim dispensando a necessidade de um especialista, permitindo a participação de pessoas comuns em experimentos e treinos. Dentre os diferentes paradigmas de aprendizado em IA, o Aprendizado por Reforço (AR) se destaca. Este tipo de aprendizado tem a capacidade de aprender diretamente através da interação com o ambiente, sem a necessidade de amostragem. Essa habilidade de tomar decisões em ambientes incertos é uma vantagem significativa, especialmente no ambiente complexo dos jogos eletrônicos. Um exemplo notável de algoritmo de AR é o Q-Learning. Este algoritmo se destaca por não exigir um modelo prévio do ambiente, permitindo um aprendizado direto a partir da experiência acumulada. Para implementação de modelo de IA capaz de aprender a jogar o jogo Pong de forma autônoma, foi utilizado o algoritmo Dueling Deep Q-networks (DDQN) na linguagem pyhton, que é uma evolução do Deep Q-networks (DQN), que combina o Q-Learning e redes neurais profundas em conjunto com a biblioteca gymnasium. Como resultado o modelo chega ao ponto de sempre ganhar, conseguindo atingir a pontuação final máxima de 21 pontos e equiparando aos melhores resultados dos trabalhos relacionados. Esses avanços na aplicação de IA e AR em jogos eletrônicos não apenas demonstram o potencial dessas técnicas, mas também abrem caminho para novas possibilidades de pesquisa e desenvolvimento, contribuindo significativamente para o avanço contínuo da IA e AR nesse campo dinâmico. [resumo fornecido pelo autor]Inteligência artificialAprendizado do computadorJogos eletrônicosAprendizagem por reforçoPython (Linguagem de programação de computador)Aprendizado por reforço no ambiente de jogosinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisporreponame:Repositório Institucional da UCSinstname:Universidade de Caxias do Sul (UCS)instacron:UCSinfo:eu-repo/semantics/openAccessUniversidade de Caxias do SulBacharelado em Ciência da ComputaçãoCampus Universitário de Caxias do Sul2024-07-20ORIGINALTCC Jonatan Amaral da Silva.pdfTCC Jonatan Amaral da Silva.pdfapplication/pdf3907122https://repositorio.ucs.br/xmlui/bitstream/11338/13649/1/TCC%20Jonatan%20Amaral%20da%20Silva.pdf385308bb5ef244bee06e2246c5e6828cMD51Descrição do projeto.mp4Descrição do projeto.mp4video/mp420348863https://repositorio.ucs.br/xmlui/bitstream/11338/13649/2/Descri%c3%a7%c3%a3o%20do%20projeto.mp402247de9ce6bb8910d426830b5c6e7fbMD52TEXTTCC Jonatan Amaral da Silva.pdf.txtTCC Jonatan Amaral da Silva.pdf.txtExtracted texttext/plain139366https://repositorio.ucs.br/xmlui/bitstream/11338/13649/3/TCC%20Jonatan%20Amaral%20da%20Silva.pdf.txt7fe1aa6aa04288a99088a88861957499MD53THUMBNAILTCC Jonatan Amaral da Silva.pdf.jpgTCC Jonatan Amaral da Silva.pdf.jpgGenerated Thumbnailimage/jpeg1248https://repositorio.ucs.br/xmlui/bitstream/11338/13649/4/TCC%20Jonatan%20Amaral%20da%20Silva.pdf.jpg70c2f85d567ee09ae39a5b19a91b02f1MD5411338/136492024-08-17 07:01:16.368oai:repositorio.ucs.br:11338/13649Repositório de Publicaçõeshttp://repositorio.ucs.br/oai/requestopendoar:2024-08-17T07:01:16Repositório Institucional da UCS - Universidade de Caxias do Sul (UCS)false |
dc.title.pt_BR.fl_str_mv |
Aprendizado por reforço no ambiente de jogos |
title |
Aprendizado por reforço no ambiente de jogos |
spellingShingle |
Aprendizado por reforço no ambiente de jogos Silva, Jonatan Amaral da Inteligência artificial Aprendizado do computador Jogos eletrônicos Aprendizagem por reforço Python (Linguagem de programação de computador) |
title_short |
Aprendizado por reforço no ambiente de jogos |
title_full |
Aprendizado por reforço no ambiente de jogos |
title_fullStr |
Aprendizado por reforço no ambiente de jogos |
title_full_unstemmed |
Aprendizado por reforço no ambiente de jogos |
title_sort |
Aprendizado por reforço no ambiente de jogos |
author |
Silva, Jonatan Amaral da |
author_facet |
Silva, Jonatan Amaral da |
author_role |
author |
dc.contributor.other.none.fl_str_mv |
Boff, Elisa Casa, Marcos Eduardo |
dc.contributor.author.fl_str_mv |
Silva, Jonatan Amaral da |
dc.contributor.advisor1.fl_str_mv |
Webber, Carine Geltrudes |
contributor_str_mv |
Webber, Carine Geltrudes |
dc.subject.por.fl_str_mv |
Inteligência artificial Aprendizado do computador Jogos eletrônicos Aprendizagem por reforço Python (Linguagem de programação de computador) |
topic |
Inteligência artificial Aprendizado do computador Jogos eletrônicos Aprendizagem por reforço Python (Linguagem de programação de computador) |
description |
A Inteligência artificial (IA) tem se tornado uma presença cada vez mais constante em nosso cotidiano, com aplicações que abrangem desde chatbots e carros autônomos até reconhecimento de imagem e jogos. A IA tem sido objeto de estudo e reflexões desde a década de 1950, quando Turing propôs o Teste de Turing, também conhecido como Jogo da Imitação. Este teste provocou um debate sobre a capacidade das máquinas de pensar e os limites da inteligência computacional. Nesse contexto, os jogos surgem como um domínio intrigante para a IA, oferecendo um ambiente rico para exploração. Com regras definidas e de fácil compreensão, assim dispensando a necessidade de um especialista, permitindo a participação de pessoas comuns em experimentos e treinos. Dentre os diferentes paradigmas de aprendizado em IA, o Aprendizado por Reforço (AR) se destaca. Este tipo de aprendizado tem a capacidade de aprender diretamente através da interação com o ambiente, sem a necessidade de amostragem. Essa habilidade de tomar decisões em ambientes incertos é uma vantagem significativa, especialmente no ambiente complexo dos jogos eletrônicos. Um exemplo notável de algoritmo de AR é o Q-Learning. Este algoritmo se destaca por não exigir um modelo prévio do ambiente, permitindo um aprendizado direto a partir da experiência acumulada. Para implementação de modelo de IA capaz de aprender a jogar o jogo Pong de forma autônoma, foi utilizado o algoritmo Dueling Deep Q-networks (DDQN) na linguagem pyhton, que é uma evolução do Deep Q-networks (DQN), que combina o Q-Learning e redes neurais profundas em conjunto com a biblioteca gymnasium. Como resultado o modelo chega ao ponto de sempre ganhar, conseguindo atingir a pontuação final máxima de 21 pontos e equiparando aos melhores resultados dos trabalhos relacionados. Esses avanços na aplicação de IA e AR em jogos eletrônicos não apenas demonstram o potencial dessas técnicas, mas também abrem caminho para novas possibilidades de pesquisa e desenvolvimento, contribuindo significativamente para o avanço contínuo da IA e AR nesse campo dinâmico. [resumo fornecido pelo autor] |
publishDate |
2024 |
dc.date.submitted.none.fl_str_mv |
2024-07-04 |
dc.date.accessioned.fl_str_mv |
2024-08-15T17:48:38Z |
dc.date.available.fl_str_mv |
2024-08-15T17:48:38Z |
dc.date.issued.fl_str_mv |
2024-08-12 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://repositorio.ucs.br/11338/13649 https://youtu.be/EJDXiCnRy70 |
url |
https://repositorio.ucs.br/11338/13649 https://youtu.be/EJDXiCnRy70 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UCS instname:Universidade de Caxias do Sul (UCS) instacron:UCS |
instname_str |
Universidade de Caxias do Sul (UCS) |
instacron_str |
UCS |
institution |
UCS |
reponame_str |
Repositório Institucional da UCS |
collection |
Repositório Institucional da UCS |
bitstream.url.fl_str_mv |
https://repositorio.ucs.br/xmlui/bitstream/11338/13649/1/TCC%20Jonatan%20Amaral%20da%20Silva.pdf https://repositorio.ucs.br/xmlui/bitstream/11338/13649/2/Descri%c3%a7%c3%a3o%20do%20projeto.mp4 https://repositorio.ucs.br/xmlui/bitstream/11338/13649/3/TCC%20Jonatan%20Amaral%20da%20Silva.pdf.txt https://repositorio.ucs.br/xmlui/bitstream/11338/13649/4/TCC%20Jonatan%20Amaral%20da%20Silva.pdf.jpg |
bitstream.checksum.fl_str_mv |
385308bb5ef244bee06e2246c5e6828c 02247de9ce6bb8910d426830b5c6e7fb 7fe1aa6aa04288a99088a88861957499 70c2f85d567ee09ae39a5b19a91b02f1 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UCS - Universidade de Caxias do Sul (UCS) |
repository.mail.fl_str_mv |
|
_version_ |
1813258411807080448 |