Controle de movimento de personagens fisicamente simulados usando funções de recompensa
Autor(a) principal: | |
---|---|
Data de Publicação: | 2022 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Institucional da Universidade Federal do Ceará (UFC) |
Texto Completo: | http://www.repositorio.ufc.br/handle/riufc/70419 |
Resumo: | Generating natural movements for physics-based articulated characters is challenging mainly because adjusting the visual quality of the movement often compromises the basic functioning of the controller, as the control parameters generally have a non-intuitive relationship with the resulting animation. Deep Reinforcement Learning (DRL) has been a recently explored approach to treat the control problem in such structures, in which a neural network is used to deal with this relationship between control inputs and information outputs to be used by the actuators. Further, the definition of an appropriate reward is necessary to guide the learning process. Although the learning process takes a long time, a major advantage of the DRL method is that the trained network works in real-time. This work, therefore, proposes adjustments in the reward function and in the network input and output information to provide the animator with a greater degree of control over the resulting movements. That control is explored both in the training phase and during the simulation in real-time. The proposed reward terms were adapted for two characters with different morphologies and proved to be able to clearly differentiate interesting types of locomotion, such as running and jumping. Adjustments to network input and output information allowed real-time speed control and the possible imposition of symmetry on the character’s movement. Experiments simulating interactions with the environment, such as objects being thrown at the character and modifications causing irregularities in the terrain, showed the robustness of the control obtained using DRL. |
id |
UFC-7_776ac9f947d8cd1b7d7869fed2dfd3c7 |
---|---|
oai_identifier_str |
oai:repositorio.ufc.br:riufc/70419 |
network_acronym_str |
UFC-7 |
network_name_str |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
repository_id_str |
|
spelling |
Controle de movimento de personagens fisicamente simulados usando funções de recompensaAprendizagem profundaMovimentoSimulaçãoRede Neural ArtificialGenerating natural movements for physics-based articulated characters is challenging mainly because adjusting the visual quality of the movement often compromises the basic functioning of the controller, as the control parameters generally have a non-intuitive relationship with the resulting animation. Deep Reinforcement Learning (DRL) has been a recently explored approach to treat the control problem in such structures, in which a neural network is used to deal with this relationship between control inputs and information outputs to be used by the actuators. Further, the definition of an appropriate reward is necessary to guide the learning process. Although the learning process takes a long time, a major advantage of the DRL method is that the trained network works in real-time. This work, therefore, proposes adjustments in the reward function and in the network input and output information to provide the animator with a greater degree of control over the resulting movements. That control is explored both in the training phase and during the simulation in real-time. The proposed reward terms were adapted for two characters with different morphologies and proved to be able to clearly differentiate interesting types of locomotion, such as running and jumping. Adjustments to network input and output information allowed real-time speed control and the possible imposition of symmetry on the character’s movement. Experiments simulating interactions with the environment, such as objects being thrown at the character and modifications causing irregularities in the terrain, showed the robustness of the control obtained using DRL.Gerar movimentos naturais para personagens articulados fisicamente simulados é desafiador principalmente porque ajustar a qualidade visual do movimento muitas vezes compromete o funcionamento básico do controlador, pois os parâmetros de controle geralmente possuem um relacionamento não intuitivo com a animação resultante. O Aprendizado por reforço profundo (Deep Reinforcement Learning (DRL)) tem sido uma abordagem bastante explorada recentemente para tratar o problema de controle de tais estruturas, em que uma rede neural é usada para lidar com esse relacionamento entre as entradas de controle e as informações de saída a serem usadas pelos atuadores. Além disso, a definição de uma recompensa apropriada é essencial para guiar o progresso da aprendizagem. Para problemas de controle contínuo, o processo de aprendizado pode levar de horas a dias de treinamento, dependendo da tarefa, mas após essa etapa, a rede treinada funciona em tempo real. Este trabalho propõe, portanto, ajustes na função de recompensa e nas informações de entrada e de saída da rede para fornecer ao animador um maior grau de controle sobre os movimentos resultantes. Esse controle é explorado tanto na fase de treinamento, quanto durante a execução da simulação em tempo real. Os termos de recompensa propostos foram adaptados para dois personagens com morfologias distintas e se mostraram capazes de nitidamente diferenciar diversos modos de locomoção, como corridas e saltos. Os ajustes nas informações de entrada e de saída da rede permitiram o controle de velocidade em tempo real e a possível imposição de simetria ao movimento do personagem. Experimentos simulando interações com o ambiente, tais como objetos sendo lançados contra o personagem e modificações causando irregularidades no terreno, mostraram a robustez do controle obtido usando DRL.Nunes, Rubens FernandesSousa, Antônio Santos de2023-02-02T14:10:13Z2023-02-02T14:10:13Z2022info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfSOUSA, Antônio Santos de. Controle de movimento de personagens fisicamente simulados usando funções de recompensa. 2022. 76 f. Dissertação (mestrado) – Universidade Federal do Ceará, Campus de Quixadá, Programa de Pós-Graduação em Computação, Quixadá, 2022.http://www.repositorio.ufc.br/handle/riufc/70419porreponame:Repositório Institucional da Universidade Federal do Ceará (UFC)instname:Universidade Federal do Ceará (UFC)instacron:UFCinfo:eu-repo/semantics/openAccess2023-02-02T14:10:13Zoai:repositorio.ufc.br:riufc/70419Repositório InstitucionalPUBhttp://www.repositorio.ufc.br/ri-oai/requestbu@ufc.br || repositorio@ufc.bropendoar:2024-09-11T18:17:52.153103Repositório Institucional da Universidade Federal do Ceará (UFC) - Universidade Federal do Ceará (UFC)false |
dc.title.none.fl_str_mv |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
title |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
spellingShingle |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa Sousa, Antônio Santos de Aprendizagem profunda Movimento Simulação Rede Neural Artificial |
title_short |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
title_full |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
title_fullStr |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
title_full_unstemmed |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
title_sort |
Controle de movimento de personagens fisicamente simulados usando funções de recompensa |
author |
Sousa, Antônio Santos de |
author_facet |
Sousa, Antônio Santos de |
author_role |
author |
dc.contributor.none.fl_str_mv |
Nunes, Rubens Fernandes |
dc.contributor.author.fl_str_mv |
Sousa, Antônio Santos de |
dc.subject.por.fl_str_mv |
Aprendizagem profunda Movimento Simulação Rede Neural Artificial |
topic |
Aprendizagem profunda Movimento Simulação Rede Neural Artificial |
description |
Generating natural movements for physics-based articulated characters is challenging mainly because adjusting the visual quality of the movement often compromises the basic functioning of the controller, as the control parameters generally have a non-intuitive relationship with the resulting animation. Deep Reinforcement Learning (DRL) has been a recently explored approach to treat the control problem in such structures, in which a neural network is used to deal with this relationship between control inputs and information outputs to be used by the actuators. Further, the definition of an appropriate reward is necessary to guide the learning process. Although the learning process takes a long time, a major advantage of the DRL method is that the trained network works in real-time. This work, therefore, proposes adjustments in the reward function and in the network input and output information to provide the animator with a greater degree of control over the resulting movements. That control is explored both in the training phase and during the simulation in real-time. The proposed reward terms were adapted for two characters with different morphologies and proved to be able to clearly differentiate interesting types of locomotion, such as running and jumping. Adjustments to network input and output information allowed real-time speed control and the possible imposition of symmetry on the character’s movement. Experiments simulating interactions with the environment, such as objects being thrown at the character and modifications causing irregularities in the terrain, showed the robustness of the control obtained using DRL. |
publishDate |
2022 |
dc.date.none.fl_str_mv |
2022 2023-02-02T14:10:13Z 2023-02-02T14:10:13Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
SOUSA, Antônio Santos de. Controle de movimento de personagens fisicamente simulados usando funções de recompensa. 2022. 76 f. Dissertação (mestrado) – Universidade Federal do Ceará, Campus de Quixadá, Programa de Pós-Graduação em Computação, Quixadá, 2022. http://www.repositorio.ufc.br/handle/riufc/70419 |
identifier_str_mv |
SOUSA, Antônio Santos de. Controle de movimento de personagens fisicamente simulados usando funções de recompensa. 2022. 76 f. Dissertação (mestrado) – Universidade Federal do Ceará, Campus de Quixadá, Programa de Pós-Graduação em Computação, Quixadá, 2022. |
url |
http://www.repositorio.ufc.br/handle/riufc/70419 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da Universidade Federal do Ceará (UFC) instname:Universidade Federal do Ceará (UFC) instacron:UFC |
instname_str |
Universidade Federal do Ceará (UFC) |
instacron_str |
UFC |
institution |
UFC |
reponame_str |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
collection |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
repository.name.fl_str_mv |
Repositório Institucional da Universidade Federal do Ceará (UFC) - Universidade Federal do Ceará (UFC) |
repository.mail.fl_str_mv |
bu@ufc.br || repositorio@ufc.br |
_version_ |
1813028743479820288 |