Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional
Autor(a) principal: | |
---|---|
Data de Publicação: | 2020 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da USP |
Texto Completo: | https://www.teses.usp.br/teses/disponiveis/18/18153/tde-25082020-092618/ |
Resumo: | Tecnologias na área de robótica móvel, como veículos autônomos, impactam diretamente na qualidade de vida e na mudança de comportamentos sociais, por isso, se mantêm como uma área promissora para a indústria. Mesmo com este cenário otimista, ainda existem muitos desafios relacionados à segurança que necessitam ser supridos para tornar essa tecnologia viável, como o desenvolvimento de técnicas de controle baseadas em visão para agentes autônomos. Algumas áreas de pesquisa estão propondo soluções a partir de métodos de aprendizagem de máquinas, como Aprendizagem Profunda por Reforço (APR), no entanto, algoritmos de APR ainda apresentam baixo desempenho em simuladores urbanos e realistas. Neste contexto, este trabalho propõe um modelo híbrido que combina APR com um Regulador Linear Quadrático (RLQ) padrão. O modelo definido utiliza algoritmos de aprendizagem de máquinas para extrair características de imagens e, na sequência, estas características são interpretadas como medidas de erro a serem minimizadas pelo controlador. Ademais, um segundo controlador híbrido é proposto, onde é aplicado robustez ao modelo anterior utilizando um Regulador Linear Quadrático Robusto (RLQR) e, devido à dinâmica desconhecida do sistema, o modelo realiza uma busca evolucionária para estimar as matrizes de incerteza do modelo. Desta forma, as entradas para cada sistema de controle são imagens de uma câmera RGB em tempo real, e suas saídas são ações contínuas de esterçamento do volante para manter o veículo com velocidade constante no centro da via. Os resultados experimentais obtidos mostram que o controle RLQ híbrido superou o controle realizado pelo algoritmo de APR implementado, que apresentou o maior erro de trajetória no cenário de treino e não foi capaz de generalizar suas ações no cenário de teste. Por fim, ao adicionar robustez ao controlador por meio do RLQR híbrido, obteve-se menos sensibilidade a distúrbios e, em todos os testes realizados, as colisões foram reduzidas a zero. |
id |
USP_12eb6a7edaddb939041714f61dd52736 |
---|---|
oai_identifier_str |
oai:teses.usp.br:tde-25082020-092618 |
network_acronym_str |
USP |
network_name_str |
Biblioteca Digital de Teses e Dissertações da USP |
repository_id_str |
2721 |
spelling |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacionalDeep reinforcement learning combined with robust recursive controller for lateral control based on computer visionAlgoritmos evolucionáriosAprendizagem profunda por reforçoAutonomous vehiclesControle baseado em visãoDeep reinforcement learningEvolutionary algorithmsLinear Quadratic RegulatorRegulador linear QuadráticoRegulador Linear Quadrático RobustoRobust Linear Quadratic RegulatorVeículos autônomosVision-based controlTecnologias na área de robótica móvel, como veículos autônomos, impactam diretamente na qualidade de vida e na mudança de comportamentos sociais, por isso, se mantêm como uma área promissora para a indústria. Mesmo com este cenário otimista, ainda existem muitos desafios relacionados à segurança que necessitam ser supridos para tornar essa tecnologia viável, como o desenvolvimento de técnicas de controle baseadas em visão para agentes autônomos. Algumas áreas de pesquisa estão propondo soluções a partir de métodos de aprendizagem de máquinas, como Aprendizagem Profunda por Reforço (APR), no entanto, algoritmos de APR ainda apresentam baixo desempenho em simuladores urbanos e realistas. Neste contexto, este trabalho propõe um modelo híbrido que combina APR com um Regulador Linear Quadrático (RLQ) padrão. O modelo definido utiliza algoritmos de aprendizagem de máquinas para extrair características de imagens e, na sequência, estas características são interpretadas como medidas de erro a serem minimizadas pelo controlador. Ademais, um segundo controlador híbrido é proposto, onde é aplicado robustez ao modelo anterior utilizando um Regulador Linear Quadrático Robusto (RLQR) e, devido à dinâmica desconhecida do sistema, o modelo realiza uma busca evolucionária para estimar as matrizes de incerteza do modelo. Desta forma, as entradas para cada sistema de controle são imagens de uma câmera RGB em tempo real, e suas saídas são ações contínuas de esterçamento do volante para manter o veículo com velocidade constante no centro da via. Os resultados experimentais obtidos mostram que o controle RLQ híbrido superou o controle realizado pelo algoritmo de APR implementado, que apresentou o maior erro de trajetória no cenário de treino e não foi capaz de generalizar suas ações no cenário de teste. Por fim, ao adicionar robustez ao controlador por meio do RLQR híbrido, obteve-se menos sensibilidade a distúrbios e, em todos os testes realizados, as colisões foram reduzidas a zero.Technologies in mobile robotics field, such as autonomous vehicles, have a direct impact on the quality of life and the change in social behaviors, therefore, they remain a promising area for the industry. Even with this optimistic scenario, there are still many securityrelated challenges that need to be addressed to make this technology feasible. One of these challenges is the development of vision-based control techniques for autonomous agents and, in this sense, some research areas are proposing solutions based on machine learning methods, such as Deep Reinforced Learning (DRL). However, DRL algorithms underperforms in urban and realistic simulators. In this context, this work proposes a hybrid model that merges DRL with a standard Linear Quadratic Regulator (RQL), applied for vision-based autonomous vehicles control. The proposed model uses machine learning algorithms to feature extraction and, subsequently, these values are interpreted as error measures to be minimized by the controller. In addition, a second hybrid controller is proposed, where it is applied robustness to the previous model using a Robust Quadratic Linear Regulator (RLQR) and, due to the unknown dynamics of the system, an evolutionary search was used to estimate the system uncertainty matrices. In this way, the inputs for each control system are real-time images from an RGB camera, and their outputs are continuous steering actions to keep the vehicle at constant speed in the center of the road. The experimental results obtained show that the hybrid RQL control outperformed the APR algorithm, which presented the highest trajectory error in the training scenario and it was not able to generalize its actions in the test scenario. Also, by adding robustness to the controller via the hybrid RLQR, it was obtained less sensitivity to disturbances and, in all tests performed, collisions were reduced to zero.Biblioteca Digitais de Teses e Dissertações da USPGrassi Junior, ValdirMorais, Gustavo Alves Prudencio de2020-06-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/18/18153/tde-25082020-092618/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-06-23T17:42:02Zoai:teses.usp.br:tde-25082020-092618Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-06-23T17:42:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false |
dc.title.none.fl_str_mv |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional Deep reinforcement learning combined with robust recursive controller for lateral control based on computer vision |
title |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
spellingShingle |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional Morais, Gustavo Alves Prudencio de Algoritmos evolucionários Aprendizagem profunda por reforço Autonomous vehicles Controle baseado em visão Deep reinforcement learning Evolutionary algorithms Linear Quadratic Regulator Regulador linear Quadrático Regulador Linear Quadrático Robusto Robust Linear Quadratic Regulator Veículos autônomos Vision-based control |
title_short |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
title_full |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
title_fullStr |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
title_full_unstemmed |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
title_sort |
Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional |
author |
Morais, Gustavo Alves Prudencio de |
author_facet |
Morais, Gustavo Alves Prudencio de |
author_role |
author |
dc.contributor.none.fl_str_mv |
Grassi Junior, Valdir |
dc.contributor.author.fl_str_mv |
Morais, Gustavo Alves Prudencio de |
dc.subject.por.fl_str_mv |
Algoritmos evolucionários Aprendizagem profunda por reforço Autonomous vehicles Controle baseado em visão Deep reinforcement learning Evolutionary algorithms Linear Quadratic Regulator Regulador linear Quadrático Regulador Linear Quadrático Robusto Robust Linear Quadratic Regulator Veículos autônomos Vision-based control |
topic |
Algoritmos evolucionários Aprendizagem profunda por reforço Autonomous vehicles Controle baseado em visão Deep reinforcement learning Evolutionary algorithms Linear Quadratic Regulator Regulador linear Quadrático Regulador Linear Quadrático Robusto Robust Linear Quadratic Regulator Veículos autônomos Vision-based control |
description |
Tecnologias na área de robótica móvel, como veículos autônomos, impactam diretamente na qualidade de vida e na mudança de comportamentos sociais, por isso, se mantêm como uma área promissora para a indústria. Mesmo com este cenário otimista, ainda existem muitos desafios relacionados à segurança que necessitam ser supridos para tornar essa tecnologia viável, como o desenvolvimento de técnicas de controle baseadas em visão para agentes autônomos. Algumas áreas de pesquisa estão propondo soluções a partir de métodos de aprendizagem de máquinas, como Aprendizagem Profunda por Reforço (APR), no entanto, algoritmos de APR ainda apresentam baixo desempenho em simuladores urbanos e realistas. Neste contexto, este trabalho propõe um modelo híbrido que combina APR com um Regulador Linear Quadrático (RLQ) padrão. O modelo definido utiliza algoritmos de aprendizagem de máquinas para extrair características de imagens e, na sequência, estas características são interpretadas como medidas de erro a serem minimizadas pelo controlador. Ademais, um segundo controlador híbrido é proposto, onde é aplicado robustez ao modelo anterior utilizando um Regulador Linear Quadrático Robusto (RLQR) e, devido à dinâmica desconhecida do sistema, o modelo realiza uma busca evolucionária para estimar as matrizes de incerteza do modelo. Desta forma, as entradas para cada sistema de controle são imagens de uma câmera RGB em tempo real, e suas saídas são ações contínuas de esterçamento do volante para manter o veículo com velocidade constante no centro da via. Os resultados experimentais obtidos mostram que o controle RLQ híbrido superou o controle realizado pelo algoritmo de APR implementado, que apresentou o maior erro de trajetória no cenário de treino e não foi capaz de generalizar suas ações no cenário de teste. Por fim, ao adicionar robustez ao controlador por meio do RLQR híbrido, obteve-se menos sensibilidade a distúrbios e, em todos os testes realizados, as colisões foram reduzidas a zero. |
publishDate |
2020 |
dc.date.none.fl_str_mv |
2020-06-24 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://www.teses.usp.br/teses/disponiveis/18/18153/tde-25082020-092618/ |
url |
https://www.teses.usp.br/teses/disponiveis/18/18153/tde-25082020-092618/ |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.none.fl_str_mv |
|
dc.rights.driver.fl_str_mv |
Liberar o conteúdo para acesso público. info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Liberar o conteúdo para acesso público. |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.coverage.none.fl_str_mv |
|
dc.publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo (USP) instacron:USP |
instname_str |
Universidade de São Paulo (USP) |
instacron_str |
USP |
institution |
USP |
reponame_str |
Biblioteca Digital de Teses e Dissertações da USP |
collection |
Biblioteca Digital de Teses e Dissertações da USP |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP) |
repository.mail.fl_str_mv |
virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br |
_version_ |
1815257337703694336 |