Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov

Detalhes bibliográficos
Autor(a) principal: Neemias Silva Monteiro
Data de Publicação: 2020
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Repositório Institucional da UFMG
Texto Completo: http://hdl.handle.net/1843/34512
Resumo: Os planejadores de movimento determinísticos apresentam bons resultados em ambientes simulados, nos quais os sensores e atuadores são perfeitos. No entanto, estas suposições são restritivas e consequentemente o planejamento de movimento terá desempenho comprometido se aplicado em sistemas robóticos reais (ou em um simulador mais realístico), pois os mesmos são inerentemente carregados de incertezas. Na maioria dos sistemas robóticos reais, os estados não podem ser diretamente observados, e as medições recebidas pelo robô são projeções ruidosas do verdadeiro estado. As ações executadas por um robô também têm incertezas, dado que os atuadores do robô cometem erros ao seguir os comandos de controle desejados. Deste modo, o robô deve fazer uso de uma nova classe de planejadores que levam em conta as incertezas do sistema quando tiver que tomar uma decisão. No presente trabalho, o Processo de Decisão de Markov Parcialmente Observável (PDMPO, ou POMDP em inglês), é apresentado como alternativa para solucionar problemas imersos em incertezas, selecionando ações ótimas com objetivo de realizar uma dada tarefa. O PDMPO é um método probabilístico que considera: que os estados do robô não podem ser medidos diretamente, mas são inferidos por meio de observações indiretas; que as decisões tomadas têm resultados incertos; e que o resultado de uma ação em um estado depende apenas da ação e do estado atual do processo (propriedade Markoviana). No PDMPO cada ação tem como resultado uma observação, probabilisticamente relacionada aos estados do sistema. Em vez de um estado atual do sistema, no PDMPO há uma distribuição de probabilidade sobre os estados, denominada crença. Para estimativa da crença, este trabalho utiliza a estrutura probabilística do Modelo Oculto de Markov (MOM, ou HMM em inglês). O ferramental acima foi aplicado em um sistema simulado de localização e controle das ações de um robô que se locomove por um galpão usado para estocagem de produtos, e também para navegação de um robô real em um espaço de convivência. As simulações e experimentos mostram a robustez e eficiência dos métodos utilizados.
id UFMG_9ff16f6fce2036d0b327f1f0049202e5
oai_identifier_str oai:repositorio.ufmg.br:1843/34512
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
spelling Carlos Andrey Maiahttp://lattes.cnpq.br/3301192467372459Vinicius Mariano GonçalvesGuilherme Augusto Silva PereiraGustavo Medeiros FreitasArmando Alves Netohttp://lattes.cnpq.br/6472412732023809Neemias Silva Monteiro2020-12-15T17:18:13Z2020-12-15T17:18:13Z2020-02-18http://hdl.handle.net/1843/34512Os planejadores de movimento determinísticos apresentam bons resultados em ambientes simulados, nos quais os sensores e atuadores são perfeitos. No entanto, estas suposições são restritivas e consequentemente o planejamento de movimento terá desempenho comprometido se aplicado em sistemas robóticos reais (ou em um simulador mais realístico), pois os mesmos são inerentemente carregados de incertezas. Na maioria dos sistemas robóticos reais, os estados não podem ser diretamente observados, e as medições recebidas pelo robô são projeções ruidosas do verdadeiro estado. As ações executadas por um robô também têm incertezas, dado que os atuadores do robô cometem erros ao seguir os comandos de controle desejados. Deste modo, o robô deve fazer uso de uma nova classe de planejadores que levam em conta as incertezas do sistema quando tiver que tomar uma decisão. No presente trabalho, o Processo de Decisão de Markov Parcialmente Observável (PDMPO, ou POMDP em inglês), é apresentado como alternativa para solucionar problemas imersos em incertezas, selecionando ações ótimas com objetivo de realizar uma dada tarefa. O PDMPO é um método probabilístico que considera: que os estados do robô não podem ser medidos diretamente, mas são inferidos por meio de observações indiretas; que as decisões tomadas têm resultados incertos; e que o resultado de uma ação em um estado depende apenas da ação e do estado atual do processo (propriedade Markoviana). No PDMPO cada ação tem como resultado uma observação, probabilisticamente relacionada aos estados do sistema. Em vez de um estado atual do sistema, no PDMPO há uma distribuição de probabilidade sobre os estados, denominada crença. Para estimativa da crença, este trabalho utiliza a estrutura probabilística do Modelo Oculto de Markov (MOM, ou HMM em inglês). O ferramental acima foi aplicado em um sistema simulado de localização e controle das ações de um robô que se locomove por um galpão usado para estocagem de produtos, e também para navegação de um robô real em um espaço de convivência. As simulações e experimentos mostram a robustez e eficiência dos métodos utilizados.Deterministic motion planners perform well in simulated environments, where sensors and actuators are perfect. However, these assumptions are restrictive and consequently motion planning will have poor performance if applied to real robotic systems (or a more realistic simulator), as they are inherently fraught with uncertainty. In most real robotic systems, states cannot be directly observed, and measurements received by the robot are noisy projections of the true state. The actions performed by a robot have uncertainties, given that the robot’s actuators make mistakes when following the desired control commands. Thus, the robot must make use of a new class of planners that take into account system uncertainties when making a decision. In the present work, the Partially Observable Markov Decision Process (POMDP) is presented as an alternative to solve problems immersed in uncertainties, selecting optimal actions aiming to perform a given task. POMDP is a probabilistic method that considers: that robot states cannot be measured directly, but are inferred through indirect observations; that the decisions taken have uncertain results; and that the result of an action in a state depends only on the action and the current state of the process (Markovian property). In POMDP, each action results in an observation, probabilistically related to states of the system. Instead of a current system state, in POMDP there is a probability distribution over states, called belief. To estimate the belief, this work used the probabilistic structure of the Hidden Markov Model (HMM). The above methodology was applied to a simulated system for localization and controlling the actions of a robot that moves around a warehouse used for products storage, as well as for navigating a real robot in a living space. Simulations and experiments show the robustness and efficiency of the methods used.CNPq - Conselho Nacional de Desenvolvimento Científico e TecnológicoporUniversidade Federal de Minas GeraisPrograma de Pós-Graduação em Engenharia ElétricaUFMGBrasilENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICAEngenharia elétricaIncertezaRobóticaIncertezasLocalizaçãoModelo oculto de MarkovPlanejamento de movimentoProcesso de decisão de Markov parcialmente observávelRobótica probabilísticaLocalização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markovinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGORIGINALLocalização e Planejamento de Movimento de Robôs Móveis em Ambientes Internos Utilizando Processos de Decisão de Markov.pdfLocalização e Planejamento de Movimento de Robôs Móveis em Ambientes Internos Utilizando Processos de Decisão de Markov.pdfapplication/pdf13802041https://repositorio.ufmg.br/bitstream/1843/34512/1/Localiza%c3%a7%c3%a3o%20e%20Planejamento%20de%20Movimento%20de%20Rob%c3%b4s%20M%c3%b3veis%20em%20Ambientes%20Internos%20Utilizando%20Processos%20de%20Decis%c3%a3o%20de%20Markov.pdfd09340804057a0deb2017ccb0580cb62MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-82119https://repositorio.ufmg.br/bitstream/1843/34512/2/license.txt34badce4be7e31e3adb4575ae96af679MD521843/345122020-12-15 14:18:14.043oai:repositorio.ufmg.br:1843/34512TElDRU7Dh0EgREUgRElTVFJJQlVJw4fDg08gTsODTy1FWENMVVNJVkEgRE8gUkVQT1NJVMOTUklPIElOU1RJVFVDSU9OQUwgREEgVUZNRwoKQ29tIGEgYXByZXNlbnRhw6fDo28gZGVzdGEgbGljZW7Dp2EsIHZvY8OqIChvIGF1dG9yIChlcykgb3UgbyB0aXR1bGFyIGRvcyBkaXJlaXRvcyBkZSBhdXRvcikgY29uY2VkZSBhbyBSZXBvc2l0w7NyaW8gSW5zdGl0dWNpb25hbCBkYSBVRk1HIChSSS1VRk1HKSBvIGRpcmVpdG8gbsOjbyBleGNsdXNpdm8gZSBpcnJldm9nw6F2ZWwgZGUgcmVwcm9kdXppciBlL291IGRpc3RyaWJ1aXIgYSBzdWEgcHVibGljYcOnw6NvIChpbmNsdWluZG8gbyByZXN1bW8pIHBvciB0b2RvIG8gbXVuZG8gbm8gZm9ybWF0byBpbXByZXNzbyBlIGVsZXRyw7RuaWNvIGUgZW0gcXVhbHF1ZXIgbWVpbywgaW5jbHVpbmRvIG9zIGZvcm1hdG9zIMOhdWRpbyBvdSB2w61kZW8uCgpWb2PDqiBkZWNsYXJhIHF1ZSBjb25oZWNlIGEgcG9sw610aWNhIGRlIGNvcHlyaWdodCBkYSBlZGl0b3JhIGRvIHNldSBkb2N1bWVudG8gZSBxdWUgY29uaGVjZSBlIGFjZWl0YSBhcyBEaXJldHJpemVzIGRvIFJJLVVGTUcuCgpWb2PDqiBjb25jb3JkYSBxdWUgbyBSZXBvc2l0w7NyaW8gSW5zdGl0dWNpb25hbCBkYSBVRk1HIHBvZGUsIHNlbSBhbHRlcmFyIG8gY29udGXDumRvLCB0cmFuc3BvciBhIHN1YSBwdWJsaWNhw6fDo28gcGFyYSBxdWFscXVlciBtZWlvIG91IGZvcm1hdG8gcGFyYSBmaW5zIGRlIHByZXNlcnZhw6fDo28uCgpWb2PDqiB0YW1iw6ltIGNvbmNvcmRhIHF1ZSBvIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIGRhIFVGTUcgcG9kZSBtYW50ZXIgbWFpcyBkZSB1bWEgY8OzcGlhIGRlIHN1YSBwdWJsaWNhw6fDo28gcGFyYSBmaW5zIGRlIHNlZ3VyYW7Dp2EsIGJhY2stdXAgZSBwcmVzZXJ2YcOnw6NvLgoKVm9jw6ogZGVjbGFyYSBxdWUgYSBzdWEgcHVibGljYcOnw6NvIMOpIG9yaWdpbmFsIGUgcXVlIHZvY8OqIHRlbSBvIHBvZGVyIGRlIGNvbmNlZGVyIG9zIGRpcmVpdG9zIGNvbnRpZG9zIG5lc3RhIGxpY2Vuw6dhLiBWb2PDqiB0YW1iw6ltIGRlY2xhcmEgcXVlIG8gZGVww7NzaXRvIGRlIHN1YSBwdWJsaWNhw6fDo28gbsOjbywgcXVlIHNlamEgZGUgc2V1IGNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCgpDYXNvIGEgc3VhIHB1YmxpY2HDp8OjbyBjb250ZW5oYSBtYXRlcmlhbCBxdWUgdm9jw6ogbsOjbyBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2PDqiBkZWNsYXJhIHF1ZSBvYnRldmUgYSBwZXJtaXNzw6NvIGlycmVzdHJpdGEgZG8gZGV0ZW50b3IgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIHBhcmEgY29uY2VkZXIgYW8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgZGEgVUZNRyBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgbmVzdGEgbGljZW7Dp2EsIGUgcXVlIGVzc2UgbWF0ZXJpYWwgZGUgcHJvcHJpZWRhZGUgZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3Ugbm8gY29udGXDumRvIGRhIHB1YmxpY2HDp8OjbyBvcmEgZGVwb3NpdGFkYS4KCkNBU08gQSBQVUJMSUNBw4fDg08gT1JBIERFUE9TSVRBREEgVEVOSEEgU0lETyBSRVNVTFRBRE8gREUgVU0gUEFUUk9Dw41OSU8gT1UgQVBPSU8gREUgVU1BIEFHw4pOQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyBUQU1Cw4lNIEFTIERFTUFJUyBPQlJJR0HDh8OVRVMgRVhJR0lEQVMgUE9SIENPTlRSQVRPIE9VIEFDT1JETy4KCk8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgZGEgVUZNRyBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lKHMpIG91IG8ocykgbm9tZXMocykgZG8ocykgZGV0ZW50b3IoZXMpIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBkYSBwdWJsaWNhw6fDo28sIGUgbsOjbyBmYXLDoSBxdWFscXVlciBhbHRlcmHDp8OjbywgYWzDqW0gZGFxdWVsYXMgY29uY2VkaWRhcyBwb3IgZXN0YSBsaWNlbsOnYS4KCg==Repositório de PublicaçõesPUBhttps://repositorio.ufmg.br/oaiopendoar:2020-12-15T17:18:14Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
dc.title.pt_BR.fl_str_mv Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
title Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
spellingShingle Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
Neemias Silva Monteiro
Incertezas
Localização
Modelo oculto de Markov
Planejamento de movimento
Processo de decisão de Markov parcialmente observável
Robótica probabilística
Engenharia elétrica
Incerteza
Robótica
title_short Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
title_full Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
title_fullStr Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
title_full_unstemmed Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
title_sort Localização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markov
author Neemias Silva Monteiro
author_facet Neemias Silva Monteiro
author_role author
dc.contributor.advisor1.fl_str_mv Carlos Andrey Maia
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/3301192467372459
dc.contributor.advisor-co1.fl_str_mv Vinicius Mariano Gonçalves
dc.contributor.referee1.fl_str_mv Guilherme Augusto Silva Pereira
dc.contributor.referee2.fl_str_mv Gustavo Medeiros Freitas
dc.contributor.referee3.fl_str_mv Armando Alves Neto
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/6472412732023809
dc.contributor.author.fl_str_mv Neemias Silva Monteiro
contributor_str_mv Carlos Andrey Maia
Vinicius Mariano Gonçalves
Guilherme Augusto Silva Pereira
Gustavo Medeiros Freitas
Armando Alves Neto
dc.subject.por.fl_str_mv Incertezas
Localização
Modelo oculto de Markov
Planejamento de movimento
Processo de decisão de Markov parcialmente observável
Robótica probabilística
topic Incertezas
Localização
Modelo oculto de Markov
Planejamento de movimento
Processo de decisão de Markov parcialmente observável
Robótica probabilística
Engenharia elétrica
Incerteza
Robótica
dc.subject.other.pt_BR.fl_str_mv Engenharia elétrica
Incerteza
Robótica
description Os planejadores de movimento determinísticos apresentam bons resultados em ambientes simulados, nos quais os sensores e atuadores são perfeitos. No entanto, estas suposições são restritivas e consequentemente o planejamento de movimento terá desempenho comprometido se aplicado em sistemas robóticos reais (ou em um simulador mais realístico), pois os mesmos são inerentemente carregados de incertezas. Na maioria dos sistemas robóticos reais, os estados não podem ser diretamente observados, e as medições recebidas pelo robô são projeções ruidosas do verdadeiro estado. As ações executadas por um robô também têm incertezas, dado que os atuadores do robô cometem erros ao seguir os comandos de controle desejados. Deste modo, o robô deve fazer uso de uma nova classe de planejadores que levam em conta as incertezas do sistema quando tiver que tomar uma decisão. No presente trabalho, o Processo de Decisão de Markov Parcialmente Observável (PDMPO, ou POMDP em inglês), é apresentado como alternativa para solucionar problemas imersos em incertezas, selecionando ações ótimas com objetivo de realizar uma dada tarefa. O PDMPO é um método probabilístico que considera: que os estados do robô não podem ser medidos diretamente, mas são inferidos por meio de observações indiretas; que as decisões tomadas têm resultados incertos; e que o resultado de uma ação em um estado depende apenas da ação e do estado atual do processo (propriedade Markoviana). No PDMPO cada ação tem como resultado uma observação, probabilisticamente relacionada aos estados do sistema. Em vez de um estado atual do sistema, no PDMPO há uma distribuição de probabilidade sobre os estados, denominada crença. Para estimativa da crença, este trabalho utiliza a estrutura probabilística do Modelo Oculto de Markov (MOM, ou HMM em inglês). O ferramental acima foi aplicado em um sistema simulado de localização e controle das ações de um robô que se locomove por um galpão usado para estocagem de produtos, e também para navegação de um robô real em um espaço de convivência. As simulações e experimentos mostram a robustez e eficiência dos métodos utilizados.
publishDate 2020
dc.date.accessioned.fl_str_mv 2020-12-15T17:18:13Z
dc.date.available.fl_str_mv 2020-12-15T17:18:13Z
dc.date.issued.fl_str_mv 2020-02-18
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/1843/34512
url http://hdl.handle.net/1843/34512
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.publisher.program.fl_str_mv Programa de Pós-Graduação em Engenharia Elétrica
dc.publisher.initials.fl_str_mv UFMG
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv ENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICA
publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFMG
instname:Universidade Federal de Minas Gerais (UFMG)
instacron:UFMG
instname_str Universidade Federal de Minas Gerais (UFMG)
instacron_str UFMG
institution UFMG
reponame_str Repositório Institucional da UFMG
collection Repositório Institucional da UFMG
bitstream.url.fl_str_mv https://repositorio.ufmg.br/bitstream/1843/34512/1/Localiza%c3%a7%c3%a3o%20e%20Planejamento%20de%20Movimento%20de%20Rob%c3%b4s%20M%c3%b3veis%20em%20Ambientes%20Internos%20Utilizando%20Processos%20de%20Decis%c3%a3o%20de%20Markov.pdf
https://repositorio.ufmg.br/bitstream/1843/34512/2/license.txt
bitstream.checksum.fl_str_mv d09340804057a0deb2017ccb0580cb62
34badce4be7e31e3adb4575ae96af679
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)
repository.mail.fl_str_mv
_version_ 1803589415319109632