Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration

Detalhes bibliográficos
Autor(a) principal: Fernandez, Luis Enrique Ortiz
Data de Publicação: 2021
Tipo de documento: Tese
Idioma: por
Título da fonte: Repositório Institucional da UFRN
Texto Completo: https://repositorio.ufrn.br/handle/123456789/44632
Resumo: Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento).
id UFRN_7e994c82c6260833d3900e824dc89dcd
oai_identifier_str oai:https://repositorio.ufrn.br:123456789/44632
network_acronym_str UFRN
network_name_str Repositório Institucional da UFRN
repository_id_str
spelling Fernandez, Luis Enrique Ortizhttp://lattes.cnpq.br/3725377549115537http://lattes.cnpq.br/5849107545126304Gonçalves, Luiz Marcos Garcia32541457120http://lattes.cnpq.br/1562357566810393Silva, Bruno Marques Ferreira dahttp://lattes.cnpq.br/7878437620254155Distante, CosimoClua, Esteban Walter Gonzalezhttp://lattes.cnpq.br/4791589931798048Gomes, Rafael Beserra2021-10-18T22:52:36Z2021-10-18T22:52:36Z2021-08-02FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021.https://repositorio.ufrn.br/handle/123456789/44632Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento).This thesis proposes a versatile methodology for measuring, modeling, and predicting errors as the Root Mean Square Error (RMSE) in depth and the Relative Positioning Error (RPE) using data captured from an RGB-D camera mounted on the top of a low-cost mobile robot platform. The proposed method has three stages. The first one consists of creating ground truth data for both 3D points (mapping) and camera poses (localization) using the novel Smart Markers. The next stage is the acquisition of a data set for RMSE and RPE errors computation using the mobile platform with the RGB-D camera. Finally, the third step is to model and predict the errors in the measurements of depth and positioning of the camera as a function of distance, velocity, and vibration. For this modeling and prediction stage, a simple approach based on Multi-Layer Perception neural networks is used. The modeling results in two networks, the NrmseZ for the depth error prediction and the NRPE for the prediction of camera positioning error. Experiments show that the NrmseZ and NRPE have an accuracy of ± 1% and ± 2.5%, respectively. The proposed methodology can be used straight in techniques that require an estimation of the dynamic error. For example, in applications of probabilistic robotics for mapping and localization, with RGB-D cameras mounted on Unmanned Aerial Vehicles, Unmanned Ground Vehicles, and also Unmanned Surface Vehicles (including sailboats). Tasks that use RGB-D sensors, such as environmental monitoring, maintenance of engineering works, and public security, could rely on this approach to obtain the error information associated with the camera measurements (depth and positioning).Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESUniversidade Federal do Rio Grande do NortePROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃOUFRNBrasilRGB-D camerasSmart markersVisual mappingVisual localizationDepth errorPositioning errorMethod to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibrationinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFRNinstname:Universidade Federal do Rio Grande do Norte (UFRN)instacron:UFRNORIGINALMethodmeasuremodel_Fernandez_2021.pdfapplication/pdf26258156https://repositorio.ufrn.br/bitstream/123456789/44632/1/Methodmeasuremodel_Fernandez_2021.pdfa618e5061b77eda94399100348d84b92MD51123456789/446322022-05-02 12:31:59.52oai:https://repositorio.ufrn.br:123456789/44632Repositório de PublicaçõesPUBhttp://repositorio.ufrn.br/oai/opendoar:2022-05-02T15:31:59Repositório Institucional da UFRN - Universidade Federal do Rio Grande do Norte (UFRN)false
dc.title.pt_BR.fl_str_mv Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
title Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
spellingShingle Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
Fernandez, Luis Enrique Ortiz
RGB-D cameras
Smart markers
Visual mapping
Visual localization
Depth error
Positioning error
title_short Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
title_full Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
title_fullStr Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
title_full_unstemmed Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
title_sort Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
author Fernandez, Luis Enrique Ortiz
author_facet Fernandez, Luis Enrique Ortiz
author_role author
dc.contributor.authorLattes.pt_BR.fl_str_mv http://lattes.cnpq.br/3725377549115537
dc.contributor.advisorLattes.pt_BR.fl_str_mv http://lattes.cnpq.br/5849107545126304
dc.contributor.referees1.none.fl_str_mv Silva, Bruno Marques Ferreira da
dc.contributor.referees1Lattes.pt_BR.fl_str_mv http://lattes.cnpq.br/7878437620254155
dc.contributor.referees2.none.fl_str_mv Distante, Cosimo
dc.contributor.referees3.none.fl_str_mv Clua, Esteban Walter Gonzalez
dc.contributor.referees3Lattes.pt_BR.fl_str_mv http://lattes.cnpq.br/4791589931798048
dc.contributor.author.fl_str_mv Fernandez, Luis Enrique Ortiz
dc.contributor.advisor-co1.fl_str_mv Gonçalves, Luiz Marcos Garcia
dc.contributor.advisor-co1ID.fl_str_mv 32541457120
dc.contributor.advisor-co1Lattes.fl_str_mv http://lattes.cnpq.br/1562357566810393
dc.contributor.advisor1.fl_str_mv Gomes, Rafael Beserra
contributor_str_mv Gonçalves, Luiz Marcos Garcia
Gomes, Rafael Beserra
dc.subject.por.fl_str_mv RGB-D cameras
Smart markers
Visual mapping
Visual localization
Depth error
Positioning error
topic RGB-D cameras
Smart markers
Visual mapping
Visual localization
Depth error
Positioning error
description Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento).
publishDate 2021
dc.date.accessioned.fl_str_mv 2021-10-18T22:52:36Z
dc.date.available.fl_str_mv 2021-10-18T22:52:36Z
dc.date.issued.fl_str_mv 2021-08-02
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021.
dc.identifier.uri.fl_str_mv https://repositorio.ufrn.br/handle/123456789/44632
identifier_str_mv FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021.
url https://repositorio.ufrn.br/handle/123456789/44632
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal do Rio Grande do Norte
dc.publisher.program.fl_str_mv PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃO
dc.publisher.initials.fl_str_mv UFRN
dc.publisher.country.fl_str_mv Brasil
publisher.none.fl_str_mv Universidade Federal do Rio Grande do Norte
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFRN
instname:Universidade Federal do Rio Grande do Norte (UFRN)
instacron:UFRN
instname_str Universidade Federal do Rio Grande do Norte (UFRN)
instacron_str UFRN
institution UFRN
reponame_str Repositório Institucional da UFRN
collection Repositório Institucional da UFRN
bitstream.url.fl_str_mv https://repositorio.ufrn.br/bitstream/123456789/44632/1/Methodmeasuremodel_Fernandez_2021.pdf
bitstream.checksum.fl_str_mv a618e5061b77eda94399100348d84b92
bitstream.checksumAlgorithm.fl_str_mv MD5
repository.name.fl_str_mv Repositório Institucional da UFRN - Universidade Federal do Rio Grande do Norte (UFRN)
repository.mail.fl_str_mv
_version_ 1814832892522528768