Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFRN |
Texto Completo: | https://repositorio.ufrn.br/handle/123456789/44632 |
Resumo: | Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento). |
id |
UFRN_7e994c82c6260833d3900e824dc89dcd |
---|---|
oai_identifier_str |
oai:https://repositorio.ufrn.br:123456789/44632 |
network_acronym_str |
UFRN |
network_name_str |
Repositório Institucional da UFRN |
repository_id_str |
|
spelling |
Fernandez, Luis Enrique Ortizhttp://lattes.cnpq.br/3725377549115537http://lattes.cnpq.br/5849107545126304Gonçalves, Luiz Marcos Garcia32541457120http://lattes.cnpq.br/1562357566810393Silva, Bruno Marques Ferreira dahttp://lattes.cnpq.br/7878437620254155Distante, CosimoClua, Esteban Walter Gonzalezhttp://lattes.cnpq.br/4791589931798048Gomes, Rafael Beserra2021-10-18T22:52:36Z2021-10-18T22:52:36Z2021-08-02FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021.https://repositorio.ufrn.br/handle/123456789/44632Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento).This thesis proposes a versatile methodology for measuring, modeling, and predicting errors as the Root Mean Square Error (RMSE) in depth and the Relative Positioning Error (RPE) using data captured from an RGB-D camera mounted on the top of a low-cost mobile robot platform. The proposed method has three stages. The first one consists of creating ground truth data for both 3D points (mapping) and camera poses (localization) using the novel Smart Markers. The next stage is the acquisition of a data set for RMSE and RPE errors computation using the mobile platform with the RGB-D camera. Finally, the third step is to model and predict the errors in the measurements of depth and positioning of the camera as a function of distance, velocity, and vibration. For this modeling and prediction stage, a simple approach based on Multi-Layer Perception neural networks is used. The modeling results in two networks, the NrmseZ for the depth error prediction and the NRPE for the prediction of camera positioning error. Experiments show that the NrmseZ and NRPE have an accuracy of ± 1% and ± 2.5%, respectively. The proposed methodology can be used straight in techniques that require an estimation of the dynamic error. For example, in applications of probabilistic robotics for mapping and localization, with RGB-D cameras mounted on Unmanned Aerial Vehicles, Unmanned Ground Vehicles, and also Unmanned Surface Vehicles (including sailboats). Tasks that use RGB-D sensors, such as environmental monitoring, maintenance of engineering works, and public security, could rely on this approach to obtain the error information associated with the camera measurements (depth and positioning).Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESUniversidade Federal do Rio Grande do NortePROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃOUFRNBrasilRGB-D camerasSmart markersVisual mappingVisual localizationDepth errorPositioning errorMethod to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibrationinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFRNinstname:Universidade Federal do Rio Grande do Norte (UFRN)instacron:UFRNORIGINALMethodmeasuremodel_Fernandez_2021.pdfapplication/pdf26258156https://repositorio.ufrn.br/bitstream/123456789/44632/1/Methodmeasuremodel_Fernandez_2021.pdfa618e5061b77eda94399100348d84b92MD51123456789/446322022-05-02 12:31:59.52oai:https://repositorio.ufrn.br:123456789/44632Repositório de PublicaçõesPUBhttp://repositorio.ufrn.br/oai/opendoar:2022-05-02T15:31:59Repositório Institucional da UFRN - Universidade Federal do Rio Grande do Norte (UFRN)false |
dc.title.pt_BR.fl_str_mv |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
title |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
spellingShingle |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration Fernandez, Luis Enrique Ortiz RGB-D cameras Smart markers Visual mapping Visual localization Depth error Positioning error |
title_short |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
title_full |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
title_fullStr |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
title_full_unstemmed |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
title_sort |
Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration |
author |
Fernandez, Luis Enrique Ortiz |
author_facet |
Fernandez, Luis Enrique Ortiz |
author_role |
author |
dc.contributor.authorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/3725377549115537 |
dc.contributor.advisorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/5849107545126304 |
dc.contributor.referees1.none.fl_str_mv |
Silva, Bruno Marques Ferreira da |
dc.contributor.referees1Lattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/7878437620254155 |
dc.contributor.referees2.none.fl_str_mv |
Distante, Cosimo |
dc.contributor.referees3.none.fl_str_mv |
Clua, Esteban Walter Gonzalez |
dc.contributor.referees3Lattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/4791589931798048 |
dc.contributor.author.fl_str_mv |
Fernandez, Luis Enrique Ortiz |
dc.contributor.advisor-co1.fl_str_mv |
Gonçalves, Luiz Marcos Garcia |
dc.contributor.advisor-co1ID.fl_str_mv |
32541457120 |
dc.contributor.advisor-co1Lattes.fl_str_mv |
http://lattes.cnpq.br/1562357566810393 |
dc.contributor.advisor1.fl_str_mv |
Gomes, Rafael Beserra |
contributor_str_mv |
Gonçalves, Luiz Marcos Garcia Gomes, Rafael Beserra |
dc.subject.por.fl_str_mv |
RGB-D cameras Smart markers Visual mapping Visual localization Depth error Positioning error |
topic |
RGB-D cameras Smart markers Visual mapping Visual localization Depth error Positioning error |
description |
Esta tese propõe uma metodologia versátil para medir, modelar e estimar erros como a Raiz do Erro Quadrático Médio (RMSE) na profundidade e o Erro no Posicionamento Relativo (RPE) da câmera utilizando dados capturados de uma câmera RGB-D montada no topo de uma plataforma robótica móvel de baixo custo. O método proposto tem três etapas, sendo que a primeira consiste na criação de dados que expressem um ground truth, tanto para pontos 3D (mapeamento) quanto para poses de câmera (localização) mediante o uso dos novos marcadores inteligentes. A próxima etapa é a aquisição de um conjunto de dados para cálculo dos erros RMSE e RPE utilizando a plataforma móvel com câmera RGB-D. Por fim, a terceira etapa consiste em modelar e estimar os erros nas medidas de profundidade e posicionamento da câmera em função da distância, velocidade e vibração. Para este estágio de modelagem e estimação, uma abordagem simples baseada em redes neurais do tipo Perceptron Multicamadas é usada. Isso resulta em duas redes, NrmseZ para a predição do erro de profundidade e NRPE para a previsão do erro de posicionamento da câmera. Experimentos mostram que as redes NrmseZ e NRPE têm uma precisão de ± 1% e ± 2,5%, respectivamente. A metodologia proposta pode ser usada diretamente nas técnicas que requerem uma estimativa do erro dinâmico. Como por exemplo em aplicações de robótica probabilística para localização e mapeamento, usando câmeras RGB-D montadas em Veículos Aéreos Não Tripulados, Veículo Terrestre Não Tripulados e também Veículos de Superfície Não Tripulados (incluindo veleiros robóticos). Tarefas que usam sensores RGB-D, tais como monitoramento ambiental, manutenção de obras de engenharia e segurança pública, podem contar com esta abordagem para obter informações sobre o erro associado às medições da câmera (profundidade e posicionamento). |
publishDate |
2021 |
dc.date.accessioned.fl_str_mv |
2021-10-18T22:52:36Z |
dc.date.available.fl_str_mv |
2021-10-18T22:52:36Z |
dc.date.issued.fl_str_mv |
2021-08-02 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021. |
dc.identifier.uri.fl_str_mv |
https://repositorio.ufrn.br/handle/123456789/44632 |
identifier_str_mv |
FERNANDEZ, Luis Enrique Ortiz. Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration. 2021. 118f. Tese (Doutorado em Engenharia Elétrica e de Computação) - Centro de Tecnologia, Universidade Federal do Rio Grande do Norte, Natal, 2021. |
url |
https://repositorio.ufrn.br/handle/123456789/44632 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal do Rio Grande do Norte |
dc.publisher.program.fl_str_mv |
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA E DE COMPUTAÇÃO |
dc.publisher.initials.fl_str_mv |
UFRN |
dc.publisher.country.fl_str_mv |
Brasil |
publisher.none.fl_str_mv |
Universidade Federal do Rio Grande do Norte |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFRN instname:Universidade Federal do Rio Grande do Norte (UFRN) instacron:UFRN |
instname_str |
Universidade Federal do Rio Grande do Norte (UFRN) |
instacron_str |
UFRN |
institution |
UFRN |
reponame_str |
Repositório Institucional da UFRN |
collection |
Repositório Institucional da UFRN |
bitstream.url.fl_str_mv |
https://repositorio.ufrn.br/bitstream/123456789/44632/1/Methodmeasuremodel_Fernandez_2021.pdf |
bitstream.checksum.fl_str_mv |
a618e5061b77eda94399100348d84b92 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFRN - Universidade Federal do Rio Grande do Norte (UFRN) |
repository.mail.fl_str_mv |
|
_version_ |
1814832892522528768 |