Detecção Automática de Modelo para Calibração de Câmera

Detalhes bibliográficos
Autor(a) principal: Dantas, Marrone Silvério Melo
Data de Publicação: 2022
Outros Autores: Bezerra, Daniel, Oliveira Filho, Assis T. de, Barbosa, Gibson, Rodrigues, Iago Richard, Sadok, Djamel H. J., Kelner, Judith, Souza, Ricardo
Tipo de documento: Artigo
Idioma: eng
Título da fonte: Research, Society and Development
Texto Completo: https://rsdjournal.org/index.php/rsd/article/view/36168
Resumo: Camera calibration is the process of extract the intrinsic and extrinsic parameters of a camera. Those parameters guide the 3-dimensional localization into relation to the 2-dimensional space from the images acquired by the camera. The 3-dimensional correlation can be generated with an object with known measures, being the most common checkerboard for this purpose. From these checker- boards, the usual approach extracts the position of the inner points, equivalent to the corners of the squares, to generate this correlation. A broad range of algorithms tries to find those points on the image. Still, usually, they require previous knowledge about the dimensions of the image, the pattern distribution, or even the pattern type. In some scenario, maybe is difficult, or impossible, to implement such precise solution, targeting these limitations our work proposes a two-step end-to-end convolutional neural network architecture that processes the corner detection on a unique flow. Our proposal is agnostic to checkerboard size, pattern disposal, and positioning. In our work, first, a segmentation CNN extracts only the checkerboard from the input image (CheckerNet); from the extracted checkerboard, we extract the corner points with a corner detection CNN (Point- Net). The PointNet also works as a segmentation CNN, and the generated points are heatmaps related to points on the checkerboard corners. We performed post-processing with a K-Means-based clustering to convert those heatmaps into single positions (x,y) from the image. We compare our proposed method with the other well-known convolutional neural networks used for corner detection MATE and CCDN. For the evaluation, two datasets were used: GoPro e uEye. Our method provides better results in both datasets, reducing missed corners, double detections, false positives, and competitive results on pixel accuracy.
id UNIFEI_2abfa98b23f529c68d9d2581334036c8
oai_identifier_str oai:ojs.pkp.sfu.ca:article/36168
network_acronym_str UNIFEI
network_name_str Research, Society and Development
repository_id_str
spelling Detecção Automática de Modelo para Calibração de CâmeraAutomatic Template Detection for Camera CalibrationDetección Automática de Modelo para la Calibración de la CámaraDetección de modelosCalibración de cámaraAprendizaje profundo.Template DetectionCamera CalibrationDeep learning.Detecção de TemplatesCalibração de CâmerasAprendizagem profunda.Camera calibration is the process of extract the intrinsic and extrinsic parameters of a camera. Those parameters guide the 3-dimensional localization into relation to the 2-dimensional space from the images acquired by the camera. The 3-dimensional correlation can be generated with an object with known measures, being the most common checkerboard for this purpose. From these checker- boards, the usual approach extracts the position of the inner points, equivalent to the corners of the squares, to generate this correlation. A broad range of algorithms tries to find those points on the image. Still, usually, they require previous knowledge about the dimensions of the image, the pattern distribution, or even the pattern type. In some scenario, maybe is difficult, or impossible, to implement such precise solution, targeting these limitations our work proposes a two-step end-to-end convolutional neural network architecture that processes the corner detection on a unique flow. Our proposal is agnostic to checkerboard size, pattern disposal, and positioning. In our work, first, a segmentation CNN extracts only the checkerboard from the input image (CheckerNet); from the extracted checkerboard, we extract the corner points with a corner detection CNN (Point- Net). The PointNet also works as a segmentation CNN, and the generated points are heatmaps related to points on the checkerboard corners. We performed post-processing with a K-Means-based clustering to convert those heatmaps into single positions (x,y) from the image. We compare our proposed method with the other well-known convolutional neural networks used for corner detection MATE and CCDN. For the evaluation, two datasets were used: GoPro e uEye. Our method provides better results in both datasets, reducing missed corners, double detections, false positives, and competitive results on pixel accuracy.La calibración de la cámara es el proceso de extraer los parámetros intrínsecos y extrínsecos de una cámara. Esos parámetros guían la localización tridimensional en relación con el espacio bidimensional de las imágenes adquiridas por la cámara. La correlación tridimensional se puede generar con un objeto de medidas conocidas, siendo el damero más común para este fin. De estos tableros de ajedrez, el enfoque habitual extrae la posición de los puntos interiores, equivalentes a las esquinas de los cuadrados, para generar esta correlación. Una amplia gama de algoritmos intenta encontrar esos puntos en la imagen. Aún así, por lo general, requieren conocimientos previos sobre las dimensiones de la imagen, la distribución del patrón o incluso el tipo de patrón. En algún escenario, tal vez sea difícil, o imposible, implementar una solución tan precisa, teniendo en cuenta estas limitaciones, nuestro trabajo propone una arquitectura de red neuronal convolucional de extremo a extremo de dos pasos que procesa la detección de esquinas en un flujo único. Nuestra propuesta es independiente del tamaño del tablero de ajedrez, la eliminación de patrones y el posicionamiento. En nuestro trabajo, primero, una CNN de segmentación extrae solo el tablero de ajedrez de la imagen de entrada (CheckerNet); Del damero extraído, extraemos los puntos de las esquinas con una CNN de detección de esquinas (Point-Net). PointNet también funciona como una CNN de segmentación, y los puntos generados son mapas de calor relacionados con puntos en las esquinas del tablero de ajedrez. Realizamos un procesamiento posterior con un agrupamiento basado en K-Means para convertir esos mapas de calor en posiciones únicas (x, y) de la imagen. Comparamos nuestro método propuesto con las otras redes neuronales convolucionales bien conocidas utilizadas para la detección de esquinas MATE y CCDN. Para la evaluación, se utilizaron dos conjuntos de datos: GoPro e uEye. Nuestro método proporciona mejores resultados en ambos conjuntos de datos, reduciendo esquinas perdidas, detecciones dobles, falsos positivos y resultados competitivos en precisión de píxeles.A calibração da câmera é o processo de extrair os parâmetros intrínsecos e extrínsecos de uma câmera. Esses parâmetros orientam a localização tridimensional em relação ao espaço bidimensional a partir das imagens adquiridas pela câmera. A correlação tridimensional pode ser gerada com um objeto com medidas conhecidas, sendo o tabuleiro de xadrez mais comum para este fim. A partir desses tabuleiros, a abordagem usual extrai a posição dos pontos internos, equivalentes aos cantos dos quadrados, para gerar essa correlação. Uma ampla gama de algoritmos tenta encontrar esses pontos na imagem. Ainda assim, geralmente, eles exigem conhecimento prévio sobre as dimensões da imagem, a distribuição do padrão ou até mesmo o tipo de padrão. Em algum cenário, talvez seja difícil, ou impossível, implementar uma solução tão precisa, visando essas limitações, nosso trabalho propõe uma arquitetura de rede neural convolucional de duas etapas que processa a detecção de canto em um fluxo único. Nossa proposta é agnóstica ao tamanho do tabuleiro de xadrez, disposição do padrão e posicionamento. Em nosso trabalho, primeiro, uma segmentação CNN extrai apenas o tabuleiro de damas da imagem de entrada (CheckerNet); do tabuleiro de damas extraído, extraímos os pontos de canto com uma CNN de detecção de canto (Point-Net). O PointNet também funciona como uma CNN de segmentação, e os pontos gerados são mapas de calor relacionados a pontos nos cantos do tabuleiro de xadrez. Realizamos o pós-processamento com um agrupamento baseado em K-Means para converter esses mapas de calor em posições únicas (x,y) da imagem. Comparamos nosso método proposto com outras redes neurais convolucionais conhecidas usadas para detecção de cantos MATE e CCDN. Para a avaliação, foram utilizados dois conjuntos de dados: GoPro e uEye. Nosso método fornece melhores resultados em ambos os conjuntos de dados, reduzindo cantos perdidos, detecções duplas, falsos positivos e resultados competitivos em precisão de pixel.Research, Society and Development2022-10-23info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionapplication/pdfhttps://rsdjournal.org/index.php/rsd/article/view/3616810.33448/rsd-v11i14.36168Research, Society and Development; Vol. 11 No. 14; e173111436168Research, Society and Development; Vol. 11 Núm. 14; e173111436168Research, Society and Development; v. 11 n. 14; e1731114361682525-3409reponame:Research, Society and Developmentinstname:Universidade Federal de Itajubá (UNIFEI)instacron:UNIFEIenghttps://rsdjournal.org/index.php/rsd/article/view/36168/30221Copyright (c) 2022 Marrone Silvério Melo Dantas; Daniel Bezerra; Assis T. de Oliveira Filho; Gibson Barbosa; Iago Richard Rodrigues; Djamel H. J. Sadok; Judith Kelner; Ricardo Souzahttps://creativecommons.org/licenses/by/4.0info:eu-repo/semantics/openAccessDantas, Marrone Silvério MeloBezerra, DanielOliveira Filho, Assis T. deBarbosa, Gibson Rodrigues, Iago Richard Sadok, Djamel H. J. Kelner, Judith Souza, Ricardo2022-11-08T13:36:27Zoai:ojs.pkp.sfu.ca:article/36168Revistahttps://rsdjournal.org/index.php/rsd/indexPUBhttps://rsdjournal.org/index.php/rsd/oairsd.articles@gmail.com2525-34092525-3409opendoar:2024-01-17T09:50:48.782613Research, Society and Development - Universidade Federal de Itajubá (UNIFEI)false
dc.title.none.fl_str_mv Detecção Automática de Modelo para Calibração de Câmera
Automatic Template Detection for Camera Calibration
Detección Automática de Modelo para la Calibración de la Cámara
title Detecção Automática de Modelo para Calibração de Câmera
spellingShingle Detecção Automática de Modelo para Calibração de Câmera
Dantas, Marrone Silvério Melo
Detección de modelos
Calibración de cámara
Aprendizaje profundo.
Template Detection
Camera Calibration
Deep learning.
Detecção de Templates
Calibração de Câmeras
Aprendizagem profunda.
title_short Detecção Automática de Modelo para Calibração de Câmera
title_full Detecção Automática de Modelo para Calibração de Câmera
title_fullStr Detecção Automática de Modelo para Calibração de Câmera
title_full_unstemmed Detecção Automática de Modelo para Calibração de Câmera
title_sort Detecção Automática de Modelo para Calibração de Câmera
author Dantas, Marrone Silvério Melo
author_facet Dantas, Marrone Silvério Melo
Bezerra, Daniel
Oliveira Filho, Assis T. de
Barbosa, Gibson
Rodrigues, Iago Richard
Sadok, Djamel H. J.
Kelner, Judith
Souza, Ricardo
author_role author
author2 Bezerra, Daniel
Oliveira Filho, Assis T. de
Barbosa, Gibson
Rodrigues, Iago Richard
Sadok, Djamel H. J.
Kelner, Judith
Souza, Ricardo
author2_role author
author
author
author
author
author
author
dc.contributor.author.fl_str_mv Dantas, Marrone Silvério Melo
Bezerra, Daniel
Oliveira Filho, Assis T. de
Barbosa, Gibson
Rodrigues, Iago Richard
Sadok, Djamel H. J.
Kelner, Judith
Souza, Ricardo
dc.subject.por.fl_str_mv Detección de modelos
Calibración de cámara
Aprendizaje profundo.
Template Detection
Camera Calibration
Deep learning.
Detecção de Templates
Calibração de Câmeras
Aprendizagem profunda.
topic Detección de modelos
Calibración de cámara
Aprendizaje profundo.
Template Detection
Camera Calibration
Deep learning.
Detecção de Templates
Calibração de Câmeras
Aprendizagem profunda.
description Camera calibration is the process of extract the intrinsic and extrinsic parameters of a camera. Those parameters guide the 3-dimensional localization into relation to the 2-dimensional space from the images acquired by the camera. The 3-dimensional correlation can be generated with an object with known measures, being the most common checkerboard for this purpose. From these checker- boards, the usual approach extracts the position of the inner points, equivalent to the corners of the squares, to generate this correlation. A broad range of algorithms tries to find those points on the image. Still, usually, they require previous knowledge about the dimensions of the image, the pattern distribution, or even the pattern type. In some scenario, maybe is difficult, or impossible, to implement such precise solution, targeting these limitations our work proposes a two-step end-to-end convolutional neural network architecture that processes the corner detection on a unique flow. Our proposal is agnostic to checkerboard size, pattern disposal, and positioning. In our work, first, a segmentation CNN extracts only the checkerboard from the input image (CheckerNet); from the extracted checkerboard, we extract the corner points with a corner detection CNN (Point- Net). The PointNet also works as a segmentation CNN, and the generated points are heatmaps related to points on the checkerboard corners. We performed post-processing with a K-Means-based clustering to convert those heatmaps into single positions (x,y) from the image. We compare our proposed method with the other well-known convolutional neural networks used for corner detection MATE and CCDN. For the evaluation, two datasets were used: GoPro e uEye. Our method provides better results in both datasets, reducing missed corners, double detections, false positives, and competitive results on pixel accuracy.
publishDate 2022
dc.date.none.fl_str_mv 2022-10-23
dc.type.driver.fl_str_mv info:eu-repo/semantics/article
info:eu-repo/semantics/publishedVersion
format article
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://rsdjournal.org/index.php/rsd/article/view/36168
10.33448/rsd-v11i14.36168
url https://rsdjournal.org/index.php/rsd/article/view/36168
identifier_str_mv 10.33448/rsd-v11i14.36168
dc.language.iso.fl_str_mv eng
language eng
dc.relation.none.fl_str_mv https://rsdjournal.org/index.php/rsd/article/view/36168/30221
dc.rights.driver.fl_str_mv https://creativecommons.org/licenses/by/4.0
info:eu-repo/semantics/openAccess
rights_invalid_str_mv https://creativecommons.org/licenses/by/4.0
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Research, Society and Development
publisher.none.fl_str_mv Research, Society and Development
dc.source.none.fl_str_mv Research, Society and Development; Vol. 11 No. 14; e173111436168
Research, Society and Development; Vol. 11 Núm. 14; e173111436168
Research, Society and Development; v. 11 n. 14; e173111436168
2525-3409
reponame:Research, Society and Development
instname:Universidade Federal de Itajubá (UNIFEI)
instacron:UNIFEI
instname_str Universidade Federal de Itajubá (UNIFEI)
instacron_str UNIFEI
institution UNIFEI
reponame_str Research, Society and Development
collection Research, Society and Development
repository.name.fl_str_mv Research, Society and Development - Universidade Federal de Itajubá (UNIFEI)
repository.mail.fl_str_mv rsd.articles@gmail.com
_version_ 1797052837598855168