Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial

Detalhes bibliográficos
Autor(a) principal: Veras, Manuel Speranza Torres
Data de Publicação: 2022
Tipo de documento: Trabalho de conclusão de curso
Idioma: por
Título da fonte: Repositório Institucional da UFRGS
Texto Completo: http://hdl.handle.net/10183/240386
Resumo: Nos últimos anos, trabalhos inovadores, impulsionados por levantamentos robustos do céu e método eficientes de detecção, reacenderam o interesse da comunidade científica por Galáxias de Baixo Brilho Superficial, uma classe peculiar de galáxias que apresentam baixa densidade superficial de estrelas e são muito fracas e difusas em imagens ópticas. Se a detecção automática dessas galáxias em levantamentos fotométricos por si só já é uma tarefa complicada, dado seus baixos brilhos superficiais, as buscas por esses objetos sofrem de um problema adicional: a enorme quantidade de artefatos que são detectados nas imagens e também possuem baixo brilho superficial. Com a crescente quantidade de dados astronômicos, a inspeção visual para rejeitar os artefatos detectados se torna impraticável e é essencial desenvolver métodos eficientes para separar galáxias de baixo brilho superficial de artefatos. Métodos de aprendizado de máquina profundo, como as Redes Neurais Convolucionais, são considerados o estado da arte em diversos problemas de classificação de imagens. Neste trabalho, temos o objetivo de comparar a performance da rede Vision Tranformers, que causou forte impacto na literatura recentemente por desafiar o paradigma do estado da arte, com as Redes Neurais Convolucionais para identificar Galáxias de Baixo Brilho Superficial. Para fazer isso, implementamos uma rede Vision Transformers e a comparamos com a rede DeepShadows, uma Rede Neural Convolucional desenvolvida por Tanoglidis et al. (2021b). Ambas as redes foram treinadas a partir do único conjunto de imagens desses objetos publicamente disponível, composto de 40000 imagens do Dark Energy Survey. Verificamos que o nosso modelo alcançou métricas ligeiramente superiores às da DeepShadows. Entre essas, quando treinadas no conjunto de dados em formato PNG, o modelo padrão da nossa rede obteve uma acurácia de 0.929, 0.98% maior que a da DeepShadows. No entanto, ao fazer uma análise das incertezas das métricas de classificação utilizando o método de bootstrap, constatamos que o desempenho da nossa rede foi tão bom quanto o da DeepShadows dentro do intervalo de 95% de confiança das métricas. Além disso, utilizando imagens do mesmo conjunto de dados, porém no formato FITS, implementamos um método de pré-processamento dos dados de entrada, que visa aperfeiçoar o desempenho das redes. Este método consiste em realizar um ajuste de contraste para ressaltar os objetos de baixo brilho superficial nas imagens. Verificamos que o ajuste de contraste contribuiu para que tanto o modelo padrão da Vision Transformers como a DeepShadows alcançassem uma performance superior. Ainda assim, os melhores resultados do treinamento com o conjunto de imagens FITS não superam os resultados de ambas as redes quando treinadas no conjunto de PNG. Conforme mostrou Dosovitskiy et al. (2021), com o aumento da quantidade de dados, as redes Vision Transformers são capazes de superar o desempenho das Redes Neurais Convolucionais, portanto esse parece ser um panorama especialmente interessante para as Vision Transformers.
id UFRGS-2_712b2d92b13433ff3e82167cda360df8
oai_identifier_str oai:www.lume.ufrgs.br:10183/240386
network_acronym_str UFRGS-2
network_name_str Repositório Institucional da UFRGS
repository_id_str
spelling Veras, Manuel Speranza TorresFurlanetto, Cristina2022-06-15T04:47:52Z2022http://hdl.handle.net/10183/240386001142111Nos últimos anos, trabalhos inovadores, impulsionados por levantamentos robustos do céu e método eficientes de detecção, reacenderam o interesse da comunidade científica por Galáxias de Baixo Brilho Superficial, uma classe peculiar de galáxias que apresentam baixa densidade superficial de estrelas e são muito fracas e difusas em imagens ópticas. Se a detecção automática dessas galáxias em levantamentos fotométricos por si só já é uma tarefa complicada, dado seus baixos brilhos superficiais, as buscas por esses objetos sofrem de um problema adicional: a enorme quantidade de artefatos que são detectados nas imagens e também possuem baixo brilho superficial. Com a crescente quantidade de dados astronômicos, a inspeção visual para rejeitar os artefatos detectados se torna impraticável e é essencial desenvolver métodos eficientes para separar galáxias de baixo brilho superficial de artefatos. Métodos de aprendizado de máquina profundo, como as Redes Neurais Convolucionais, são considerados o estado da arte em diversos problemas de classificação de imagens. Neste trabalho, temos o objetivo de comparar a performance da rede Vision Tranformers, que causou forte impacto na literatura recentemente por desafiar o paradigma do estado da arte, com as Redes Neurais Convolucionais para identificar Galáxias de Baixo Brilho Superficial. Para fazer isso, implementamos uma rede Vision Transformers e a comparamos com a rede DeepShadows, uma Rede Neural Convolucional desenvolvida por Tanoglidis et al. (2021b). Ambas as redes foram treinadas a partir do único conjunto de imagens desses objetos publicamente disponível, composto de 40000 imagens do Dark Energy Survey. Verificamos que o nosso modelo alcançou métricas ligeiramente superiores às da DeepShadows. Entre essas, quando treinadas no conjunto de dados em formato PNG, o modelo padrão da nossa rede obteve uma acurácia de 0.929, 0.98% maior que a da DeepShadows. No entanto, ao fazer uma análise das incertezas das métricas de classificação utilizando o método de bootstrap, constatamos que o desempenho da nossa rede foi tão bom quanto o da DeepShadows dentro do intervalo de 95% de confiança das métricas. Além disso, utilizando imagens do mesmo conjunto de dados, porém no formato FITS, implementamos um método de pré-processamento dos dados de entrada, que visa aperfeiçoar o desempenho das redes. Este método consiste em realizar um ajuste de contraste para ressaltar os objetos de baixo brilho superficial nas imagens. Verificamos que o ajuste de contraste contribuiu para que tanto o modelo padrão da Vision Transformers como a DeepShadows alcançassem uma performance superior. Ainda assim, os melhores resultados do treinamento com o conjunto de imagens FITS não superam os resultados de ambas as redes quando treinadas no conjunto de PNG. Conforme mostrou Dosovitskiy et al. (2021), com o aumento da quantidade de dados, as redes Vision Transformers são capazes de superar o desempenho das Redes Neurais Convolucionais, portanto esse parece ser um panorama especialmente interessante para as Vision Transformers.In the last years, innovative works, fueled by robust sky surveys and efficient methods of detection, rekindled the interest of the scientific community for Low Surface Brightness Galaxies, a peculiar class of galaxies with low superficial stellar density that are very faint and diffuse in optical images. If the automatic detection of these galaxies in photometric surveys is already a complicated task, given their low surface brightness, searches for these objects suffer an aditional problem: the enormous amount of artifacts that are detected in the images and also have low surface brightness. With the growing amount of astronomical data, visual inspection to reject detected artifacts becomes impratical and it is necessary to develop efficient methods to separate Low Surface Brightness Galaxies from artifacts. Deep Learning methods, like Convolutional Neural Networks, are considered the state-of-the-art in several image classification problems. In this work, we aim at comparing the performance of the Visual Tranformers network, which recently caused a huge impact in the literature for challenging the paradigm of the state-of-the-art, with Convolutional Neural Networks to identify Low Surface Brightness Galaxies. To do that, we implemented a Visual Transformers Network and compared it with the DeepShadows Network, a Convolutional Neural Network developed by Tanoglidis et al. (2021b). Both networks were trained using the only image set of these objects publicly avaliable, composed of 40000 images from the Dark Energy Survey. We verified that our model achieved slightly superior metrics in comparison with DeepShadows. Between those, when trained on the dataset using the PNG format, the standard model of our network achieved an accuracy = 0.929, which is 0.98% higher than the one of DeepShadows. However, when computing the uncertainties on the metrics of our method using the bootstrap method, we have noticied that the performance of our network was as good as the one obtained by DeepShadows when considering de 95% confidence interval of the metrics. Besides that, using images of the same dataset, but in the FITS format, we implemented a method to pre-processes the input data, which aims to improve the performance of the networks. This method consists of doing a contrast adjusment to highlight low surface brightness objects in the images. We noticed that the contrast adjustment contribuited both to the ViT standard model and DeepShadows to achieve a higher performance. However, the best training result with the FITS image set did not overcome the results of both networks when applied to the PNG dataset. Like Dosovitskiy et al. (2021) showed, with the increase of the datasets, the Visual Tranformers Networks can overcome the performance of Convolutional Neural Networks, therefore that seems to be an specially interesting paradigm to Vision Transformers.application/pdfporRedes neuraisGaláxiasArquitetura de redes neuraisComparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficialinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisUniversidade Federal do Rio Grande do SulInstituto de FísicaPorto Alegre, BR-RS2022Física: Bachareladograduaçãoinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFRGSinstname:Universidade Federal do Rio Grande do Sul (UFRGS)instacron:UFRGSTEXT001142111.pdf.txt001142111.pdf.txtExtracted Texttext/plain100202http://www.lume.ufrgs.br/bitstream/10183/240386/2/001142111.pdf.txt634003e2ccb87cef1206c17d004e0e34MD52ORIGINAL001142111.pdfTexto completoapplication/pdf5201976http://www.lume.ufrgs.br/bitstream/10183/240386/1/001142111.pdf74edb74d395e4705afa1b680c5a0b2b7MD5110183/2403862022-06-16 04:43:29.732927oai:www.lume.ufrgs.br:10183/240386Repositório de PublicaçõesPUBhttps://lume.ufrgs.br/oai/requestopendoar:2022-06-16T07:43:29Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)false
dc.title.pt_BR.fl_str_mv Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
title Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
spellingShingle Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
Veras, Manuel Speranza Torres
Redes neurais
Galáxias
Arquitetura de redes neurais
title_short Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
title_full Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
title_fullStr Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
title_full_unstemmed Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
title_sort Comparando a performance de diferentes redes neurais para a classificação de galáxias de baixo brilho superficial
author Veras, Manuel Speranza Torres
author_facet Veras, Manuel Speranza Torres
author_role author
dc.contributor.author.fl_str_mv Veras, Manuel Speranza Torres
dc.contributor.advisor1.fl_str_mv Furlanetto, Cristina
contributor_str_mv Furlanetto, Cristina
dc.subject.por.fl_str_mv Redes neurais
Galáxias
Arquitetura de redes neurais
topic Redes neurais
Galáxias
Arquitetura de redes neurais
description Nos últimos anos, trabalhos inovadores, impulsionados por levantamentos robustos do céu e método eficientes de detecção, reacenderam o interesse da comunidade científica por Galáxias de Baixo Brilho Superficial, uma classe peculiar de galáxias que apresentam baixa densidade superficial de estrelas e são muito fracas e difusas em imagens ópticas. Se a detecção automática dessas galáxias em levantamentos fotométricos por si só já é uma tarefa complicada, dado seus baixos brilhos superficiais, as buscas por esses objetos sofrem de um problema adicional: a enorme quantidade de artefatos que são detectados nas imagens e também possuem baixo brilho superficial. Com a crescente quantidade de dados astronômicos, a inspeção visual para rejeitar os artefatos detectados se torna impraticável e é essencial desenvolver métodos eficientes para separar galáxias de baixo brilho superficial de artefatos. Métodos de aprendizado de máquina profundo, como as Redes Neurais Convolucionais, são considerados o estado da arte em diversos problemas de classificação de imagens. Neste trabalho, temos o objetivo de comparar a performance da rede Vision Tranformers, que causou forte impacto na literatura recentemente por desafiar o paradigma do estado da arte, com as Redes Neurais Convolucionais para identificar Galáxias de Baixo Brilho Superficial. Para fazer isso, implementamos uma rede Vision Transformers e a comparamos com a rede DeepShadows, uma Rede Neural Convolucional desenvolvida por Tanoglidis et al. (2021b). Ambas as redes foram treinadas a partir do único conjunto de imagens desses objetos publicamente disponível, composto de 40000 imagens do Dark Energy Survey. Verificamos que o nosso modelo alcançou métricas ligeiramente superiores às da DeepShadows. Entre essas, quando treinadas no conjunto de dados em formato PNG, o modelo padrão da nossa rede obteve uma acurácia de 0.929, 0.98% maior que a da DeepShadows. No entanto, ao fazer uma análise das incertezas das métricas de classificação utilizando o método de bootstrap, constatamos que o desempenho da nossa rede foi tão bom quanto o da DeepShadows dentro do intervalo de 95% de confiança das métricas. Além disso, utilizando imagens do mesmo conjunto de dados, porém no formato FITS, implementamos um método de pré-processamento dos dados de entrada, que visa aperfeiçoar o desempenho das redes. Este método consiste em realizar um ajuste de contraste para ressaltar os objetos de baixo brilho superficial nas imagens. Verificamos que o ajuste de contraste contribuiu para que tanto o modelo padrão da Vision Transformers como a DeepShadows alcançassem uma performance superior. Ainda assim, os melhores resultados do treinamento com o conjunto de imagens FITS não superam os resultados de ambas as redes quando treinadas no conjunto de PNG. Conforme mostrou Dosovitskiy et al. (2021), com o aumento da quantidade de dados, as redes Vision Transformers são capazes de superar o desempenho das Redes Neurais Convolucionais, portanto esse parece ser um panorama especialmente interessante para as Vision Transformers.
publishDate 2022
dc.date.accessioned.fl_str_mv 2022-06-15T04:47:52Z
dc.date.issued.fl_str_mv 2022
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10183/240386
dc.identifier.nrb.pt_BR.fl_str_mv 001142111
url http://hdl.handle.net/10183/240386
identifier_str_mv 001142111
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFRGS
instname:Universidade Federal do Rio Grande do Sul (UFRGS)
instacron:UFRGS
instname_str Universidade Federal do Rio Grande do Sul (UFRGS)
instacron_str UFRGS
institution UFRGS
reponame_str Repositório Institucional da UFRGS
collection Repositório Institucional da UFRGS
bitstream.url.fl_str_mv http://www.lume.ufrgs.br/bitstream/10183/240386/2/001142111.pdf.txt
http://www.lume.ufrgs.br/bitstream/10183/240386/1/001142111.pdf
bitstream.checksum.fl_str_mv 634003e2ccb87cef1206c17d004e0e34
74edb74d395e4705afa1b680c5a0b2b7
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFRGS - Universidade Federal do Rio Grande do Sul (UFRGS)
repository.mail.fl_str_mv
_version_ 1801224635523530752