Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.

Detalhes bibliográficos
Autor(a) principal: MAIA, Matheus Gomes.
Data de Publicação: 2022
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFCG
Texto Completo: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
Resumo: As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.
id UFCG_a8dfec976b50425be9ae71867638d73a
oai_identifier_str oai:localhost:riufcg/27363
network_acronym_str UFCG
network_name_str Biblioteca Digital de Teses e Dissertações da UFCG
repository_id_str 4851
spelling Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.Interpretability of convolutional neural networks with case study in diagnostic imaging.Inteligência artificialRedes neurais convolucionaisInterpretabilidade de redes neurais convolucionaisDiagnóstico por imagemArtificial intelligenceConvolutional neural networksInterpretability of convolutional neural networksDiagnosis by imageCiência da ComputaçãoAs redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.Deep neural networks have enabled remarkable advances in image processing and analysis. The complexity resulting from the adoption of these Machine learning models, characterized by an increasing number of parameters, induce knowledge representations and decision flows that go beyond human understanding, especially when it comes to models used in visual tasks such as Convolutional Neural Networks. This research reviews and structures approaches and interpretability techniques, which aim to expose, in a understandable way, the workings or internal knowledge of these models convolutional. In this research, the objectives of the interpretability techniques and the characteristics of revised interpretable models From. The recent scientific debate on the evaluation of new interpretability techniques was presented and explored in a practical way in a case study. O This study was carried out in an unusual image niche for research that evaluates interpretability techniques, that of medical diagnosis, which proved to be challenging and rich in learning. The case study considers, end-to-end, the steps of training, interpretability and evaluation of the techniques, something that can be easily reproduced in other data sets. For the training stage two convolutional architectures were used trained on two composite sets. by images of medical exams, being these, thoracic X-ray and tomography of optical coherence (OCT). For the explanation step, ten interpretability techniques were used to produce explanations for the trained models. Finally, for the technique evaluation stage, the explanations were submitted to three evaluations: Guide to Disorders, Randomization of Labels and Pointing Game. Each evaluation brought challenges and lessons learned about its approaches and necessary resources. For example, the Guide to Disturbances assessment favors concise, but is hampered by an effect known as Şout of distribution entries, in addition to having a high processing cost. This dissertation aims to main contributions to the production of a narrative and propositional bibliographic review on the area of ​​interpretability of neural networks, including the discussion of topics such as taxonomy of approaches to interpretability and categorization of quantitative assessments of attribution techniques, in addition to a case study on evaluations of techniques that interpret Convolutional Neural Networks.Universidade Federal de Campina GrandeBrasilCentro de Engenharia Elétrica e Informática - CEEIPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOUFCGGOMES, Herman Martins.GOMES, H. M.Gomes, H. M.Gomes, Herman Martins.http://lattes.cnpq.br/4223020694433271PEREIRA, Eanes Torres.PEREIRA, E. T.PEREIRA, EANES TORRES.PEREIRA, EANES T.http://lattes.cnpq.br/2030738304003254AIRES, Kelson Romulo Teixeira.AIRES, K. R. T.AIRES, KELSON R. T.AIRES, KELSON R.T.http://lattes.cnpq.br/0065931835203045MAIA, Matheus Gomes.2022-06-142022-09-21T17:53:38Z2022-09-212022-09-21T17:53:38Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesishttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022.porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFCGinstname:Universidade Federal de Campina Grande (UFCG)instacron:UFCG2022-09-22T00:13:17Zoai:localhost:riufcg/27363Biblioteca Digital de Teses e Dissertaçõeshttp://bdtd.ufcg.edu.br/PUBhttp://dspace.sti.ufcg.edu.br:8080/oai/requestbdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.bropendoar:48512022-09-22T00:13:17Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)false
dc.title.none.fl_str_mv Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
Interpretability of convolutional neural networks with case study in diagnostic imaging.
title Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
spellingShingle Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
MAIA, Matheus Gomes.
Inteligência artificial
Redes neurais convolucionais
Interpretabilidade de redes neurais convolucionais
Diagnóstico por imagem
Artificial intelligence
Convolutional neural networks
Interpretability of convolutional neural networks
Diagnosis by image
Ciência da Computação
title_short Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
title_full Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
title_fullStr Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
title_full_unstemmed Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
title_sort Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
author MAIA, Matheus Gomes.
author_facet MAIA, Matheus Gomes.
author_role author
dc.contributor.none.fl_str_mv GOMES, Herman Martins.
GOMES, H. M.
Gomes, H. M.
Gomes, Herman Martins.
http://lattes.cnpq.br/4223020694433271
PEREIRA, Eanes Torres.
PEREIRA, E. T.
PEREIRA, EANES TORRES.
PEREIRA, EANES T.
http://lattes.cnpq.br/2030738304003254
AIRES, Kelson Romulo Teixeira.
AIRES, K. R. T.
AIRES, KELSON R. T.
AIRES, KELSON R.T.
http://lattes.cnpq.br/0065931835203045
dc.contributor.author.fl_str_mv MAIA, Matheus Gomes.
dc.subject.por.fl_str_mv Inteligência artificial
Redes neurais convolucionais
Interpretabilidade de redes neurais convolucionais
Diagnóstico por imagem
Artificial intelligence
Convolutional neural networks
Interpretability of convolutional neural networks
Diagnosis by image
Ciência da Computação
topic Inteligência artificial
Redes neurais convolucionais
Interpretabilidade de redes neurais convolucionais
Diagnóstico por imagem
Artificial intelligence
Convolutional neural networks
Interpretability of convolutional neural networks
Diagnosis by image
Ciência da Computação
description As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.
publishDate 2022
dc.date.none.fl_str_mv 2022-06-14
2022-09-21T17:53:38Z
2022-09-21
2022-09-21T17:53:38Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022.
url http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363
identifier_str_mv MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022.
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Campina Grande
Brasil
Centro de Engenharia Elétrica e Informática - CEEI
PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
UFCG
publisher.none.fl_str_mv Universidade Federal de Campina Grande
Brasil
Centro de Engenharia Elétrica e Informática - CEEI
PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
UFCG
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFCG
instname:Universidade Federal de Campina Grande (UFCG)
instacron:UFCG
instname_str Universidade Federal de Campina Grande (UFCG)
instacron_str UFCG
institution UFCG
reponame_str Biblioteca Digital de Teses e Dissertações da UFCG
collection Biblioteca Digital de Teses e Dissertações da UFCG
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)
repository.mail.fl_str_mv bdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.br
_version_ 1809744556794576896