Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.
Autor(a) principal: | |
---|---|
Data de Publicação: | 2022 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFCG |
Texto Completo: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363 |
Resumo: | As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais. |
id |
UFCG_a8dfec976b50425be9ae71867638d73a |
---|---|
oai_identifier_str |
oai:localhost:riufcg/27363 |
network_acronym_str |
UFCG |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFCG |
repository_id_str |
4851 |
spelling |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem.Interpretability of convolutional neural networks with case study in diagnostic imaging.Inteligência artificialRedes neurais convolucionaisInterpretabilidade de redes neurais convolucionaisDiagnóstico por imagemArtificial intelligenceConvolutional neural networksInterpretability of convolutional neural networksDiagnosis by imageCiência da ComputaçãoAs redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais.Deep neural networks have enabled remarkable advances in image processing and analysis. The complexity resulting from the adoption of these Machine learning models, characterized by an increasing number of parameters, induce knowledge representations and decision flows that go beyond human understanding, especially when it comes to models used in visual tasks such as Convolutional Neural Networks. This research reviews and structures approaches and interpretability techniques, which aim to expose, in a understandable way, the workings or internal knowledge of these models convolutional. In this research, the objectives of the interpretability techniques and the characteristics of revised interpretable models From. The recent scientific debate on the evaluation of new interpretability techniques was presented and explored in a practical way in a case study. O This study was carried out in an unusual image niche for research that evaluates interpretability techniques, that of medical diagnosis, which proved to be challenging and rich in learning. The case study considers, end-to-end, the steps of training, interpretability and evaluation of the techniques, something that can be easily reproduced in other data sets. For the training stage two convolutional architectures were used trained on two composite sets. by images of medical exams, being these, thoracic X-ray and tomography of optical coherence (OCT). For the explanation step, ten interpretability techniques were used to produce explanations for the trained models. Finally, for the technique evaluation stage, the explanations were submitted to three evaluations: Guide to Disorders, Randomization of Labels and Pointing Game. Each evaluation brought challenges and lessons learned about its approaches and necessary resources. For example, the Guide to Disturbances assessment favors concise, but is hampered by an effect known as Şout of distribution entries, in addition to having a high processing cost. This dissertation aims to main contributions to the production of a narrative and propositional bibliographic review on the area of interpretability of neural networks, including the discussion of topics such as taxonomy of approaches to interpretability and categorization of quantitative assessments of attribution techniques, in addition to a case study on evaluations of techniques that interpret Convolutional Neural Networks.Universidade Federal de Campina GrandeBrasilCentro de Engenharia Elétrica e Informática - CEEIPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOUFCGGOMES, Herman Martins.GOMES, H. M.Gomes, H. M.Gomes, Herman Martins.http://lattes.cnpq.br/4223020694433271PEREIRA, Eanes Torres.PEREIRA, E. T.PEREIRA, EANES TORRES.PEREIRA, EANES T.http://lattes.cnpq.br/2030738304003254AIRES, Kelson Romulo Teixeira.AIRES, K. R. T.AIRES, KELSON R. T.AIRES, KELSON R.T.http://lattes.cnpq.br/0065931835203045MAIA, Matheus Gomes.2022-06-142022-09-21T17:53:38Z2022-09-212022-09-21T17:53:38Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesishttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022.porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFCGinstname:Universidade Federal de Campina Grande (UFCG)instacron:UFCG2022-09-22T00:13:17Zoai:localhost:riufcg/27363Biblioteca Digital de Teses e Dissertaçõeshttp://bdtd.ufcg.edu.br/PUBhttp://dspace.sti.ufcg.edu.br:8080/oai/requestbdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.bropendoar:48512022-09-22T00:13:17Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)false |
dc.title.none.fl_str_mv |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. Interpretability of convolutional neural networks with case study in diagnostic imaging. |
title |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
spellingShingle |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. MAIA, Matheus Gomes. Inteligência artificial Redes neurais convolucionais Interpretabilidade de redes neurais convolucionais Diagnóstico por imagem Artificial intelligence Convolutional neural networks Interpretability of convolutional neural networks Diagnosis by image Ciência da Computação |
title_short |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
title_full |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
title_fullStr |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
title_full_unstemmed |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
title_sort |
Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. |
author |
MAIA, Matheus Gomes. |
author_facet |
MAIA, Matheus Gomes. |
author_role |
author |
dc.contributor.none.fl_str_mv |
GOMES, Herman Martins. GOMES, H. M. Gomes, H. M. Gomes, Herman Martins. http://lattes.cnpq.br/4223020694433271 PEREIRA, Eanes Torres. PEREIRA, E. T. PEREIRA, EANES TORRES. PEREIRA, EANES T. http://lattes.cnpq.br/2030738304003254 AIRES, Kelson Romulo Teixeira. AIRES, K. R. T. AIRES, KELSON R. T. AIRES, KELSON R.T. http://lattes.cnpq.br/0065931835203045 |
dc.contributor.author.fl_str_mv |
MAIA, Matheus Gomes. |
dc.subject.por.fl_str_mv |
Inteligência artificial Redes neurais convolucionais Interpretabilidade de redes neurais convolucionais Diagnóstico por imagem Artificial intelligence Convolutional neural networks Interpretability of convolutional neural networks Diagnosis by image Ciência da Computação |
topic |
Inteligência artificial Redes neurais convolucionais Interpretabilidade de redes neurais convolucionais Diagnóstico por imagem Artificial intelligence Convolutional neural networks Interpretability of convolutional neural networks Diagnosis by image Ciência da Computação |
description |
As redes neurais profundas viabilizaram notáveis avanços em aplicações de processamento e análise de imagens. A complexidade decorrente da adoção desses modelos de aprendizado de máquina, caracterizados por um número crescente de parâmetros, induz representações de conhecimento e fluxos de decisão que ultrapassam a compreensão humana, principalmente quando se trata de modelos utilizados em tarefas visuais, como as Redes Neurais Convolucionais. A presente pesquisa revisa e estrutura abordagens e técnicas de interpretabilidade, que objetivam expor, de maneira compreensível, o funcionamento ou conhecimento interno desses modelos convolucionais. Nesta pesquisa, estão apresentados e organizados os objetivos das técnicas de interpretabilidade e as características de modelos interpretáveis revisa- dos. O recente debate científico sobre a avaliação de novas técnicas de interpretabilidade foi apresentado e explorado de maneira prática em um estudo de caso. O estudo foi realizado em um nicho de imagens não usual para pesquisas que avaliam técnicas de interpretabilidade, o de diagnóstico médico, que se mostrou desafiador e rico em aprendizados. O estudo de caso considera, de ponta a ponta, as etapas de treinamento, interpretabilidade e avaliação das técnicas, algo que pode ser facilmente reproduzido em outros conjuntos de dados. Para a etapa de treinamento foram utilizadas duas arquiteturas convolucionais treinadas em dois conjuntos com- postos por imagens de exames médicos, sendo esses, raio-X torácico e tomografia de coerência óptica (OCT). Para a etapa de explicação, dez técnicas de interpretabilidade foram utilizadas para produzir explicações para os modelos treinados. Por fim, para a etapa de avaliação das técnicas, as explicações foram submetidas a três avaliações: Guia para Pertubações, Randomização dos Rótulos e Jogo de Apontar. Cada avaliação trouxe desafios e aprendizados sobre os seus enfoques e recursos necessários. Por exemplo, a avaliação Guia para Pertubações favorece técnicas concisas, mas é prejudicada por um efeito conhecido como Şentradas fora da distribuição, além de possuir elevado custo de processamento. A presente dissertação tem como principais contribuições a produção de uma revisão bibliográfica narrativa e propositiva sobre a área de interpretabilidade de redes neurais, incluindo a discussão de temas tais como taxonomia das abordagens para interpretabilidade e categorização das avaliações quantitativas de técnicas de atribuição, além de um estudo de caso sobre avaliações de técnicas que interpretam Redes Neurais Convolucionais. |
publishDate |
2022 |
dc.date.none.fl_str_mv |
2022-06-14 2022-09-21T17:53:38Z 2022-09-21 2022-09-21T17:53:38Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363 MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022. |
url |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/27363 |
identifier_str_mv |
MAIA, Matheus Gomes. Interpretabilidade de redes neurais convolucionais com estudo de caso em diagnóstico por imagem. 2022. 110 f. Dissertação (Mestrado em Ciência da Computação ), Programa de Pós-graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2022. |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Engenharia Elétrica e Informática - CEEI PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO UFCG |
publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Engenharia Elétrica e Informática - CEEI PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO UFCG |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFCG instname:Universidade Federal de Campina Grande (UFCG) instacron:UFCG |
instname_str |
Universidade Federal de Campina Grande (UFCG) |
instacron_str |
UFCG |
institution |
UFCG |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFCG |
collection |
Biblioteca Digital de Teses e Dissertações da UFCG |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG) |
repository.mail.fl_str_mv |
bdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.br |
_version_ |
1809744556794576896 |