Comparison between interpretability methods in object detection

Detalhes bibliográficos
Autor(a) principal: Carvalho, Diogo Camilo de
Data de Publicação: 2023
Tipo de documento: Dissertação
Idioma: eng
Título da fonte: Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
Texto Completo: http://hdl.handle.net/10400.21/17032
Resumo: Mestrado em Matemática Aplicada para a Indústria
id RCAP_e479ffd79892bbf2230c90ed5145012b
oai_identifier_str oai:repositorio.ipl.pt:10400.21/17032
network_acronym_str RCAP
network_name_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository_id_str 7160
spelling Comparison between interpretability methods in object detectionInteligência artificial explicávelTécnicas de interpretabilidade,Visão computacionalRedes neuronais profundasExplainable artificial intelligenceInterpretability techniquesComputer visionMestrado em Matemática Aplicada para a IndústriaAs redes neuronais profundas (DNN) são ferramentas muito poderosas e flexíveis. Com tais capacidades, estas t ˆem sido adotadas em diversos tipos de problemas: desde problemas clássicos com dados tabulares até problemas de texto e imagem. Na base dos problemas de imagem, estão as redes neuronais convulsionais (CNN). A CNN é um tipo de DNN especializado em classificação de imagens, segmentação de imagens e deteção de objetos. No entanto, devido à forma como as DNN são construídas, estes constituem modelos de caixa preta. Ou seja, não é possível compreender as razoes subjacentes que levam o modelo a tomar uma decisão específica. Esta limitação do algoritmo leva à resistência em adotar estes métodos em áreas mais sensíveis, como medicina, condução autónoma, finanças, etc. Portanto, a capacidade de interpretar e explicar as razoes subjacente de cada decisão do modelo ´e fundamental para diversas aplicações e será o principal foco desta tese. Atualmente, existem diversas técnicas que tentam apresentar uma explicação para qualquer modelo de DNN, no entanto, dada a diversidade de técnicas, torna-se difícil identificar quais são as melhores ou mais adequadas para um determinado cenário. Assim, neste estudo, é apresentada uma comparação entre várias técnicas populares de explicabilidade. Os resultados mostram que técnicas como D-RISE e LIME conseguem produzir explicações claras sobre as razões por trás de diversos modelo de visão computacional, proporcionando confiança ao utilizador. No entanto, estes métodos revelão-se computacionalmente dispendiosos. Porém, outros algoritmos menos dispendiosos em termos computacionais, como por exemplo o Grad-CAM e o Eigen-CAM tornam-se boas opções, fornecendo explicações rápidas, mesmo com um decréscimo na qualidade. É também possível concluir que estes métodos são excelentes para detetar problemas não identificados nos dados considerados, evitando dificuldades na fase de produção do sistema.Deep neural networks (DNN) are very powerful and flexible tools that have taken over the entire field. With such capabilities, they have seen a huge adoption rate in wide range of problems: from classical tabular data to text and image problems. On the basis of image problems are Convolutional neural networks (CNN). CNN is a type of DNN specialized for certain tasks like image classification, image segmentation, and object detection, among others. However, by their design nature, DNNs are a black-box model. That is, it is not possible to understand the underlying reasons that lead the model to make a certain decision. Such inability leads to resistance to adopting these methods in more sensitive areas like medicine, autonomous driving, finance, etc. Hence, the ability to interpret and explain the underlying reason for a model decision is fundamental for a multitude of applications. These are the focus of this study. Currently, there exists a large variety of techniques that try to provide an explanation for any computer vision DNN model. However, with such a diversity in techniques, it becomes hard to identify which are the best or which are the most adequate for a given scenario. In this study, a comparison between several popular explainability techniques is presented. The results show that techniques such as D-RISE and LIME can provide clear and insightful knowledge about the reasons behind any computer vision model, hence, providing trust to the user. However, these methods are computationally expensive. Nonetheless, less computationally expensive algorithms, like Grad-CAM and Eigen-CAM, are good variants, providing fast explanations even if with a drop in quality. It was also possible to conclude that these methods are efficient at finding unidentified problems with the data considered, thus saving difficulties in the production phase of the system.Geraldes, CarlosEnguica, RicardoRCIPLCarvalho, Diogo Camilo de2024-01-30T14:45:38Z20232023-01-01T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.21/17032TID:203446208engCarvalho, Diogo Camilo de - Comparison between interpretability methods in object detection. Lisboa: Instituto Superior de Engenharia de Lisboa, 2023. Dissertação de Mestradoinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2024-02-07T02:15:41Zoai:repositorio.ipl.pt:10400.21/17032Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-20T01:59:16.096410Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse
dc.title.none.fl_str_mv Comparison between interpretability methods in object detection
title Comparison between interpretability methods in object detection
spellingShingle Comparison between interpretability methods in object detection
Carvalho, Diogo Camilo de
Inteligência artificial explicável
Técnicas de interpretabilidade,
Visão computacional
Redes neuronais profundas
Explainable artificial intelligence
Interpretability techniques
Computer vision
title_short Comparison between interpretability methods in object detection
title_full Comparison between interpretability methods in object detection
title_fullStr Comparison between interpretability methods in object detection
title_full_unstemmed Comparison between interpretability methods in object detection
title_sort Comparison between interpretability methods in object detection
author Carvalho, Diogo Camilo de
author_facet Carvalho, Diogo Camilo de
author_role author
dc.contributor.none.fl_str_mv Geraldes, Carlos
Enguica, Ricardo
RCIPL
dc.contributor.author.fl_str_mv Carvalho, Diogo Camilo de
dc.subject.por.fl_str_mv Inteligência artificial explicável
Técnicas de interpretabilidade,
Visão computacional
Redes neuronais profundas
Explainable artificial intelligence
Interpretability techniques
Computer vision
topic Inteligência artificial explicável
Técnicas de interpretabilidade,
Visão computacional
Redes neuronais profundas
Explainable artificial intelligence
Interpretability techniques
Computer vision
description Mestrado em Matemática Aplicada para a Indústria
publishDate 2023
dc.date.none.fl_str_mv 2023
2023-01-01T00:00:00Z
2024-01-30T14:45:38Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10400.21/17032
TID:203446208
url http://hdl.handle.net/10400.21/17032
identifier_str_mv TID:203446208
dc.language.iso.fl_str_mv eng
language eng
dc.relation.none.fl_str_mv Carvalho, Diogo Camilo de - Comparison between interpretability methods in object detection. Lisboa: Instituto Superior de Engenharia de Lisboa, 2023. Dissertação de Mestrado
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron:RCAAP
instname_str Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron_str RCAAP
institution RCAAP
reponame_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
collection Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository.name.fl_str_mv Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
repository.mail.fl_str_mv
_version_ 1799137076242808832