Comparison between interpretability methods in object detection
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Dissertação |
Idioma: | eng |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10400.21/17032 |
Resumo: | Mestrado em Matemática Aplicada para a Indústria |
id |
RCAP_e479ffd79892bbf2230c90ed5145012b |
---|---|
oai_identifier_str |
oai:repositorio.ipl.pt:10400.21/17032 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Comparison between interpretability methods in object detectionInteligência artificial explicávelTécnicas de interpretabilidade,Visão computacionalRedes neuronais profundasExplainable artificial intelligenceInterpretability techniquesComputer visionMestrado em Matemática Aplicada para a IndústriaAs redes neuronais profundas (DNN) são ferramentas muito poderosas e flexíveis. Com tais capacidades, estas t ˆem sido adotadas em diversos tipos de problemas: desde problemas clássicos com dados tabulares até problemas de texto e imagem. Na base dos problemas de imagem, estão as redes neuronais convulsionais (CNN). A CNN é um tipo de DNN especializado em classificação de imagens, segmentação de imagens e deteção de objetos. No entanto, devido à forma como as DNN são construídas, estes constituem modelos de caixa preta. Ou seja, não é possível compreender as razoes subjacentes que levam o modelo a tomar uma decisão específica. Esta limitação do algoritmo leva à resistência em adotar estes métodos em áreas mais sensíveis, como medicina, condução autónoma, finanças, etc. Portanto, a capacidade de interpretar e explicar as razoes subjacente de cada decisão do modelo ´e fundamental para diversas aplicações e será o principal foco desta tese. Atualmente, existem diversas técnicas que tentam apresentar uma explicação para qualquer modelo de DNN, no entanto, dada a diversidade de técnicas, torna-se difícil identificar quais são as melhores ou mais adequadas para um determinado cenário. Assim, neste estudo, é apresentada uma comparação entre várias técnicas populares de explicabilidade. Os resultados mostram que técnicas como D-RISE e LIME conseguem produzir explicações claras sobre as razões por trás de diversos modelo de visão computacional, proporcionando confiança ao utilizador. No entanto, estes métodos revelão-se computacionalmente dispendiosos. Porém, outros algoritmos menos dispendiosos em termos computacionais, como por exemplo o Grad-CAM e o Eigen-CAM tornam-se boas opções, fornecendo explicações rápidas, mesmo com um decréscimo na qualidade. É também possível concluir que estes métodos são excelentes para detetar problemas não identificados nos dados considerados, evitando dificuldades na fase de produção do sistema.Deep neural networks (DNN) are very powerful and flexible tools that have taken over the entire field. With such capabilities, they have seen a huge adoption rate in wide range of problems: from classical tabular data to text and image problems. On the basis of image problems are Convolutional neural networks (CNN). CNN is a type of DNN specialized for certain tasks like image classification, image segmentation, and object detection, among others. However, by their design nature, DNNs are a black-box model. That is, it is not possible to understand the underlying reasons that lead the model to make a certain decision. Such inability leads to resistance to adopting these methods in more sensitive areas like medicine, autonomous driving, finance, etc. Hence, the ability to interpret and explain the underlying reason for a model decision is fundamental for a multitude of applications. These are the focus of this study. Currently, there exists a large variety of techniques that try to provide an explanation for any computer vision DNN model. However, with such a diversity in techniques, it becomes hard to identify which are the best or which are the most adequate for a given scenario. In this study, a comparison between several popular explainability techniques is presented. The results show that techniques such as D-RISE and LIME can provide clear and insightful knowledge about the reasons behind any computer vision model, hence, providing trust to the user. However, these methods are computationally expensive. Nonetheless, less computationally expensive algorithms, like Grad-CAM and Eigen-CAM, are good variants, providing fast explanations even if with a drop in quality. It was also possible to conclude that these methods are efficient at finding unidentified problems with the data considered, thus saving difficulties in the production phase of the system.Geraldes, CarlosEnguica, RicardoRCIPLCarvalho, Diogo Camilo de2024-01-30T14:45:38Z20232023-01-01T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.21/17032TID:203446208engCarvalho, Diogo Camilo de - Comparison between interpretability methods in object detection. Lisboa: Instituto Superior de Engenharia de Lisboa, 2023. Dissertação de Mestradoinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2024-02-07T02:15:41Zoai:repositorio.ipl.pt:10400.21/17032Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-20T01:59:16.096410Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Comparison between interpretability methods in object detection |
title |
Comparison between interpretability methods in object detection |
spellingShingle |
Comparison between interpretability methods in object detection Carvalho, Diogo Camilo de Inteligência artificial explicável Técnicas de interpretabilidade, Visão computacional Redes neuronais profundas Explainable artificial intelligence Interpretability techniques Computer vision |
title_short |
Comparison between interpretability methods in object detection |
title_full |
Comparison between interpretability methods in object detection |
title_fullStr |
Comparison between interpretability methods in object detection |
title_full_unstemmed |
Comparison between interpretability methods in object detection |
title_sort |
Comparison between interpretability methods in object detection |
author |
Carvalho, Diogo Camilo de |
author_facet |
Carvalho, Diogo Camilo de |
author_role |
author |
dc.contributor.none.fl_str_mv |
Geraldes, Carlos Enguica, Ricardo RCIPL |
dc.contributor.author.fl_str_mv |
Carvalho, Diogo Camilo de |
dc.subject.por.fl_str_mv |
Inteligência artificial explicável Técnicas de interpretabilidade, Visão computacional Redes neuronais profundas Explainable artificial intelligence Interpretability techniques Computer vision |
topic |
Inteligência artificial explicável Técnicas de interpretabilidade, Visão computacional Redes neuronais profundas Explainable artificial intelligence Interpretability techniques Computer vision |
description |
Mestrado em Matemática Aplicada para a Indústria |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023 2023-01-01T00:00:00Z 2024-01-30T14:45:38Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10400.21/17032 TID:203446208 |
url |
http://hdl.handle.net/10400.21/17032 |
identifier_str_mv |
TID:203446208 |
dc.language.iso.fl_str_mv |
eng |
language |
eng |
dc.relation.none.fl_str_mv |
Carvalho, Diogo Camilo de - Comparison between interpretability methods in object detection. Lisboa: Instituto Superior de Engenharia de Lisboa, 2023. Dissertação de Mestrado |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799137076242808832 |