Inteligência Artificial Explicável (XAI) na área médica

Detalhes bibliográficos
Autor(a) principal: Machado, Arthur Cisotto
Data de Publicação: 2023
Tipo de documento: Relatório
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações do INSPER
Texto Completo: https://repositorio.insper.edu.br/handle/11224/6368
Resumo: A Inteligência Artificial (IA), em seu avanço, permeia agora diversas facetas de nossas vidas, desde assistentes por voz a anúncios personalizados. Contudo, enquanto a IA exibe potencial em múltiplos domínios. A opacidade de muitos de seus modelos, particularmente aqueles classificados como "caixa preta", ressalta uma preocupação crescente com a interpretabilidade. A capacidade de decifrar e justificar as previsões e decisões de um modelo é fundamental, especialmente em aplicações vitais como a medicina, onde cada decisão pode repercutir diretamente na vida dos pacientes. Neste relatório, ao mergulhar na interface entre modelos de machine learning e sua relevância clínica, constatamos a necessidade premente de equilibrar eficiência preditiva e transparência. Os resultados indicam uma dualidade: enquanto modelos mais complexos demonstraram superioridade em acurácia, sua interpretabilidade frequentemente decaía. Para aprofundar a compreensão dos atributos determinantes nas previsões, empregamos a análise SHAP, uma ferramenta de destaque no domínio do machine learning. Os insights obtidos com esta análise tornaram-se cruciais para validar e contextualizar as previsões no cenário clínico. Em conclusão, à medida que a IA continua a moldar a medicina, a busca por modelos de alta performance que mantenham a transparência se torna essencial. As descobertas do estudo sublinham a necessidade emergente de métricas robustas de interpretabilidade, garantindo que os modelos adotados sejam não só precisos, mas também intuitivos e compreensíveis para a comunidade médica.
id INSP_c1909c7541842fb3a1d71dfd8f873b25
oai_identifier_str oai:repositorio.insper.edu.br:11224/6368
network_acronym_str INSP
network_name_str Biblioteca Digital de Teses e Dissertações do INSPER
repository_id_str
spelling Inteligência Artificial Explicável (XAI) na área médicainteligência artificial explicávelXAIinterpretabilidadeexplicabilidadeA Inteligência Artificial (IA), em seu avanço, permeia agora diversas facetas de nossas vidas, desde assistentes por voz a anúncios personalizados. Contudo, enquanto a IA exibe potencial em múltiplos domínios. A opacidade de muitos de seus modelos, particularmente aqueles classificados como "caixa preta", ressalta uma preocupação crescente com a interpretabilidade. A capacidade de decifrar e justificar as previsões e decisões de um modelo é fundamental, especialmente em aplicações vitais como a medicina, onde cada decisão pode repercutir diretamente na vida dos pacientes. Neste relatório, ao mergulhar na interface entre modelos de machine learning e sua relevância clínica, constatamos a necessidade premente de equilibrar eficiência preditiva e transparência. Os resultados indicam uma dualidade: enquanto modelos mais complexos demonstraram superioridade em acurácia, sua interpretabilidade frequentemente decaía. Para aprofundar a compreensão dos atributos determinantes nas previsões, empregamos a análise SHAP, uma ferramenta de destaque no domínio do machine learning. Os insights obtidos com esta análise tornaram-se cruciais para validar e contextualizar as previsões no cenário clínico. Em conclusão, à medida que a IA continua a moldar a medicina, a busca por modelos de alta performance que mantenham a transparência se torna essencial. As descobertas do estudo sublinham a necessidade emergente de métricas robustas de interpretabilidade, garantindo que os modelos adotados sejam não só precisos, mas também intuitivos e compreensíveis para a comunidade médica.Artificial Intelligence (AI), in its advancement, now permeates various facets of our lives, from voice assistants to personalized ads. However, while AI exhibits potential across multiple domains, the opacity of many of its models, particularly those labeled as "black box", highlights a growing concern with interpretability. The ability to decipher and justify a model's predictions and decisions is paramount, especially in critical applications such as medicine, where each decision can directly impact patient lives. In this report, as we delve into the interface between machine learning models and their clinical relevance, we identified the pressing need to balance predictive efficiency and transparency. The results indicate a duality: while more complex models showed superiority in accuracy, their interpretability often waned. To deepen the understanding of determinant attributes in predictions, we employed SHAP analysis, a standout tool in the machine learning domain. The insights obtained from this analysis became vital to validate and contextualize predictions in the clinical scenario. In conclusion, as AI continues to shape medicine, the quest for high performance models that maintain transparency becomes essential. The findings from the study underscore the emerging need for robust interpretability metrics, ensuring that adopted models are not only accurate but also intuitive and comprehensible to the medical communityVidal, Maciel CalebeMachado, Arthur CisottoMachado, Arthur Cisotto2024-01-24T18:03:06Z2024-01-24T18:03:06Z2023info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/report38 p.Digitalapplication/pdfapplication/pdfhttps://repositorio.insper.edu.br/handle/11224/6368BrasilSão PauloTODOS OS DOCUMENTOS DESTA COLEÇÃO PODEM SER ACESSADOS, MANTENDO-SE OS DIREITOS DOS AUTORES PELA CITAÇÃO DA ORIGEM.info:eu-repo/semantics/openAccessporreponame:Biblioteca Digital de Teses e Dissertações do INSPERinstname:Instituição de Ensino Superior e de Pesquisa (INSPER)instacron:INSPER2024-01-25T05:02:18Zoai:repositorio.insper.edu.br:11224/6368Biblioteca Digital de Teses e Dissertaçõeshttps://www.insper.edu.br/biblioteca-telles/PRIhttps://repositorio.insper.edu.br/oai/requestbiblioteca@insper.edu.br ||opendoar:2024-01-25T05:02:18Biblioteca Digital de Teses e Dissertações do INSPER - Instituição de Ensino Superior e de Pesquisa (INSPER)false
dc.title.none.fl_str_mv Inteligência Artificial Explicável (XAI) na área médica
title Inteligência Artificial Explicável (XAI) na área médica
spellingShingle Inteligência Artificial Explicável (XAI) na área médica
Machado, Arthur Cisotto
inteligência artificial explicável
XAI
interpretabilidade
explicabilidade
title_short Inteligência Artificial Explicável (XAI) na área médica
title_full Inteligência Artificial Explicável (XAI) na área médica
title_fullStr Inteligência Artificial Explicável (XAI) na área médica
title_full_unstemmed Inteligência Artificial Explicável (XAI) na área médica
title_sort Inteligência Artificial Explicável (XAI) na área médica
author Machado, Arthur Cisotto
author_facet Machado, Arthur Cisotto
author_role author
dc.contributor.none.fl_str_mv Vidal, Maciel Calebe
dc.contributor.author.fl_str_mv Machado, Arthur Cisotto
Machado, Arthur Cisotto
dc.subject.por.fl_str_mv inteligência artificial explicável
XAI
interpretabilidade
explicabilidade
topic inteligência artificial explicável
XAI
interpretabilidade
explicabilidade
description A Inteligência Artificial (IA), em seu avanço, permeia agora diversas facetas de nossas vidas, desde assistentes por voz a anúncios personalizados. Contudo, enquanto a IA exibe potencial em múltiplos domínios. A opacidade de muitos de seus modelos, particularmente aqueles classificados como "caixa preta", ressalta uma preocupação crescente com a interpretabilidade. A capacidade de decifrar e justificar as previsões e decisões de um modelo é fundamental, especialmente em aplicações vitais como a medicina, onde cada decisão pode repercutir diretamente na vida dos pacientes. Neste relatório, ao mergulhar na interface entre modelos de machine learning e sua relevância clínica, constatamos a necessidade premente de equilibrar eficiência preditiva e transparência. Os resultados indicam uma dualidade: enquanto modelos mais complexos demonstraram superioridade em acurácia, sua interpretabilidade frequentemente decaía. Para aprofundar a compreensão dos atributos determinantes nas previsões, empregamos a análise SHAP, uma ferramenta de destaque no domínio do machine learning. Os insights obtidos com esta análise tornaram-se cruciais para validar e contextualizar as previsões no cenário clínico. Em conclusão, à medida que a IA continua a moldar a medicina, a busca por modelos de alta performance que mantenham a transparência se torna essencial. As descobertas do estudo sublinham a necessidade emergente de métricas robustas de interpretabilidade, garantindo que os modelos adotados sejam não só precisos, mas também intuitivos e compreensíveis para a comunidade médica.
publishDate 2023
dc.date.none.fl_str_mv 2023
2024-01-24T18:03:06Z
2024-01-24T18:03:06Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/report
format report
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://repositorio.insper.edu.br/handle/11224/6368
url https://repositorio.insper.edu.br/handle/11224/6368
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv 38 p.
Digital
application/pdf
application/pdf
dc.coverage.none.fl_str_mv Brasil
São Paulo
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações do INSPER
instname:Instituição de Ensino Superior e de Pesquisa (INSPER)
instacron:INSPER
instname_str Instituição de Ensino Superior e de Pesquisa (INSPER)
instacron_str INSPER
institution INSPER
reponame_str Biblioteca Digital de Teses e Dissertações do INSPER
collection Biblioteca Digital de Teses e Dissertações do INSPER
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações do INSPER - Instituição de Ensino Superior e de Pesquisa (INSPER)
repository.mail.fl_str_mv biblioteca@insper.edu.br ||
_version_ 1814986272134922240