On the explainability of multiple sclerosis disease progression models

Detalhes bibliográficos
Autor(a) principal: Sousa, Maria João Coelho de
Data de Publicação: 2021
Tipo de documento: Dissertação
Idioma: eng
Título da fonte: Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
Texto Completo: http://hdl.handle.net/10316/98143
Resumo: Dissertação de Mestrado Integrado em Engenharia Biomédica apresentada à Faculdade de Ciências e Tecnologia
id RCAP_8ee9abf7dee9ee733ef631649a317751
oai_identifier_str oai:estudogeral.uc.pt:10316/98143
network_acronym_str RCAP
network_name_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository_id_str
spelling On the explainability of multiple sclerosis disease progression modelsSobre a explicabilidade de modelos de progressão da doença de esclerose múltiplaEsclerose MúltiplaProgressãoPrevisãoExplicabilidadeMachine LearningMultiple SclerosisProgressionPredictionExplainabilityMachine LearningDissertação de Mestrado Integrado em Engenharia Biomédica apresentada à Faculdade de Ciências e TecnologiaEsclerose múltipla ́e a doença neurológica predominante em jovens adultos globalmente. A complexidade e heterogeneidade da sua progressão, e o consequente desafio de um prognóstico adequado, levaram à criação de modelos de Machine learning (ML), capazes de fornecer um prognóstico auxiliado por computador. No entanto, os modelos desenvolvidos podem não oferecer garantias de confiança ou segurança que promovam a sua aplicação em contexto clínico. Explicabilidade é um conceito recente que visa criar explicações compreensíveis sobre os modelos de ML, para ajudar a mitigar a desconfiança associada à falta de informação sobre a lógica dos mesmos. O objetivo deste projeto ́e compreender se os modelos desenvolvidos por Pinto et al.[81], que preveem a progressão da doença, podem ser aplicados em ambiente clínico, e que tipo de explicações adicionais podem ajudar a atingir esse objetivo. Nesta dissertação de mestrado, vários métodos de explicabilidade foram desenvolvidos para gerar explicações humanamente compreensíveis sobre os modelos de previsão. As explicações continham informações gerais sobre os modelos, e o estudo de previsões de doentes específicos. Os resultados foram avaliados qualitativamente, com base na teoria fundamentada, através de entrevistas com cientistas de dados. As explicações mostraram que, geralmente, a escala de quantificação da condição neurológica (EDSS) e os Scores de alguns sistemas funcionais, nomeadamente os sistemas piramidal, cerebelar e mental, tiveram maior relevância nas previsões. A análise dos cientistas de dados sugeriu que os métodos de explicabilidade mais adequados para apoiar os modelos de previsão eram o poder preditivo de Pinto et al.[81], permutation feature importance, os partial dependence plots (PDPs), e os valores de Shapley.Multiple Sclerosis (MS) is the neurological disease most prevalent in young adultsworldwide. The complexity and heterogeneity of its progression and consequentchallenge of an adequate prognosis have led to the creation of ML models capableof providing a computer-aided prediction. However, the developed models may notoffer trust or safety guarantees that promote their application in a clinical context.Explainability is a recent field of study that aims to create human-comprehensibleexplanations about ML models to help mitigate the doubts associated with the lackof information about the models’ logic.The goal of this project is to understand if the models developed by Pinto et al.[81], that predict the progression of the disease, are able to be applied in a clinicalenvironment, and what type of additional explanations can help to achieve thatobjective.In this master thesis, several explainability methods were developed to producehuman-comprehensible explanations about the prediction models. The explanationscontained general information about the framework and analysis of specific patientpredictions. Then, these results were qualitatively evaluated through interviewswith data scientists that were analysed based on the Grounded Theory (GT).The explanations showed that, in general, the Expanded disability status scale(EDSS) and the scores of some Functional Systems (FS), namely the pyramidal,cerebellar, and mental systems, had the most predictive relevance. The analysis bythe data scientists suggested that the explainability methods most suited to supportthe prediction models were the predictive power by Pinto et al. [81], the permutationfeature importance, the PDP, and the Shapley Values.2021-11-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesishttp://hdl.handle.net/10316/98143http://hdl.handle.net/10316/98143TID:202922707engSousa, Maria João Coelho deinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2022-05-25T09:59:03ZPortal AgregadorONG
dc.title.none.fl_str_mv On the explainability of multiple sclerosis disease progression models
Sobre a explicabilidade de modelos de progressão da doença de esclerose múltipla
title On the explainability of multiple sclerosis disease progression models
spellingShingle On the explainability of multiple sclerosis disease progression models
Sousa, Maria João Coelho de
Esclerose Múltipla
Progressão
Previsão
Explicabilidade
Machine Learning
Multiple Sclerosis
Progression
Prediction
Explainability
Machine Learning
title_short On the explainability of multiple sclerosis disease progression models
title_full On the explainability of multiple sclerosis disease progression models
title_fullStr On the explainability of multiple sclerosis disease progression models
title_full_unstemmed On the explainability of multiple sclerosis disease progression models
title_sort On the explainability of multiple sclerosis disease progression models
author Sousa, Maria João Coelho de
author_facet Sousa, Maria João Coelho de
author_role author
dc.contributor.author.fl_str_mv Sousa, Maria João Coelho de
dc.subject.por.fl_str_mv Esclerose Múltipla
Progressão
Previsão
Explicabilidade
Machine Learning
Multiple Sclerosis
Progression
Prediction
Explainability
Machine Learning
topic Esclerose Múltipla
Progressão
Previsão
Explicabilidade
Machine Learning
Multiple Sclerosis
Progression
Prediction
Explainability
Machine Learning
description Dissertação de Mestrado Integrado em Engenharia Biomédica apresentada à Faculdade de Ciências e Tecnologia
publishDate 2021
dc.date.none.fl_str_mv 2021-11-17
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10316/98143
http://hdl.handle.net/10316/98143
TID:202922707
url http://hdl.handle.net/10316/98143
identifier_str_mv TID:202922707
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.source.none.fl_str_mv reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron:RCAAP
instname_str Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron_str RCAAP
institution RCAAP
reponame_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
collection Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository.name.fl_str_mv
repository.mail.fl_str_mv
_version_ 1777302781029253120