Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFCG |
Texto Completo: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 |
Resumo: | O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método. |
id |
UFCG_69d7cc7987877981974a8eba63afac5b |
---|---|
oai_identifier_str |
oai:localhost:riufcg/19525 |
network_acronym_str |
UFCG |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFCG |
repository_id_str |
4851 |
spelling |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.Generation of explanations for recommendation systems via interpretable local models.Sistemas de RecomendaçãoExplicações de RecomendaçõesInterpretabilidadeFatoração de MatrizesApredizabem ProfundaRecommender SystemsRecommendation ExplanationsInterpretabilityMatrix FactorizationDeep LearningCiência da ComputaçãoO aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.The increase in sophistication and complexity of Machine Learning (ML) models has turned them into black boxes where the reasoning behind their predictions is hard to understand by humans. Even for low-risk tasks such as movie recommendation, show why a recommendation was made has become a key requirement since it can potentially improve users’ trust and help them to make better decisions. In this sense, there is a growing need to equip such models with interpretability in order to make them clear or easy to understand. A popular approach to achieve this goal is known as post-hoc interpretability, which consists of separating the process of generating explanations from the complex model, i.e, adding a layer of interpretability on top of it. In this thesis, we propose to investigate post-hoc interpretability methods for complex recommender systems. In particular, we propose an adaptation of LIME (Local Interpretable Model-agnostic Explanations), a popular post-hoc interpretability method, whose objective is to learn an interpretable model, under a space of interpretable features in the neighborhood of the instance being predicted. In addition, we investigate how different neighborhood generation strategies can impact the quality of the explanations. We conduct offline experiments and show that our proposed adaptation is a promising alternative since it is comparable in terms of fidelity, i.e., can locally mimic the behavior of a complex recommender, and has the additional advantage of enabling different styles of explanations. Finally, we show that the user’s consumption history is the neighborhood strategy that best suits our approach.Universidade Federal de Campina GrandeBrasilCentro de Engenharia Elétrica e Informática - CEEIPÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOUFCGMARINHO, Leandro Balby.MARINHO, L. B.http://lattes.cnpq.br/3728312501032061CAMPELO, Cláudio Elízio Calazans.ANDRADE, Nazareno Ferreira de.MOURA, Edleno Silva de.MANZATO, Marcelo Garcia.NÓBREGA, Caio Santos Bezerra.2021-02-052021-06-21T20:52:29Z2021-06-212021-06-21T20:52:29Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesishttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFCGinstname:Universidade Federal de Campina Grande (UFCG)instacron:UFCG2022-03-17T12:08:32Zoai:localhost:riufcg/19525Biblioteca Digital de Teses e Dissertaçõeshttp://bdtd.ufcg.edu.br/PUBhttp://dspace.sti.ufcg.edu.br:8080/oai/requestbdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.bropendoar:48512022-03-17T12:08:32Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)false |
dc.title.none.fl_str_mv |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. Generation of explanations for recommendation systems via interpretable local models. |
title |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
spellingShingle |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. NÓBREGA, Caio Santos Bezerra. Sistemas de Recomendação Explicações de Recomendações Interpretabilidade Fatoração de Matrizes Apredizabem Profunda Recommender Systems Recommendation Explanations Interpretability Matrix Factorization Deep Learning Ciência da Computação |
title_short |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
title_full |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
title_fullStr |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
title_full_unstemmed |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
title_sort |
Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. |
author |
NÓBREGA, Caio Santos Bezerra. |
author_facet |
NÓBREGA, Caio Santos Bezerra. |
author_role |
author |
dc.contributor.none.fl_str_mv |
MARINHO, Leandro Balby. MARINHO, L. B. http://lattes.cnpq.br/3728312501032061 CAMPELO, Cláudio Elízio Calazans. ANDRADE, Nazareno Ferreira de. MOURA, Edleno Silva de. MANZATO, Marcelo Garcia. |
dc.contributor.author.fl_str_mv |
NÓBREGA, Caio Santos Bezerra. |
dc.subject.por.fl_str_mv |
Sistemas de Recomendação Explicações de Recomendações Interpretabilidade Fatoração de Matrizes Apredizabem Profunda Recommender Systems Recommendation Explanations Interpretability Matrix Factorization Deep Learning Ciência da Computação |
topic |
Sistemas de Recomendação Explicações de Recomendações Interpretabilidade Fatoração de Matrizes Apredizabem Profunda Recommender Systems Recommendation Explanations Interpretability Matrix Factorization Deep Learning Ciência da Computação |
description |
O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-02-05 2021-06-21T20:52:29Z 2021-06-21 2021-06-21T20:52:29Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 |
url |
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 |
identifier_str_mv |
NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Engenharia Elétrica e Informática - CEEI PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO UFCG |
publisher.none.fl_str_mv |
Universidade Federal de Campina Grande Brasil Centro de Engenharia Elétrica e Informática - CEEI PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO UFCG |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFCG instname:Universidade Federal de Campina Grande (UFCG) instacron:UFCG |
instname_str |
Universidade Federal de Campina Grande (UFCG) |
instacron_str |
UFCG |
institution |
UFCG |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFCG |
collection |
Biblioteca Digital de Teses e Dissertações da UFCG |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG) |
repository.mail.fl_str_mv |
bdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.br |
_version_ |
1809744496284401664 |