Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.

Detalhes bibliográficos
Autor(a) principal: NÓBREGA, Caio Santos Bezerra.
Data de Publicação: 2021
Tipo de documento: Tese
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFCG
Texto Completo: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
Resumo: O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.
id UFCG_69d7cc7987877981974a8eba63afac5b
oai_identifier_str oai:localhost:riufcg/19525
network_acronym_str UFCG
network_name_str Biblioteca Digital de Teses e Dissertações da UFCG
repository_id_str 4851
spelling MARINHO, Leandro Balby.MARINHO, L. B.http://lattes.cnpq.br/3728312501032061CAMPELO, Cláudio Elízio Calazans.ANDRADE, Nazareno Ferreira de.MOURA, Edleno Silva de.MANZATO, Marcelo Garcia.NÓBREGA, C. S. B.http://lattes.cnpq.br/8188640293164060NÓBREGA, Caio Santos Bezerra.O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.The increase in sophistication and complexity of Machine Learning (ML) models has turned them into black boxes where the reasoning behind their predictions is hard to understand by humans. Even for low-risk tasks such as movie recommendation, show why a recommendation was made has become a key requirement since it can potentially improve users’ trust and help them to make better decisions. In this sense, there is a growing need to equip such models with interpretability in order to make them clear or easy to understand. A popular approach to achieve this goal is known as post-hoc interpretability, which consists of separating the process of generating explanations from the complex model, i.e, adding a layer of interpretability on top of it. In this thesis, we propose to investigate post-hoc interpretability methods for complex recommender systems. In particular, we propose an adaptation of LIME (Local Interpretable Model-agnostic Explanations), a popular post-hoc interpretability method, whose objective is to learn an interpretable model, under a space of interpretable features in the neighborhood of the instance being predicted. In addition, we investigate how different neighborhood generation strategies can impact the quality of the explanations. We conduct offline experiments and show that our proposed adaptation is a promising alternative since it is comparable in terms of fidelity, i.e., can locally mimic the behavior of a complex recommender, and has the additional advantage of enabling different styles of explanations. Finally, we show that the user’s consumption history is the neighborhood strategy that best suits our approach.Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2021-06-21T20:52:29Z No. of bitstreams: 1 CAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdf: 4834539 bytes, checksum: 304869dd107d752d20c1ff13d2f15c32 (MD5)Made available in DSpace on 2021-06-21T20:52:29Z (GMT). No. of bitstreams: 1 CAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdf: 4834539 bytes, checksum: 304869dd107d752d20c1ff13d2f15c32 (MD5) Previous issue date: 2021-02-05Universidade Federal de Campina GrandePÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃOUFCGBrasilCentro de Engenharia Elétrica e Informática - CEEICiência da ComputaçãoSistemas de RecomendaçãoExplicações de RecomendaçõesInterpretabilidadeFatoração de MatrizesApredizabem ProfundaRecommender SystemsRecommendation ExplanationsInterpretabilityMatrix FactorizationDeep LearningGeração de explicações para sistemas de recomendação via modelos locais interpretáveis.Generation of explanations for recommendation systems via interpretable local models.2021-02-052021-06-21T20:52:29Z2021-06-212021-06-21T20:52:29Zhttp://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisporinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFCGinstname:Universidade Federal de Campina Grande (UFCG)instacron:UFCGORIGINALCAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdfCAIO SANTOS BEZERRA NÓBREGA - TESE (PPGCC) 2021.pdfapplication/pdf2446042http://dspace.sti.ufcg.edu.br:8080/xmlui/bitstream/riufcg/19525/3/CAIO+SANTOS+BEZERRA+N%C3%93BREGA+-+TESE+%28PPGCC%29+2021.pdff27441d42369ddabefb1a5e6cf32ba8dMD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://dspace.sti.ufcg.edu.br:8080/xmlui/bitstream/riufcg/19525/2/license.txt8a4605be74aa9ea9d79846c1fba20a33MD52riufcg/195252022-03-17 09:08:32.651oai:localhost:riufcg/19525Tk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=Biblioteca Digital de Teses e Dissertaçõeshttp://bdtd.ufcg.edu.br/PUBhttp://dspace.sti.ufcg.edu.br:8080/oai/requestbdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.bropendoar:48512024-07-01T10:20:41.578309Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)false
dc.title.pt_BR.fl_str_mv Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
dc.title.alternative.pt_BR.fl_str_mv Generation of explanations for recommendation systems via interpretable local models.
title Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
spellingShingle Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
NÓBREGA, Caio Santos Bezerra.
Ciência da Computação
Sistemas de Recomendação
Explicações de Recomendações
Interpretabilidade
Fatoração de Matrizes
Apredizabem Profunda
Recommender Systems
Recommendation Explanations
Interpretability
Matrix Factorization
Deep Learning
title_short Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
title_full Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
title_fullStr Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
title_full_unstemmed Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
title_sort Geração de explicações para sistemas de recomendação via modelos locais interpretáveis.
author NÓBREGA, Caio Santos Bezerra.
author_facet NÓBREGA, Caio Santos Bezerra.
author_role author
dc.contributor.advisor1.fl_str_mv MARINHO, Leandro Balby.
dc.contributor.advisor1ID.fl_str_mv MARINHO, L. B.
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/3728312501032061
dc.contributor.referee1.fl_str_mv CAMPELO, Cláudio Elízio Calazans.
dc.contributor.referee2.fl_str_mv ANDRADE, Nazareno Ferreira de.
dc.contributor.referee3.fl_str_mv MOURA, Edleno Silva de.
dc.contributor.referee4.fl_str_mv MANZATO, Marcelo Garcia.
dc.contributor.authorID.fl_str_mv NÓBREGA, C. S. B.
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/8188640293164060
dc.contributor.author.fl_str_mv NÓBREGA, Caio Santos Bezerra.
contributor_str_mv MARINHO, Leandro Balby.
CAMPELO, Cláudio Elízio Calazans.
ANDRADE, Nazareno Ferreira de.
MOURA, Edleno Silva de.
MANZATO, Marcelo Garcia.
dc.subject.cnpq.fl_str_mv Ciência da Computação
topic Ciência da Computação
Sistemas de Recomendação
Explicações de Recomendações
Interpretabilidade
Fatoração de Matrizes
Apredizabem Profunda
Recommender Systems
Recommendation Explanations
Interpretability
Matrix Factorization
Deep Learning
dc.subject.por.fl_str_mv Sistemas de Recomendação
Explicações de Recomendações
Interpretabilidade
Fatoração de Matrizes
Apredizabem Profunda
Recommender Systems
Recommendation Explanations
Interpretability
Matrix Factorization
Deep Learning
description O aumento da sofisticação e da complexidade dos modelos de aprendizado de máquina os transformou em caixas-pretas, onde o raciocínio por trás de suas predições é difícil de entender por humanos. Mesmo para tarefas de baixo risco, como recomendação de filmes, mostrar porque uma recomendação foi feita se tornou um requisito importante, dado que pode aumentar a confiança dos usuários e ajudá-los a tomar decisões melhores. Nesse sentido, existe uma crescente necessidade de dotar tais modelos de interpretabilidade, de forma a torná-los claros ou de fácil compreensão. Uma abordagem popular para atingir esse objetivo é conhecida como post-hoc interpretability, a qual consiste em separar o processo de geração de explicações do modelo complexo, ou seja, adicionar uma camada de interpretabilidade sobre ele. Nesta tese, propomos investigar métodos post-hoc interpretability para sistemas de recomendação complexos. Em particular, propomos uma adaptação do LIME (Local Interpretable Model-agnostic Explanations), um método popular de interpretabilidade post hoc, cujo objetivo é aaprender um modelo interpretável, sob um espaço de características interpretáveis na vizinhança da instância que se deseja explicar. Além disso, investigamos como diferentes estratégias de geração de vizinhanças podem impactar a qualidade das explicações. Conduzimos experimentos offline e mostramos que nosso método proposto é uma alternativa promissora, pois é comparável em termos de fidelidade, ou seja, pode imitar localmente o comportamento de um recomendador complexo e tem a vantagem adicional de possibilitar diferentes estilos de explicação. Por fim, mostramos que o histórico de consumo do usuário é a estratégia de vizinhança que melhor se adequa ao nosso método.
publishDate 2021
dc.date.issued.fl_str_mv 2021-02-05
dc.date.accessioned.fl_str_mv 2021-06-21T20:52:29Z
dc.date.available.fl_str_mv 2021-06-21
2021-06-21T20:52:29Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
dc.identifier.citation.fl_str_mv NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
url http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
identifier_str_mv NÓBREGA, C. S. B. Geração de explicações para sistemas de recomendação via modelos locais interpretáveis. 2021. 123 f. Tese (Doutorado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2021. disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/19525
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Campina Grande
dc.publisher.program.fl_str_mv PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
dc.publisher.initials.fl_str_mv UFCG
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv Centro de Engenharia Elétrica e Informática - CEEI
publisher.none.fl_str_mv Universidade Federal de Campina Grande
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFCG
instname:Universidade Federal de Campina Grande (UFCG)
instacron:UFCG
instname_str Universidade Federal de Campina Grande (UFCG)
instacron_str UFCG
institution UFCG
reponame_str Biblioteca Digital de Teses e Dissertações da UFCG
collection Biblioteca Digital de Teses e Dissertações da UFCG
bitstream.url.fl_str_mv http://dspace.sti.ufcg.edu.br:8080/xmlui/bitstream/riufcg/19525/3/CAIO+SANTOS+BEZERRA+N%C3%93BREGA+-+TESE+%28PPGCC%29+2021.pdf
http://dspace.sti.ufcg.edu.br:8080/xmlui/bitstream/riufcg/19525/2/license.txt
bitstream.checksum.fl_str_mv f27441d42369ddabefb1a5e6cf32ba8d
8a4605be74aa9ea9d79846c1fba20a33
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFCG - Universidade Federal de Campina Grande (UFCG)
repository.mail.fl_str_mv bdtd@setor.ufcg.edu.br || bdtd@setor.ufcg.edu.br
_version_ 1803396740365156352