Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina

Detalhes bibliográficos
Autor(a) principal: Vieira, Carla Piazzon Ramos
Data de Publicação: 2023
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da USP
Texto Completo: https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/
Resumo: Atualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados.
id USP_2c73d85f819af7d9017b1ed25bbb0bf1
oai_identifier_str oai:teses.usp.br:tde-22052023-205242
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str 2721
spelling Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquinaUsing clustering methods to achieve global explainability for machine learning modelsAprendizado de MáquinaExplainabilityExplicabilidadeInterpretabilidadeInterpretabilityMachine LearningAtualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados.Nowadays, machine learning models are utilized to make decisions in the most diverse applications in society. Human errors become part of artificial intelligence, proving that our generalization tendencies are responsible for selecting the rules that shape the creation of these models. Thus, it is possible that, instead of creating innovation, existing discriminatory behaviors in society are being reinforced. In this context, increasing interpretability and identifying discriminatory biases in the models become extremely relevant activities. It is believed that interpretability can be a tool to ensure that ethical and legal requirements are not violated. The explanations extracted by interpretability techniques make it easier for humans to identify the possible deficiencies of the models and analyze their limitations. After 2016, the number of works involving the interpretability of algorithms and analyses of fairness increased. However, the area still needs more studies that are dedicated to the global interpretability of models to guarantee the principle of fairness. This dissertation aimed to generate global explanations by clustering local explanations. The results have shown that a single explanation may not be sufficient to interpret the model as a whole. Thus, the use of clustering techniques allowed us to compare the behavior of the models in different subgroups and identify discriminatory biases. As a way of evaluating the results, a comparative analysis was conducted between the model single global expression and the expression generated for each group with the support of exploratory data analysis.Biblioteca Digitais de Teses e Dissertações da USPDigiampietri, Luciano AntonioVieira, Carla Piazzon Ramos2023-03-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2024-10-09T13:16:04Zoai:teses.usp.br:tde-22052023-205242Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212024-10-09T13:16:04Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.none.fl_str_mv Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
Using clustering methods to achieve global explainability for machine learning models
title Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
spellingShingle Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
Vieira, Carla Piazzon Ramos
Aprendizado de Máquina
Explainability
Explicabilidade
Interpretabilidade
Interpretability
Machine Learning
title_short Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
title_full Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
title_fullStr Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
title_full_unstemmed Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
title_sort Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
author Vieira, Carla Piazzon Ramos
author_facet Vieira, Carla Piazzon Ramos
author_role author
dc.contributor.none.fl_str_mv Digiampietri, Luciano Antonio
dc.contributor.author.fl_str_mv Vieira, Carla Piazzon Ramos
dc.subject.por.fl_str_mv Aprendizado de Máquina
Explainability
Explicabilidade
Interpretabilidade
Interpretability
Machine Learning
topic Aprendizado de Máquina
Explainability
Explicabilidade
Interpretabilidade
Interpretability
Machine Learning
description Atualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados.
publishDate 2023
dc.date.none.fl_str_mv 2023-03-24
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/
url https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv
dc.rights.driver.fl_str_mv Liberar o conteúdo para acesso público.
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Liberar o conteúdo para acesso público.
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv
dc.publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
dc.source.none.fl_str_mv
reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1815256529165615104