Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da USP |
Texto Completo: | https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/ |
Resumo: | Atualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados. |
id |
USP_2c73d85f819af7d9017b1ed25bbb0bf1 |
---|---|
oai_identifier_str |
oai:teses.usp.br:tde-22052023-205242 |
network_acronym_str |
USP |
network_name_str |
Biblioteca Digital de Teses e Dissertações da USP |
repository_id_str |
2721 |
spelling |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquinaUsing clustering methods to achieve global explainability for machine learning modelsAprendizado de MáquinaExplainabilityExplicabilidadeInterpretabilidadeInterpretabilityMachine LearningAtualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados.Nowadays, machine learning models are utilized to make decisions in the most diverse applications in society. Human errors become part of artificial intelligence, proving that our generalization tendencies are responsible for selecting the rules that shape the creation of these models. Thus, it is possible that, instead of creating innovation, existing discriminatory behaviors in society are being reinforced. In this context, increasing interpretability and identifying discriminatory biases in the models become extremely relevant activities. It is believed that interpretability can be a tool to ensure that ethical and legal requirements are not violated. The explanations extracted by interpretability techniques make it easier for humans to identify the possible deficiencies of the models and analyze their limitations. After 2016, the number of works involving the interpretability of algorithms and analyses of fairness increased. However, the area still needs more studies that are dedicated to the global interpretability of models to guarantee the principle of fairness. This dissertation aimed to generate global explanations by clustering local explanations. The results have shown that a single explanation may not be sufficient to interpret the model as a whole. Thus, the use of clustering techniques allowed us to compare the behavior of the models in different subgroups and identify discriminatory biases. As a way of evaluating the results, a comparative analysis was conducted between the model single global expression and the expression generated for each group with the support of exploratory data analysis.Biblioteca Digitais de Teses e Dissertações da USPDigiampietri, Luciano AntonioVieira, Carla Piazzon Ramos2023-03-24info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2024-10-09T13:16:04Zoai:teses.usp.br:tde-22052023-205242Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212024-10-09T13:16:04Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false |
dc.title.none.fl_str_mv |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina Using clustering methods to achieve global explainability for machine learning models |
title |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
spellingShingle |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina Vieira, Carla Piazzon Ramos Aprendizado de Máquina Explainability Explicabilidade Interpretabilidade Interpretability Machine Learning |
title_short |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
title_full |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
title_fullStr |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
title_full_unstemmed |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
title_sort |
Uso de agrupamento para alcançar explicabilidade global de modelos de aprendizado de máquina |
author |
Vieira, Carla Piazzon Ramos |
author_facet |
Vieira, Carla Piazzon Ramos |
author_role |
author |
dc.contributor.none.fl_str_mv |
Digiampietri, Luciano Antonio |
dc.contributor.author.fl_str_mv |
Vieira, Carla Piazzon Ramos |
dc.subject.por.fl_str_mv |
Aprendizado de Máquina Explainability Explicabilidade Interpretabilidade Interpretability Machine Learning |
topic |
Aprendizado de Máquina Explainability Explicabilidade Interpretabilidade Interpretability Machine Learning |
description |
Atualmente, modelos de aprendizado de máquina são utilizados para tomar decisões nas mais diversas aplicações da sociedade. Erros humanos se tornam parte da inteligência artificial provando que nossas tendências de generalização são responsáveis pela seleção de uma regra que molda a criação desses modelos. Desta forma, é possível que, em vez de estar criando inovação, se está reforçando comportamentos discriminatórios existentes na sociedade. Nesse contexto, aumentar a interpretabilidade e identificar vieses discriminatórios nos modelos se tornam atividades extremamente relevantes. Acredita-se que a interpretabilidade pode ser uma ferramenta para garantir que não se violem requisitos éticos e legais. As explicações extraídas por técnicas de interpretabilidade facilitam que humanos identifiquem as possíveis deficiências dos modelos e analisem suas limitações. Desde 2016, o número de trabalhos envolvendo interpretabilidade de algoritmos e análises de justiça tem aumentado. No entanto, a área ainda carece de mais estudos que se dediquem a interpretabilidade global de modelos a fim de garantir o princípio de justiça. A presente dissertação apresenta os resultados de implementação de um método de explicabilidade global que tem como base o agrupamento de explicações locais. Os resultados mostraram que uma única explicação pode não ser suficiente para interpretar o modelo com um todo. De forma que o uso da técnica de agrupamento permitiu identificar comportamentos discriminatórios entre diferentes subgrupos. A análise dos resultados foi realizada por meio de comparações das explicações globais do modelo e explicações globais de cada grupo tendo como suporte análises exploratórias dos dados. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-03-24 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/ |
url |
https://www.teses.usp.br/teses/disponiveis/100/100131/tde-22052023-205242/ |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.none.fl_str_mv |
|
dc.rights.driver.fl_str_mv |
Liberar o conteúdo para acesso público. info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Liberar o conteúdo para acesso público. |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.coverage.none.fl_str_mv |
|
dc.publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo (USP) instacron:USP |
instname_str |
Universidade de São Paulo (USP) |
instacron_str |
USP |
institution |
USP |
reponame_str |
Biblioteca Digital de Teses e Dissertações da USP |
collection |
Biblioteca Digital de Teses e Dissertações da USP |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP) |
repository.mail.fl_str_mv |
virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br |
_version_ |
1815256529165615104 |