Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Trabalho de conclusão de curso |
Idioma: | por |
Título da fonte: | Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
Texto Completo: | http://app.uff.br/riuff/handle/1/31127 |
Resumo: | A pandemia do COVID-19, vírus detectado em dezembro de 2019, infectou e matou milhões de pessoas por todo o mundo. A doença, por ser até então desconhecida, foi foco central de estudos em todas as áreas de conhecimento, e novas descobertas aconteciam diariamente. No meio dessas descobertas científicas, iniciou-se também uma disseminação constante de informações falsas, que foi denominada como “infodemia”. Essas notícias falsas, em um contexto de pandemia, podem trazer consequências gravíssimas, principalmente quando falam sobre prevenção e tratamento de maneiras ineficazes. Para auxiliar no combate ao problema da “infodemia”, este trabalho utiliza técnicas de processamento de linguagem natural e inteligência artificial explicável para desenvolver uma ferramenta de interpretabilidade de notícias relacionadas a COVID-19, através do desenvolvimento de um classificador automático de notícias, em múltiplas classes, não limitado apenas a verdadeiro e falso. Para tanto, são utilizadas redes neurais e o modelo de linguagem BERT, com a adição de uma ferramenta de explicabilidade, para indicar os componentes da notícias responsáveis por uma classificação. Este classificador foi treinado utilizando notícias retiradas de agências de checagem de fatos do Brasil e outros países da América Latina, além de Portugal e Espanha, coordenados pela agência Chequeado, da Argentina. Os resultados da classificação, mesmo com limitações por conta de desbalanceamento e predominância de notícias classificadas como falsa, foram satisfatórios, e aplicados às ferramentas de interpretabilidade para o desenvolvimento de uma interface. Com isso, foi possível desenvolver e disponibilizar para o público uma interface que realiza a classificação e traz uma visualização interpretável do que levou a decisão do classificador, que pode servir para auxiliar no combate desta “infodemia”, ainda um problema mesmo depois de mais de dois anos de pandemia |
id |
UFF-2_7c11c2cdb49056089d2b88a26ea5678c |
---|---|
oai_identifier_str |
oai:app.uff.br:1/31127 |
network_acronym_str |
UFF-2 |
network_name_str |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
repository_id_str |
2120 |
spelling |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19Processamento de linguagem naturalAprendizado de máquinaClassificaçãoInteligência Artificial ExplicávelCOVID-19DesinformaçãoCOVID-19Inteligência artificialFake newsNatural language processingMachine learningClassificationExplainable artificial intelligenceMisinformationA pandemia do COVID-19, vírus detectado em dezembro de 2019, infectou e matou milhões de pessoas por todo o mundo. A doença, por ser até então desconhecida, foi foco central de estudos em todas as áreas de conhecimento, e novas descobertas aconteciam diariamente. No meio dessas descobertas científicas, iniciou-se também uma disseminação constante de informações falsas, que foi denominada como “infodemia”. Essas notícias falsas, em um contexto de pandemia, podem trazer consequências gravíssimas, principalmente quando falam sobre prevenção e tratamento de maneiras ineficazes. Para auxiliar no combate ao problema da “infodemia”, este trabalho utiliza técnicas de processamento de linguagem natural e inteligência artificial explicável para desenvolver uma ferramenta de interpretabilidade de notícias relacionadas a COVID-19, através do desenvolvimento de um classificador automático de notícias, em múltiplas classes, não limitado apenas a verdadeiro e falso. Para tanto, são utilizadas redes neurais e o modelo de linguagem BERT, com a adição de uma ferramenta de explicabilidade, para indicar os componentes da notícias responsáveis por uma classificação. Este classificador foi treinado utilizando notícias retiradas de agências de checagem de fatos do Brasil e outros países da América Latina, além de Portugal e Espanha, coordenados pela agência Chequeado, da Argentina. Os resultados da classificação, mesmo com limitações por conta de desbalanceamento e predominância de notícias classificadas como falsa, foram satisfatórios, e aplicados às ferramentas de interpretabilidade para o desenvolvimento de uma interface. Com isso, foi possível desenvolver e disponibilizar para o público uma interface que realiza a classificação e traz uma visualização interpretável do que levou a decisão do classificador, que pode servir para auxiliar no combate desta “infodemia”, ainda um problema mesmo depois de mais de dois anos de pandemiaThe COVID-19 pandemic, a virus detected in December 2019, infected and killed millions worldwide. The disease was previously unknown and was the central focus of studies in all areas, with new discoveries made daily. During these scientific discoveries, false information was constantly disseminated, termed “infodemic”. . In a pandemic context, fake news can have severe consequences, especially when they talk about ineffective methods of prevention and treatment. To help stop this “infodemic”, this work relies on natural language processing techniques and explainable artificial intelligence to develop an interpretability tool for news related to COVID-19. Thus, we strive to build an automatic news classifier, using multiple classes, not limited to true and false, using neural networks and the BERT language model, and apply explainability tools to it, looking to bring more confidence to the classification. This classifier was trained using news from fact-checking agencies in Brazil and other Latin American countries, as well as Portugal and Spain, coordinated by the Chequeado agency from Argentina. The classification results, even with limitations due to imbalance and predominance of news classified as false, were satisfactory, and interpretability tools were applied to develop an interface. With this, it was possible to develop and make available to the public an interface that performs the classification and provides an interpretable view of what led to the classifier’s decision, which can serve to help combat this “infodemic” that is still a problem even after more than two years of the pandemic58 p.Carvalho, Aline Marins PaesSalgado, Luciana Cardoso de CastroLourenço, Vítor NascimentoOliveira, Mariana Suarez de2023-11-16T13:21:35Z2023-11-16T13:21:35Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfapplication/pdfOLIVEIRA, Mariana Suarez de. Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19. 2023. 58 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Instituto de Computação, Universidade Federal Fluminense, Niterói, 2023.http://app.uff.br/riuff/handle/1/31127CC-BY-SAinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF)instname:Universidade Federal Fluminense (UFF)instacron:UFF2023-11-16T13:21:40Zoai:app.uff.br:1/31127Repositório InstitucionalPUBhttps://app.uff.br/oai/requestriuff@id.uff.bropendoar:21202024-08-19T11:02:22.355990Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF)false |
dc.title.none.fl_str_mv |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
title |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
spellingShingle |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 Oliveira, Mariana Suarez de Processamento de linguagem natural Aprendizado de máquina Classificação Inteligência Artificial Explicável COVID-19 Desinformação COVID-19 Inteligência artificial Fake news Natural language processing Machine learning Classification Explainable artificial intelligence Misinformation |
title_short |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
title_full |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
title_fullStr |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
title_full_unstemmed |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
title_sort |
Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19 |
author |
Oliveira, Mariana Suarez de |
author_facet |
Oliveira, Mariana Suarez de |
author_role |
author |
dc.contributor.none.fl_str_mv |
Carvalho, Aline Marins Paes Salgado, Luciana Cardoso de Castro Lourenço, Vítor Nascimento |
dc.contributor.author.fl_str_mv |
Oliveira, Mariana Suarez de |
dc.subject.por.fl_str_mv |
Processamento de linguagem natural Aprendizado de máquina Classificação Inteligência Artificial Explicável COVID-19 Desinformação COVID-19 Inteligência artificial Fake news Natural language processing Machine learning Classification Explainable artificial intelligence Misinformation |
topic |
Processamento de linguagem natural Aprendizado de máquina Classificação Inteligência Artificial Explicável COVID-19 Desinformação COVID-19 Inteligência artificial Fake news Natural language processing Machine learning Classification Explainable artificial intelligence Misinformation |
description |
A pandemia do COVID-19, vírus detectado em dezembro de 2019, infectou e matou milhões de pessoas por todo o mundo. A doença, por ser até então desconhecida, foi foco central de estudos em todas as áreas de conhecimento, e novas descobertas aconteciam diariamente. No meio dessas descobertas científicas, iniciou-se também uma disseminação constante de informações falsas, que foi denominada como “infodemia”. Essas notícias falsas, em um contexto de pandemia, podem trazer consequências gravíssimas, principalmente quando falam sobre prevenção e tratamento de maneiras ineficazes. Para auxiliar no combate ao problema da “infodemia”, este trabalho utiliza técnicas de processamento de linguagem natural e inteligência artificial explicável para desenvolver uma ferramenta de interpretabilidade de notícias relacionadas a COVID-19, através do desenvolvimento de um classificador automático de notícias, em múltiplas classes, não limitado apenas a verdadeiro e falso. Para tanto, são utilizadas redes neurais e o modelo de linguagem BERT, com a adição de uma ferramenta de explicabilidade, para indicar os componentes da notícias responsáveis por uma classificação. Este classificador foi treinado utilizando notícias retiradas de agências de checagem de fatos do Brasil e outros países da América Latina, além de Portugal e Espanha, coordenados pela agência Chequeado, da Argentina. Os resultados da classificação, mesmo com limitações por conta de desbalanceamento e predominância de notícias classificadas como falsa, foram satisfatórios, e aplicados às ferramentas de interpretabilidade para o desenvolvimento de uma interface. Com isso, foi possível desenvolver e disponibilizar para o público uma interface que realiza a classificação e traz uma visualização interpretável do que levou a decisão do classificador, que pode servir para auxiliar no combate desta “infodemia”, ainda um problema mesmo depois de mais de dois anos de pandemia |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-11-16T13:21:35Z 2023-11-16T13:21:35Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
OLIVEIRA, Mariana Suarez de. Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19. 2023. 58 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Instituto de Computação, Universidade Federal Fluminense, Niterói, 2023. http://app.uff.br/riuff/handle/1/31127 |
identifier_str_mv |
OLIVEIRA, Mariana Suarez de. Uma ferramenta de interpretabilidade aplicada à classificação de desinformação sobre a COVID-19. 2023. 58 f. Trabalho de Conclusão de Curso (Graduação em Ciência da Computação) - Instituto de Computação, Universidade Federal Fluminense, Niterói, 2023. |
url |
http://app.uff.br/riuff/handle/1/31127 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
CC-BY-SA info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
CC-BY-SA |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF) instname:Universidade Federal Fluminense (UFF) instacron:UFF |
instname_str |
Universidade Federal Fluminense (UFF) |
instacron_str |
UFF |
institution |
UFF |
reponame_str |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
collection |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
repository.name.fl_str_mv |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF) |
repository.mail.fl_str_mv |
riuff@id.uff.br |
_version_ |
1811823642941587456 |