Comparação de Métodos para Inferência em Linguagem Natural

Detalhes bibliográficos
Autor(a) principal: Souza, Rodrigo Aparecido da Silva
Data de Publicação: 2020
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da USP
Texto Completo: https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/
Resumo: A Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura.
id USP_fa39d9da86d821d46373c918a6c99b05
oai_identifier_str oai:teses.usp.br:tde-15032021-204919
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str 2721
spelling Comparação de Métodos para Inferência em Linguagem NaturalComparison of Methods for Natural Language InferenceAlignmentBag-of-WordsComputational LinguisticsInferênciaem Linguagem NaturalLinguística ComputacionalLogical RepresentationModelos Bag-of-WordsModelos com alinhamentoNatural Language InferenceRepresentação LógicaRoBERTaRoBERTaA Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura.Natural Language Inference (NLI) is a research topic in Natural Language Processing. In short, NLI is the task of determining if a natural language text, called premise, entails another text, the hypothesis. Generally, the problem is formulated as a premise- hypothesis pair together with a classification label for the entailment relation. In this work, we propose to test different classification methods for the NLI problems offered by the first three datasets of the Pascal RTE Challenge benchmarks (Dagan et al., 2005), RTE-1, RTE-2 and RTE-3. For this purpose, we implemented four different classification methods and some combinations between them: one based on Bag-of- Words (BoW) without alignment, one based on sentence alignment, one based on logical representation of the pairs, and one based on the Question Answering (QA) task. Our goal is to compare them, to evaluate the effectiveness of rule-based methods in solving the NLI problems, and to find out to what extent they could compete with Transformers based models such as RoBERTa (Liu et al., 2019b) that are generally recognized for their performance in this task. From the implementation of different classification rules, we composed two models. The first one, called BCBI, was composed by BoW rules without alignment, and a Naive Bayes Classifier. The second model, called BACBI, was composed by BoW rules, alignment methods, and a Naive Bayes Classifier. The BCBI model achieved an accuracy of 65% in the RTE-1, 57% in the RTE-2 and 63% in the RTE-3 dataset. The BACBI model, in turn, achieved an accuracy of 55% in the RTE-1, 57% in the RTE-2 and 60% in the RTE-3. For the QA-based test, we converted the hypothesis into polar questions (yes/no) and used the premises as candidates for answers. Both were input in the RoBERTa model for the pairs classification. This model achieved an accuracy of 74% in the RTE-1, 78% in the RTE-2 and 71% in the RTE-3. Finally, we compared the results achieved by the models with other works evaluated in the same datasets. The rule-based models were not as efficient as the Transformer based model in solving NLI tasks. The latter achieved results comparable to some of the best classifiers for the RTE datasets.Biblioteca Digitais de Teses e Dissertações da USPLopes, Marcos FernandoSouza, Rodrigo Aparecido da Silva2020-12-18info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-04-20T19:53:02Zoai:teses.usp.br:tde-15032021-204919Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-04-20T19:53:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.none.fl_str_mv Comparação de Métodos para Inferência em Linguagem Natural
Comparison of Methods for Natural Language Inference
title Comparação de Métodos para Inferência em Linguagem Natural
spellingShingle Comparação de Métodos para Inferência em Linguagem Natural
Souza, Rodrigo Aparecido da Silva
Alignment
Bag-of-Words
Computational Linguistics
Inferênciaem Linguagem Natural
Linguística Computacional
Logical Representation
Modelos Bag-of-Words
Modelos com alinhamento
Natural Language Inference
Representação Lógica
RoBERTa
RoBERTa
title_short Comparação de Métodos para Inferência em Linguagem Natural
title_full Comparação de Métodos para Inferência em Linguagem Natural
title_fullStr Comparação de Métodos para Inferência em Linguagem Natural
title_full_unstemmed Comparação de Métodos para Inferência em Linguagem Natural
title_sort Comparação de Métodos para Inferência em Linguagem Natural
author Souza, Rodrigo Aparecido da Silva
author_facet Souza, Rodrigo Aparecido da Silva
author_role author
dc.contributor.none.fl_str_mv Lopes, Marcos Fernando
dc.contributor.author.fl_str_mv Souza, Rodrigo Aparecido da Silva
dc.subject.por.fl_str_mv Alignment
Bag-of-Words
Computational Linguistics
Inferênciaem Linguagem Natural
Linguística Computacional
Logical Representation
Modelos Bag-of-Words
Modelos com alinhamento
Natural Language Inference
Representação Lógica
RoBERTa
RoBERTa
topic Alignment
Bag-of-Words
Computational Linguistics
Inferênciaem Linguagem Natural
Linguística Computacional
Logical Representation
Modelos Bag-of-Words
Modelos com alinhamento
Natural Language Inference
Representação Lógica
RoBERTa
RoBERTa
description A Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura.
publishDate 2020
dc.date.none.fl_str_mv 2020-12-18
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/
url https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv
dc.rights.driver.fl_str_mv Liberar o conteúdo para acesso público.
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Liberar o conteúdo para acesso público.
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv
dc.publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
dc.source.none.fl_str_mv
reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1815256988229042176