Comparação de Métodos para Inferência em Linguagem Natural
Autor(a) principal: | |
---|---|
Data de Publicação: | 2020 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da USP |
Texto Completo: | https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/ |
Resumo: | A Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura. |
id |
USP_fa39d9da86d821d46373c918a6c99b05 |
---|---|
oai_identifier_str |
oai:teses.usp.br:tde-15032021-204919 |
network_acronym_str |
USP |
network_name_str |
Biblioteca Digital de Teses e Dissertações da USP |
repository_id_str |
2721 |
spelling |
Comparação de Métodos para Inferência em Linguagem NaturalComparison of Methods for Natural Language InferenceAlignmentBag-of-WordsComputational LinguisticsInferênciaem Linguagem NaturalLinguística ComputacionalLogical RepresentationModelos Bag-of-WordsModelos com alinhamentoNatural Language InferenceRepresentação LógicaRoBERTaRoBERTaA Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura.Natural Language Inference (NLI) is a research topic in Natural Language Processing. In short, NLI is the task of determining if a natural language text, called premise, entails another text, the hypothesis. Generally, the problem is formulated as a premise- hypothesis pair together with a classification label for the entailment relation. In this work, we propose to test different classification methods for the NLI problems offered by the first three datasets of the Pascal RTE Challenge benchmarks (Dagan et al., 2005), RTE-1, RTE-2 and RTE-3. For this purpose, we implemented four different classification methods and some combinations between them: one based on Bag-of- Words (BoW) without alignment, one based on sentence alignment, one based on logical representation of the pairs, and one based on the Question Answering (QA) task. Our goal is to compare them, to evaluate the effectiveness of rule-based methods in solving the NLI problems, and to find out to what extent they could compete with Transformers based models such as RoBERTa (Liu et al., 2019b) that are generally recognized for their performance in this task. From the implementation of different classification rules, we composed two models. The first one, called BCBI, was composed by BoW rules without alignment, and a Naive Bayes Classifier. The second model, called BACBI, was composed by BoW rules, alignment methods, and a Naive Bayes Classifier. The BCBI model achieved an accuracy of 65% in the RTE-1, 57% in the RTE-2 and 63% in the RTE-3 dataset. The BACBI model, in turn, achieved an accuracy of 55% in the RTE-1, 57% in the RTE-2 and 60% in the RTE-3. For the QA-based test, we converted the hypothesis into polar questions (yes/no) and used the premises as candidates for answers. Both were input in the RoBERTa model for the pairs classification. This model achieved an accuracy of 74% in the RTE-1, 78% in the RTE-2 and 71% in the RTE-3. Finally, we compared the results achieved by the models with other works evaluated in the same datasets. The rule-based models were not as efficient as the Transformer based model in solving NLI tasks. The latter achieved results comparable to some of the best classifiers for the RTE datasets.Biblioteca Digitais de Teses e Dissertações da USPLopes, Marcos FernandoSouza, Rodrigo Aparecido da Silva2020-12-18info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-04-20T19:53:02Zoai:teses.usp.br:tde-15032021-204919Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-04-20T19:53:02Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false |
dc.title.none.fl_str_mv |
Comparação de Métodos para Inferência em Linguagem Natural Comparison of Methods for Natural Language Inference |
title |
Comparação de Métodos para Inferência em Linguagem Natural |
spellingShingle |
Comparação de Métodos para Inferência em Linguagem Natural Souza, Rodrigo Aparecido da Silva Alignment Bag-of-Words Computational Linguistics Inferênciaem Linguagem Natural Linguística Computacional Logical Representation Modelos Bag-of-Words Modelos com alinhamento Natural Language Inference Representação Lógica RoBERTa RoBERTa |
title_short |
Comparação de Métodos para Inferência em Linguagem Natural |
title_full |
Comparação de Métodos para Inferência em Linguagem Natural |
title_fullStr |
Comparação de Métodos para Inferência em Linguagem Natural |
title_full_unstemmed |
Comparação de Métodos para Inferência em Linguagem Natural |
title_sort |
Comparação de Métodos para Inferência em Linguagem Natural |
author |
Souza, Rodrigo Aparecido da Silva |
author_facet |
Souza, Rodrigo Aparecido da Silva |
author_role |
author |
dc.contributor.none.fl_str_mv |
Lopes, Marcos Fernando |
dc.contributor.author.fl_str_mv |
Souza, Rodrigo Aparecido da Silva |
dc.subject.por.fl_str_mv |
Alignment Bag-of-Words Computational Linguistics Inferênciaem Linguagem Natural Linguística Computacional Logical Representation Modelos Bag-of-Words Modelos com alinhamento Natural Language Inference Representação Lógica RoBERTa RoBERTa |
topic |
Alignment Bag-of-Words Computational Linguistics Inferênciaem Linguagem Natural Linguística Computacional Logical Representation Modelos Bag-of-Words Modelos com alinhamento Natural Language Inference Representação Lógica RoBERTa RoBERTa |
description |
A Inferência em Linguagem Natural, do inglês Natural Language Inference (NLI), é um dos tópicos de pesquisa do Processamento Computacional de Linguagem Natural. Consiste, basicamente, na tarefa de determinar se um texto breve em língua natural, chamado premissa, acarreta outro texto, chamado hipótese. Normalmente, a tarefa é apresentada em forma de pares de premissa-hipótese e uma classificação para a relação de acarretamento. Neste trabalho, propomo-nos a testar diferentes métodos de solução para os proble- mas de NLI oferecidos pelos três primeiros conjuntos de dados do Pascal RTE Challenge (Dagan et al., 2005), o RTE-1, o RTE-2 e o RTE-3. Para tanto, implementamos quatro métodos diferentes de solução e algumas combinações entre eles: um método baseado em regras de Bag-of-Words (BoW) sem alinhamento, um baseado em alinhamento sen- tencial, um baseado em representação lógica para os textos dos pares e um baseado na tarefa de Question Answering (QA). Nosso objetivo é comparar em que medida métodos baseados em regras são eficazes para solucionar problemas de NLI e em que medida podem concorrer minimamente com modelos baseados em arquiteturas Transformer como o RoBERTa (Liu et al., 2019b), cujo desempenho é reconhecidamente bom nessa tarefa. A partir da implementação de diferentes regras de classificação, compusemos dois modelos. O primeiro, chamado BCBI, foi composto por regras de BoW sem alinhamento e por um Classificador Bayesiano Ingênuo. O segundo, chamado BACBI, foi composto regras de BoW, métodos de alinhamento e por um Classificador Bayesiano Ingênuo. O BCBI obteve uma acurácia de 65% no RTE-1, 57% no RTE-2 e 63% no RTE-3. O modelo BACBI obteve uma acurácia de 55% no RTE-1, 57% no RTE-2 e 60% no RTE-3. Para o teste baseado em QA, convertemos hipóteses em perguntas polares (sim/não) e mantivemos as premissas como se fossem candidatas a respostas. As duas são passadas para o modelo RoBERTa para a classificação dos pares. Avaliado nos conjuntos de dados, o modelo atingiu uma acurácia de 74% no RTE-1, 78% no RTE-2 e 71% no RTE-3. Por fim, comparamos os resultados alcançados pelos modelos com outros trabalhos avaliados nos conjuntos de dados. Concluímos que os modelos baseados em regras não foram eficazes para solucionar os problemas da tarefa. O método baseado no modelo RoBERTa, no entanto, atingiu resultados compatíveis com as melhores classificações nos corpora relatadas na literatura. |
publishDate |
2020 |
dc.date.none.fl_str_mv |
2020-12-18 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/ |
url |
https://www.teses.usp.br/teses/disponiveis/8/8139/tde-15032021-204919/ |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.none.fl_str_mv |
|
dc.rights.driver.fl_str_mv |
Liberar o conteúdo para acesso público. info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Liberar o conteúdo para acesso público. |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.coverage.none.fl_str_mv |
|
dc.publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo (USP) instacron:USP |
instname_str |
Universidade de São Paulo (USP) |
instacron_str |
USP |
institution |
USP |
reponame_str |
Biblioteca Digital de Teses e Dissertações da USP |
collection |
Biblioteca Digital de Teses e Dissertações da USP |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP) |
repository.mail.fl_str_mv |
virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br |
_version_ |
1815256988229042176 |