[en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING

Detalhes bibliográficos
Autor(a) principal: LEONARDO BARBOSA DE OLIVEIRA
Data de Publicação: 2021
Tipo de documento: Outros
Idioma: por
Título da fonte: Repositório Institucional da PUC-RIO (Projeto Maxwell)
Texto Completo: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@2
http://doi.org/10.17771/PUCRio.acad.51292
Resumo: [pt] A tarefa de resolução de correferência consiste em identificar e agrupar trechos de um texto de acordo com as entidades do mundo real a que se referem. Apesar de já ter sido abordada em outras conferências, a CoNLL de 2012 é um marco pela qualidade das bases de dados, das métricas e das soluções apresentadas. Naquela edição, o modelo vencedor utilizou um perceptron estruturado para otimizar uma árvore latente de antecedentes, atingindo a pontuação de 63.4 na métrica oficial para o dataset de teste em inglês. Nos anos seguintes, as bases e métricas apresentadas na conferência se tornaram o benchmark para a tarefa de correferência. Com novas técnicas de aprendizado de máquina desenvolvidas, soluções mais elaboradas foram apresentadas. A utilização de redes neurais rasas atingiu a pontuação de 68.8; a adição de representação contextual elevou o estado da arte para 73.0; redes neurais profundas melhoraram o baseline para 76.9 e o estado da arte atual, que é uma combinação de várias dessas técnicas, está em 79.6. Neste trabalho é apresentado uma análise de como as técnicas de representação de palavras Bag of Words, GloVe, BERT e SpanBERT utilizadas com árvores latentes de antecedentes se comparam com o modelo original de 2012. O melhor modelo encontrado foi o que utiliza SpanBERT com uma margem muito larga, o qual atingiu pontuação de 61.3 na métrica da CoNLL 2012, utilizando o dataset de teste. Com estes resultados, mostramos que é possível utilizar técnicas avançadas em estruturas mais simples e ainda obter resultados competitivos na tarefa de correferência. Além disso, melhoramos a performance de um framework de código aberto para correferência, a fim de contemplar soluções com maior demanda de memória e processamento.
id PUC_RIO-1_6a7468c59e91a0eeb5921be783305ff6
oai_identifier_str oai:MAXWELL.puc-rio.br:51292
network_acronym_str PUC_RIO-1
network_name_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository_id_str 534
spelling [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING [pt] RESOLUÇÃO DE CORREFERÊNCIA UTILIZANDO ÁRVORES LATENTES COM REPRESENTAÇÃO CONTEXTUAL [pt] CLUSTERIZACAO[pt] SPANBERT[pt] BERT[pt] RESOLUCAO DE CORREFERENCIA[pt] REPRESENTACAO CONTEXTUAL[pt] ARVORES LATENTES[en] CLUSTERING[en] SPANBERT[en] BERT[en] COREFERENCE RESOLUTION[en] CONTEXTUAL EMBEDDING[en] LATENT TREES[pt] A tarefa de resolução de correferência consiste em identificar e agrupar trechos de um texto de acordo com as entidades do mundo real a que se referem. Apesar de já ter sido abordada em outras conferências, a CoNLL de 2012 é um marco pela qualidade das bases de dados, das métricas e das soluções apresentadas. Naquela edição, o modelo vencedor utilizou um perceptron estruturado para otimizar uma árvore latente de antecedentes, atingindo a pontuação de 63.4 na métrica oficial para o dataset de teste em inglês. Nos anos seguintes, as bases e métricas apresentadas na conferência se tornaram o benchmark para a tarefa de correferência. Com novas técnicas de aprendizado de máquina desenvolvidas, soluções mais elaboradas foram apresentadas. A utilização de redes neurais rasas atingiu a pontuação de 68.8; a adição de representação contextual elevou o estado da arte para 73.0; redes neurais profundas melhoraram o baseline para 76.9 e o estado da arte atual, que é uma combinação de várias dessas técnicas, está em 79.6. Neste trabalho é apresentado uma análise de como as técnicas de representação de palavras Bag of Words, GloVe, BERT e SpanBERT utilizadas com árvores latentes de antecedentes se comparam com o modelo original de 2012. O melhor modelo encontrado foi o que utiliza SpanBERT com uma margem muito larga, o qual atingiu pontuação de 61.3 na métrica da CoNLL 2012, utilizando o dataset de teste. Com estes resultados, mostramos que é possível utilizar técnicas avançadas em estruturas mais simples e ainda obter resultados competitivos na tarefa de correferência. Além disso, melhoramos a performance de um framework de código aberto para correferência, a fim de contemplar soluções com maior demanda de memória e processamento.[en] The coreference resolution task consists of to identify and group spans of text related to the same real-world entity. Although it has been approached in other conferences, the 2012 CoNLL is a milestone due to the improvement in the quality of its dataset, metrics, and the presented solutions. In that edition, the winning model used a structured perceptron to optimize an antecedent latent tree, achieving 63.4 on the official metric for the English test dataset. During the following years, the metrics and dataset presented in that conference became the benchmark for the coreference task. With new machine learning techniques, more elaborated solutions were presented. The use of shallow neural networks achieved 68.8; adding contextual representation raised the state-of-the-art to 73.0; deep neural networks improved the baseline to 76.9 and the current state-of-the-art, which is a combination of many of these techniques, is at 79.6. This work presents an analysis of how the word embedding mechanisms Bag of Words, GloVe, BERT and SpanBERT, used with antecedent latent trees, are compared to the original model of 2012. The best model found used SpanBERT with a very large margin, achieving 61.3 in the CoNLL 2012 metric using the test dataset. With these results, we show that it is possible to use advanced techniques in simpler structures and still achieve competitive results in the coreference task. Besides that, we improved the performance of an open source framework for coreference, so it can manage solution that demand more memory and processing.MAXWELLSERGIO COLCHERLEONARDO BARBOSA DE OLIVEIRA2021-01-19info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/otherhttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@1https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@2http://doi.org/10.17771/PUCRio.acad.51292porreponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)instacron:PUC_RIOinfo:eu-repo/semantics/openAccess2022-08-17T00:00:00Zoai:MAXWELL.puc-rio.br:51292Repositório InstitucionalPRIhttps://www.maxwell.vrac.puc-rio.br/ibict.phpopendoar:5342022-08-17T00:00Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)false
dc.title.none.fl_str_mv [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
[pt] RESOLUÇÃO DE CORREFERÊNCIA UTILIZANDO ÁRVORES LATENTES COM REPRESENTAÇÃO CONTEXTUAL
title [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
spellingShingle [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
LEONARDO BARBOSA DE OLIVEIRA
[pt] CLUSTERIZACAO
[pt] SPANBERT
[pt] BERT
[pt] RESOLUCAO DE CORREFERENCIA
[pt] REPRESENTACAO CONTEXTUAL
[pt] ARVORES LATENTES
[en] CLUSTERING
[en] SPANBERT
[en] BERT
[en] COREFERENCE RESOLUTION
[en] CONTEXTUAL EMBEDDING
[en] LATENT TREES
title_short [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
title_full [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
title_fullStr [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
title_full_unstemmed [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
title_sort [en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING
author LEONARDO BARBOSA DE OLIVEIRA
author_facet LEONARDO BARBOSA DE OLIVEIRA
author_role author
dc.contributor.none.fl_str_mv SERGIO COLCHER
dc.contributor.author.fl_str_mv LEONARDO BARBOSA DE OLIVEIRA
dc.subject.por.fl_str_mv [pt] CLUSTERIZACAO
[pt] SPANBERT
[pt] BERT
[pt] RESOLUCAO DE CORREFERENCIA
[pt] REPRESENTACAO CONTEXTUAL
[pt] ARVORES LATENTES
[en] CLUSTERING
[en] SPANBERT
[en] BERT
[en] COREFERENCE RESOLUTION
[en] CONTEXTUAL EMBEDDING
[en] LATENT TREES
topic [pt] CLUSTERIZACAO
[pt] SPANBERT
[pt] BERT
[pt] RESOLUCAO DE CORREFERENCIA
[pt] REPRESENTACAO CONTEXTUAL
[pt] ARVORES LATENTES
[en] CLUSTERING
[en] SPANBERT
[en] BERT
[en] COREFERENCE RESOLUTION
[en] CONTEXTUAL EMBEDDING
[en] LATENT TREES
description [pt] A tarefa de resolução de correferência consiste em identificar e agrupar trechos de um texto de acordo com as entidades do mundo real a que se referem. Apesar de já ter sido abordada em outras conferências, a CoNLL de 2012 é um marco pela qualidade das bases de dados, das métricas e das soluções apresentadas. Naquela edição, o modelo vencedor utilizou um perceptron estruturado para otimizar uma árvore latente de antecedentes, atingindo a pontuação de 63.4 na métrica oficial para o dataset de teste em inglês. Nos anos seguintes, as bases e métricas apresentadas na conferência se tornaram o benchmark para a tarefa de correferência. Com novas técnicas de aprendizado de máquina desenvolvidas, soluções mais elaboradas foram apresentadas. A utilização de redes neurais rasas atingiu a pontuação de 68.8; a adição de representação contextual elevou o estado da arte para 73.0; redes neurais profundas melhoraram o baseline para 76.9 e o estado da arte atual, que é uma combinação de várias dessas técnicas, está em 79.6. Neste trabalho é apresentado uma análise de como as técnicas de representação de palavras Bag of Words, GloVe, BERT e SpanBERT utilizadas com árvores latentes de antecedentes se comparam com o modelo original de 2012. O melhor modelo encontrado foi o que utiliza SpanBERT com uma margem muito larga, o qual atingiu pontuação de 61.3 na métrica da CoNLL 2012, utilizando o dataset de teste. Com estes resultados, mostramos que é possível utilizar técnicas avançadas em estruturas mais simples e ainda obter resultados competitivos na tarefa de correferência. Além disso, melhoramos a performance de um framework de código aberto para correferência, a fim de contemplar soluções com maior demanda de memória e processamento.
publishDate 2021
dc.date.none.fl_str_mv 2021-01-19
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/other
format other
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@2
http://doi.org/10.17771/PUCRio.acad.51292
url https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=51292@2
http://doi.org/10.17771/PUCRio.acad.51292
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv MAXWELL
publisher.none.fl_str_mv MAXWELL
dc.source.none.fl_str_mv reponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)
instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron:PUC_RIO
instname_str Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron_str PUC_RIO
institution PUC_RIO
reponame_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
collection Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository.name.fl_str_mv Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
repository.mail.fl_str_mv
_version_ 1814822626031304704