Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida

Detalhes bibliográficos
Autor(a) principal: Santos, Mariana Bastos
Data de Publicação: 2022
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da FEI
Texto Completo: https://doi.org/10.31414/EE.2022.D.131508
https://repositorio.fei.edu.br/handle/FEI/4549
Resumo: Os modelos de sumarização automática de texto surgiram na metade do século XX e por muito tempo foram desenvolvidos de maneira extrativa. Os modelos extrativos de sumarização de texto utilizam partes do texto original para construir o resumo (CELIKYILMAZ et al., 2018), gerando muitas vezes problemas de coerência e coesão quando as diferentes partes são lidas juntas.Em contrapartida, na última década, a abordagem abstrativa vem sendo bastante explorada,e diferentemente da extrativa, gera novas palavras que possivelmente não se encontram no textooriginal para construir o resumo (CELIKYILMAZ et al., 2018). Essa abordagem pode corrigir oproblema de coerência e coesão, dado que se aproxima muito do modo como são construídos os resumos por humanos (SEE; LIU; MANNING, 2017). Porém, a sumarização abstrativa ainda enfrenta alguns problemas na geração do resumo, mesmo apresentando resultados satisfatórios em métricas automáticas de validação. Além disso, quando avaliados por humanos os resumos expõem problemas, como redundância, na dinâmica de leitura que ainda não é fluída. Por outro lado, há décadas são propostos modelos teóricos computacionais cognitivos que se baseiam nas teorias da psicologia e neurociência sobre a consciência, e que permitem a adaptação para diferentes aplicações, tendo ainda, como um dos modelos mais conhecidos, o LIDA (FRANKLIN et al., 2016). O presente trabalho propõe um modelo de sumarização abstrativa de texto baseado na estrutura teórica do LIDA utilizando técnicas já aplicadas para essa abordagem, tais como: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) e Mecanismo de Atenção (BAHDANAU; CHO; BENGIO, 2014). Os resultados mostraram a importância dos módulos do LIDA na composição do modelo proposto, reforçando a importância dos módulos: Memória Perceptiva Associativa, Codeletes de Atenção e Espaço de Trabalho Global. Além disso, o trabalho ressaltou a fragilidade da métrica ROUGE na avaliação dos resumos gerados quanto a coerência e coesão. E por fim, a técnica de redução de dimensão utilizada no word embedding, se mostrou ineficaz para a tarefa
id FEI_44d9f2cf007e8f66a0791e5999704e01
oai_identifier_str oai:repositorio.fei.edu.br:FEI/4549
network_acronym_str FEI
network_name_str Biblioteca Digital de Teses e Dissertações da FEI
repository_id_str https://repositorio.fei.edu.br/oai/request
spelling Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lidasumarização abstrativa de textomodelos computacionais cognitivosredes neurais (computação)Os modelos de sumarização automática de texto surgiram na metade do século XX e por muito tempo foram desenvolvidos de maneira extrativa. Os modelos extrativos de sumarização de texto utilizam partes do texto original para construir o resumo (CELIKYILMAZ et al., 2018), gerando muitas vezes problemas de coerência e coesão quando as diferentes partes são lidas juntas.Em contrapartida, na última década, a abordagem abstrativa vem sendo bastante explorada,e diferentemente da extrativa, gera novas palavras que possivelmente não se encontram no textooriginal para construir o resumo (CELIKYILMAZ et al., 2018). Essa abordagem pode corrigir oproblema de coerência e coesão, dado que se aproxima muito do modo como são construídos os resumos por humanos (SEE; LIU; MANNING, 2017). Porém, a sumarização abstrativa ainda enfrenta alguns problemas na geração do resumo, mesmo apresentando resultados satisfatórios em métricas automáticas de validação. Além disso, quando avaliados por humanos os resumos expõem problemas, como redundância, na dinâmica de leitura que ainda não é fluída. Por outro lado, há décadas são propostos modelos teóricos computacionais cognitivos que se baseiam nas teorias da psicologia e neurociência sobre a consciência, e que permitem a adaptação para diferentes aplicações, tendo ainda, como um dos modelos mais conhecidos, o LIDA (FRANKLIN et al., 2016). O presente trabalho propõe um modelo de sumarização abstrativa de texto baseado na estrutura teórica do LIDA utilizando técnicas já aplicadas para essa abordagem, tais como: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) e Mecanismo de Atenção (BAHDANAU; CHO; BENGIO, 2014). Os resultados mostraram a importância dos módulos do LIDA na composição do modelo proposto, reforçando a importância dos módulos: Memória Perceptiva Associativa, Codeletes de Atenção e Espaço de Trabalho Global. Além disso, o trabalho ressaltou a fragilidade da métrica ROUGE na avaliação dos resumos gerados quanto a coerência e coesão. E por fim, a técnica de redução de dimensão utilizada no word embedding, se mostrou ineficaz para a tarefaAutomatic text summarization models appeared in the middle of the 20th century and for a long time were developed in an extractive manner. Extractive text summarization models use parts of the original text to construct the abstract (CELIKYILMAZ et al., 2018), which often generates coherence and cohesion problems when different parts are read together. On the other hand, in the last decade, an abstract approach has been extensively explored, and unlike the extractive one, it generates new words that possibly cannot be identified in the original text to construct the abstract (CELIKYILMAZ et al., 2018). This approach can solve the coherence and cohesion problem, whereas it is very close to the way that abstracts are constructed by humans (SEE; LIU; MANNING, 2017). However, the abstractive summarization still faces some problems in abstract generation, even presenting satisfactory results in automatic validation metrics, when evaluated by humans the abstracts expose problems in the reading dynamics which are not yet fluid. On the other hand, theoretical cognitive computacional models have been proposed for decades, which are based on psychology and neuroscience theories about consciousness and allow adaptation to different applications, having LIDA (FRANKLIN et al., 2016) as one of the best-known models. The present work proposes an abstractive text summarization model based on the LIDA theoretical structure using techniques already applied for the abstractive approach, such as: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) and Attention Mechanism (BAHDANAU; CHO; BENGIO, 2014). The results showed the importance of LIDA modules in the composition of the proposed model, reinforcing the importance of the modules: Perceptual Associative Memory, Attention Codelettes and Global Workspace. In addition, the work highlighted the fragility of the ROUGE metric in the evaluation of the generated summaries regarding coherence and cohesion. And finally, the dimensionreduction technique used in word embedding, proved to be ineffective for the taskCentro Universitário FEI, São Bernardo do CampoRodrigues, Paulo Sérgio SilvaSantos, Mariana Bastos2022-08-09T20:11:43Z2022-08-09T20:11:43Z2022info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfSANTOS, Mariana Bastos. <b> Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida. </b> 2022. 114 p. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2022. Disponível em: https://doi.org/10.31414/EE.2022.D.131508.https://doi.org/10.31414/EE.2022.D.131508https://repositorio.fei.edu.br/handle/FEI/4549porpt_BRProcessamento de Sinais e Imagensreponame:Biblioteca Digital de Teses e Dissertações da FEIinstname:Centro Universitário da Fundação Educacional Inaciana (FEI)instacron:FEIinfo:eu-repo/semantics/openAccess2023-03-14T12:46:34Zoai:repositorio.fei.edu.br:FEI/4549Biblioteca Digital de Teses e Dissertaçõeshttp://sofia.fei.edu.br/pergamum/biblioteca/PRIhttp://sofia.fei.edu.br/pergamum/oai/oai2.phpcfernandes@fei.edu.bropendoar:https://repositorio.fei.edu.br/oai/request2023-03-14T12:46:34Biblioteca Digital de Teses e Dissertações da FEI - Centro Universitário da Fundação Educacional Inaciana (FEI)false
dc.title.none.fl_str_mv Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
title Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
spellingShingle Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
Santos, Mariana Bastos
sumarização abstrativa de texto
modelos computacionais cognitivos
redes neurais (computação)
title_short Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
title_full Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
title_fullStr Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
title_full_unstemmed Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
title_sort Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida
author Santos, Mariana Bastos
author_facet Santos, Mariana Bastos
author_role author
dc.contributor.none.fl_str_mv Rodrigues, Paulo Sérgio Silva
dc.contributor.author.fl_str_mv Santos, Mariana Bastos
dc.subject.por.fl_str_mv sumarização abstrativa de texto
modelos computacionais cognitivos
redes neurais (computação)
topic sumarização abstrativa de texto
modelos computacionais cognitivos
redes neurais (computação)
description Os modelos de sumarização automática de texto surgiram na metade do século XX e por muito tempo foram desenvolvidos de maneira extrativa. Os modelos extrativos de sumarização de texto utilizam partes do texto original para construir o resumo (CELIKYILMAZ et al., 2018), gerando muitas vezes problemas de coerência e coesão quando as diferentes partes são lidas juntas.Em contrapartida, na última década, a abordagem abstrativa vem sendo bastante explorada,e diferentemente da extrativa, gera novas palavras que possivelmente não se encontram no textooriginal para construir o resumo (CELIKYILMAZ et al., 2018). Essa abordagem pode corrigir oproblema de coerência e coesão, dado que se aproxima muito do modo como são construídos os resumos por humanos (SEE; LIU; MANNING, 2017). Porém, a sumarização abstrativa ainda enfrenta alguns problemas na geração do resumo, mesmo apresentando resultados satisfatórios em métricas automáticas de validação. Além disso, quando avaliados por humanos os resumos expõem problemas, como redundância, na dinâmica de leitura que ainda não é fluída. Por outro lado, há décadas são propostos modelos teóricos computacionais cognitivos que se baseiam nas teorias da psicologia e neurociência sobre a consciência, e que permitem a adaptação para diferentes aplicações, tendo ainda, como um dos modelos mais conhecidos, o LIDA (FRANKLIN et al., 2016). O presente trabalho propõe um modelo de sumarização abstrativa de texto baseado na estrutura teórica do LIDA utilizando técnicas já aplicadas para essa abordagem, tais como: Sequence-to-Sequence (Seq2Seq) (SUTSKEVER; VINYALS; LE, 2014), Word2vec (MIKOLOV et al., 2013a), Long Short-Term Memory (LSTM) (HOCHREITER; SCHMIDHUBER, 1997) e Mecanismo de Atenção (BAHDANAU; CHO; BENGIO, 2014). Os resultados mostraram a importância dos módulos do LIDA na composição do modelo proposto, reforçando a importância dos módulos: Memória Perceptiva Associativa, Codeletes de Atenção e Espaço de Trabalho Global. Além disso, o trabalho ressaltou a fragilidade da métrica ROUGE na avaliação dos resumos gerados quanto a coerência e coesão. E por fim, a técnica de redução de dimensão utilizada no word embedding, se mostrou ineficaz para a tarefa
publishDate 2022
dc.date.none.fl_str_mv 2022-08-09T20:11:43Z
2022-08-09T20:11:43Z
2022
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv SANTOS, Mariana Bastos. <b> Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida. </b> 2022. 114 p. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2022. Disponível em: https://doi.org/10.31414/EE.2022.D.131508.
https://doi.org/10.31414/EE.2022.D.131508
https://repositorio.fei.edu.br/handle/FEI/4549
identifier_str_mv SANTOS, Mariana Bastos. <b> Sumarização abstrativa de texto por meio do modelo teórico computacional cognitivo lida. </b> 2022. 114 p. Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário FEI, São Bernardo do Campo, 2022. Disponível em: https://doi.org/10.31414/EE.2022.D.131508.
url https://doi.org/10.31414/EE.2022.D.131508
https://repositorio.fei.edu.br/handle/FEI/4549
dc.language.iso.fl_str_mv por
pt_BR
language por
language_invalid_str_mv pt_BR
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv Processamento de Sinais e Imagens
dc.publisher.none.fl_str_mv Centro Universitário FEI, São Bernardo do Campo
publisher.none.fl_str_mv Centro Universitário FEI, São Bernardo do Campo
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da FEI
instname:Centro Universitário da Fundação Educacional Inaciana (FEI)
instacron:FEI
instname_str Centro Universitário da Fundação Educacional Inaciana (FEI)
instacron_str FEI
institution FEI
reponame_str Biblioteca Digital de Teses e Dissertações da FEI
collection Biblioteca Digital de Teses e Dissertações da FEI
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da FEI - Centro Universitário da Fundação Educacional Inaciana (FEI)
repository.mail.fl_str_mv cfernandes@fei.edu.br
_version_ 1809225177194561536