Optimizing data augmentation to improve al model performance

Detalhes bibliográficos
Autor(a) principal: Silva, Henrique Matheus Ferreira da
Data de Publicação: 2021
Tipo de documento: Dissertação
Idioma: eng
Título da fonte: Biblioteca Digital de Teses e Dissertações do LNCC
Texto Completo: https://tede.lncc.br/handle/tede/344
Resumo: A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads.
id LNCC_1f995bdf1d216fed1000ddb31bca9ff4
oai_identifier_str oai:tede-server.lncc.br:tede/344
network_acronym_str LNCC
network_name_str Biblioteca Digital de Teses e Dissertações do LNCC
repository_id_str
spelling Porto, Fábio André MachadoPorto, Fábio André MachadoNicolás, Marisa FabianaSilva, Eduardo Bezerra daPedroso, Marcel Moraeshttp://lattes.cnpq.br/7853088226082058Silva, Henrique Matheus Ferreira da2023-04-05T17:57:10Z2021-08-30SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021.https://tede.lncc.br/handle/tede/344A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads.Abstract The accuracy of Machine Learning (ML) based classification algorithms is highly dependent on the training dataset quality. However, many research topics have classification problems in which the examples distribution may vary widely, and in which specific classes may be strongly underrepresented (such as patient-specific medicine), or training data may be scarce (such as plant species classification), leading to unbalanced datasets. In both scenarios, this may result in a poor model’s efficiency. Data Augmentation Techniques try to mitigate this problem, by expanding the available training data in order to increase models performance. In this work, we present two novel techniques for data augmentation over tabular data. First, we present a method denominated SAGAD (Synthetic Data Generator for Tabular Datasets), which is based on the concept of conditional entropy. SAGAD can balance minority classes, at the same time increasing the overall size of the training set. Next, we present an extension of SAGAD for iterative learning algorithms, called DABEL (Data Generation Based on Complexity per Classes), which iteratively produces new training data samples based on class ambiguity. To validate our proposal, we simulated a small data scenario by using datasets well known in literature and also evaluated our methods on real world data. We evaluated SAGAD using four machine learning algorithms and DABEL using a neural network model. To measure our method’s performance, we developed a baseline use-case in which models are trained on small data, comparing both SAGAD and DABEL to it. We also tested other data augmentation techniques, against SAGAD. SAGAD is implemented and available via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), which is an R package in CRAN, for data augmentation which currently has more than 2200 downloads.Submitted by Patrícia Vieira Silva (library@lncc.br) on 2023-04-05T17:56:32Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5)Approved for entry into archive by Patrícia Vieira Silva (library@lncc.br) on 2023-04-05T17:56:53Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5)Made available in DSpace on 2023-04-05T17:57:10Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5) Previous issue date: 2021-08-30Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorapplication/pdfhttp://tede-server.lncc.br:8080/retrieve/1415/Disserta%c3%a7%c3%a3o_Henrique%20Matheus%20F%20Silva.pdf.jpgengLaboratório Nacional de Computação CientíficaPrograma de Pós-Graduação em Modelagem ComputacionalLNCCBrasilCoordenação de Pós-Graduação e Aperfeiçoamento (COPGA)http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessData AugmentationSmall dataAlgoritmos (Computação)Redes neurais (Computação)Aprendizado por computadorCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOOptimizing data augmentation to improve al model performanceinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisreponame:Biblioteca Digital de Teses e Dissertações do LNCCinstname:Laboratório Nacional de Computação Científica (LNCC)instacron:LNCCLICENSElicense.txtlicense.txttext/plain; charset=utf-82165http://tede-server.lncc.br:8080/tede/bitstream/tede/344/1/license.txtbd3efa91386c1718a7f26a329fdcb468MD51CC-LICENSElicense_urllicense_urltext/plain; charset=utf-849http://tede-server.lncc.br:8080/tede/bitstream/tede/344/2/license_url4afdbb8c545fd630ea7db775da747b2fMD52license_textlicense_texttext/html; charset=utf-80http://tede-server.lncc.br:8080/tede/bitstream/tede/344/3/license_textd41d8cd98f00b204e9800998ecf8427eMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-80http://tede-server.lncc.br:8080/tede/bitstream/tede/344/4/license_rdfd41d8cd98f00b204e9800998ecf8427eMD54ORIGINALDissertação_Henrique Matheus F Silva.pdfDissertação_Henrique Matheus F Silva.pdfapplication/pdf17425886http://tede-server.lncc.br:8080/tede/bitstream/tede/344/5/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf7848508ed87b186250172389f06d209dMD55TEXTDissertação_Henrique Matheus F Silva.pdf.txtDissertação_Henrique Matheus F Silva.pdf.txttext/plain156http://tede-server.lncc.br:8080/tede/bitstream/tede/344/6/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.txte018e703ce90cf1e580bd5bb44c0f281MD56THUMBNAILDissertação_Henrique Matheus F Silva.pdf.jpgDissertação_Henrique Matheus F Silva.pdf.jpgimage/jpeg3447http://tede-server.lncc.br:8080/tede/bitstream/tede/344/7/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.jpgdc103c24b4143b6df209eb2f25096922MD57tede/3442023-04-06 01:31:27.139oai:tede-server.lncc.br:tede/344Tk9UQTogQ09MT1FVRSBBUVVJIEEgU1VBIFBSw5NQUklBIExJQ0VOw4dBCkVzdGEgbGljZW7Dp2EgZGUgZXhlbXBsbyDDqSBmb3JuZWNpZGEgYXBlbmFzIHBhcmEgZmlucyBpbmZvcm1hdGl2b3MuCgpMSUNFTsOHQSBERSBESVNUUklCVUnDh8ODTyBOw4NPLUVYQ0xVU0lWQQoKQ29tIGEgYXByZXNlbnRhw6fDo28gZGVzdGEgbGljZW7Dp2EsIHZvY8OqIChvIGF1dG9yIChlcykgb3UgbyB0aXR1bGFyIGRvcyBkaXJlaXRvcyBkZSBhdXRvcikgY29uY2VkZSDDoCBVbml2ZXJzaWRhZGUgClhYWCAoU2lnbGEgZGEgVW5pdmVyc2lkYWRlKSBvIGRpcmVpdG8gbsOjby1leGNsdXNpdm8gZGUgcmVwcm9kdXppciwgIHRyYWR1emlyIChjb25mb3JtZSBkZWZpbmlkbyBhYmFpeG8pLCBlL291IApkaXN0cmlidWlyIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyAoaW5jbHVpbmRvIG8gcmVzdW1vKSBwb3IgdG9kbyBvIG11bmRvIG5vIGZvcm1hdG8gaW1wcmVzc28gZSBlbGV0csO0bmljbyBlIAplbSBxdWFscXVlciBtZWlvLCBpbmNsdWluZG8gb3MgZm9ybWF0b3Mgw6F1ZGlvIG91IHbDrWRlby4KClZvY8OqIGNvbmNvcmRhIHF1ZSBhIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSBwb2RlLCBzZW0gYWx0ZXJhciBvIGNvbnRlw7pkbywgdHJhbnNwb3IgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIApwYXJhIHF1YWxxdWVyIG1laW8gb3UgZm9ybWF0byBwYXJhIGZpbnMgZGUgcHJlc2VydmHDp8Ojby4KClZvY8OqIHRhbWLDqW0gY29uY29yZGEgcXVlIGEgU2lnbGEgZGUgVW5pdmVyc2lkYWRlIHBvZGUgbWFudGVyIG1haXMgZGUgdW1hIGPDs3BpYSBhIHN1YSB0ZXNlIG91IApkaXNzZXJ0YcOnw6NvIHBhcmEgZmlucyBkZSBzZWd1cmFuw6dhLCBiYWNrLXVwIGUgcHJlc2VydmHDp8Ojby4KClZvY8OqIGRlY2xhcmEgcXVlIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyDDqSBvcmlnaW5hbCBlIHF1ZSB2b2PDqiB0ZW0gbyBwb2RlciBkZSBjb25jZWRlciBvcyBkaXJlaXRvcyBjb250aWRvcyAKbmVzdGEgbGljZW7Dp2EuIFZvY8OqIHRhbWLDqW0gZGVjbGFyYSBxdWUgbyBkZXDDs3NpdG8gZGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBuw6NvLCBxdWUgc2VqYSBkZSBzZXUgCmNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCgpDYXNvIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBjb250ZW5oYSBtYXRlcmlhbCBxdWUgdm9jw6ogbsOjbyBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2PDqiAKZGVjbGFyYSBxdWUgb2J0ZXZlIGEgcGVybWlzc8OjbyBpcnJlc3RyaXRhIGRvIGRldGVudG9yIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBwYXJhIGNvbmNlZGVyIMOgIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSAKb3MgZGlyZWl0b3MgYXByZXNlbnRhZG9zIG5lc3RhIGxpY2Vuw6dhLCBlIHF1ZSBlc3NlIG1hdGVyaWFsIGRlIHByb3ByaWVkYWRlIGRlIHRlcmNlaXJvcyBlc3TDoSBjbGFyYW1lbnRlIAppZGVudGlmaWNhZG8gZSByZWNvbmhlY2lkbyBubyB0ZXh0byBvdSBubyBjb250ZcO6ZG8gZGEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIG9yYSBkZXBvc2l0YWRhLgoKQ0FTTyBBIFRFU0UgT1UgRElTU0VSVEHDh8ODTyBPUkEgREVQT1NJVEFEQSBURU5IQSBTSURPIFJFU1VMVEFETyBERSBVTSBQQVRST0PDjU5JTyBPVSAKQVBPSU8gREUgVU1BIEFHw4pOQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PIFFVRSBOw4NPIFNFSkEgQSBTSUdMQSBERSAKVU5JVkVSU0lEQURFLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyAKVEFNQsOJTSBBUyBERU1BSVMgT0JSSUdBw4fDlUVTIEVYSUdJREFTIFBPUiBDT05UUkFUTyBPVSBBQ09SRE8uCgpBIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lIChzKSBvdSBvKHMpIG5vbWUocykgZG8ocykgCmRldGVudG9yKGVzKSBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgZGEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvLCBlIG7Do28gZmFyw6EgcXVhbHF1ZXIgYWx0ZXJhw6fDo28sIGFsw6ltIGRhcXVlbGFzIApjb25jZWRpZGFzIHBvciBlc3RhIGxpY2Vuw6dhLgo=Biblioteca Digital de Teses e Dissertaçõeshttps://tede.lncc.br/PUBhttps://tede.lncc.br/oai/requestlibrary@lncc.br||library@lncc.bropendoar:2023-04-06T04:31:27Biblioteca Digital de Teses e Dissertações do LNCC - Laboratório Nacional de Computação Científica (LNCC)false
dc.title.por.fl_str_mv Optimizing data augmentation to improve al model performance
title Optimizing data augmentation to improve al model performance
spellingShingle Optimizing data augmentation to improve al model performance
Silva, Henrique Matheus Ferreira da
Data Augmentation
Small data
Algoritmos (Computação)
Redes neurais (Computação)
Aprendizado por computador
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
title_short Optimizing data augmentation to improve al model performance
title_full Optimizing data augmentation to improve al model performance
title_fullStr Optimizing data augmentation to improve al model performance
title_full_unstemmed Optimizing data augmentation to improve al model performance
title_sort Optimizing data augmentation to improve al model performance
author Silva, Henrique Matheus Ferreira da
author_facet Silva, Henrique Matheus Ferreira da
author_role author
dc.contributor.advisor1.fl_str_mv Porto, Fábio André Machado
dc.contributor.referee1.fl_str_mv Porto, Fábio André Machado
dc.contributor.referee2.fl_str_mv Nicolás, Marisa Fabiana
dc.contributor.referee3.fl_str_mv Silva, Eduardo Bezerra da
dc.contributor.referee4.fl_str_mv Pedroso, Marcel Moraes
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/7853088226082058
dc.contributor.author.fl_str_mv Silva, Henrique Matheus Ferreira da
contributor_str_mv Porto, Fábio André Machado
Porto, Fábio André Machado
Nicolás, Marisa Fabiana
Silva, Eduardo Bezerra da
Pedroso, Marcel Moraes
dc.subject.eng.fl_str_mv Data Augmentation
topic Data Augmentation
Small data
Algoritmos (Computação)
Redes neurais (Computação)
Aprendizado por computador
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
dc.subject.por.fl_str_mv Small data
Algoritmos (Computação)
Redes neurais (Computação)
Aprendizado por computador
dc.subject.cnpq.fl_str_mv CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
description A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads.
publishDate 2021
dc.date.issued.fl_str_mv 2021-08-30
dc.date.accessioned.fl_str_mv 2023-04-05T17:57:10Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021.
dc.identifier.uri.fl_str_mv https://tede.lncc.br/handle/tede/344
identifier_str_mv SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021.
url https://tede.lncc.br/handle/tede/344
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Laboratório Nacional de Computação Científica
dc.publisher.program.fl_str_mv Programa de Pós-Graduação em Modelagem Computacional
dc.publisher.initials.fl_str_mv LNCC
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv Coordenação de Pós-Graduação e Aperfeiçoamento (COPGA)
publisher.none.fl_str_mv Laboratório Nacional de Computação Científica
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações do LNCC
instname:Laboratório Nacional de Computação Científica (LNCC)
instacron:LNCC
instname_str Laboratório Nacional de Computação Científica (LNCC)
instacron_str LNCC
institution LNCC
reponame_str Biblioteca Digital de Teses e Dissertações do LNCC
collection Biblioteca Digital de Teses e Dissertações do LNCC
bitstream.url.fl_str_mv http://tede-server.lncc.br:8080/tede/bitstream/tede/344/1/license.txt
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/2/license_url
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/3/license_text
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/4/license_rdf
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/5/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/6/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.txt
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/7/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.jpg
bitstream.checksum.fl_str_mv bd3efa91386c1718a7f26a329fdcb468
4afdbb8c545fd630ea7db775da747b2f
d41d8cd98f00b204e9800998ecf8427e
d41d8cd98f00b204e9800998ecf8427e
7848508ed87b186250172389f06d209d
e018e703ce90cf1e580bd5bb44c0f281
dc103c24b4143b6df209eb2f25096922
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações do LNCC - Laboratório Nacional de Computação Científica (LNCC)
repository.mail.fl_str_mv library@lncc.br||library@lncc.br
_version_ 1797683219963838464