Optimizing data augmentation to improve al model performance
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Dissertação |
Idioma: | eng |
Título da fonte: | Biblioteca Digital de Teses e Dissertações do LNCC |
Texto Completo: | https://tede.lncc.br/handle/tede/344 |
Resumo: | A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads. |
id |
LNCC_1f995bdf1d216fed1000ddb31bca9ff4 |
---|---|
oai_identifier_str |
oai:tede-server.lncc.br:tede/344 |
network_acronym_str |
LNCC |
network_name_str |
Biblioteca Digital de Teses e Dissertações do LNCC |
repository_id_str |
|
spelling |
Porto, Fábio André MachadoPorto, Fábio André MachadoNicolás, Marisa FabianaSilva, Eduardo Bezerra daPedroso, Marcel Moraeshttp://lattes.cnpq.br/7853088226082058Silva, Henrique Matheus Ferreira da2023-04-05T17:57:10Z2021-08-30SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021.https://tede.lncc.br/handle/tede/344A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads.Abstract The accuracy of Machine Learning (ML) based classification algorithms is highly dependent on the training dataset quality. However, many research topics have classification problems in which the examples distribution may vary widely, and in which specific classes may be strongly underrepresented (such as patient-specific medicine), or training data may be scarce (such as plant species classification), leading to unbalanced datasets. In both scenarios, this may result in a poor model’s efficiency. Data Augmentation Techniques try to mitigate this problem, by expanding the available training data in order to increase models performance. In this work, we present two novel techniques for data augmentation over tabular data. First, we present a method denominated SAGAD (Synthetic Data Generator for Tabular Datasets), which is based on the concept of conditional entropy. SAGAD can balance minority classes, at the same time increasing the overall size of the training set. Next, we present an extension of SAGAD for iterative learning algorithms, called DABEL (Data Generation Based on Complexity per Classes), which iteratively produces new training data samples based on class ambiguity. To validate our proposal, we simulated a small data scenario by using datasets well known in literature and also evaluated our methods on real world data. We evaluated SAGAD using four machine learning algorithms and DABEL using a neural network model. To measure our method’s performance, we developed a baseline use-case in which models are trained on small data, comparing both SAGAD and DABEL to it. We also tested other data augmentation techniques, against SAGAD. SAGAD is implemented and available via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), which is an R package in CRAN, for data augmentation which currently has more than 2200 downloads.Submitted by Patrícia Vieira Silva (library@lncc.br) on 2023-04-05T17:56:32Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5)Approved for entry into archive by Patrícia Vieira Silva (library@lncc.br) on 2023-04-05T17:56:53Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5)Made available in DSpace on 2023-04-05T17:57:10Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertação_Henrique Matheus F Silva.pdf: 17425886 bytes, checksum: 7848508ed87b186250172389f06d209d (MD5) Previous issue date: 2021-08-30Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorapplication/pdfhttp://tede-server.lncc.br:8080/retrieve/1415/Disserta%c3%a7%c3%a3o_Henrique%20Matheus%20F%20Silva.pdf.jpgengLaboratório Nacional de Computação CientíficaPrograma de Pós-Graduação em Modelagem ComputacionalLNCCBrasilCoordenação de Pós-Graduação e Aperfeiçoamento (COPGA)http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessData AugmentationSmall dataAlgoritmos (Computação)Redes neurais (Computação)Aprendizado por computadorCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOOptimizing data augmentation to improve al model performanceinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisreponame:Biblioteca Digital de Teses e Dissertações do LNCCinstname:Laboratório Nacional de Computação Científica (LNCC)instacron:LNCCLICENSElicense.txtlicense.txttext/plain; charset=utf-82165http://tede-server.lncc.br:8080/tede/bitstream/tede/344/1/license.txtbd3efa91386c1718a7f26a329fdcb468MD51CC-LICENSElicense_urllicense_urltext/plain; charset=utf-849http://tede-server.lncc.br:8080/tede/bitstream/tede/344/2/license_url4afdbb8c545fd630ea7db775da747b2fMD52license_textlicense_texttext/html; charset=utf-80http://tede-server.lncc.br:8080/tede/bitstream/tede/344/3/license_textd41d8cd98f00b204e9800998ecf8427eMD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-80http://tede-server.lncc.br:8080/tede/bitstream/tede/344/4/license_rdfd41d8cd98f00b204e9800998ecf8427eMD54ORIGINALDissertação_Henrique Matheus F Silva.pdfDissertação_Henrique Matheus F Silva.pdfapplication/pdf17425886http://tede-server.lncc.br:8080/tede/bitstream/tede/344/5/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf7848508ed87b186250172389f06d209dMD55TEXTDissertação_Henrique Matheus F Silva.pdf.txtDissertação_Henrique Matheus F Silva.pdf.txttext/plain156http://tede-server.lncc.br:8080/tede/bitstream/tede/344/6/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.txte018e703ce90cf1e580bd5bb44c0f281MD56THUMBNAILDissertação_Henrique Matheus F Silva.pdf.jpgDissertação_Henrique Matheus F Silva.pdf.jpgimage/jpeg3447http://tede-server.lncc.br:8080/tede/bitstream/tede/344/7/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.jpgdc103c24b4143b6df209eb2f25096922MD57tede/3442023-04-06 01:31:27.139oai:tede-server.lncc.br:tede/344Tk9UQTogQ09MT1FVRSBBUVVJIEEgU1VBIFBSw5NQUklBIExJQ0VOw4dBCkVzdGEgbGljZW7Dp2EgZGUgZXhlbXBsbyDDqSBmb3JuZWNpZGEgYXBlbmFzIHBhcmEgZmlucyBpbmZvcm1hdGl2b3MuCgpMSUNFTsOHQSBERSBESVNUUklCVUnDh8ODTyBOw4NPLUVYQ0xVU0lWQQoKQ29tIGEgYXByZXNlbnRhw6fDo28gZGVzdGEgbGljZW7Dp2EsIHZvY8OqIChvIGF1dG9yIChlcykgb3UgbyB0aXR1bGFyIGRvcyBkaXJlaXRvcyBkZSBhdXRvcikgY29uY2VkZSDDoCBVbml2ZXJzaWRhZGUgClhYWCAoU2lnbGEgZGEgVW5pdmVyc2lkYWRlKSBvIGRpcmVpdG8gbsOjby1leGNsdXNpdm8gZGUgcmVwcm9kdXppciwgIHRyYWR1emlyIChjb25mb3JtZSBkZWZpbmlkbyBhYmFpeG8pLCBlL291IApkaXN0cmlidWlyIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyAoaW5jbHVpbmRvIG8gcmVzdW1vKSBwb3IgdG9kbyBvIG11bmRvIG5vIGZvcm1hdG8gaW1wcmVzc28gZSBlbGV0csO0bmljbyBlIAplbSBxdWFscXVlciBtZWlvLCBpbmNsdWluZG8gb3MgZm9ybWF0b3Mgw6F1ZGlvIG91IHbDrWRlby4KClZvY8OqIGNvbmNvcmRhIHF1ZSBhIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSBwb2RlLCBzZW0gYWx0ZXJhciBvIGNvbnRlw7pkbywgdHJhbnNwb3IgYSBzdWEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIApwYXJhIHF1YWxxdWVyIG1laW8gb3UgZm9ybWF0byBwYXJhIGZpbnMgZGUgcHJlc2VydmHDp8Ojby4KClZvY8OqIHRhbWLDqW0gY29uY29yZGEgcXVlIGEgU2lnbGEgZGUgVW5pdmVyc2lkYWRlIHBvZGUgbWFudGVyIG1haXMgZGUgdW1hIGPDs3BpYSBhIHN1YSB0ZXNlIG91IApkaXNzZXJ0YcOnw6NvIHBhcmEgZmlucyBkZSBzZWd1cmFuw6dhLCBiYWNrLXVwIGUgcHJlc2VydmHDp8Ojby4KClZvY8OqIGRlY2xhcmEgcXVlIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyDDqSBvcmlnaW5hbCBlIHF1ZSB2b2PDqiB0ZW0gbyBwb2RlciBkZSBjb25jZWRlciBvcyBkaXJlaXRvcyBjb250aWRvcyAKbmVzdGEgbGljZW7Dp2EuIFZvY8OqIHRhbWLDqW0gZGVjbGFyYSBxdWUgbyBkZXDDs3NpdG8gZGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBuw6NvLCBxdWUgc2VqYSBkZSBzZXUgCmNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgZGUgbmluZ3XDqW0uCgpDYXNvIGEgc3VhIHRlc2Ugb3UgZGlzc2VydGHDp8OjbyBjb250ZW5oYSBtYXRlcmlhbCBxdWUgdm9jw6ogbsOjbyBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2PDqiAKZGVjbGFyYSBxdWUgb2J0ZXZlIGEgcGVybWlzc8OjbyBpcnJlc3RyaXRhIGRvIGRldGVudG9yIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBwYXJhIGNvbmNlZGVyIMOgIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSAKb3MgZGlyZWl0b3MgYXByZXNlbnRhZG9zIG5lc3RhIGxpY2Vuw6dhLCBlIHF1ZSBlc3NlIG1hdGVyaWFsIGRlIHByb3ByaWVkYWRlIGRlIHRlcmNlaXJvcyBlc3TDoSBjbGFyYW1lbnRlIAppZGVudGlmaWNhZG8gZSByZWNvbmhlY2lkbyBubyB0ZXh0byBvdSBubyBjb250ZcO6ZG8gZGEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvIG9yYSBkZXBvc2l0YWRhLgoKQ0FTTyBBIFRFU0UgT1UgRElTU0VSVEHDh8ODTyBPUkEgREVQT1NJVEFEQSBURU5IQSBTSURPIFJFU1VMVEFETyBERSBVTSBQQVRST0PDjU5JTyBPVSAKQVBPSU8gREUgVU1BIEFHw4pOQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PIFFVRSBOw4NPIFNFSkEgQSBTSUdMQSBERSAKVU5JVkVSU0lEQURFLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyAKVEFNQsOJTSBBUyBERU1BSVMgT0JSSUdBw4fDlUVTIEVYSUdJREFTIFBPUiBDT05UUkFUTyBPVSBBQ09SRE8uCgpBIFNpZ2xhIGRlIFVuaXZlcnNpZGFkZSBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lIChzKSBvdSBvKHMpIG5vbWUocykgZG8ocykgCmRldGVudG9yKGVzKSBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgZGEgdGVzZSBvdSBkaXNzZXJ0YcOnw6NvLCBlIG7Do28gZmFyw6EgcXVhbHF1ZXIgYWx0ZXJhw6fDo28sIGFsw6ltIGRhcXVlbGFzIApjb25jZWRpZGFzIHBvciBlc3RhIGxpY2Vuw6dhLgo=Biblioteca Digital de Teses e Dissertaçõeshttps://tede.lncc.br/PUBhttps://tede.lncc.br/oai/requestlibrary@lncc.br||library@lncc.bropendoar:2023-04-06T04:31:27Biblioteca Digital de Teses e Dissertações do LNCC - Laboratório Nacional de Computação Científica (LNCC)false |
dc.title.por.fl_str_mv |
Optimizing data augmentation to improve al model performance |
title |
Optimizing data augmentation to improve al model performance |
spellingShingle |
Optimizing data augmentation to improve al model performance Silva, Henrique Matheus Ferreira da Data Augmentation Small data Algoritmos (Computação) Redes neurais (Computação) Aprendizado por computador CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
title_short |
Optimizing data augmentation to improve al model performance |
title_full |
Optimizing data augmentation to improve al model performance |
title_fullStr |
Optimizing data augmentation to improve al model performance |
title_full_unstemmed |
Optimizing data augmentation to improve al model performance |
title_sort |
Optimizing data augmentation to improve al model performance |
author |
Silva, Henrique Matheus Ferreira da |
author_facet |
Silva, Henrique Matheus Ferreira da |
author_role |
author |
dc.contributor.advisor1.fl_str_mv |
Porto, Fábio André Machado |
dc.contributor.referee1.fl_str_mv |
Porto, Fábio André Machado |
dc.contributor.referee2.fl_str_mv |
Nicolás, Marisa Fabiana |
dc.contributor.referee3.fl_str_mv |
Silva, Eduardo Bezerra da |
dc.contributor.referee4.fl_str_mv |
Pedroso, Marcel Moraes |
dc.contributor.authorLattes.fl_str_mv |
http://lattes.cnpq.br/7853088226082058 |
dc.contributor.author.fl_str_mv |
Silva, Henrique Matheus Ferreira da |
contributor_str_mv |
Porto, Fábio André Machado Porto, Fábio André Machado Nicolás, Marisa Fabiana Silva, Eduardo Bezerra da Pedroso, Marcel Moraes |
dc.subject.eng.fl_str_mv |
Data Augmentation |
topic |
Data Augmentation Small data Algoritmos (Computação) Redes neurais (Computação) Aprendizado por computador CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
dc.subject.por.fl_str_mv |
Small data Algoritmos (Computação) Redes neurais (Computação) Aprendizado por computador |
dc.subject.cnpq.fl_str_mv |
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
description |
A acurácia dos algoritmos de classificação baseados em Aprendizado de Máquina (ML) é altamente dependente da qualidade do conjunto de dados de treinamento. No entanto, um entrave na área de pesquisa é classificação, pois a distribuição de exemplos pode variar amplamente e classes específicas podem ser fortemente sub-representadas (como medicamentos específicos do paciente); assim como os dados de treinamento podem ser escassos (como classificação de espécies de plantas), resultando em conjuntos de dados não balanceados. Em ambos os cenários, esse aspecto pode resultar na baixa eficiência do modelo. As Técnicas de Aumento de Dados tentam mitigar esses problemas, expandindo os dados de treinamento disponíveis, para assim aumentar o desempenho dos modelos. No presente estudo, apresentamos duas novas técnicas para aumento de dados tabulares. Apresentamos, primeiramente, um método denominado SAGAD (Synthetic Data Generator for Tabular Datasets), baseado no conceito de entropia condicional. O SAGAD pode equilibrar classes minoritárias; permitindo o aumento do tamanho geral do conjunto de treinamento. Em seguida é apresentada uma extensão do SAGAD para algoritmos de aprendizagem iterativa, denominada DABEL (Data Genetarion Based on Complexity per Classes), que produz novas amostras de dados de treinamento, com base na ambiguidade da classe. Para validar nossa proposta, simulamos um cenário de poucos dados.A avaliação do SAGAD foi feita usando quatro diferentes algoritmos de aprendizado de máquina. Já o DABEL foi avalaliado a partir de uma rede neural. Também foram realizadas comparações entre outras técnicas de geração de dados e o SAGAD. O SAGAD está implementado e disponível via AugmenteR (S. Pereira; ferreira da silva; A.M Porto, 2021), que é um pacote R no CRAN para aumento de dados e que, atualmente, tem mais de 2200 downloads. |
publishDate |
2021 |
dc.date.issued.fl_str_mv |
2021-08-30 |
dc.date.accessioned.fl_str_mv |
2023-04-05T17:57:10Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021. |
dc.identifier.uri.fl_str_mv |
https://tede.lncc.br/handle/tede/344 |
identifier_str_mv |
SILVA, H. M. F. Optimizing data augmentation to improve al model performance. 2021. 83 f. Dissertação (Programa de Pós-Graduação em Modelagem Computacional) - Laboratório Nacional de Computação Científica, Petrópolis, 2021. |
url |
https://tede.lncc.br/handle/tede/344 |
dc.language.iso.fl_str_mv |
eng |
language |
eng |
dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Laboratório Nacional de Computação Científica |
dc.publisher.program.fl_str_mv |
Programa de Pós-Graduação em Modelagem Computacional |
dc.publisher.initials.fl_str_mv |
LNCC |
dc.publisher.country.fl_str_mv |
Brasil |
dc.publisher.department.fl_str_mv |
Coordenação de Pós-Graduação e Aperfeiçoamento (COPGA) |
publisher.none.fl_str_mv |
Laboratório Nacional de Computação Científica |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações do LNCC instname:Laboratório Nacional de Computação Científica (LNCC) instacron:LNCC |
instname_str |
Laboratório Nacional de Computação Científica (LNCC) |
instacron_str |
LNCC |
institution |
LNCC |
reponame_str |
Biblioteca Digital de Teses e Dissertações do LNCC |
collection |
Biblioteca Digital de Teses e Dissertações do LNCC |
bitstream.url.fl_str_mv |
http://tede-server.lncc.br:8080/tede/bitstream/tede/344/1/license.txt http://tede-server.lncc.br:8080/tede/bitstream/tede/344/2/license_url http://tede-server.lncc.br:8080/tede/bitstream/tede/344/3/license_text http://tede-server.lncc.br:8080/tede/bitstream/tede/344/4/license_rdf http://tede-server.lncc.br:8080/tede/bitstream/tede/344/5/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf http://tede-server.lncc.br:8080/tede/bitstream/tede/344/6/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.txt http://tede-server.lncc.br:8080/tede/bitstream/tede/344/7/Disserta%C3%A7%C3%A3o_Henrique+Matheus+F+Silva.pdf.jpg |
bitstream.checksum.fl_str_mv |
bd3efa91386c1718a7f26a329fdcb468 4afdbb8c545fd630ea7db775da747b2f d41d8cd98f00b204e9800998ecf8427e d41d8cd98f00b204e9800998ecf8427e 7848508ed87b186250172389f06d209d e018e703ce90cf1e580bd5bb44c0f281 dc103c24b4143b6df209eb2f25096922 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações do LNCC - Laboratório Nacional de Computação Científica (LNCC) |
repository.mail.fl_str_mv |
library@lncc.br||library@lncc.br |
_version_ |
1797683219963838464 |