Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda
Autor(a) principal: | |
---|---|
Data de Publicação: | 2019 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFPE |
Texto Completo: | https://repositorio.ufpe.br/handle/123456789/36910 |
Resumo: | Nos últimos anos as Redes Neurais Profundas ou Deep Neural Networks (DNNs) se tornaram o estado da arte em diversos campos de pesquisa como Visão Computacional, Processamento de Linguagem Natural, Diagnóstico por Imagem, Sistemas de Recomendação, entre outros. O surpreendente é que elas chegaram nesse ponto poucos anos após uma Rede Neural Convolucional ou Convolutional Neural Network (CNN), a AlexNet, ter ganho notoriedade ao ser a vencedora da competição da ImageNet (ILSVRC) em 2012. Além do interesse proveniente dos resultados que a AlexNet apresentou na competição, o surgimento de bibliotecas de código aberto e a publicação de artigos em conjunto com seus códigos-fonte também impulsionaram o crescimento da área. Depois da AlexNet, surgiram diversas outras arquiteturas, dentre elas destacam-se, por exemplo, redes como a VGG, a GoogleLeNet, a ResNet e a Pix-2-Pix. Acompanhando o ritmo acelerado da comunidade acadêmica, logo pesquisadores passaram a desejar implantar aplicações baseadas em CNNs em ambientes reais. Muitas dessas aplicações precisam ser processadas em dispositivos com poucos recursos computacionais e, nesse ponto, os desenvolvedores se depararam com problemas relacionados às limitações de suas plataformas. Para atender a necessidade de redes mais eficientes, surgiram diversas técnicas de otimização de arquiteturas. Essas técnicas podem ser divididas entre as que são aplicadas durante ou após o treinamento dos modelos e aquelas que são aplicadas antes do seu treinamento. No primeiro dos grupos se consideram técnicas como a Poda e a Quantização e, no segundo grupo estão técnicas como a Convolução Separável em Profundidade ou Dephtwise Separable Convolution (DSC), a Mistura de Canais da ShuffleResNet, o Deslocamento de Canais da ShiftNet e as Contrações e Expansões da SqueezeNet. Esta dissertação propõe o estudo comparativo da utilização de diferentes técnicas de otimização nos modelos CNNs. Para tal, é proposta a implementação da DSC, e dos módulos de Mistura e de Deslocamento de Canais nas redes SqueezeNet, ResNet e Pix-2-Pix. Os experimentos são conduzidos nas bases de dados CIFAR 10 e CIFAR 100, nas duas primeiras redes e com a base maps←→satellite na última rede. Os resultados obtidos formam um conjunto de referência que futuros desenvolvedores podem utilizar como guia na escolha entre as técnicas de otimização aqui investigadas. |
id |
UFPE_c7919e011bf575b75a4f7a7ac73fdbfe |
---|---|
oai_identifier_str |
oai:repositorio.ufpe.br:123456789/36910 |
network_acronym_str |
UFPE |
network_name_str |
Repositório Institucional da UFPE |
repository_id_str |
2221 |
spelling |
SANTOS, Aline Gondimhttp://lattes.cnpq.br/1537708749916618http://lattes.cnpq.br/1244195230407619ZANCHETTIN, Cleber2020-03-09T21:10:17Z2020-03-09T21:10:17Z2019-12-12SANTOS, Aline Gondim. Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda. 2019. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2019.https://repositorio.ufpe.br/handle/123456789/36910Nos últimos anos as Redes Neurais Profundas ou Deep Neural Networks (DNNs) se tornaram o estado da arte em diversos campos de pesquisa como Visão Computacional, Processamento de Linguagem Natural, Diagnóstico por Imagem, Sistemas de Recomendação, entre outros. O surpreendente é que elas chegaram nesse ponto poucos anos após uma Rede Neural Convolucional ou Convolutional Neural Network (CNN), a AlexNet, ter ganho notoriedade ao ser a vencedora da competição da ImageNet (ILSVRC) em 2012. Além do interesse proveniente dos resultados que a AlexNet apresentou na competição, o surgimento de bibliotecas de código aberto e a publicação de artigos em conjunto com seus códigos-fonte também impulsionaram o crescimento da área. Depois da AlexNet, surgiram diversas outras arquiteturas, dentre elas destacam-se, por exemplo, redes como a VGG, a GoogleLeNet, a ResNet e a Pix-2-Pix. Acompanhando o ritmo acelerado da comunidade acadêmica, logo pesquisadores passaram a desejar implantar aplicações baseadas em CNNs em ambientes reais. Muitas dessas aplicações precisam ser processadas em dispositivos com poucos recursos computacionais e, nesse ponto, os desenvolvedores se depararam com problemas relacionados às limitações de suas plataformas. Para atender a necessidade de redes mais eficientes, surgiram diversas técnicas de otimização de arquiteturas. Essas técnicas podem ser divididas entre as que são aplicadas durante ou após o treinamento dos modelos e aquelas que são aplicadas antes do seu treinamento. No primeiro dos grupos se consideram técnicas como a Poda e a Quantização e, no segundo grupo estão técnicas como a Convolução Separável em Profundidade ou Dephtwise Separable Convolution (DSC), a Mistura de Canais da ShuffleResNet, o Deslocamento de Canais da ShiftNet e as Contrações e Expansões da SqueezeNet. Esta dissertação propõe o estudo comparativo da utilização de diferentes técnicas de otimização nos modelos CNNs. Para tal, é proposta a implementação da DSC, e dos módulos de Mistura e de Deslocamento de Canais nas redes SqueezeNet, ResNet e Pix-2-Pix. Os experimentos são conduzidos nas bases de dados CIFAR 10 e CIFAR 100, nas duas primeiras redes e com a base maps←→satellite na última rede. Os resultados obtidos formam um conjunto de referência que futuros desenvolvedores podem utilizar como guia na escolha entre as técnicas de otimização aqui investigadas.Over the past few years, Deep Neural Networks have become state of the art in different research fields such as Computer Vision, Natural Language Process, Image Diagnostics, and Recommendation Systems, among others. It is surprising, however, that they arrived at this point only a few years after a Convolutional Neural Network, the AlexNet, have gained notoriety by being the winner of the ImageNet Challenge (ILSVRC) in 2012. Beyond the interest from the AlexNet’s achieved results in this competition, the emergence of open source libraries and the article’s publication containing the source code algorithms also boosted this research area. After AlexNet, several other architectures emerged, we can highlight the VGG, GoogleLeNet, ResNet, and Pix-2-Pix models. Keeping up with the fast pace of the academic community, many companies soon started to develop CNNs based applications. Many of these applications need to run on devices with low computational resources. At this point, the developers encountered problems related to the limitations of their platforms. To adress the need for more efficient networks, several architecture optimization techniques have emerged. They may be divided into two main strategies: during or after training, where the network architecture is changed interactively and; before training, where the architecture definition is optimization oriented. In the first of these two groups, we have techniques like Prunning and Quantization. In the second group, we have methods like the DephtWise Separable Convolution (DSC), Channel Shuffle, Channel Shift, and the Contraction-Expansion sequence from SqueezeNet. This dissertation proposes a comparative study of the effects of different CNN’s optimization techniques. The implementation of DSC, Channel Shuffle modules, and Channel Shift in the networks SqueezeNet, ResNet, and Pix-2-Pix is proposed. The experiments are conducted in the CIFAR 10 and CIFAR 100 databases for the first two networks and the maps↔satellite database for the last one. The presented results constitute a reference material that developers can use as a guide in choosing among the considered optimization techniques.porUniversidade Federal de PernambucoPrograma de Pos Graduacao em Ciencia da ComputacaoUFPEBrasilAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/embargoedAccessInteligência computacionalRedes neurais convolucionaisRedes generativas adversáriasAnálise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profundainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesismestradoreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPEORIGINALDISSERTAÇÃO Aline Gondim Santos.pdfDISSERTAÇÃO Aline Gondim Santos.pdfapplication/pdf3458663https://repositorio.ufpe.br/bitstream/123456789/36910/1/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdffc1f8da29ee02b023644c3bc649529c4MD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-8811https://repositorio.ufpe.br/bitstream/123456789/36910/2/license_rdfe39d27027a6cc9cb039ad269a5db8e34MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82310https://repositorio.ufpe.br/bitstream/123456789/36910/3/license.txtbd573a5ca8288eb7272482765f819534MD53TEXTDISSERTAÇÃO Aline Gondim Santos.pdf.txtDISSERTAÇÃO Aline Gondim Santos.pdf.txtExtracted texttext/plain196988https://repositorio.ufpe.br/bitstream/123456789/36910/4/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdf.txt56f0df1c0160746587f9d9933ec2e777MD54THUMBNAILDISSERTAÇÃO Aline Gondim Santos.pdf.jpgDISSERTAÇÃO Aline Gondim Santos.pdf.jpgGenerated Thumbnailimage/jpeg1232https://repositorio.ufpe.br/bitstream/123456789/36910/5/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdf.jpg15a17dce8f71c3f05878ef05781737faMD55123456789/369102020-03-10 02:12:15.318oai:repositorio.ufpe.br:123456789/36910TGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKClRvZG8gZGVwb3NpdGFudGUgZGUgbWF0ZXJpYWwgbm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgKFJJKSBkZXZlIGNvbmNlZGVyLCDDoCBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBQZXJuYW1idWNvIChVRlBFKSwgdW1hIExpY2Vuw6dhIGRlIERpc3RyaWJ1acOnw6NvIE7Do28gRXhjbHVzaXZhIHBhcmEgbWFudGVyIGUgdG9ybmFyIGFjZXNzw612ZWlzIG9zIHNldXMgZG9jdW1lbnRvcywgZW0gZm9ybWF0byBkaWdpdGFsLCBuZXN0ZSByZXBvc2l0w7NyaW8uCgpDb20gYSBjb25jZXNzw6NvIGRlc3RhIGxpY2Vuw6dhIG7Do28gZXhjbHVzaXZhLCBvIGRlcG9zaXRhbnRlIG1hbnTDqW0gdG9kb3Mgb3MgZGlyZWl0b3MgZGUgYXV0b3IuCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXwoKTGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKCkFvIGNvbmNvcmRhciBjb20gZXN0YSBsaWNlbsOnYSBlIGFjZWl0w6EtbGEsIHZvY8OqIChhdXRvciBvdSBkZXRlbnRvciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMpOgoKYSkgRGVjbGFyYSBxdWUgY29uaGVjZSBhIHBvbMOtdGljYSBkZSBjb3B5cmlnaHQgZGEgZWRpdG9yYSBkbyBzZXUgZG9jdW1lbnRvOwpiKSBEZWNsYXJhIHF1ZSBjb25oZWNlIGUgYWNlaXRhIGFzIERpcmV0cml6ZXMgcGFyYSBvIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIGRhIFVGUEU7CmMpIENvbmNlZGUgw6AgVUZQRSBvIGRpcmVpdG8gbsOjbyBleGNsdXNpdm8gZGUgYXJxdWl2YXIsIHJlcHJvZHV6aXIsIGNvbnZlcnRlciAoY29tbyBkZWZpbmlkbyBhIHNlZ3VpciksIGNvbXVuaWNhciBlL291IGRpc3RyaWJ1aXIsIG5vIFJJLCBvIGRvY3VtZW50byBlbnRyZWd1ZSAoaW5jbHVpbmRvIG8gcmVzdW1vL2Fic3RyYWN0KSBlbSBmb3JtYXRvIGRpZ2l0YWwgb3UgcG9yIG91dHJvIG1laW87CmQpIERlY2xhcmEgcXVlIGF1dG9yaXphIGEgVUZQRSBhIGFycXVpdmFyIG1haXMgZGUgdW1hIGPDs3BpYSBkZXN0ZSBkb2N1bWVudG8gZSBjb252ZXJ0w6otbG8sIHNlbSBhbHRlcmFyIG8gc2V1IGNvbnRlw7pkbywgcGFyYSBxdWFscXVlciBmb3JtYXRvIGRlIGZpY2hlaXJvLCBtZWlvIG91IHN1cG9ydGUsIHBhcmEgZWZlaXRvcyBkZSBzZWd1cmFuw6dhLCBwcmVzZXJ2YcOnw6NvIChiYWNrdXApIGUgYWNlc3NvOwplKSBEZWNsYXJhIHF1ZSBvIGRvY3VtZW50byBzdWJtZXRpZG8gw6kgbyBzZXUgdHJhYmFsaG8gb3JpZ2luYWwgZSBxdWUgZGV0w6ltIG8gZGlyZWl0byBkZSBjb25jZWRlciBhIHRlcmNlaXJvcyBvcyBkaXJlaXRvcyBjb250aWRvcyBuZXN0YSBsaWNlbsOnYS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBhIGVudHJlZ2EgZG8gZG9jdW1lbnRvIG7Do28gaW5mcmluZ2Ugb3MgZGlyZWl0b3MgZGUgb3V0cmEgcGVzc29hIG91IGVudGlkYWRlOwpmKSBEZWNsYXJhIHF1ZSwgbm8gY2FzbyBkbyBkb2N1bWVudG8gc3VibWV0aWRvIGNvbnRlciBtYXRlcmlhbCBkbyBxdWFsIG7Do28gZGV0w6ltIG9zIGRpcmVpdG9zIGRlCmF1dG9yLCBvYnRldmUgYSBhdXRvcml6YcOnw6NvIGlycmVzdHJpdGEgZG8gcmVzcGVjdGl2byBkZXRlbnRvciBkZXNzZXMgZGlyZWl0b3MgcGFyYSBjZWRlciDDoApVRlBFIG9zIGRpcmVpdG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgTGljZW7Dp2EgZSBhdXRvcml6YXIgYSB1bml2ZXJzaWRhZGUgYSB1dGlsaXrDoS1sb3MgbGVnYWxtZW50ZS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBlc3NlIG1hdGVyaWFsIGN1am9zIGRpcmVpdG9zIHPDo28gZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3UgY29udGXDumRvIGRvIGRvY3VtZW50byBlbnRyZWd1ZTsKZykgU2UgbyBkb2N1bWVudG8gZW50cmVndWUgw6kgYmFzZWFkbyBlbSB0cmFiYWxobyBmaW5hbmNpYWRvIG91IGFwb2lhZG8gcG9yIG91dHJhIGluc3RpdHVpw6fDo28gcXVlIG7Do28gYSBVRlBFLCBkZWNsYXJhIHF1ZSBjdW1wcml1IHF1YWlzcXVlciBvYnJpZ2HDp8O1ZXMgZXhpZ2lkYXMgcGVsbyByZXNwZWN0aXZvIGNvbnRyYXRvIG91IGFjb3Jkby4KCkEgVUZQRSBpZGVudGlmaWNhcsOhIGNsYXJhbWVudGUgbyhzKSBub21lKHMpIGRvKHMpIGF1dG9yIChlcykgZG9zIGRpcmVpdG9zIGRvIGRvY3VtZW50byBlbnRyZWd1ZSBlIG7Do28gZmFyw6EgcXVhbHF1ZXIgYWx0ZXJhw6fDo28sIHBhcmEgYWzDqW0gZG8gcHJldmlzdG8gbmEgYWzDrW5lYSBjKS4KRepositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212020-03-10T05:12:15Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false |
dc.title.pt_BR.fl_str_mv |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
title |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
spellingShingle |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda SANTOS, Aline Gondim Inteligência computacional Redes neurais convolucionais Redes generativas adversárias |
title_short |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
title_full |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
title_fullStr |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
title_full_unstemmed |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
title_sort |
Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda |
author |
SANTOS, Aline Gondim |
author_facet |
SANTOS, Aline Gondim |
author_role |
author |
dc.contributor.authorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/1537708749916618 |
dc.contributor.advisorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/1244195230407619 |
dc.contributor.author.fl_str_mv |
SANTOS, Aline Gondim |
dc.contributor.advisor1.fl_str_mv |
ZANCHETTIN, Cleber |
contributor_str_mv |
ZANCHETTIN, Cleber |
dc.subject.por.fl_str_mv |
Inteligência computacional Redes neurais convolucionais Redes generativas adversárias |
topic |
Inteligência computacional Redes neurais convolucionais Redes generativas adversárias |
description |
Nos últimos anos as Redes Neurais Profundas ou Deep Neural Networks (DNNs) se tornaram o estado da arte em diversos campos de pesquisa como Visão Computacional, Processamento de Linguagem Natural, Diagnóstico por Imagem, Sistemas de Recomendação, entre outros. O surpreendente é que elas chegaram nesse ponto poucos anos após uma Rede Neural Convolucional ou Convolutional Neural Network (CNN), a AlexNet, ter ganho notoriedade ao ser a vencedora da competição da ImageNet (ILSVRC) em 2012. Além do interesse proveniente dos resultados que a AlexNet apresentou na competição, o surgimento de bibliotecas de código aberto e a publicação de artigos em conjunto com seus códigos-fonte também impulsionaram o crescimento da área. Depois da AlexNet, surgiram diversas outras arquiteturas, dentre elas destacam-se, por exemplo, redes como a VGG, a GoogleLeNet, a ResNet e a Pix-2-Pix. Acompanhando o ritmo acelerado da comunidade acadêmica, logo pesquisadores passaram a desejar implantar aplicações baseadas em CNNs em ambientes reais. Muitas dessas aplicações precisam ser processadas em dispositivos com poucos recursos computacionais e, nesse ponto, os desenvolvedores se depararam com problemas relacionados às limitações de suas plataformas. Para atender a necessidade de redes mais eficientes, surgiram diversas técnicas de otimização de arquiteturas. Essas técnicas podem ser divididas entre as que são aplicadas durante ou após o treinamento dos modelos e aquelas que são aplicadas antes do seu treinamento. No primeiro dos grupos se consideram técnicas como a Poda e a Quantização e, no segundo grupo estão técnicas como a Convolução Separável em Profundidade ou Dephtwise Separable Convolution (DSC), a Mistura de Canais da ShuffleResNet, o Deslocamento de Canais da ShiftNet e as Contrações e Expansões da SqueezeNet. Esta dissertação propõe o estudo comparativo da utilização de diferentes técnicas de otimização nos modelos CNNs. Para tal, é proposta a implementação da DSC, e dos módulos de Mistura e de Deslocamento de Canais nas redes SqueezeNet, ResNet e Pix-2-Pix. Os experimentos são conduzidos nas bases de dados CIFAR 10 e CIFAR 100, nas duas primeiras redes e com a base maps←→satellite na última rede. Os resultados obtidos formam um conjunto de referência que futuros desenvolvedores podem utilizar como guia na escolha entre as técnicas de otimização aqui investigadas. |
publishDate |
2019 |
dc.date.issued.fl_str_mv |
2019-12-12 |
dc.date.accessioned.fl_str_mv |
2020-03-09T21:10:17Z |
dc.date.available.fl_str_mv |
2020-03-09T21:10:17Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
SANTOS, Aline Gondim. Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda. 2019. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2019. |
dc.identifier.uri.fl_str_mv |
https://repositorio.ufpe.br/handle/123456789/36910 |
identifier_str_mv |
SANTOS, Aline Gondim. Análise de métodos de otimização de parâmetros e tempo de inferência para modelos de aprendizagem profunda. 2019. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2019. |
url |
https://repositorio.ufpe.br/handle/123456789/36910 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ info:eu-repo/semantics/embargoedAccess |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ |
eu_rights_str_mv |
embargoedAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal de Pernambuco |
dc.publisher.program.fl_str_mv |
Programa de Pos Graduacao em Ciencia da Computacao |
dc.publisher.initials.fl_str_mv |
UFPE |
dc.publisher.country.fl_str_mv |
Brasil |
publisher.none.fl_str_mv |
Universidade Federal de Pernambuco |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFPE instname:Universidade Federal de Pernambuco (UFPE) instacron:UFPE |
instname_str |
Universidade Federal de Pernambuco (UFPE) |
instacron_str |
UFPE |
institution |
UFPE |
reponame_str |
Repositório Institucional da UFPE |
collection |
Repositório Institucional da UFPE |
bitstream.url.fl_str_mv |
https://repositorio.ufpe.br/bitstream/123456789/36910/1/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdf https://repositorio.ufpe.br/bitstream/123456789/36910/2/license_rdf https://repositorio.ufpe.br/bitstream/123456789/36910/3/license.txt https://repositorio.ufpe.br/bitstream/123456789/36910/4/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdf.txt https://repositorio.ufpe.br/bitstream/123456789/36910/5/DISSERTA%c3%87%c3%83O%20Aline%20Gondim%20Santos.pdf.jpg |
bitstream.checksum.fl_str_mv |
fc1f8da29ee02b023644c3bc649529c4 e39d27027a6cc9cb039ad269a5db8e34 bd573a5ca8288eb7272482765f819534 56f0df1c0160746587f9d9933ec2e777 15a17dce8f71c3f05878ef05781737fa |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE) |
repository.mail.fl_str_mv |
attena@ufpe.br |
_version_ |
1802310808487591936 |