Sistema de visão artificial para discriminação entre plantas daninhas e milho

Detalhes bibliográficos
Autor(a) principal: Orlando, Roberto Carlos
Data de Publicação: 2003
Tipo de documento: Tese
Idioma: por
Título da fonte: LOCUS Repositório Institucional da UFV
Texto Completo: http://www.locus.ufv.br/handle/123456789/9587
Resumo: A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente.
id UFV_8db8fcde189caa3e4ad42a7004fec412
oai_identifier_str oai:locus.ufv.br:123456789/9587
network_acronym_str UFV
network_name_str LOCUS Repositório Institucional da UFV
repository_id_str 2145
spelling Queiroz, Daniel Marçal deSantos, Nerilson TerraMantovani, Evandro ChartuniOrlando, Roberto Carloshttp://lattes.cnpq.br/2228913986955678Pinto, Francisco de Assis de Carvalho2017-02-20T18:31:41Z2017-02-20T18:31:41Z2003-03-22ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003.http://www.locus.ufv.br/handle/123456789/9587A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente.Precision farming looks up to adjust the agricultural practices to the parcels demands and productive potential to maximize the profit, rationalize the use of the product factors and reduce the environmental damage. Those objectives are conditioned to the development of techniques capable of make them viable. Machine Vision techniques can bring benefits mainly in the rationing herbicides use. The herbicides are one of the largest sources of costs and environmental damage. The goal of the present work was to develop and evaluate a weeds and corn identification system, using color and monochromatic digital images. Images of plants of picão preto (Bidens pilosa L.), leiteira (Euphorbia heterophylla L.), capim-milhã (Digitaria horizontalis Willd) and timbête (Cenchrus echinatus L.) and corn (Zea mays) were obtained. Two of the weed species were crabgrass, Timbete and Capim-milhã, and the other two were broadleaf Picão Preto and leiteira. A co-occurrence matrix technique was used to classify sub-blocks of plant images. Eight textural features were obtained from the co-occurrence matrixes and used with input in four types of classifiers (one statistic and three neural). Some factors that can interfere in the automatic classification of weed plants for machine vision system were tested. The tested factors were: three block sizes (17 x 17 pixels, 34 x 34 pixels, 68 x 68 pixels), three bands of a RGB camera (green, green excess and near- infrared), two cameras (monochromatic and RGB), four grayscale levels (32, 64, 128 and 256 levels), three different days after the emergency (22 DAE, 25 DAE, 29 DAE), three distances of the camera (1,32 m, 1,58 m, 2,04 m) and four illumination levels (600, 700, 800 and 900 W). Initially the parameters sub-block size, the grayscale level and the camera height were defined to 29 days after the emergence, the illumination level of 900 W and statistical classifier. The parameter combinations that presented the best classification accuracy were choose to define the best kind of image by studing the influence of the different illumination levels. At the end, the four classifiers performance were compared to the different days after the emergence. The results indicated that: a) the better global accuracy, in all the studied factor combinations, occurred for 68 x 68 pixels block; b) the gray level variations apparently didn’t alter the classification, and the smalles level number (32 levels) was defined; c) the camera height of 2,04 m resulted in better values of global accuracy; d) for the CIR/RGB camera, the image that presented the best results of global accuracy was the green excess image; e) the monochromatic image presented superior values than the green excess image of the CIR/RGB camera; f) the neural classifier with the liggest number of neurons (arq 10-10) presented the best results of global accuracy for monochromatic image (86,5%) as well as for green excess image (86,2%); g) the global accuracy of the statistic classifier tend to be smaller than those of the neural classifier for the two kinds of image tested; 77,5% and 80,1% for monochromatic image and green excess, respectively.porUniversidade Federal de ViçosaErva daninha - IdentificaçãoProcessamento de imagensInteligência artificialMáquinas agrícolas - AutomaçãoAgricultura de precisãoCiências AgráriasSistema de visão artificial para discriminação entre plantas daninhas e milhoMachine vision system for automatic discrimination of weed and corninfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisUniversidade Federal de ViçosaDepartamento de Engenharia AgrícolaDoutor em Engenharia AgrícolaViçosa - MG2003-03-22Doutoradoinfo:eu-repo/semantics/openAccessreponame:LOCUS Repositório Institucional da UFVinstname:Universidade Federal de Viçosa (UFV)instacron:UFVORIGINALtexto completo.pdftexto completo.pdftexto completoapplication/pdf837417https://locus.ufv.br//bitstream/123456789/9587/1/texto%20completo.pdfb9d9f56f2490f6fcf0d75f43abd0edccMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://locus.ufv.br//bitstream/123456789/9587/2/license.txt8a4605be74aa9ea9d79846c1fba20a33MD52THUMBNAILtexto completo.pdf.jpgtexto completo.pdf.jpgIM Thumbnailimage/jpeg3635https://locus.ufv.br//bitstream/123456789/9587/3/texto%20completo.pdf.jpge9de90b7df90cb61bdaf463dec0623aeMD53123456789/95872017-02-20 23:00:26.164oai:locus.ufv.br:123456789/9587Tk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=Repositório InstitucionalPUBhttps://www.locus.ufv.br/oai/requestfabiojreis@ufv.bropendoar:21452017-02-21T02:00:26LOCUS Repositório Institucional da UFV - Universidade Federal de Viçosa (UFV)false
dc.title.pt-BR.fl_str_mv Sistema de visão artificial para discriminação entre plantas daninhas e milho
dc.title.en.fl_str_mv Machine vision system for automatic discrimination of weed and corn
title Sistema de visão artificial para discriminação entre plantas daninhas e milho
spellingShingle Sistema de visão artificial para discriminação entre plantas daninhas e milho
Orlando, Roberto Carlos
Erva daninha - Identificação
Processamento de imagens
Inteligência artificial
Máquinas agrícolas - Automação
Agricultura de precisão
Ciências Agrárias
title_short Sistema de visão artificial para discriminação entre plantas daninhas e milho
title_full Sistema de visão artificial para discriminação entre plantas daninhas e milho
title_fullStr Sistema de visão artificial para discriminação entre plantas daninhas e milho
title_full_unstemmed Sistema de visão artificial para discriminação entre plantas daninhas e milho
title_sort Sistema de visão artificial para discriminação entre plantas daninhas e milho
author Orlando, Roberto Carlos
author_facet Orlando, Roberto Carlos
author_role author
dc.contributor.authorLattes.pt-BR.fl_str_mv http://lattes.cnpq.br/2228913986955678
dc.contributor.none.fl_str_mv Queiroz, Daniel Marçal de
Santos, Nerilson Terra
Mantovani, Evandro Chartuni
dc.contributor.author.fl_str_mv Orlando, Roberto Carlos
dc.contributor.advisor1.fl_str_mv Pinto, Francisco de Assis de Carvalho
contributor_str_mv Pinto, Francisco de Assis de Carvalho
dc.subject.pt-BR.fl_str_mv Erva daninha - Identificação
Processamento de imagens
Inteligência artificial
Máquinas agrícolas - Automação
Agricultura de precisão
topic Erva daninha - Identificação
Processamento de imagens
Inteligência artificial
Máquinas agrícolas - Automação
Agricultura de precisão
Ciências Agrárias
dc.subject.cnpq.fl_str_mv Ciências Agrárias
description A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente.
publishDate 2003
dc.date.issued.fl_str_mv 2003-03-22
dc.date.accessioned.fl_str_mv 2017-02-20T18:31:41Z
dc.date.available.fl_str_mv 2017-02-20T18:31:41Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003.
dc.identifier.uri.fl_str_mv http://www.locus.ufv.br/handle/123456789/9587
identifier_str_mv ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003.
url http://www.locus.ufv.br/handle/123456789/9587
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Viçosa
publisher.none.fl_str_mv Universidade Federal de Viçosa
dc.source.none.fl_str_mv reponame:LOCUS Repositório Institucional da UFV
instname:Universidade Federal de Viçosa (UFV)
instacron:UFV
instname_str Universidade Federal de Viçosa (UFV)
instacron_str UFV
institution UFV
reponame_str LOCUS Repositório Institucional da UFV
collection LOCUS Repositório Institucional da UFV
bitstream.url.fl_str_mv https://locus.ufv.br//bitstream/123456789/9587/1/texto%20completo.pdf
https://locus.ufv.br//bitstream/123456789/9587/2/license.txt
https://locus.ufv.br//bitstream/123456789/9587/3/texto%20completo.pdf.jpg
bitstream.checksum.fl_str_mv b9d9f56f2490f6fcf0d75f43abd0edcc
8a4605be74aa9ea9d79846c1fba20a33
e9de90b7df90cb61bdaf463dec0623ae
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv LOCUS Repositório Institucional da UFV - Universidade Federal de Viçosa (UFV)
repository.mail.fl_str_mv fabiojreis@ufv.br
_version_ 1801212914722406400