Sistema de visão artificial para discriminação entre plantas daninhas e milho
Autor(a) principal: | |
---|---|
Data de Publicação: | 2003 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | LOCUS Repositório Institucional da UFV |
Texto Completo: | http://www.locus.ufv.br/handle/123456789/9587 |
Resumo: | A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente. |
id |
UFV_8db8fcde189caa3e4ad42a7004fec412 |
---|---|
oai_identifier_str |
oai:locus.ufv.br:123456789/9587 |
network_acronym_str |
UFV |
network_name_str |
LOCUS Repositório Institucional da UFV |
repository_id_str |
2145 |
spelling |
Queiroz, Daniel Marçal deSantos, Nerilson TerraMantovani, Evandro ChartuniOrlando, Roberto Carloshttp://lattes.cnpq.br/2228913986955678Pinto, Francisco de Assis de Carvalho2017-02-20T18:31:41Z2017-02-20T18:31:41Z2003-03-22ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003.http://www.locus.ufv.br/handle/123456789/9587A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente.Precision farming looks up to adjust the agricultural practices to the parcels demands and productive potential to maximize the profit, rationalize the use of the product factors and reduce the environmental damage. Those objectives are conditioned to the development of techniques capable of make them viable. Machine Vision techniques can bring benefits mainly in the rationing herbicides use. The herbicides are one of the largest sources of costs and environmental damage. The goal of the present work was to develop and evaluate a weeds and corn identification system, using color and monochromatic digital images. Images of plants of picão preto (Bidens pilosa L.), leiteira (Euphorbia heterophylla L.), capim-milhã (Digitaria horizontalis Willd) and timbête (Cenchrus echinatus L.) and corn (Zea mays) were obtained. Two of the weed species were crabgrass, Timbete and Capim-milhã, and the other two were broadleaf Picão Preto and leiteira. A co-occurrence matrix technique was used to classify sub-blocks of plant images. Eight textural features were obtained from the co-occurrence matrixes and used with input in four types of classifiers (one statistic and three neural). Some factors that can interfere in the automatic classification of weed plants for machine vision system were tested. The tested factors were: three block sizes (17 x 17 pixels, 34 x 34 pixels, 68 x 68 pixels), three bands of a RGB camera (green, green excess and near- infrared), two cameras (monochromatic and RGB), four grayscale levels (32, 64, 128 and 256 levels), three different days after the emergency (22 DAE, 25 DAE, 29 DAE), three distances of the camera (1,32 m, 1,58 m, 2,04 m) and four illumination levels (600, 700, 800 and 900 W). Initially the parameters sub-block size, the grayscale level and the camera height were defined to 29 days after the emergence, the illumination level of 900 W and statistical classifier. The parameter combinations that presented the best classification accuracy were choose to define the best kind of image by studing the influence of the different illumination levels. At the end, the four classifiers performance were compared to the different days after the emergence. The results indicated that: a) the better global accuracy, in all the studied factor combinations, occurred for 68 x 68 pixels block; b) the gray level variations apparently didn’t alter the classification, and the smalles level number (32 levels) was defined; c) the camera height of 2,04 m resulted in better values of global accuracy; d) for the CIR/RGB camera, the image that presented the best results of global accuracy was the green excess image; e) the monochromatic image presented superior values than the green excess image of the CIR/RGB camera; f) the neural classifier with the liggest number of neurons (arq 10-10) presented the best results of global accuracy for monochromatic image (86,5%) as well as for green excess image (86,2%); g) the global accuracy of the statistic classifier tend to be smaller than those of the neural classifier for the two kinds of image tested; 77,5% and 80,1% for monochromatic image and green excess, respectively.porUniversidade Federal de ViçosaErva daninha - IdentificaçãoProcessamento de imagensInteligência artificialMáquinas agrícolas - AutomaçãoAgricultura de precisãoCiências AgráriasSistema de visão artificial para discriminação entre plantas daninhas e milhoMachine vision system for automatic discrimination of weed and corninfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisUniversidade Federal de ViçosaDepartamento de Engenharia AgrícolaDoutor em Engenharia AgrícolaViçosa - MG2003-03-22Doutoradoinfo:eu-repo/semantics/openAccessreponame:LOCUS Repositório Institucional da UFVinstname:Universidade Federal de Viçosa (UFV)instacron:UFVORIGINALtexto completo.pdftexto completo.pdftexto completoapplication/pdf837417https://locus.ufv.br//bitstream/123456789/9587/1/texto%20completo.pdfb9d9f56f2490f6fcf0d75f43abd0edccMD51LICENSElicense.txtlicense.txttext/plain; charset=utf-81748https://locus.ufv.br//bitstream/123456789/9587/2/license.txt8a4605be74aa9ea9d79846c1fba20a33MD52THUMBNAILtexto completo.pdf.jpgtexto completo.pdf.jpgIM Thumbnailimage/jpeg3635https://locus.ufv.br//bitstream/123456789/9587/3/texto%20completo.pdf.jpge9de90b7df90cb61bdaf463dec0623aeMD53123456789/95872017-02-20 23:00:26.164oai:locus.ufv.br:123456789/9587Tk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=Repositório InstitucionalPUBhttps://www.locus.ufv.br/oai/requestfabiojreis@ufv.bropendoar:21452017-02-21T02:00:26LOCUS Repositório Institucional da UFV - Universidade Federal de Viçosa (UFV)false |
dc.title.pt-BR.fl_str_mv |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
dc.title.en.fl_str_mv |
Machine vision system for automatic discrimination of weed and corn |
title |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
spellingShingle |
Sistema de visão artificial para discriminação entre plantas daninhas e milho Orlando, Roberto Carlos Erva daninha - Identificação Processamento de imagens Inteligência artificial Máquinas agrícolas - Automação Agricultura de precisão Ciências Agrárias |
title_short |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
title_full |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
title_fullStr |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
title_full_unstemmed |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
title_sort |
Sistema de visão artificial para discriminação entre plantas daninhas e milho |
author |
Orlando, Roberto Carlos |
author_facet |
Orlando, Roberto Carlos |
author_role |
author |
dc.contributor.authorLattes.pt-BR.fl_str_mv |
http://lattes.cnpq.br/2228913986955678 |
dc.contributor.none.fl_str_mv |
Queiroz, Daniel Marçal de Santos, Nerilson Terra Mantovani, Evandro Chartuni |
dc.contributor.author.fl_str_mv |
Orlando, Roberto Carlos |
dc.contributor.advisor1.fl_str_mv |
Pinto, Francisco de Assis de Carvalho |
contributor_str_mv |
Pinto, Francisco de Assis de Carvalho |
dc.subject.pt-BR.fl_str_mv |
Erva daninha - Identificação Processamento de imagens Inteligência artificial Máquinas agrícolas - Automação Agricultura de precisão |
topic |
Erva daninha - Identificação Processamento de imagens Inteligência artificial Máquinas agrícolas - Automação Agricultura de precisão Ciências Agrárias |
dc.subject.cnpq.fl_str_mv |
Ciências Agrárias |
description |
A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente. |
publishDate |
2003 |
dc.date.issued.fl_str_mv |
2003-03-22 |
dc.date.accessioned.fl_str_mv |
2017-02-20T18:31:41Z |
dc.date.available.fl_str_mv |
2017-02-20T18:31:41Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003. |
dc.identifier.uri.fl_str_mv |
http://www.locus.ufv.br/handle/123456789/9587 |
identifier_str_mv |
ORLANDO, Roberto Carlos. Sistema de Visão Artificial para discriminação entre plantas daninhas e milho. 2003. 85 f. Tese (Doutorado em Engenharia Agrícola) - Universidade Federal de Viçosa, Viçosa. 2003. |
url |
http://www.locus.ufv.br/handle/123456789/9587 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal de Viçosa |
publisher.none.fl_str_mv |
Universidade Federal de Viçosa |
dc.source.none.fl_str_mv |
reponame:LOCUS Repositório Institucional da UFV instname:Universidade Federal de Viçosa (UFV) instacron:UFV |
instname_str |
Universidade Federal de Viçosa (UFV) |
instacron_str |
UFV |
institution |
UFV |
reponame_str |
LOCUS Repositório Institucional da UFV |
collection |
LOCUS Repositório Institucional da UFV |
bitstream.url.fl_str_mv |
https://locus.ufv.br//bitstream/123456789/9587/1/texto%20completo.pdf https://locus.ufv.br//bitstream/123456789/9587/2/license.txt https://locus.ufv.br//bitstream/123456789/9587/3/texto%20completo.pdf.jpg |
bitstream.checksum.fl_str_mv |
b9d9f56f2490f6fcf0d75f43abd0edcc 8a4605be74aa9ea9d79846c1fba20a33 e9de90b7df90cb61bdaf463dec0623ae |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 |
repository.name.fl_str_mv |
LOCUS Repositório Institucional da UFV - Universidade Federal de Viçosa (UFV) |
repository.mail.fl_str_mv |
fabiojreis@ufv.br |
_version_ |
1801212914722406400 |