Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional

Detalhes bibliográficos
Autor(a) principal: Tetila, Everton Castelão
Data de Publicação: 2019
Tipo de documento: Tese
Idioma: por
Título da fonte: Repositório Institucional da UFGD
Texto Completo: http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385
Resumo: A soja (Glycine max) é uma oleaginosa com bom perfil nutricional e importante respaldo econômico para a indústria alimentícia ao redor do mundo. Desde a semeadura até a colheita, a cultura da soja está sujeita a ataques bióticos de pragas e doenças, podendo ocasionar a depreciação do produto final. Esta tese propõe criar um novo sistema de visão computacional para identificar doenças e pragas na cultura da soja que seja capaz de apresentar ao produtor o nível de infestação de cada região da lavoura para um manejo mais eficiente de suas populações. O sistema proposto baseia-se no método Simple Linear Iterative Clustering (SLIC) para segmentar as folhas das plantas nas imagens da plantação, capturadas por veículos aéreos não tripulados (VANT) de uma linha bastante popular do mercado de VANT, denominada DJI Phantom. Em seguida, técnicas rasas e profundas da aprendizagem de máquina são usadas na classificação de doenças e pragas agrícolas. Na tarefa de classificação de doenças, o desempenho das técnicas de aprendizagem de máquina supervisionada foi avaliado para cinco alturas de voo diferentes: 1, 2, 4, 8 e 16 metros. Com técnicas rasas (SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest) e atributos visuais das folhas (cor, gradiente, textura e forma), os experimentos sustentaram a hipótese de que as alturas de voo mais próximas entre o VANT e a planta apresentam maiores taxas de classificação correta (TCC). Para aprendizagem rasa, especificamente usando o classificador SVM, os experimentos alcançaram 98,34% na identificação da doença foliar usando alturas de voo entre 1 e 2 metros, com decaimento de 2% a cada metro, uma vez que a resolução da planta na imagem diminui para uma altura de voo mais alta. Os experimentos também confirmaram que mesmo catalogando novas doenças e aumentando o número de 3 para 6 classes, não houve evidência de diferença estatística significativa das métricas de desempenho para os dados coletados pelo VANT a 2 metros de altura da plantação. Com técnicas de aprendizagem profunda, quatro modelos reconhecidos pela concorrência no ImageNet foram avaliados para o reconhecimento automático de doenças foliares da soja, usando diferentes estratégias de fine-tuning (ajuste fino) e transfer learning (transferência de aprendizagem), sobre um conjunto de 3.000 imagens capturadas em condições reais de campo. Aumento de dados (data augmentation) e função de abandono dropout foram usados durante o treinamento da rede para aumentar a quantidade de dados e eliminar aleatoriamente alguns dos neurônios ocultos na rede, evitando o sobreajuste (overfitting). Os resultados mostraram que os modelos Inception-V3, Resnet-50, VGG-19 e Xception alcançaram taxas de classificação mais altas usando a estratégia de ajuste fino, atingindo 99,04% de amostras classificadas corretamente. Do mesmo modo, os modelos de aprendizagem profunda foram avaliados para a tarefa de classificação de insetos da soja, usando diferentes estratégias de fine-tuning e transfer learning, sobre um conjunto de 5.000 imagens coletadas diretamente do campo com a câmera de um smartphone. Os resultados mostraram que os modelos de aprendizagem profunda treinados com um ajuste fino atingiram maiores taxas de classificação em comparação a outras abordagens, alcançando uma acurácia de até 93,82%. Além disso, os modelos de aprendizagem profunda superaram nos experimentos os métodos de extração de atributos tradicionais, como SIFT e SURF com a abordagem histograma de palavras visuais, o método de aprendizagem semi supervisionada OPFSEMImst e os métodos de aprendizagem supervisionada usados para classificar imagens, como SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest. Na tarefa de contagem de insetos-praga, três modelos de aprendizagem profunda foram avaliados. Os pesos da rede neural convolucional (RNC) DenseNet-201 FT - que obteve o maior valor para a acurácia (94,89%) na tarefa de classificação - foram usados em nosso sistema de visão computacional para a contagem dos insetos na imagem, obtida pela adição dos superpixels de cada classe. Deste modo, demonstramos como um modelo de aprendizagem profunda pode ser implementado em um sistema de visão computacional de ponta a ponta para operar em um ambiente de campo real, sob diferentes condições de iluminação, tamanho de objeto e variações de fundo. Na etapa de pós-processamento um mapa colorido é gerado, fornecendo uma classe de cada problema (doença ou praga) por segmento e a soma dos superpixels apresenta ao produtor o nível de infestação de uma região da lavoura, ao classificar os segmentos de uma imagem da plantação. Os resultados indicam que os modelos de aprendizagem profunda podem ser usados com sucesso para apoiar especialistas e agricultores no monitoramento de patógenos e pragas nos campos de soja.
id UFGD-2_b2ee6f18575c9d4095f8127d0ae22e28
oai_identifier_str oai:https://repositorio.ufgd.edu.br/jspui:prefix/2385
network_acronym_str UFGD-2
network_name_str Repositório Institucional da UFGD
repository_id_str 2116
spelling Pistori, Hemerson0000-0001-8181-760Xhttp://lattes.cnpq.br/8684549377565696Machado, Bruno Brandolihttp://lattes.cnpq.br/7627481478446093Oliveira, Michel Angelo Constantino dehttp://lattes.cnpq.br/2196653320939118Marques, Rúbia Renatahttp://lattes.cnpq.br/3674102665721709Santos, Jefersson Alex doshttp://lattes.cnpq.br/2171782600728348Marcato Junior, Joséhttp://lattes.cnpq.br/1054922336409334http://lattes.cnpq.br/4761324267689856Tetila, Everton Castelão2020-01-31T18:00:35Z2020-01-31T18:00:35Z2019-08-20TETILA, E. C. Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional. 2019. Tese (Doutorado em Desenvolvimento Local) – Universidade Católica Dom Bosco, Campo Grande, MS, 2019.http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385A soja (Glycine max) é uma oleaginosa com bom perfil nutricional e importante respaldo econômico para a indústria alimentícia ao redor do mundo. Desde a semeadura até a colheita, a cultura da soja está sujeita a ataques bióticos de pragas e doenças, podendo ocasionar a depreciação do produto final. Esta tese propõe criar um novo sistema de visão computacional para identificar doenças e pragas na cultura da soja que seja capaz de apresentar ao produtor o nível de infestação de cada região da lavoura para um manejo mais eficiente de suas populações. O sistema proposto baseia-se no método Simple Linear Iterative Clustering (SLIC) para segmentar as folhas das plantas nas imagens da plantação, capturadas por veículos aéreos não tripulados (VANT) de uma linha bastante popular do mercado de VANT, denominada DJI Phantom. Em seguida, técnicas rasas e profundas da aprendizagem de máquina são usadas na classificação de doenças e pragas agrícolas. Na tarefa de classificação de doenças, o desempenho das técnicas de aprendizagem de máquina supervisionada foi avaliado para cinco alturas de voo diferentes: 1, 2, 4, 8 e 16 metros. Com técnicas rasas (SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest) e atributos visuais das folhas (cor, gradiente, textura e forma), os experimentos sustentaram a hipótese de que as alturas de voo mais próximas entre o VANT e a planta apresentam maiores taxas de classificação correta (TCC). Para aprendizagem rasa, especificamente usando o classificador SVM, os experimentos alcançaram 98,34% na identificação da doença foliar usando alturas de voo entre 1 e 2 metros, com decaimento de 2% a cada metro, uma vez que a resolução da planta na imagem diminui para uma altura de voo mais alta. Os experimentos também confirmaram que mesmo catalogando novas doenças e aumentando o número de 3 para 6 classes, não houve evidência de diferença estatística significativa das métricas de desempenho para os dados coletados pelo VANT a 2 metros de altura da plantação. Com técnicas de aprendizagem profunda, quatro modelos reconhecidos pela concorrência no ImageNet foram avaliados para o reconhecimento automático de doenças foliares da soja, usando diferentes estratégias de fine-tuning (ajuste fino) e transfer learning (transferência de aprendizagem), sobre um conjunto de 3.000 imagens capturadas em condições reais de campo. Aumento de dados (data augmentation) e função de abandono dropout foram usados durante o treinamento da rede para aumentar a quantidade de dados e eliminar aleatoriamente alguns dos neurônios ocultos na rede, evitando o sobreajuste (overfitting). Os resultados mostraram que os modelos Inception-V3, Resnet-50, VGG-19 e Xception alcançaram taxas de classificação mais altas usando a estratégia de ajuste fino, atingindo 99,04% de amostras classificadas corretamente. Do mesmo modo, os modelos de aprendizagem profunda foram avaliados para a tarefa de classificação de insetos da soja, usando diferentes estratégias de fine-tuning e transfer learning, sobre um conjunto de 5.000 imagens coletadas diretamente do campo com a câmera de um smartphone. Os resultados mostraram que os modelos de aprendizagem profunda treinados com um ajuste fino atingiram maiores taxas de classificação em comparação a outras abordagens, alcançando uma acurácia de até 93,82%. Além disso, os modelos de aprendizagem profunda superaram nos experimentos os métodos de extração de atributos tradicionais, como SIFT e SURF com a abordagem histograma de palavras visuais, o método de aprendizagem semi supervisionada OPFSEMImst e os métodos de aprendizagem supervisionada usados para classificar imagens, como SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest. Na tarefa de contagem de insetos-praga, três modelos de aprendizagem profunda foram avaliados. Os pesos da rede neural convolucional (RNC) DenseNet-201 FT - que obteve o maior valor para a acurácia (94,89%) na tarefa de classificação - foram usados em nosso sistema de visão computacional para a contagem dos insetos na imagem, obtida pela adição dos superpixels de cada classe. Deste modo, demonstramos como um modelo de aprendizagem profunda pode ser implementado em um sistema de visão computacional de ponta a ponta para operar em um ambiente de campo real, sob diferentes condições de iluminação, tamanho de objeto e variações de fundo. Na etapa de pós-processamento um mapa colorido é gerado, fornecendo uma classe de cada problema (doença ou praga) por segmento e a soma dos superpixels apresenta ao produtor o nível de infestação de uma região da lavoura, ao classificar os segmentos de uma imagem da plantação. Os resultados indicam que os modelos de aprendizagem profunda podem ser usados com sucesso para apoiar especialistas e agricultores no monitoramento de patógenos e pragas nos campos de soja.Soybean (Glycine max) is an oleaginosa with good nutritional profile and important economic support for the food industry around the world. From sowing to harvesting, soybean cultivation can be affected by biotic pest and disease attacks, which may lead to depreciation of the final product. This thesis proposes to create a new system of computational vision to identify diseases and pests in the soybean crop that is able to present to the producer the level of infestation of each region of the field for a more efficient management of its populations. The proposed system is based on the Simple Linear Iterative Clustering (SLIC) method to segment plant leaves in the planting images captured by Unmanned Aerial Vehicles (UAVs) from a very popular UAV market line, called DJI Phantom. Then, shallow and deep techniques of machine learning are used in the classification of diseases and agricultural pests. In the task of disease classification, the performance of supervised machine learning techniques was evaluated for five different flight heights: 1, 2, 4, 8 and 16 meters. With shallow techniques (SVM, k-NN, Naive Bayes, J48, AdaBoost and Random Forest) and visual attributes of the leaves (color, gradient, texture and shape), the experiments supported the hypothesis that the closest flight heights between the UAV and the plant show higher correct classification rates (CCR). For shallow learning, specifically using the SVM classifier, the experiments reached 98.34% in the identification of foliar disease using flight heights between 1 and 2 meters, with decay of 2% to each meter, since the resolution of the plant in the image decreases to a higher flight height. The experiments also confirmed that even cataloging new diseases and increasing the number of 3 to 6 classes, there was no evidence of significant statistical difference of the performance metrics for the data collected by UAV at 2 meters height of the plantation. With deep learning techniques, four models recognized by the competition in ImageNet were evaluated for the automatic recognition of soybean leaf diseases using different strategies of fine-tuning and transfer learning on a set of 3,000 images captured under real field conditions. Data augmentation and dropout were used during network training to increase the amount of data and randomly eliminate some of the hidden neurons in the network, avoiding overfitting. The results showed that the Inception-V3, Resnet-50, VGG-19 and Xception models achieved higher classification rates using the fine-tuning strategy, achieving 99.04% of correctly classified samples. Likewise, the deep learning models were evaluated for the classification task of soybean insects using different strategies of fine-tuning and transfer learning on a set of 5,000 images collected directly from the field with the camera of a smartphone. The results showed that deep learning models trained with a fine-tuning achieved the highest classification rates compared to other approaches, reaching an accuracy of up to 93.82%. In addition, deep learning models have outperformed traditional features extraction methods such as SIFT and SURF with the bag of visual words approach, the OPFSEMImst semi-supervised learning method, and the supervised learning methods used to classify images, such as SVM, k-NN, Naive Bayes, J48, AdaBoost and Random Forest. In the pest insect counting task, three deep learning models were evaluated. The weights of the DenseNet-201 FT convectional neural network (CNN) - which obtained the highest value for accuracy (94.89%) in the classification task - were used in our computer vision system for counting insects in the image obtained by adding the superpixels of each class. In this way, we demonstrate how a deep learning model can be implemented in an end-to-end computer vision system to operate in a real field setting, under different lighting conditions, object size and background variations. In the post-processing stage a color map is generated, providing a class of each problem (disease or pest) per segment and the sum of the superpixels presents to the producer the level of infestation of a crop region by classifying the segments of an image of the plantation. The results indicate that the deep learning models can be successfully used to support specialists and farmers in the monitoring of pathogens and pests in soybean fields.Submitted by Alison Souza (alisonsouza@ufgd.edu.br) on 2020-01-31T18:00:35Z No. of bitstreams: 1 UCDB - EvertonCastelaoTetila.pdf: 52012159 bytes, checksum: b6fca73c889992a781e5de39e1712485 (MD5)Made available in DSpace on 2020-01-31T18:00:35Z (GMT). No. of bitstreams: 1 UCDB - EvertonCastelaoTetila.pdf: 52012159 bytes, checksum: b6fca73c889992a781e5de39e1712485 (MD5) Previous issue date: 2019-08-20Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)porUniversidade Católica Dom BoscoPrograma de pós-graduação em Desenvolvimento LocalUCDBBrasilGlycine maxCNPQ::CIENCIAS AGRARIASSensoriamento remotoInseto nocivoRemote sensingPest insectsDetecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacionalDetection and classification of soybean diseases and pests using unmanned aerial vehicle imaging and computer vision techniquesinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFGDinstname:Universidade Federal da Grande Dourados (UFGD)instacron:UFGDTEXTUCDB - EvertonCastelaoTetila.pdf.txtUCDB - EvertonCastelaoTetila.pdf.txtExtracted texttext/plain242572https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/3/UCDB%20-%20EvertonCastelaoTetila.pdf.txt4b3715ec8174e3032a25822413d1b893MD53LICENSElicense.txtlicense.txttext/plain; charset=utf-81866https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/2/license.txt43cd690d6a359e86c1fe3d5b7cba0c9bMD52ORIGINALUCDB - EvertonCastelaoTetila.pdfUCDB - EvertonCastelaoTetila.pdfapplication/pdf52012159https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/1/UCDB%20-%20EvertonCastelaoTetila.pdfb6fca73c889992a781e5de39e1712485MD51prefix/23852023-09-15 01:07:57.132oai:https://repositorio.ufgd.edu.br/jspui:prefix/2385TElDRU7Dh0EgREUgRElTVFJJQlVJw4fDg08gTsODTy1FWENMVVNJVkEKCkNvbSBhIGFwcmVzZW50YcOnw6NvIGRlc3RhIGxpY2Vuw6dhLCB2b2PDqiAobyBhdXRvciAoZXMpIG91IG8gdGl0dWxhciBkb3MgZGlyZWl0b3MgZGUgYXV0b3IpIGNvbmNlZGUgYW8gUmVwb3NpdMOzcmlvIApJbnN0aXR1Y2lvbmFsIG8gZGlyZWl0byBuw6NvLWV4Y2x1c2l2byBkZSByZXByb2R1emlyLCAgdHJhZHV6aXIgKGNvbmZvcm1lIGRlZmluaWRvIGFiYWl4byksIGUvb3UgZGlzdHJpYnVpciBhIApzdWEgcHVibGljYcOnw6NvIChpbmNsdWluZG8gbyByZXN1bW8pIHBvciB0b2RvIG8gbXVuZG8gbm8gZm9ybWF0byBpbXByZXNzbyBlIGVsZXRyw7RuaWNvIGUgZW0gcXVhbHF1ZXIgbWVpbywgaW5jbHVpbmRvIG9zIApmb3JtYXRvcyDDoXVkaW8gb3UgdsOtZGVvLgoKVm9jw6ogY29uY29yZGEgcXVlIG8gRGVwb3NpdGEgcG9kZSwgc2VtIGFsdGVyYXIgbyBjb250ZcO6ZG8sIHRyYW5zcG9yIGEgc3VhIHB1YmxpY2HDp8OjbyBwYXJhIHF1YWxxdWVyIG1laW8gb3UgZm9ybWF0byAKcGFyYSBmaW5zIGRlIHByZXNlcnZhw6fDo28uCgpWb2PDqiB0YW1iw6ltIGNvbmNvcmRhIHF1ZSBvIERlcG9zaXRhIHBvZGUgbWFudGVyIG1haXMgZGUgdW1hIGPDs3BpYSBkZSBzdWEgcHVibGljYcOnw6NvIHBhcmEgZmlucyBkZSBzZWd1cmFuw6dhLCBiYWNrLXVwIAplIHByZXNlcnZhw6fDo28uCgpWb2PDqiBkZWNsYXJhIHF1ZSBhIHN1YSBwdWJsaWNhw6fDo28gw6kgb3JpZ2luYWwgZSBxdWUgdm9jw6ogdGVtIG8gcG9kZXIgZGUgY29uY2VkZXIgb3MgZGlyZWl0b3MgY29udGlkb3MgbmVzdGEgbGljZW7Dp2EuIApWb2PDqiB0YW1iw6ltIGRlY2xhcmEgcXVlIG8gZGVww7NzaXRvIGRhIHN1YSBwdWJsaWNhw6fDo28gbsOjbywgcXVlIHNlamEgZGUgc2V1IGNvbmhlY2ltZW50bywgaW5mcmluZ2UgZGlyZWl0b3MgYXV0b3JhaXMgCmRlIG5pbmd1w6ltLgoKQ2FzbyBhIHN1YSBwdWJsaWNhw6fDo28gY29udGVuaGEgbWF0ZXJpYWwgcXVlIHZvY8OqIG7Do28gcG9zc3VpIGEgdGl0dWxhcmlkYWRlIGRvcyBkaXJlaXRvcyBhdXRvcmFpcywgdm9jw6ogZGVjbGFyYSBxdWUgCm9idGV2ZSBhIHBlcm1pc3PDo28gaXJyZXN0cml0YSBkbyBkZXRlbnRvciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgcGFyYSBjb25jZWRlciBhbyBEZXBvc2l0YSBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgCm5lc3RhIGxpY2Vuw6dhLCBlIHF1ZSBlc3NlIG1hdGVyaWFsIGRlIHByb3ByaWVkYWRlIGRlIHRlcmNlaXJvcyBlc3TDoSBjbGFyYW1lbnRlIGlkZW50aWZpY2FkbyBlIHJlY29uaGVjaWRvIG5vIHRleHRvIApvdSBubyBjb250ZcO6ZG8gZGEgcHVibGljYcOnw6NvIG9yYSBkZXBvc2l0YWRhLgoKQ0FTTyBBIFBVQkxJQ0HDh8ODTyBPUkEgREVQT1NJVEFEQSBURU5IQSBTSURPIFJFU1VMVEFETyBERSBVTSBQQVRST0PDjU5JTyBPVSBBUE9JTyBERSBVTUEgQUfDik5DSUEgREUgRk9NRU5UTyBPVSBPVVRSTyAKT1JHQU5JU01PLCBWT0PDiiBERUNMQVJBIFFVRSBSRVNQRUlUT1UgVE9ET1MgRSBRVUFJU1FVRVIgRElSRUlUT1MgREUgUkVWSVPDg08gQ09NTyBUQU1Cw4lNIEFTIERFTUFJUyBPQlJJR0HDh8OVRVMgCkVYSUdJREFTIFBPUiBDT05UUkFUTyBPVSBBQ09SRE8uCgpPIERlcG9zaXRhIHNlIGNvbXByb21ldGUgYSBpZGVudGlmaWNhciBjbGFyYW1lbnRlIG8gc2V1IG5vbWUgKHMpIG91IG8ocykgbm9tZShzKSBkbyhzKSBkZXRlbnRvcihlcykgZG9zIGRpcmVpdG9zIAphdXRvcmFpcyBkYSBwdWJsaWNhw6fDo28sIGUgbsOjbyBmYXLDoSBxdWFscXVlciBhbHRlcmHDp8OjbywgYWzDqW0gZGFxdWVsYXMgY29uY2VkaWRhcyBwb3IgZXN0YSBsaWNlbsOnYS4KRepositório InstitucionalPUBhttps://repositorio.ufgd.edu.br/jspui:8080/oai/requestopendoar:21162023-09-15T05:07:57Repositório Institucional da UFGD - Universidade Federal da Grande Dourados (UFGD)false
dc.title.pt_BR.fl_str_mv Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
dc.title.alternative.en.fl_str_mv Detection and classification of soybean diseases and pests using unmanned aerial vehicle imaging and computer vision techniques
title Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
spellingShingle Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
Tetila, Everton Castelão
Glycine max
CNPQ::CIENCIAS AGRARIAS
Sensoriamento remoto
Inseto nocivo
Remote sensing
Pest insects
title_short Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
title_full Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
title_fullStr Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
title_full_unstemmed Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
title_sort Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional
author Tetila, Everton Castelão
author_facet Tetila, Everton Castelão
author_role author
dc.contributor.advisor1.fl_str_mv Pistori, Hemerson
dc.contributor.advisor1ID.fl_str_mv 0000-0001-8181-760X
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/8684549377565696
dc.contributor.advisor-co1.fl_str_mv Machado, Bruno Brandoli
dc.contributor.advisor-co1Lattes.fl_str_mv http://lattes.cnpq.br/7627481478446093
dc.contributor.referee1.fl_str_mv Oliveira, Michel Angelo Constantino de
dc.contributor.referee1Lattes.fl_str_mv http://lattes.cnpq.br/2196653320939118
dc.contributor.referee2.fl_str_mv Marques, Rúbia Renata
dc.contributor.referee2Lattes.fl_str_mv http://lattes.cnpq.br/3674102665721709
dc.contributor.referee3.fl_str_mv Santos, Jefersson Alex dos
dc.contributor.referee3Lattes.fl_str_mv http://lattes.cnpq.br/2171782600728348
dc.contributor.referee4.fl_str_mv Marcato Junior, José
dc.contributor.referee4Lattes.fl_str_mv http://lattes.cnpq.br/1054922336409334
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/4761324267689856
dc.contributor.author.fl_str_mv Tetila, Everton Castelão
contributor_str_mv Pistori, Hemerson
Machado, Bruno Brandoli
Oliveira, Michel Angelo Constantino de
Marques, Rúbia Renata
Santos, Jefersson Alex dos
Marcato Junior, José
dc.subject.la.fl_str_mv Glycine max
topic Glycine max
CNPQ::CIENCIAS AGRARIAS
Sensoriamento remoto
Inseto nocivo
Remote sensing
Pest insects
dc.subject.cnpq.fl_str_mv CNPQ::CIENCIAS AGRARIAS
dc.subject.por.fl_str_mv Sensoriamento remoto
Inseto nocivo
dc.subject.eng.fl_str_mv Remote sensing
Pest insects
description A soja (Glycine max) é uma oleaginosa com bom perfil nutricional e importante respaldo econômico para a indústria alimentícia ao redor do mundo. Desde a semeadura até a colheita, a cultura da soja está sujeita a ataques bióticos de pragas e doenças, podendo ocasionar a depreciação do produto final. Esta tese propõe criar um novo sistema de visão computacional para identificar doenças e pragas na cultura da soja que seja capaz de apresentar ao produtor o nível de infestação de cada região da lavoura para um manejo mais eficiente de suas populações. O sistema proposto baseia-se no método Simple Linear Iterative Clustering (SLIC) para segmentar as folhas das plantas nas imagens da plantação, capturadas por veículos aéreos não tripulados (VANT) de uma linha bastante popular do mercado de VANT, denominada DJI Phantom. Em seguida, técnicas rasas e profundas da aprendizagem de máquina são usadas na classificação de doenças e pragas agrícolas. Na tarefa de classificação de doenças, o desempenho das técnicas de aprendizagem de máquina supervisionada foi avaliado para cinco alturas de voo diferentes: 1, 2, 4, 8 e 16 metros. Com técnicas rasas (SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest) e atributos visuais das folhas (cor, gradiente, textura e forma), os experimentos sustentaram a hipótese de que as alturas de voo mais próximas entre o VANT e a planta apresentam maiores taxas de classificação correta (TCC). Para aprendizagem rasa, especificamente usando o classificador SVM, os experimentos alcançaram 98,34% na identificação da doença foliar usando alturas de voo entre 1 e 2 metros, com decaimento de 2% a cada metro, uma vez que a resolução da planta na imagem diminui para uma altura de voo mais alta. Os experimentos também confirmaram que mesmo catalogando novas doenças e aumentando o número de 3 para 6 classes, não houve evidência de diferença estatística significativa das métricas de desempenho para os dados coletados pelo VANT a 2 metros de altura da plantação. Com técnicas de aprendizagem profunda, quatro modelos reconhecidos pela concorrência no ImageNet foram avaliados para o reconhecimento automático de doenças foliares da soja, usando diferentes estratégias de fine-tuning (ajuste fino) e transfer learning (transferência de aprendizagem), sobre um conjunto de 3.000 imagens capturadas em condições reais de campo. Aumento de dados (data augmentation) e função de abandono dropout foram usados durante o treinamento da rede para aumentar a quantidade de dados e eliminar aleatoriamente alguns dos neurônios ocultos na rede, evitando o sobreajuste (overfitting). Os resultados mostraram que os modelos Inception-V3, Resnet-50, VGG-19 e Xception alcançaram taxas de classificação mais altas usando a estratégia de ajuste fino, atingindo 99,04% de amostras classificadas corretamente. Do mesmo modo, os modelos de aprendizagem profunda foram avaliados para a tarefa de classificação de insetos da soja, usando diferentes estratégias de fine-tuning e transfer learning, sobre um conjunto de 5.000 imagens coletadas diretamente do campo com a câmera de um smartphone. Os resultados mostraram que os modelos de aprendizagem profunda treinados com um ajuste fino atingiram maiores taxas de classificação em comparação a outras abordagens, alcançando uma acurácia de até 93,82%. Além disso, os modelos de aprendizagem profunda superaram nos experimentos os métodos de extração de atributos tradicionais, como SIFT e SURF com a abordagem histograma de palavras visuais, o método de aprendizagem semi supervisionada OPFSEMImst e os métodos de aprendizagem supervisionada usados para classificar imagens, como SVM, k-NN, Naive Bayes, J48, AdaBoost e Random Forest. Na tarefa de contagem de insetos-praga, três modelos de aprendizagem profunda foram avaliados. Os pesos da rede neural convolucional (RNC) DenseNet-201 FT - que obteve o maior valor para a acurácia (94,89%) na tarefa de classificação - foram usados em nosso sistema de visão computacional para a contagem dos insetos na imagem, obtida pela adição dos superpixels de cada classe. Deste modo, demonstramos como um modelo de aprendizagem profunda pode ser implementado em um sistema de visão computacional de ponta a ponta para operar em um ambiente de campo real, sob diferentes condições de iluminação, tamanho de objeto e variações de fundo. Na etapa de pós-processamento um mapa colorido é gerado, fornecendo uma classe de cada problema (doença ou praga) por segmento e a soma dos superpixels apresenta ao produtor o nível de infestação de uma região da lavoura, ao classificar os segmentos de uma imagem da plantação. Os resultados indicam que os modelos de aprendizagem profunda podem ser usados com sucesso para apoiar especialistas e agricultores no monitoramento de patógenos e pragas nos campos de soja.
publishDate 2019
dc.date.issued.fl_str_mv 2019-08-20
dc.date.accessioned.fl_str_mv 2020-01-31T18:00:35Z
dc.date.available.fl_str_mv 2020-01-31T18:00:35Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv TETILA, E. C. Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional. 2019. Tese (Doutorado em Desenvolvimento Local) – Universidade Católica Dom Bosco, Campo Grande, MS, 2019.
dc.identifier.uri.fl_str_mv http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385
identifier_str_mv TETILA, E. C. Detecção e classificação de doenças e pragas da soja usando imagens de veículos aéreos não tripulados e técnicas de visão computacional. 2019. Tese (Doutorado em Desenvolvimento Local) – Universidade Católica Dom Bosco, Campo Grande, MS, 2019.
url http://repositorio.ufgd.edu.br/jspui/handle/prefix/2385
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Católica Dom Bosco
dc.publisher.program.fl_str_mv Programa de pós-graduação em Desenvolvimento Local
dc.publisher.initials.fl_str_mv UCDB
dc.publisher.country.fl_str_mv Brasil
publisher.none.fl_str_mv Universidade Católica Dom Bosco
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFGD
instname:Universidade Federal da Grande Dourados (UFGD)
instacron:UFGD
instname_str Universidade Federal da Grande Dourados (UFGD)
instacron_str UFGD
institution UFGD
reponame_str Repositório Institucional da UFGD
collection Repositório Institucional da UFGD
bitstream.url.fl_str_mv https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/3/UCDB%20-%20EvertonCastelaoTetila.pdf.txt
https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/2/license.txt
https://repositorio.ufgd.edu.br/jspui/bitstream/prefix/2385/1/UCDB%20-%20EvertonCastelaoTetila.pdf
bitstream.checksum.fl_str_mv 4b3715ec8174e3032a25822413d1b893
43cd690d6a359e86c1fe3d5b7cba0c9b
b6fca73c889992a781e5de39e1712485
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFGD - Universidade Federal da Grande Dourados (UFGD)
repository.mail.fl_str_mv
_version_ 1798042070778118144