spelling |
Antonio de Padua BragaAdriano Vilela BarbosaAlair Dias JuniorLuiz Carlos Bambirra TorresYuri Sousa Aurelio2019-08-12T02:58:19Z2019-08-12T02:58:19Z2017-12-18http://hdl.handle.net/1843/BUBD-AYSFMPEste trabalho apresenta uma análise comparativa das técnicas utilizadas em redes neurais para problemas de classes desbalanceadas. A partir de uma comparação inicial das técnicas clássicas, um estudo mais aprofundado é feito sob a utilização de funções de custos para lidar com o problema de treinamento das redes neurais onde se tem desbalanceamento das classes de saída. É apresentada uma abordagem da inclusão da informação à priori na função de custo de cross-entropy junto a uma modificação do algorítimo do resilient backpropagation e como essa impacta no aprendizado de algorítimo em problemas de classes desbalanceadas. Quando se trabalha com problemas de classes desbalanceadas, medir a performance do algorítimo de aprendizado é requer métricas mais apropriadas como AUC, F1-score, Kubat's G-mean (Geometric-mean), AGm (Adjusted Geometric-mean) e outras. Todavia, a grande maioria dos problemas dessa área são treinados usando o erro médio quadrático ou a entropia-cruzada (cross-entropy - também conhecida como função de erro logística). Isso faz com que o algorítimo de otimização da rede neural busque otimizar uma função de custo diferente daquela que será utilizada para validação da performance do mesmo. É então proposta uma abordagem de como extrair métricas adequadas para problemas de desbalanceamento da matriz de confusão e transformá-las em funções de custo a serem utilizadas durante a etapa de treinamento. Um estudo comparativo entre a abordagem tradicional de treinamento e as funções de custo apresentadas é realizado, apresentando-se os pontos positivos e negativos de cada abordagem. Experimentos numéricos para diferentes bases de treinamento com diferentes tipos de desbalanceamento são apresentados.The work presented here makes a comparative approach of the techniques used in neural networks in problems of unbalanced classes. Based on an initial comparison of classical techniques, a more in-depth study is done under the use of cost functions to deal with the problem during the training phase in neural networks with unbalanced data. An approach about the inclusion of a priori information in the cross-entropy cost function is presented together with a modification of the resilient backpropagation algorithm and the impacts on the learning algorithm. When working with problems of unbalanced classes, measuring the performance of the learning algorithm requires more appropriate metrics such as AUC, F1-score, Kubat's G-mean (Geometric-mean), AGm (Adjusted Geometric-mean) and others. However, the vast majority of problems in this area are trained using the mean square error or cross-entropy (also known as logistic error function). This makes the neural network learning algorithm to optimize a cost function different from the one that will be used to validate its performance. An approach is then presented on how to extract appropriate metrics for this kind of problem from the confusion matrix and transform them into cost functions to be used during the training phase. A comparative study between the traditional training approach and the presented cost functions is carried out, presenting the positives and negatives points of each approach. Numerical experiments for different training bases with different unbalanced rates are presented.Universidade Federal de Minas GeraisUFMGEngenharia elétricaRedes neurais (Computação)Engenharia ElétricaEstudo de funções de custo para redes neurais com dados desbalanceadosinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGORIGINALdisserta__o_arquivo_final_yuri.pdfapplication/pdf12986732https://repositorio.ufmg.br/bitstream/1843/BUBD-AYSFMP/1/disserta__o_arquivo_final_yuri.pdf3a770fa77dc24e81b338295b52bb777eMD51TEXTdisserta__o_arquivo_final_yuri.pdf.txtdisserta__o_arquivo_final_yuri.pdf.txtExtracted texttext/plain865https://repositorio.ufmg.br/bitstream/1843/BUBD-AYSFMP/2/disserta__o_arquivo_final_yuri.pdf.txt2369cf6137f6bf37e87174e64a103bf2MD521843/BUBD-AYSFMP2019-11-14 10:17:37.26oai:repositorio.ufmg.br:1843/BUBD-AYSFMPRepositório InstitucionalPUBhttps://repositorio.ufmg.br/oaiopendoar:2019-11-14T13:17:37Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
|