Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação

Detalhes bibliográficos
Autor(a) principal: Manasrarla, Alberto
Data de Publicação: 2020
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações do Mackenzie
Texto Completo: http://dspace.mackenzie.br/handle/10899/26584
Resumo: Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier.
id UPM_e271f8dbbccd92c9737ed170fd4b9f5c
oai_identifier_str oai:dspace.mackenzie.br:10899/26584
network_acronym_str UPM
network_name_str Biblioteca Digital de Teses e Dissertações do Mackenzie
repository_id_str 10277
spelling 2020-09-18T15:14:47Z2020-12-07T15:08:44Z2020-12-07T15:08:44Z2020-02-11MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020.http://dspace.mackenzie.br/handle/10899/26584Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier.Atualmente,dados gerados em grande volume,diferentes contextos de aplicação e formato têm impactado significativamente nos diferentes algoritmos de aprendizagem de máquina, em especial os de modelagem preditiva. Sistemas que envolvem dados com essas características não pode marcar com os requisitos de tempo,armazenamento e processamento em tempo real. Sob essas condições, classificar, compreender ou compactar os dados disponíveis podem se tornar uma tarefa custosa. O problema se agrava especialmente no uso de algoritmos de aprendizado baseados em distâncias, como a regra do vizinho mais próximo ou NN (do inglês, NearestNeighbor). O algoritmo básico do NN em uma tarefa de classificação de dados consiste em medir a distância entre uma instância em análise e todas as instâncias de dados disponíveis. Significa dizer que as instâncias do conjunto de dados devem sempre permanecer armazenadas para análises futuras, mesmo aquelas que podem conter ruídos ou não ser representativas para uma análise. Diante disso, a seleção de protótipos se apresenta como uma proposta para a redução de dados e, consequentemente, minimizar os problemas de complexidade computacional, armazenamento e ruídos em conjuntos de dados. A seleção de protótipos visa encontrar um conjunto de dados representativo com uma dimensão menor em comparação ao original, eventualmente pode ser usada para a geração de dados em situações de classes desbalanceadas. Entretanto,a maioria desses métodos,por não ter um controle de geração de protótipos,executa um processo exaustivo para encontrar o conjunto de dados reduzido. A falta de controle na geração de protótipos pode produzir um tamanho não ideal do conjunto de dados reduzido. Diante desse contexto, este trabalho tem como proposta a apresentação de um método de autogeração de protótipos,no qual faz uso de ideias provenientes da teoria da informação,especificamente o conceito de entropia da informação,para determinar o número ideal de protótipos. Na tarefa de classificação de dados com o algoritmo kNN (do inglês, k-Nearest Neighbors), o método proposto possibilita acelerar o tempo de classificação sem diminuir significativamente a qualidade da classificação. Em um estudo comparativo com outra técnica de autogeração de protótipos da literatura, SSGA (do inglês, Steady-StateGeneticAlgorithm), sob análises quantitativas e qualitativas, com diferentes conjuntos de dados (públicos e artificiais), os resultados para o método proposto são superiores,em média,85,71% para o tempo de classificação, com uma taxa média de redução de dados em 77%, e um aumento da eficiência da precisão em 3% do classificador kNN.Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorFundo Mackenzie de Pesquisaapplication/pdfporUniversidade Presbiteriana MackenzieEngenharia ElétricaUPMBrasilEscola de Engenharia Mackenzie (EE)http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessseleção de protótiposredução de dadosclassificação de dadosentropia de informaçãoCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOSMétodo de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informaçãoinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisSilva, Leandro Augusto dahttp://lattes.cnpq.br/1396385111251741Vallim Filho, Arnaldo Rabello de Aguiarhttp://lattes.cnpq.br/2511892257148568Lorena, Ana Carolinahttp://lattes.cnpq.br/3451628262694747http://lattes.cnpq.br/4823102188272284Manasrarla, Albertohttp://tede.mackenzie.br/jspui/bitstream/tede/4326/5/ALBERTO%20MANASTARLA.pdfprototype selectiondata reductionclassificationinformation entropyreponame:Biblioteca Digital de Teses e Dissertações do Mackenzieinstname:Universidade Presbiteriana Mackenzie (MACKENZIE)instacron:MACKENZIE10899/265842020-12-07 12:08:44.869Biblioteca Digital de Teses e Dissertaçõeshttp://tede.mackenzie.br/jspui/PRI
dc.title.por.fl_str_mv Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
title Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
spellingShingle Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
Manasrarla, Alberto
seleção de protótipos
redução de dados
classificação de dados
entropia de informação
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS
title_short Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
title_full Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
title_fullStr Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
title_full_unstemmed Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
title_sort Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
author Manasrarla, Alberto
author_facet Manasrarla, Alberto
author_role author
dc.contributor.advisor1.fl_str_mv Silva, Leandro Augusto da
dc.contributor.advisor1Lattes.fl_str_mv http://lattes.cnpq.br/1396385111251741
dc.contributor.referee1.fl_str_mv Vallim Filho, Arnaldo Rabello de Aguiar
dc.contributor.referee1Lattes.fl_str_mv http://lattes.cnpq.br/2511892257148568
dc.contributor.referee2.fl_str_mv Lorena, Ana Carolina
dc.contributor.referee2Lattes.fl_str_mv http://lattes.cnpq.br/3451628262694747
dc.contributor.authorLattes.fl_str_mv http://lattes.cnpq.br/4823102188272284
dc.contributor.author.fl_str_mv Manasrarla, Alberto
contributor_str_mv Silva, Leandro Augusto da
Vallim Filho, Arnaldo Rabello de Aguiar
Lorena, Ana Carolina
dc.subject.por.fl_str_mv seleção de protótipos
redução de dados
classificação de dados
entropia de informação
topic seleção de protótipos
redução de dados
classificação de dados
entropia de informação
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS
dc.subject.cnpq.fl_str_mv CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS
description Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier.
publishDate 2020
dc.date.accessioned.fl_str_mv 2020-09-18T15:14:47Z
2020-12-07T15:08:44Z
dc.date.available.fl_str_mv 2020-12-07T15:08:44Z
dc.date.issued.fl_str_mv 2020-02-11
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020.
dc.identifier.uri.fl_str_mv http://dspace.mackenzie.br/handle/10899/26584
identifier_str_mv MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020.
url http://dspace.mackenzie.br/handle/10899/26584
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0/
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Presbiteriana Mackenzie
dc.publisher.program.fl_str_mv Engenharia Elétrica
dc.publisher.initials.fl_str_mv UPM
dc.publisher.country.fl_str_mv Brasil
dc.publisher.department.fl_str_mv Escola de Engenharia Mackenzie (EE)
publisher.none.fl_str_mv Universidade Presbiteriana Mackenzie
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações do Mackenzie
instname:Universidade Presbiteriana Mackenzie (MACKENZIE)
instacron:MACKENZIE
instname_str Universidade Presbiteriana Mackenzie (MACKENZIE)
instacron_str MACKENZIE
institution MACKENZIE
reponame_str Biblioteca Digital de Teses e Dissertações do Mackenzie
collection Biblioteca Digital de Teses e Dissertações do Mackenzie
repository.name.fl_str_mv
repository.mail.fl_str_mv
_version_ 1757177224402829312