Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação
Autor(a) principal: | |
---|---|
Data de Publicação: | 2020 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações do Mackenzie |
Texto Completo: | http://dspace.mackenzie.br/handle/10899/26584 |
Resumo: | Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier. |
id |
UPM_e271f8dbbccd92c9737ed170fd4b9f5c |
---|---|
oai_identifier_str |
oai:dspace.mackenzie.br:10899/26584 |
network_acronym_str |
UPM |
network_name_str |
Biblioteca Digital de Teses e Dissertações do Mackenzie |
repository_id_str |
10277 |
spelling |
2020-09-18T15:14:47Z2020-12-07T15:08:44Z2020-12-07T15:08:44Z2020-02-11MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020.http://dspace.mackenzie.br/handle/10899/26584Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier.Atualmente,dados gerados em grande volume,diferentes contextos de aplicação e formato têm impactado significativamente nos diferentes algoritmos de aprendizagem de máquina, em especial os de modelagem preditiva. Sistemas que envolvem dados com essas características não pode marcar com os requisitos de tempo,armazenamento e processamento em tempo real. Sob essas condições, classificar, compreender ou compactar os dados disponíveis podem se tornar uma tarefa custosa. O problema se agrava especialmente no uso de algoritmos de aprendizado baseados em distâncias, como a regra do vizinho mais próximo ou NN (do inglês, NearestNeighbor). O algoritmo básico do NN em uma tarefa de classificação de dados consiste em medir a distância entre uma instância em análise e todas as instâncias de dados disponíveis. Significa dizer que as instâncias do conjunto de dados devem sempre permanecer armazenadas para análises futuras, mesmo aquelas que podem conter ruídos ou não ser representativas para uma análise. Diante disso, a seleção de protótipos se apresenta como uma proposta para a redução de dados e, consequentemente, minimizar os problemas de complexidade computacional, armazenamento e ruídos em conjuntos de dados. A seleção de protótipos visa encontrar um conjunto de dados representativo com uma dimensão menor em comparação ao original, eventualmente pode ser usada para a geração de dados em situações de classes desbalanceadas. Entretanto,a maioria desses métodos,por não ter um controle de geração de protótipos,executa um processo exaustivo para encontrar o conjunto de dados reduzido. A falta de controle na geração de protótipos pode produzir um tamanho não ideal do conjunto de dados reduzido. Diante desse contexto, este trabalho tem como proposta a apresentação de um método de autogeração de protótipos,no qual faz uso de ideias provenientes da teoria da informação,especificamente o conceito de entropia da informação,para determinar o número ideal de protótipos. Na tarefa de classificação de dados com o algoritmo kNN (do inglês, k-Nearest Neighbors), o método proposto possibilita acelerar o tempo de classificação sem diminuir significativamente a qualidade da classificação. Em um estudo comparativo com outra técnica de autogeração de protótipos da literatura, SSGA (do inglês, Steady-StateGeneticAlgorithm), sob análises quantitativas e qualitativas, com diferentes conjuntos de dados (públicos e artificiais), os resultados para o método proposto são superiores,em média,85,71% para o tempo de classificação, com uma taxa média de redução de dados em 77%, e um aumento da eficiência da precisão em 3% do classificador kNN.Coordenação de Aperfeiçoamento de Pessoal de Nível SuperiorFundo Mackenzie de Pesquisaapplication/pdfporUniversidade Presbiteriana MackenzieEngenharia ElétricaUPMBrasilEscola de Engenharia Mackenzie (EE)http://creativecommons.org/licenses/by-nc-nd/4.0/info:eu-repo/semantics/openAccessseleção de protótiposredução de dadosclassificação de dadosentropia de informaçãoCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOSMétodo de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informaçãoinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisSilva, Leandro Augusto dahttp://lattes.cnpq.br/1396385111251741Vallim Filho, Arnaldo Rabello de Aguiarhttp://lattes.cnpq.br/2511892257148568Lorena, Ana Carolinahttp://lattes.cnpq.br/3451628262694747http://lattes.cnpq.br/4823102188272284Manasrarla, Albertohttp://tede.mackenzie.br/jspui/bitstream/tede/4326/5/ALBERTO%20MANASTARLA.pdfprototype selectiondata reductionclassificationinformation entropyreponame:Biblioteca Digital de Teses e Dissertações do Mackenzieinstname:Universidade Presbiteriana Mackenzie (MACKENZIE)instacron:MACKENZIE10899/265842020-12-07 12:08:44.869Biblioteca Digital de Teses e Dissertaçõeshttp://tede.mackenzie.br/jspui/PRI |
dc.title.por.fl_str_mv |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
title |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
spellingShingle |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação Manasrarla, Alberto seleção de protótipos redução de dados classificação de dados entropia de informação CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS |
title_short |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
title_full |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
title_fullStr |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
title_full_unstemmed |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
title_sort |
Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação |
author |
Manasrarla, Alberto |
author_facet |
Manasrarla, Alberto |
author_role |
author |
dc.contributor.advisor1.fl_str_mv |
Silva, Leandro Augusto da |
dc.contributor.advisor1Lattes.fl_str_mv |
http://lattes.cnpq.br/1396385111251741 |
dc.contributor.referee1.fl_str_mv |
Vallim Filho, Arnaldo Rabello de Aguiar |
dc.contributor.referee1Lattes.fl_str_mv |
http://lattes.cnpq.br/2511892257148568 |
dc.contributor.referee2.fl_str_mv |
Lorena, Ana Carolina |
dc.contributor.referee2Lattes.fl_str_mv |
http://lattes.cnpq.br/3451628262694747 |
dc.contributor.authorLattes.fl_str_mv |
http://lattes.cnpq.br/4823102188272284 |
dc.contributor.author.fl_str_mv |
Manasrarla, Alberto |
contributor_str_mv |
Silva, Leandro Augusto da Vallim Filho, Arnaldo Rabello de Aguiar Lorena, Ana Carolina |
dc.subject.por.fl_str_mv |
seleção de protótipos redução de dados classificação de dados entropia de informação |
topic |
seleção de protótipos redução de dados classificação de dados entropia de informação CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS |
dc.subject.cnpq.fl_str_mv |
CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::BANCO DE DADOS |
description |
Currently, data generated in large volume, different contexts of application and format have significantly impacted on different types of machine learning algorithms, especially those of predictive modeling. Systems that involve data with these characteristics cannot afford the requirements of time, storage, and real-time processing. Under these conditions, classifying, understanding, or compacting the available data can become an expensive task. The problem is particularly acute when using distance-based learning algorithms , such as the Nearest-Neighbor or NN rule. The basic NN algorithm in a data classification task is to measure the distance between an instance under analysis, and all available instances which denominates the training set. It means that instances in the training set should always remain stored for future analysis, even those that may contain noise or may not be representative for analysis. Given this circumstance, the prototype selection is presented as a proposal for data reduction and consequently minimizes the problems of computational complexity, storage requirements, and noisy data in datasets. The prototype selection aims to find a representative dataset with a smaller dimension compared to the original one and can eventually use data generation in situations of unbalanced classes. However, most of these methods can perform anexhaustive process to find the reduced dataset because they do not have precise control over the prototype generation process. Then,a lack of control in the prototype generation process can lead to producing a reduced non-optimal dataset size. In the context of this, the present work proposes a new method for self-generating prototypes, in which it makes use of ideas from information theory, precisely the concept of information entropy, to determine the optimal number of prototypes to form the reduced dataset. In the data classification task with the k-Nearest Neighbors or kNN algorithm, the proposed method makes it possible to accelerate the time of classification without significantly reducing the quality of classification. In a comparative study with another self-generating prototype technique of the literature,SSGA (Steady-State Genetic Algorithm) for prototype selection, under quantitative and qualitative analysis by using different datasets (public and artificial),the results for the proposed method are higher on average 85.71 percent for the classification time with an average rate of data reduction of 77 percent, and an increase in accuracy efficiency of 3 percent for the kNN classifier. |
publishDate |
2020 |
dc.date.accessioned.fl_str_mv |
2020-09-18T15:14:47Z 2020-12-07T15:08:44Z |
dc.date.available.fl_str_mv |
2020-12-07T15:08:44Z |
dc.date.issued.fl_str_mv |
2020-02-11 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.citation.fl_str_mv |
MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020. |
dc.identifier.uri.fl_str_mv |
http://dspace.mackenzie.br/handle/10899/26584 |
identifier_str_mv |
MANASTARLA, Alberto. Método de autogeração de protótipos para tarefas de classificação de dados baseado em entropia da informação. 2020. 84 f. Dissertação (Engenharia Elétrica e Computação) - Universidade Presbiteriana Mackenzie, São Paulo, 2020. |
url |
http://dspace.mackenzie.br/handle/10899/26584 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0/ |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Presbiteriana Mackenzie |
dc.publisher.program.fl_str_mv |
Engenharia Elétrica |
dc.publisher.initials.fl_str_mv |
UPM |
dc.publisher.country.fl_str_mv |
Brasil |
dc.publisher.department.fl_str_mv |
Escola de Engenharia Mackenzie (EE) |
publisher.none.fl_str_mv |
Universidade Presbiteriana Mackenzie |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações do Mackenzie instname:Universidade Presbiteriana Mackenzie (MACKENZIE) instacron:MACKENZIE |
instname_str |
Universidade Presbiteriana Mackenzie (MACKENZIE) |
instacron_str |
MACKENZIE |
institution |
MACKENZIE |
reponame_str |
Biblioteca Digital de Teses e Dissertações do Mackenzie |
collection |
Biblioteca Digital de Teses e Dissertações do Mackenzie |
repository.name.fl_str_mv |
|
repository.mail.fl_str_mv |
|
_version_ |
1757177224402829312 |