Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
Autor(a) principal: | |
---|---|
Data de Publicação: | 2018 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFMG |
Texto Completo: | http://hdl.handle.net/1843/BUBD-AX2NLF |
Resumo: | O Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados. |
id |
UFMG_1fdc41d7ad0b295a81ba800ec1bf1e6a |
---|---|
oai_identifier_str |
oai:repositorio.ufmg.br:1843/BUBD-AX2NLF |
network_acronym_str |
UFMG |
network_name_str |
Repositório Institucional da UFMG |
repository_id_str |
|
spelling |
Andre Paim LemosAntonio de Padua BragaCristiano Leite de CastroWagner José de Alvarenga Júnior2019-08-13T04:36:16Z2019-08-13T04:36:16Z2018-02-06http://hdl.handle.net/1843/BUBD-AX2NLFO Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados.Machine Learning has become a fundamental tool for some areas of knowledge. Much of its strength lies in the existing of dierents levels of complexity for a model and existence of adjustments for its training algorithm. These settings allow the achievement of models with lower generatization error. Hyperparameter is a type of variable that controls these functions and needs to be set even before the training procedure is carried out. Therefore the estimation of their optimum values is crutial to obtain a ne model. This work aims to compare the performance of the following hyperparametric optimization methods: Grid Search, Random Search and Bayesian optimization (using Gaussian Process). These three techniques are applied on tuning of hyperparameters from two types of learing models: Decision Tree and Random Florest. For such comparisons, hyperparaments related to tree depth control and decorrelation level between predictors of a random forest were chosen. These two learning algorithms are applied on binary classication problems, using different datasets.The results obtained show that for a same number of model trainings, the Bayesian optimization technique provides better results comparing to the other methods.Universidade Federal de Minas GeraisUFMGEngenharia elétricaFloresta aleatóriaÁrvores de decisãoAprendizado do computadorOtimização hiperparamétricaOtimização bayesianaÁrvore de decisãoFloresta aleatóriaBusca em gradeBusca aleatóriaMétodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação bináriainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGORIGINALvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdfapplication/pdf5958100https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/1/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf8dd4af6fea28c6f5c6033ef466943e9bMD51TEXTvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txtvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txtExtracted texttext/plain160885https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/2/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txta82a90050d84133b051418f346ceff14MD521843/BUBD-AX2NLF2019-11-14 21:13:55.295oai:repositorio.ufmg.br:1843/BUBD-AX2NLFRepositório de PublicaçõesPUBhttps://repositorio.ufmg.br/oaiopendoar:2019-11-15T00:13:55Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false |
dc.title.pt_BR.fl_str_mv |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
title |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
spellingShingle |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária Wagner José de Alvarenga Júnior Otimização hiperparamétrica Otimização bayesiana Árvore de decisão Floresta aleatória Busca em grade Busca aleatória Engenharia elétrica Floresta aleatória Árvores de decisão Aprendizado do computador |
title_short |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
title_full |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
title_fullStr |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
title_full_unstemmed |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
title_sort |
Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária |
author |
Wagner José de Alvarenga Júnior |
author_facet |
Wagner José de Alvarenga Júnior |
author_role |
author |
dc.contributor.advisor1.fl_str_mv |
Andre Paim Lemos |
dc.contributor.referee1.fl_str_mv |
Antonio de Padua Braga |
dc.contributor.referee2.fl_str_mv |
Cristiano Leite de Castro |
dc.contributor.author.fl_str_mv |
Wagner José de Alvarenga Júnior |
contributor_str_mv |
Andre Paim Lemos Antonio de Padua Braga Cristiano Leite de Castro |
dc.subject.por.fl_str_mv |
Otimização hiperparamétrica Otimização bayesiana Árvore de decisão Floresta aleatória Busca em grade Busca aleatória |
topic |
Otimização hiperparamétrica Otimização bayesiana Árvore de decisão Floresta aleatória Busca em grade Busca aleatória Engenharia elétrica Floresta aleatória Árvores de decisão Aprendizado do computador |
dc.subject.other.pt_BR.fl_str_mv |
Engenharia elétrica Floresta aleatória Árvores de decisão Aprendizado do computador |
description |
O Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados. |
publishDate |
2018 |
dc.date.issued.fl_str_mv |
2018-02-06 |
dc.date.accessioned.fl_str_mv |
2019-08-13T04:36:16Z |
dc.date.available.fl_str_mv |
2019-08-13T04:36:16Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/1843/BUBD-AX2NLF |
url |
http://hdl.handle.net/1843/BUBD-AX2NLF |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
dc.publisher.initials.fl_str_mv |
UFMG |
publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFMG instname:Universidade Federal de Minas Gerais (UFMG) instacron:UFMG |
instname_str |
Universidade Federal de Minas Gerais (UFMG) |
instacron_str |
UFMG |
institution |
UFMG |
reponame_str |
Repositório Institucional da UFMG |
collection |
Repositório Institucional da UFMG |
bitstream.url.fl_str_mv |
https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/1/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/2/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txt |
bitstream.checksum.fl_str_mv |
8dd4af6fea28c6f5c6033ef466943e9b a82a90050d84133b051418f346ceff14 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG) |
repository.mail.fl_str_mv |
|
_version_ |
1803589457004199936 |