Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária

Detalhes bibliográficos
Autor(a) principal: Wagner José de Alvarenga Júnior
Data de Publicação: 2018
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Repositório Institucional da UFMG
Texto Completo: http://hdl.handle.net/1843/BUBD-AX2NLF
Resumo: O Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados.
id UFMG_1fdc41d7ad0b295a81ba800ec1bf1e6a
oai_identifier_str oai:repositorio.ufmg.br:1843/BUBD-AX2NLF
network_acronym_str UFMG
network_name_str Repositório Institucional da UFMG
repository_id_str
spelling Andre Paim LemosAntonio de Padua BragaCristiano Leite de CastroWagner José de Alvarenga Júnior2019-08-13T04:36:16Z2019-08-13T04:36:16Z2018-02-06http://hdl.handle.net/1843/BUBD-AX2NLFO Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados.Machine Learning has become a fundamental tool for some areas of knowledge. Much of its strength lies in the existing of dierents levels of complexity for a model and existence of adjustments for its training algorithm. These settings allow the achievement of models with lower generatization error. Hyperparameter is a type of variable that controls these functions and needs to be set even before the training procedure is carried out. Therefore the estimation of their optimum values is crutial to obtain a ne model. This work aims to compare the performance of the following hyperparametric optimization methods: Grid Search, Random Search and Bayesian optimization (using Gaussian Process). These three techniques are applied on tuning of hyperparameters from two types of learing models: Decision Tree and Random Florest. For such comparisons, hyperparaments related to tree depth control and decorrelation level between predictors of a random forest were chosen. These two learning algorithms are applied on binary classication problems, using different datasets.The results obtained show that for a same number of model trainings, the Bayesian optimization technique provides better results comparing to the other methods.Universidade Federal de Minas GeraisUFMGEngenharia elétricaFloresta aleatóriaÁrvores de decisãoAprendizado do computadorOtimização hiperparamétricaOtimização bayesianaÁrvore de decisãoFloresta aleatóriaBusca em gradeBusca aleatóriaMétodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação bináriainfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGORIGINALvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdfapplication/pdf5958100https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/1/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf8dd4af6fea28c6f5c6033ef466943e9bMD51TEXTvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txtvers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txtExtracted texttext/plain160885https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/2/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txta82a90050d84133b051418f346ceff14MD521843/BUBD-AX2NLF2019-11-14 21:13:55.295oai:repositorio.ufmg.br:1843/BUBD-AX2NLFRepositório de PublicaçõesPUBhttps://repositorio.ufmg.br/oaiopendoar:2019-11-15T00:13:55Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
dc.title.pt_BR.fl_str_mv Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
title Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
spellingShingle Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
Wagner José de Alvarenga Júnior
Otimização hiperparamétrica
Otimização bayesiana
Árvore de decisão
Floresta aleatória
Busca em grade
Busca aleatória
Engenharia elétrica
Floresta aleatória
Árvores de decisão
Aprendizado do computador
title_short Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
title_full Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
title_fullStr Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
title_full_unstemmed Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
title_sort Métodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação binária
author Wagner José de Alvarenga Júnior
author_facet Wagner José de Alvarenga Júnior
author_role author
dc.contributor.advisor1.fl_str_mv Andre Paim Lemos
dc.contributor.referee1.fl_str_mv Antonio de Padua Braga
dc.contributor.referee2.fl_str_mv Cristiano Leite de Castro
dc.contributor.author.fl_str_mv Wagner José de Alvarenga Júnior
contributor_str_mv Andre Paim Lemos
Antonio de Padua Braga
Cristiano Leite de Castro
dc.subject.por.fl_str_mv Otimização hiperparamétrica
Otimização bayesiana
Árvore de decisão
Floresta aleatória
Busca em grade
Busca aleatória
topic Otimização hiperparamétrica
Otimização bayesiana
Árvore de decisão
Floresta aleatória
Busca em grade
Busca aleatória
Engenharia elétrica
Floresta aleatória
Árvores de decisão
Aprendizado do computador
dc.subject.other.pt_BR.fl_str_mv Engenharia elétrica
Floresta aleatória
Árvores de decisão
Aprendizado do computador
description O Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados.
publishDate 2018
dc.date.issued.fl_str_mv 2018-02-06
dc.date.accessioned.fl_str_mv 2019-08-13T04:36:16Z
dc.date.available.fl_str_mv 2019-08-13T04:36:16Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/1843/BUBD-AX2NLF
url http://hdl.handle.net/1843/BUBD-AX2NLF
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.publisher.initials.fl_str_mv UFMG
publisher.none.fl_str_mv Universidade Federal de Minas Gerais
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFMG
instname:Universidade Federal de Minas Gerais (UFMG)
instacron:UFMG
instname_str Universidade Federal de Minas Gerais (UFMG)
instacron_str UFMG
institution UFMG
reponame_str Repositório Institucional da UFMG
collection Repositório Institucional da UFMG
bitstream.url.fl_str_mv https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/1/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf
https://repositorio.ufmg.br/bitstream/1843/BUBD-AX2NLF/2/vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf.txt
bitstream.checksum.fl_str_mv 8dd4af6fea28c6f5c6033ef466943e9b
a82a90050d84133b051418f346ceff14
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)
repository.mail.fl_str_mv
_version_ 1803589457004199936