Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina

Detalhes bibliográficos
Autor(a) principal: Jessica Katherine de Sousa Fernandes
Data de Publicação: 2017
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da USP
Texto Completo: https://doi.org/10.11606/D.45.2017.tde-28092017-182905
Resumo: Em diferentes aplicações de Aprendizado de Máquina podemos estar interessados na minimização do valor esperado de certa função de perda. Para a resolução desse problema, Otimização estocástica e Sample Size Selection têm um papel importante. No presente trabalho se apresentam as análises teóricas de alguns algoritmos destas duas áreas, incluindo algumas variações que consideram redução da variância. Nos exemplos práticos pode-se observar a vantagem do método Stochastic Gradient Descent em relação ao tempo de processamento e memória, mas, considerando precisão da solução obtida juntamente com o custo de minimização, as metodologias de redução da variância obtêm as melhores soluções. Os algoritmos Dynamic Sample Size Gradient e Line Search with variable sample size selection apesar de obter soluções melhores que as de Stochastic Gradient Descent, a desvantagem se encontra no alto custo computacional deles.
id USP_f4e1194a66ba553c7247c39e121e60d2
oai_identifier_str oai:teses.usp.br:tde-28092017-182905
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str 2721
spelling info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesis Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina Study of algorithms of stochastic optimization applied in machine learning problems 2017-08-23Ernesto Julian Goldberg BirginNatasa KrejicJosé Mario Martinez PerezJessica Katherine de Sousa FernandesUniversidade de São PauloCiência da ComputaçãoUSPBR Aprendizado de máquina Dynamic sample size selection Dynamic sample size selection Machine Learning Métodos de redução de variância Otimização estocástica Sample size approximation Sample size approximation Stochastic optimization Variance reduction methods Em diferentes aplicações de Aprendizado de Máquina podemos estar interessados na minimização do valor esperado de certa função de perda. Para a resolução desse problema, Otimização estocástica e Sample Size Selection têm um papel importante. No presente trabalho se apresentam as análises teóricas de alguns algoritmos destas duas áreas, incluindo algumas variações que consideram redução da variância. Nos exemplos práticos pode-se observar a vantagem do método Stochastic Gradient Descent em relação ao tempo de processamento e memória, mas, considerando precisão da solução obtida juntamente com o custo de minimização, as metodologias de redução da variância obtêm as melhores soluções. Os algoritmos Dynamic Sample Size Gradient e Line Search with variable sample size selection apesar de obter soluções melhores que as de Stochastic Gradient Descent, a desvantagem se encontra no alto custo computacional deles. In different Machine Learnings applications we can be interest in the minimization of the expected value of some loss function. For the resolution of this problem, Stochastic optimization and Sample size selection has an important role. In the present work, it is shown the theoretical analysis of some algorithms of these two areas, including some variations that considers variance reduction. In the practical examples we can observe the advantage of Stochastic Gradient Descent in relation to the processing time and memory, but considering accuracy of the solution obtained and the cost of minimization, the methodologies of variance reduction has the best solutions. In the algorithms Dynamic Sample Size Gradient and Line Search with variable sample size selection, despite of obtaining better solutions than Stochastic Gradient Descent, the disadvantage lies in their high computational cost. https://doi.org/10.11606/D.45.2017.tde-28092017-182905info:eu-repo/semantics/openAccessporreponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USP2023-12-21T20:21:34Zoai:teses.usp.br:tde-28092017-182905Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212023-12-22T13:27:22.356023Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.pt.fl_str_mv Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
dc.title.alternative.en.fl_str_mv Study of algorithms of stochastic optimization applied in machine learning problems
title Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
spellingShingle Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
Jessica Katherine de Sousa Fernandes
title_short Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
title_full Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
title_fullStr Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
title_full_unstemmed Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
title_sort Estudo de algoritmos de otimização estocástica aplicados em aprendizado de máquina
author Jessica Katherine de Sousa Fernandes
author_facet Jessica Katherine de Sousa Fernandes
author_role author
dc.contributor.advisor1.fl_str_mv Ernesto Julian Goldberg Birgin
dc.contributor.referee1.fl_str_mv Natasa Krejic
dc.contributor.referee2.fl_str_mv José Mario Martinez Perez
dc.contributor.author.fl_str_mv Jessica Katherine de Sousa Fernandes
contributor_str_mv Ernesto Julian Goldberg Birgin
Natasa Krejic
José Mario Martinez Perez
description Em diferentes aplicações de Aprendizado de Máquina podemos estar interessados na minimização do valor esperado de certa função de perda. Para a resolução desse problema, Otimização estocástica e Sample Size Selection têm um papel importante. No presente trabalho se apresentam as análises teóricas de alguns algoritmos destas duas áreas, incluindo algumas variações que consideram redução da variância. Nos exemplos práticos pode-se observar a vantagem do método Stochastic Gradient Descent em relação ao tempo de processamento e memória, mas, considerando precisão da solução obtida juntamente com o custo de minimização, as metodologias de redução da variância obtêm as melhores soluções. Os algoritmos Dynamic Sample Size Gradient e Line Search with variable sample size selection apesar de obter soluções melhores que as de Stochastic Gradient Descent, a desvantagem se encontra no alto custo computacional deles.
publishDate 2017
dc.date.issued.fl_str_mv 2017-08-23
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://doi.org/10.11606/D.45.2017.tde-28092017-182905
url https://doi.org/10.11606/D.45.2017.tde-28092017-182905
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade de São Paulo
dc.publisher.program.fl_str_mv Ciência da Computação
dc.publisher.initials.fl_str_mv USP
dc.publisher.country.fl_str_mv BR
publisher.none.fl_str_mv Universidade de São Paulo
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1794503120522313728