Optimizing ensembles of boosted additive bagged trees for learning-to-rank
Autor(a) principal: | |
---|---|
Data de Publicação: | 2016 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFMG |
Texto Completo: | http://hdl.handle.net/1843/ESBF-AKUMPW |
Resumo: | The task of retrieving information that really matters to the users is considered hard when taking into consideration the current and increasingly amount of available information. To improve the effectiveness of this information seeking task, systems have relied on the combination of many predictors by means of machine learning methods, a task also known as learning to rank (L2R). The most effective learning methods for this task are based on ensembles of trees. In this master degree dissertation, is proposed a general framework that smoothly combines ensembles of additive trees, specifically Random Forests, with Boosting in an original way for the task of L2R. In particular, we exploit a set of functions that enable us to smartly deduce the samples that are considered hard to predict in a regression approach and apply a set of selective weight updating strategy to effectively enhance the ranking performance. |
id |
UFMG_061babd54be62b582eb8093795515a2c |
---|---|
oai_identifier_str |
oai:repositorio.ufmg.br:1843/ESBF-AKUMPW |
network_acronym_str |
UFMG |
network_name_str |
Repositório Institucional da UFMG |
repository_id_str |
|
spelling |
Optimizing ensembles of boosted additive bagged trees for learning-to-rankAprendizado de ranqueamentoAprendizado de máquinaRecuperação de informaçãoFlorestas aleatóriasImpulsionamentoRecuperação da informaçãoFloresta aleatóriaAprendizado de ranqueamentoComputaçãoAprendizado de máquinaThe task of retrieving information that really matters to the users is considered hard when taking into consideration the current and increasingly amount of available information. To improve the effectiveness of this information seeking task, systems have relied on the combination of many predictors by means of machine learning methods, a task also known as learning to rank (L2R). The most effective learning methods for this task are based on ensembles of trees. In this master degree dissertation, is proposed a general framework that smoothly combines ensembles of additive trees, specifically Random Forests, with Boosting in an original way for the task of L2R. In particular, we exploit a set of functions that enable us to smartly deduce the samples that are considered hard to predict in a regression approach and apply a set of selective weight updating strategy to effectively enhance the ranking performance.Recuperar inforação que realmente importe ao usuário é considerada difı́cil quando levado em consideração a atual quantidade de informação disponı́vel online. Para aumentar a efetividade desta tarefa de busca de informação, sistemas tem baseado na combinação automática de funções de ranquemanto por meio de métodos de aprendizado de máquina, tarefa também conhecida em recuperação de informação como aprendizado de ranqueamento. Os métodos mais efetivos de aprendizado de máquina são atualmente agregações de árvores de decisão, tais como Florestas aleatórias e/ou técnicas de impusionamento (e.g: RankBoost, Mart, LambdaMart). Nesta dissertação de mestrado, é proposto uma estrutura que combina de maneira additiva árvores de decisão, em especı́fico Florestas Aleatórias com Impulsionamento de maneira original para a tarefa de aprendizado de ranqueamento. Em particular, é explorado um conjunto de funções que torna possı́vel inteligentemente deduzir quais amostras do conjunto de treino são de difı́ceis predição em um contexto de regressão aplicando um conjunto seletivo de abordagens de atualização da distribuição de pesos das amostras para aumentar a performance de ranqueamento do modelo de aprendizado de máquina.Nesta dissertação é abordado algumas instâncias que considerão diferentes funções de perca, differentes maneiras de atualizar a importância dos documentos assim como a importância dos classificadores internos ao procedimento iterativo de impulsionamento. Nas análises experimentais, os modelos foram capazes de superar todos os algorı́tmos considerados no estado da arte em várias coleções de dados em dois populares testes estatı́sticos. Outra vantagem da nossa estrutura de aprendizado de máquina para ranqueamento é que ele é capaz de superar todos os algoritmos base avaliados considerando pequenas frações de treino e com taxas de convergência superior em todas as coleções avaliadas. Isso mostra a vantagem em utilizar o nosso modelo para problemas de ranqueamento, visto que obter dados de treino é considerado algo extremamente custoso e difı́cil de se obter.Universidade Federal de Minas GeraisUFMGMarcos Andre GoncalvesMarco Antonio Pinheiro de CristoRenato Martins AssuncaoRodrygo Luis Teodoro SantosClebson Cardoso Alves de Sá2019-08-12T16:17:42Z2019-08-12T16:17:42Z2016-09-30info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/1843/ESBF-AKUMPWinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMG2019-11-14T21:34:09Zoai:repositorio.ufmg.br:1843/ESBF-AKUMPWRepositório InstitucionalPUBhttps://repositorio.ufmg.br/oairepositorio@ufmg.bropendoar:2019-11-14T21:34:09Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false |
dc.title.none.fl_str_mv |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
title |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
spellingShingle |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank Clebson Cardoso Alves de Sá Aprendizado de ranqueamento Aprendizado de máquina Recuperação de informação Florestas aleatórias Impulsionamento Recuperação da informação Floresta aleatória Aprendizado de ranqueamento Computação Aprendizado de máquina |
title_short |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
title_full |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
title_fullStr |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
title_full_unstemmed |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
title_sort |
Optimizing ensembles of boosted additive bagged trees for learning-to-rank |
author |
Clebson Cardoso Alves de Sá |
author_facet |
Clebson Cardoso Alves de Sá |
author_role |
author |
dc.contributor.none.fl_str_mv |
Marcos Andre Goncalves Marco Antonio Pinheiro de Cristo Renato Martins Assuncao Rodrygo Luis Teodoro Santos |
dc.contributor.author.fl_str_mv |
Clebson Cardoso Alves de Sá |
dc.subject.por.fl_str_mv |
Aprendizado de ranqueamento Aprendizado de máquina Recuperação de informação Florestas aleatórias Impulsionamento Recuperação da informação Floresta aleatória Aprendizado de ranqueamento Computação Aprendizado de máquina |
topic |
Aprendizado de ranqueamento Aprendizado de máquina Recuperação de informação Florestas aleatórias Impulsionamento Recuperação da informação Floresta aleatória Aprendizado de ranqueamento Computação Aprendizado de máquina |
description |
The task of retrieving information that really matters to the users is considered hard when taking into consideration the current and increasingly amount of available information. To improve the effectiveness of this information seeking task, systems have relied on the combination of many predictors by means of machine learning methods, a task also known as learning to rank (L2R). The most effective learning methods for this task are based on ensembles of trees. In this master degree dissertation, is proposed a general framework that smoothly combines ensembles of additive trees, specifically Random Forests, with Boosting in an original way for the task of L2R. In particular, we exploit a set of functions that enable us to smartly deduce the samples that are considered hard to predict in a regression approach and apply a set of selective weight updating strategy to effectively enhance the ranking performance. |
publishDate |
2016 |
dc.date.none.fl_str_mv |
2016-09-30 2019-08-12T16:17:42Z 2019-08-12T16:17:42Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/1843/ESBF-AKUMPW |
url |
http://hdl.handle.net/1843/ESBF-AKUMPW |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais UFMG |
publisher.none.fl_str_mv |
Universidade Federal de Minas Gerais UFMG |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFMG instname:Universidade Federal de Minas Gerais (UFMG) instacron:UFMG |
instname_str |
Universidade Federal de Minas Gerais (UFMG) |
instacron_str |
UFMG |
institution |
UFMG |
reponame_str |
Repositório Institucional da UFMG |
collection |
Repositório Institucional da UFMG |
repository.name.fl_str_mv |
Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG) |
repository.mail.fl_str_mv |
repositorio@ufmg.br |
_version_ |
1816829576562606080 |