Automated Trading ASystem With Reinforcement Learning
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Dissertação |
Idioma: | eng |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10362/160228 |
Resumo: | This thesis focuses on using deep reinforcement learning to obtain agents capable of making valid portfolio management decisions that result in profit in increasingly more complex and realistic market simulator trading environments. The goal is to use an incremental evolution of the environment features and price patterns to have more control over the training of an agent capable of performing in more challenging and realistic episodes. The model used for this task is the Proximal PolicyOptimization(PPO) algorithm. The thesis intends to present an environment-building-focused training process as a possible tool to answer the inherent challenges of the deep reinforcement learning model’s training and a newperspective on the creation of automatic portfolio management systems with reinforcement learning. |
id |
RCAP_aabb00cea61152dfc7289ed38491efee |
---|---|
oai_identifier_str |
oai:run.unl.pt:10362/160228 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Automated Trading ASystem With Reinforcement LearningMachine learningDeep LearningAutomatic trading systemsDeep Reinforcement LearningDomínio/Área Científica::Ciências Naturais::MatemáticasThis thesis focuses on using deep reinforcement learning to obtain agents capable of making valid portfolio management decisions that result in profit in increasingly more complex and realistic market simulator trading environments. The goal is to use an incremental evolution of the environment features and price patterns to have more control over the training of an agent capable of performing in more challenging and realistic episodes. The model used for this task is the Proximal PolicyOptimization(PPO) algorithm. The thesis intends to present an environment-building-focused training process as a possible tool to answer the inherent challenges of the deep reinforcement learning model’s training and a newperspective on the creation of automatic portfolio management systems with reinforcement learning.Esta tese foca-se na utilização de aprendizagem profunda com reforço para obter agentes capazes de tomar decisões válidas de gestão de portfólio que resultem em lucro em ambientes que simulam o mercado cada vez mais complexos e realistas. O objetivo é utilizar uma evolução incremental das características dos ambientes e dos padrões de preços para ter um maior controlo sobre o treino de um agente capaz de executar episódios mais realistas. O modelo utilizado para esta tarefa é o algoritmo Proximal Policy Optimization. A tese pretende apresentar um processo de treino centrado na construção de ambientes como uma possível ferramenta para responder aos desafios inerentes ao treino de modelos de aprendizagem profunda com reforço e uma nova perspetiva para a criação de sistemas automáticos de gestão de portfólio com aprendizagem por reforço.Rodrigues, RuiRUNNeves, José Luís Simões2023-11-21T16:12:04Z2023-052023-05-01T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10362/160228enginfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2024-03-11T05:42:49Zoai:run.unl.pt:10362/160228Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-20T03:57:55.442747Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Automated Trading ASystem With Reinforcement Learning |
title |
Automated Trading ASystem With Reinforcement Learning |
spellingShingle |
Automated Trading ASystem With Reinforcement Learning Neves, José Luís Simões Machine learning Deep Learning Automatic trading systems Deep Reinforcement Learning Domínio/Área Científica::Ciências Naturais::Matemáticas |
title_short |
Automated Trading ASystem With Reinforcement Learning |
title_full |
Automated Trading ASystem With Reinforcement Learning |
title_fullStr |
Automated Trading ASystem With Reinforcement Learning |
title_full_unstemmed |
Automated Trading ASystem With Reinforcement Learning |
title_sort |
Automated Trading ASystem With Reinforcement Learning |
author |
Neves, José Luís Simões |
author_facet |
Neves, José Luís Simões |
author_role |
author |
dc.contributor.none.fl_str_mv |
Rodrigues, Rui RUN |
dc.contributor.author.fl_str_mv |
Neves, José Luís Simões |
dc.subject.por.fl_str_mv |
Machine learning Deep Learning Automatic trading systems Deep Reinforcement Learning Domínio/Área Científica::Ciências Naturais::Matemáticas |
topic |
Machine learning Deep Learning Automatic trading systems Deep Reinforcement Learning Domínio/Área Científica::Ciências Naturais::Matemáticas |
description |
This thesis focuses on using deep reinforcement learning to obtain agents capable of making valid portfolio management decisions that result in profit in increasingly more complex and realistic market simulator trading environments. The goal is to use an incremental evolution of the environment features and price patterns to have more control over the training of an agent capable of performing in more challenging and realistic episodes. The model used for this task is the Proximal PolicyOptimization(PPO) algorithm. The thesis intends to present an environment-building-focused training process as a possible tool to answer the inherent challenges of the deep reinforcement learning model’s training and a newperspective on the creation of automatic portfolio management systems with reinforcement learning. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-11-21T16:12:04Z 2023-05 2023-05-01T00:00:00Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10362/160228 |
url |
http://hdl.handle.net/10362/160228 |
dc.language.iso.fl_str_mv |
eng |
language |
eng |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799138160952737792 |