[en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS

Detalhes bibliográficos
Autor(a) principal: MAURICIO RAPHAEL WAISBLUM BARG
Data de Publicação: 2021
Tipo de documento: Outros
Idioma: eng
Título da fonte: Repositório Institucional da PUC-RIO (Projeto Maxwell)
Texto Completo: https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@2
http://doi.org/10.17771/PUCRio.acad.53484
Resumo: [pt] Os sistemas de potência são sistemas cyber-físicos responsáveis pela geração e transporte da energia elétrica desde sua fonte geradora até os consumidores finais. Durante este percurso, existem diversos processos que devem ser seguidos para se manter a qualidade do serviço e a segurança e estabilidade do sistema. Um destes processos envolve o controle de diversos equipamentos de maneira que a tensão dos barramentos do sistema se mantenha dentro de faixas pré-estabelecidas. Este controle, normalmente realizado pelos operadores do sistema em tempo real e por equipamentos automáticos de controle, envolve um número muito grande de considerações que dificilmente serão avaliadas no momento da decisão. Para contornar este problema, propõe-se a utilização de uma ferramenta inteligente que seja capaz de escolher as melhores ações a serem tomadas para que a tensão do sistema se mantenha nos níveis adequados levando em consideração as variadas condições do sistema. A metodologia utilizada pela ferramenta consiste na técnica de Deep Reinforcement Learning juntamente com três novas variações: windowed, ensemble e windowed ensemble Q-Learning, que consistem na divisão do processo otimizado em janelas de treinamento, utilização de múltiplos agentes inteligentes para um mesmo processo e a combinação destas duas metodologias. As variações são testadas em circuitos consagrados na literatura e são capazes de obter resultados expressivos quando comparados com a abordagem de Deep Reinforcement Learning tradicional utilizada em outros estudos e com o controle intrínseco do próprio sistema, mantendo a tensão sob controle ao longo do dia.
id PUC_RIO-1_9861badd8b7cda4656a245874a0f470d
oai_identifier_str oai:MAXWELL.puc-rio.br:53484
network_acronym_str PUC_RIO-1
network_name_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository_id_str 534
spelling [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS [pt] DEEP REINFORCEMENT LEARNING PARA CONTROLE DE TENSÃO EM SISTEMAS DE POTÊNCIA [pt] APRENDIZADO POR REFORCO[pt] SISTEMA DE POTENCIA[pt] CONTROLE DE TENSAO[en] REINFORCEMENT LEARNING[en] POWER SYSTEM[en] VOLTAGE CONTROL [pt] Os sistemas de potência são sistemas cyber-físicos responsáveis pela geração e transporte da energia elétrica desde sua fonte geradora até os consumidores finais. Durante este percurso, existem diversos processos que devem ser seguidos para se manter a qualidade do serviço e a segurança e estabilidade do sistema. Um destes processos envolve o controle de diversos equipamentos de maneira que a tensão dos barramentos do sistema se mantenha dentro de faixas pré-estabelecidas. Este controle, normalmente realizado pelos operadores do sistema em tempo real e por equipamentos automáticos de controle, envolve um número muito grande de considerações que dificilmente serão avaliadas no momento da decisão. Para contornar este problema, propõe-se a utilização de uma ferramenta inteligente que seja capaz de escolher as melhores ações a serem tomadas para que a tensão do sistema se mantenha nos níveis adequados levando em consideração as variadas condições do sistema. A metodologia utilizada pela ferramenta consiste na técnica de Deep Reinforcement Learning juntamente com três novas variações: windowed, ensemble e windowed ensemble Q-Learning, que consistem na divisão do processo otimizado em janelas de treinamento, utilização de múltiplos agentes inteligentes para um mesmo processo e a combinação destas duas metodologias. As variações são testadas em circuitos consagrados na literatura e são capazes de obter resultados expressivos quando comparados com a abordagem de Deep Reinforcement Learning tradicional utilizada em outros estudos e com o controle intrínseco do próprio sistema, mantendo a tensão sob controle ao longo do dia.[en] Electrical Power Systems are cyber-physical systems responsible for the generation and transportation of energy from its generating source to the final customers. During this process many different activities must be conducted in order to keep quality of service and the system s safety and stability. One of these activities regards control of various equipment in order to keep the voltage level on each system bus between specified limits. This control, which is usually conducted by system s operators in real time and by automatic control equipment involves many different constraints and considerations that are hardly ever taken into account during the decision process. In order to mitigate this problem a smart agent capable of deciding which action is best in order to keep the voltages in adequate levels taking into account system s conditions is proposed. The proposed methodology consists on the Deep Reinforcement Learning technique along with three novel variations: windowed, ensemble and windowed ensemble Q-Learning, which consist on the division of the problem in training windows, the usage of multiple learning agents for the same process and on the combination of both these techniques. The variations are tested on academically consecrated test circuits and are capable of attaining expressive results when compared to the traditional Deep Reinforcement Learning approach which is used in other academic studies and also with the systems intrinsic control, keeping voltage under control along the day.MAXWELLMARCUS VINICIUS SOLEDADE POGGI DE ARAGAOMAURICIO RAPHAEL WAISBLUM BARG2021-06-30info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/otherhttps://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@1https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@2http://doi.org/10.17771/PUCRio.acad.53484engreponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)instacron:PUC_RIOinfo:eu-repo/semantics/openAccess2022-08-15T00:00:00Zoai:MAXWELL.puc-rio.br:53484Repositório InstitucionalPRIhttps://www.maxwell.vrac.puc-rio.br/ibict.phpopendoar:5342022-08-15T00:00Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)false
dc.title.none.fl_str_mv [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
[pt] DEEP REINFORCEMENT LEARNING PARA CONTROLE DE TENSÃO EM SISTEMAS DE POTÊNCIA
title [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
spellingShingle [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
MAURICIO RAPHAEL WAISBLUM BARG
[pt] APRENDIZADO POR REFORCO
[pt] SISTEMA DE POTENCIA
[pt] CONTROLE DE TENSAO
[en] REINFORCEMENT LEARNING
[en] POWER SYSTEM
[en] VOLTAGE CONTROL
title_short [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
title_full [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
title_fullStr [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
title_full_unstemmed [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
title_sort [en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS
author MAURICIO RAPHAEL WAISBLUM BARG
author_facet MAURICIO RAPHAEL WAISBLUM BARG
author_role author
dc.contributor.none.fl_str_mv MARCUS VINICIUS SOLEDADE POGGI DE ARAGAO
dc.contributor.author.fl_str_mv MAURICIO RAPHAEL WAISBLUM BARG
dc.subject.por.fl_str_mv [pt] APRENDIZADO POR REFORCO
[pt] SISTEMA DE POTENCIA
[pt] CONTROLE DE TENSAO
[en] REINFORCEMENT LEARNING
[en] POWER SYSTEM
[en] VOLTAGE CONTROL
topic [pt] APRENDIZADO POR REFORCO
[pt] SISTEMA DE POTENCIA
[pt] CONTROLE DE TENSAO
[en] REINFORCEMENT LEARNING
[en] POWER SYSTEM
[en] VOLTAGE CONTROL
description [pt] Os sistemas de potência são sistemas cyber-físicos responsáveis pela geração e transporte da energia elétrica desde sua fonte geradora até os consumidores finais. Durante este percurso, existem diversos processos que devem ser seguidos para se manter a qualidade do serviço e a segurança e estabilidade do sistema. Um destes processos envolve o controle de diversos equipamentos de maneira que a tensão dos barramentos do sistema se mantenha dentro de faixas pré-estabelecidas. Este controle, normalmente realizado pelos operadores do sistema em tempo real e por equipamentos automáticos de controle, envolve um número muito grande de considerações que dificilmente serão avaliadas no momento da decisão. Para contornar este problema, propõe-se a utilização de uma ferramenta inteligente que seja capaz de escolher as melhores ações a serem tomadas para que a tensão do sistema se mantenha nos níveis adequados levando em consideração as variadas condições do sistema. A metodologia utilizada pela ferramenta consiste na técnica de Deep Reinforcement Learning juntamente com três novas variações: windowed, ensemble e windowed ensemble Q-Learning, que consistem na divisão do processo otimizado em janelas de treinamento, utilização de múltiplos agentes inteligentes para um mesmo processo e a combinação destas duas metodologias. As variações são testadas em circuitos consagrados na literatura e são capazes de obter resultados expressivos quando comparados com a abordagem de Deep Reinforcement Learning tradicional utilizada em outros estudos e com o controle intrínseco do próprio sistema, mantendo a tensão sob controle ao longo do dia.
publishDate 2021
dc.date.none.fl_str_mv 2021-06-30
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/other
format other
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@2
http://doi.org/10.17771/PUCRio.acad.53484
url https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@1
https://www.maxwell.vrac.puc-rio.br/colecao.php?strSecao=resultado&nrSeq=53484@2
http://doi.org/10.17771/PUCRio.acad.53484
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv MAXWELL
publisher.none.fl_str_mv MAXWELL
dc.source.none.fl_str_mv reponame:Repositório Institucional da PUC-RIO (Projeto Maxwell)
instname:Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron:PUC_RIO
instname_str Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
instacron_str PUC_RIO
institution PUC_RIO
reponame_str Repositório Institucional da PUC-RIO (Projeto Maxwell)
collection Repositório Institucional da PUC-RIO (Projeto Maxwell)
repository.name.fl_str_mv Repositório Institucional da PUC-RIO (Projeto Maxwell) - Pontifícia Universidade Católica do Rio de Janeiro (PUC-RIO)
repository.mail.fl_str_mv
_version_ 1814822629742215168