Controle supervisório de microrredes utilizando deep reinforcement learning
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da USP |
Texto Completo: | https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/ |
Resumo: | As microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente. |
id |
USP_b5f67fae7d066c2601846f4960049d86 |
---|---|
oai_identifier_str |
oai:teses.usp.br:tde-03032021-172052 |
network_acronym_str |
USP |
network_name_str |
Biblioteca Digital de Teses e Dissertações da USP |
repository_id_str |
2721 |
spelling |
Controle supervisório de microrredes utilizando deep reinforcement learningSupervisory control of microgrids using deep reinforcement learningAprendizado por reforçoControle inteligenteControle supervisórioIntelligent techniquesMicrogridsMicrorredesReinforcement learningSupervisory controlAs microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente.The microgrids emerged due to the need to coordinate an ascending new generation model, the distributed generation, with energy storage systems and local loads. This type of grid is a complex system and several proposals have been made to control it and ensure that the microgrid operates both connected to the main grid and islanded. Besides that, the microgrid control needs to adapt to its different operating points to maintain acceptable performance. In order to obtain promising results, the microgrid control is usually divided into three hierarchical levels, that differ in terms of speed response, control objectives, and communication requirements. However, this subject is recent and there is still room for new contributions and analysis about microgrid control. Taking that into account, this research project aims to model an intelligent supervisory controller of an islanded microgrid using the Deep Deterministic Policy Gradient, which is a deep reinforcement learning algorithm. The modelled microgrid comprises a synchronous generator, two battery energy storage systems, and a photovoltaic generator. The proposed controller reads the energy resources terminal voltages and the grid frequency and varies the storage elements\' power to keep these variables near their nominal values. The proposed controller performance was compared to the droop control, using the simulation of three scenarios: i) Disconnection and reconnection of a feeder; ii) A short-circuit event with subsequent breaker tripping to isolate it; and iii) Disconnection of the microgrid\'s biggest load. Initially, a noticiable improvement in the intelligent controller was expected compared to the droop. However, the results showed that the intelligent control performed similarly to the droop control. While the droop controller has minimised the voltage and frequency oscillations more conveniently in some scenarios, the opposite occurred considering the proposed methodology.Biblioteca Digitais de Teses e Dissertações da USPCoury, Denis ViniciusBarbalho, Pedro Inácio de Nascimento e2021-02-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-06-15T20:45:03Zoai:teses.usp.br:tde-03032021-172052Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-06-15T20:45:03Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false |
dc.title.none.fl_str_mv |
Controle supervisório de microrredes utilizando deep reinforcement learning Supervisory control of microgrids using deep reinforcement learning |
title |
Controle supervisório de microrredes utilizando deep reinforcement learning |
spellingShingle |
Controle supervisório de microrredes utilizando deep reinforcement learning Barbalho, Pedro Inácio de Nascimento e Aprendizado por reforço Controle inteligente Controle supervisório Intelligent techniques Microgrids Microrredes Reinforcement learning Supervisory control |
title_short |
Controle supervisório de microrredes utilizando deep reinforcement learning |
title_full |
Controle supervisório de microrredes utilizando deep reinforcement learning |
title_fullStr |
Controle supervisório de microrredes utilizando deep reinforcement learning |
title_full_unstemmed |
Controle supervisório de microrredes utilizando deep reinforcement learning |
title_sort |
Controle supervisório de microrredes utilizando deep reinforcement learning |
author |
Barbalho, Pedro Inácio de Nascimento e |
author_facet |
Barbalho, Pedro Inácio de Nascimento e |
author_role |
author |
dc.contributor.none.fl_str_mv |
Coury, Denis Vinicius |
dc.contributor.author.fl_str_mv |
Barbalho, Pedro Inácio de Nascimento e |
dc.subject.por.fl_str_mv |
Aprendizado por reforço Controle inteligente Controle supervisório Intelligent techniques Microgrids Microrredes Reinforcement learning Supervisory control |
topic |
Aprendizado por reforço Controle inteligente Controle supervisório Intelligent techniques Microgrids Microrredes Reinforcement learning Supervisory control |
description |
As microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-02-17 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/ |
url |
https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/ |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.none.fl_str_mv |
|
dc.rights.driver.fl_str_mv |
Liberar o conteúdo para acesso público. info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Liberar o conteúdo para acesso público. |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.coverage.none.fl_str_mv |
|
dc.publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
publisher.none.fl_str_mv |
Biblioteca Digitais de Teses e Dissertações da USP |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da USP instname:Universidade de São Paulo (USP) instacron:USP |
instname_str |
Universidade de São Paulo (USP) |
instacron_str |
USP |
institution |
USP |
reponame_str |
Biblioteca Digital de Teses e Dissertações da USP |
collection |
Biblioteca Digital de Teses e Dissertações da USP |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP) |
repository.mail.fl_str_mv |
virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br |
_version_ |
1815256631245537280 |