Controle supervisório de microrredes utilizando deep reinforcement learning

Detalhes bibliográficos
Autor(a) principal: Barbalho, Pedro Inácio de Nascimento e
Data de Publicação: 2021
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da USP
Texto Completo: https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/
Resumo: As microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente.
id USP_b5f67fae7d066c2601846f4960049d86
oai_identifier_str oai:teses.usp.br:tde-03032021-172052
network_acronym_str USP
network_name_str Biblioteca Digital de Teses e Dissertações da USP
repository_id_str 2721
spelling Controle supervisório de microrredes utilizando deep reinforcement learningSupervisory control of microgrids using deep reinforcement learningAprendizado por reforçoControle inteligenteControle supervisórioIntelligent techniquesMicrogridsMicrorredesReinforcement learningSupervisory controlAs microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente.The microgrids emerged due to the need to coordinate an ascending new generation model, the distributed generation, with energy storage systems and local loads. This type of grid is a complex system and several proposals have been made to control it and ensure that the microgrid operates both connected to the main grid and islanded. Besides that, the microgrid control needs to adapt to its different operating points to maintain acceptable performance. In order to obtain promising results, the microgrid control is usually divided into three hierarchical levels, that differ in terms of speed response, control objectives, and communication requirements. However, this subject is recent and there is still room for new contributions and analysis about microgrid control. Taking that into account, this research project aims to model an intelligent supervisory controller of an islanded microgrid using the Deep Deterministic Policy Gradient, which is a deep reinforcement learning algorithm. The modelled microgrid comprises a synchronous generator, two battery energy storage systems, and a photovoltaic generator. The proposed controller reads the energy resources terminal voltages and the grid frequency and varies the storage elements\' power to keep these variables near their nominal values. The proposed controller performance was compared to the droop control, using the simulation of three scenarios: i) Disconnection and reconnection of a feeder; ii) A short-circuit event with subsequent breaker tripping to isolate it; and iii) Disconnection of the microgrid\'s biggest load. Initially, a noticiable improvement in the intelligent controller was expected compared to the droop. However, the results showed that the intelligent control performed similarly to the droop control. While the droop controller has minimised the voltage and frequency oscillations more conveniently in some scenarios, the opposite occurred considering the proposed methodology.Biblioteca Digitais de Teses e Dissertações da USPCoury, Denis ViniciusBarbalho, Pedro Inácio de Nascimento e2021-02-17info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttps://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/reponame:Biblioteca Digital de Teses e Dissertações da USPinstname:Universidade de São Paulo (USP)instacron:USPLiberar o conteúdo para acesso público.info:eu-repo/semantics/openAccesspor2021-06-15T20:45:03Zoai:teses.usp.br:tde-03032021-172052Biblioteca Digital de Teses e Dissertaçõeshttp://www.teses.usp.br/PUBhttp://www.teses.usp.br/cgi-bin/mtd2br.plvirginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.bropendoar:27212021-06-15T20:45:03Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)false
dc.title.none.fl_str_mv Controle supervisório de microrredes utilizando deep reinforcement learning
Supervisory control of microgrids using deep reinforcement learning
title Controle supervisório de microrredes utilizando deep reinforcement learning
spellingShingle Controle supervisório de microrredes utilizando deep reinforcement learning
Barbalho, Pedro Inácio de Nascimento e
Aprendizado por reforço
Controle inteligente
Controle supervisório
Intelligent techniques
Microgrids
Microrredes
Reinforcement learning
Supervisory control
title_short Controle supervisório de microrredes utilizando deep reinforcement learning
title_full Controle supervisório de microrredes utilizando deep reinforcement learning
title_fullStr Controle supervisório de microrredes utilizando deep reinforcement learning
title_full_unstemmed Controle supervisório de microrredes utilizando deep reinforcement learning
title_sort Controle supervisório de microrredes utilizando deep reinforcement learning
author Barbalho, Pedro Inácio de Nascimento e
author_facet Barbalho, Pedro Inácio de Nascimento e
author_role author
dc.contributor.none.fl_str_mv Coury, Denis Vinicius
dc.contributor.author.fl_str_mv Barbalho, Pedro Inácio de Nascimento e
dc.subject.por.fl_str_mv Aprendizado por reforço
Controle inteligente
Controle supervisório
Intelligent techniques
Microgrids
Microrredes
Reinforcement learning
Supervisory control
topic Aprendizado por reforço
Controle inteligente
Controle supervisório
Intelligent techniques
Microgrids
Microrredes
Reinforcement learning
Supervisory control
description As microrredes surgiram devido à necessidade de se coordenar um novo modelo de geração em ascensão, a geração distribuída, com sistemas de armazenamento de energia e cargas locais. Esse tipo de rede é um sistema complexo e há diversas proposições de como controlá-lo de forma a permitir a sua operação conectada ao sistema de distribuição ou ilhada. Além disso, para um melhor desempenho do controle da microrrede, é preciso que este se adapte aos seus diferentes pontos de operação. O controle de microrredes pode ser dividido em três níveis hierárquicos que diferem em tempo de resposta, objetivos de controle e necessidade de comunicação. Por tratar-se de um tema recente, ainda há espaço para novas análises e contribuições. Neste sentido, o objetivo deste estudo foi modelar o controlador supervisório de uma microrrede ilhada, utilizando um algoritmo de deep reinforcement learning denominado de deep deterministic policy gradient. A microrrede modelada para o estudo, possui um gerador síncrono, dois sistemas de armazenamento de energia por baterias e um gerador fotovoltaico. O controlador proposto faz a leitura das tensões terminais dos recursos distribuídos de energia e da frequência da rede e atua nas potências ativas e reativas com o intuito de manter as variáveis de controle o mais próximo possível da referência. O desempenho do controlador proposto foi comparado a um esquema utilizando o método droop convencional, por meio da simulação de três cenários: i) desconexão e conexão programada de alimentado; ii) Aplicação de curto-circuito com posterior abertura de disjuntor para isolar a falha; e iii) Desconexão da maior carga do sistema. A priori, almejava-se uma melhora expressiva do controlador inteligente em comparação ao droop. Pelos resultados obtidos, não houve uma superioridade do controlador inteligente com relação ao droop, mas pode-se dizer que seu desempenho foi equivalente. Em alguns casos, o droop teve um desempenho mais adequado na minimização das oscilações de frequência e tensão, enquanto que, em outros, o comportamento da metodologia abordada foi mais conveniente.
publishDate 2021
dc.date.none.fl_str_mv 2021-02-17
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/
url https://www.teses.usp.br/teses/disponiveis/18/18154/tde-03032021-172052/
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv
dc.rights.driver.fl_str_mv Liberar o conteúdo para acesso público.
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Liberar o conteúdo para acesso público.
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.coverage.none.fl_str_mv
dc.publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
publisher.none.fl_str_mv Biblioteca Digitais de Teses e Dissertações da USP
dc.source.none.fl_str_mv
reponame:Biblioteca Digital de Teses e Dissertações da USP
instname:Universidade de São Paulo (USP)
instacron:USP
instname_str Universidade de São Paulo (USP)
instacron_str USP
institution USP
reponame_str Biblioteca Digital de Teses e Dissertações da USP
collection Biblioteca Digital de Teses e Dissertações da USP
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da USP - Universidade de São Paulo (USP)
repository.mail.fl_str_mv virginia@if.usp.br|| atendimento@aguia.usp.br||virginia@if.usp.br
_version_ 1815256631245537280