Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho

Detalhes bibliográficos
Autor(a) principal: França, Alexandre Bazyl Zacarias de
Data de Publicação: 2023
Tipo de documento: Tese
Idioma: por
Título da fonte: Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)
Texto Completo: https://www.repositorio.mar.mil.br/handle/ripcmb/846568
Resumo: As redes neurais convolucionais, especialmente as embarcadas em dispositivos com requisitos de baixo consumo de energia, apresentam um desafio significativo: equilibrar a alta precisão esperada das redes neurais, o tempo de resposta e as demandas de recursos computacionais, lógicos e de memória. Este trabalho apresenta três arquiteturas de hardware para redes neurais convolucionais com alto grau de paralelismo e reutilização de componentes implementadas em um dispositivo programável. O primeiro projeto, denominado arquitetura com memória, utiliza a quantidade de memória necessária para armazenar os dados de entrada e os resultados intermediários. O segundo projeto, denominado arquitetura sem memória, define e explora um padrão específico de sequenciamento da entrada para evitar o uso de memória RAM. O terceiro projeto, denominado arquitetura com memória cache, é uma solução intermediária, onde a padronização da sequência de entrada também é explorada mas uma memória auxiliar é utilizada para armazenar alguns resultados intermediários e, consequentemente, melhorar o tempo de processamento. Comparamos as três arquiteturas em termos de potência, área e tempo de processamento. Permitir o uso de memória aumenta o custo geral de hardware, mas reduz o tempo de processamento. Na outra extremidade, dispensar completamente o uso de memória aumenta o nível de paralelismo mas compromete o tempo de processamento. O balanceamento entre uso de memória e desempenho é alcançado na arquitetura com memória cache que otimiza o tempo de processamento mas com custo em termos de recursos de hardware.
id MB_34c4d22fc2fe5cd57d43f2d4c0fbf304
oai_identifier_str oai:www.repositorio.mar.mil.br:ripcmb/846568
network_acronym_str MB
network_name_str Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)
repository_id_str
spelling França, Alexandre Bazyl Zacarias deGomes, José Gabriel Rodríguez CarneiroOliveira, Fernanda Duarte Vilela Reis deNedjah, Nadia2024-01-17T12:38:26Z2024-01-17T12:38:26Z2023https://www.repositorio.mar.mil.br/handle/ripcmb/846568As redes neurais convolucionais, especialmente as embarcadas em dispositivos com requisitos de baixo consumo de energia, apresentam um desafio significativo: equilibrar a alta precisão esperada das redes neurais, o tempo de resposta e as demandas de recursos computacionais, lógicos e de memória. Este trabalho apresenta três arquiteturas de hardware para redes neurais convolucionais com alto grau de paralelismo e reutilização de componentes implementadas em um dispositivo programável. O primeiro projeto, denominado arquitetura com memória, utiliza a quantidade de memória necessária para armazenar os dados de entrada e os resultados intermediários. O segundo projeto, denominado arquitetura sem memória, define e explora um padrão específico de sequenciamento da entrada para evitar o uso de memória RAM. O terceiro projeto, denominado arquitetura com memória cache, é uma solução intermediária, onde a padronização da sequência de entrada também é explorada mas uma memória auxiliar é utilizada para armazenar alguns resultados intermediários e, consequentemente, melhorar o tempo de processamento. Comparamos as três arquiteturas em termos de potência, área e tempo de processamento. Permitir o uso de memória aumenta o custo geral de hardware, mas reduz o tempo de processamento. Na outra extremidade, dispensar completamente o uso de memória aumenta o nível de paralelismo mas compromete o tempo de processamento. O balanceamento entre uso de memória e desempenho é alcançado na arquitetura com memória cache que otimiza o tempo de processamento mas com custo em termos de recursos de hardware.Convolutional neural networks, especially when embedded in devices with low power consumption requirements, present a significant challenge: balancing the typically high precision expected of neural networks, response time, and the demands on computational, logical, and memory resources. This work presents three hardware architectures for convolutional neural networks with high degree of parallelism and component reuse implemented in a programmable device. The first design, which is termed memoryful architecture, uses as much memory as necessary to store the input data and intermediate results. The second design, which is termed memoryless architecture, defines and explores a specific input sequencing pattern to completely avoid the use of RAM. The third design, which is termed cache memory-based architecture, is an intermediate solution, where the standardization of the input sequence is also explored but an auxiliary memory is used to store some intermediate results and, consequently, improve processing time. We compare the three designs in terms of power, area and processing time. Allowing memory usage increases overall hardware cost but reduces processing time. At the other end, completely eliminating memory usage increases operation parallelism, but compromises processing time. A trade-off between memory usage and processing performance is achieved in the cache memory-based architecture that optimizes processing time but at a cost in terms of hardware resources.Universidade Federal do Rio de Janeiro (UFRJ)Engenharia elétricaRedes Neurais Convolucionais (CNN)Field-Programmable Gate Arrays (FPGA)LeNet-5Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenhoinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)instname:Marinha do Brasil (MB)instacron:MBORIGINALTese-Bazyl_Final.pdfTese-Bazyl_Final.pdfapplication/pdf3288013https://www.repositorio.mar.mil.br/bitstream/ripcmb/846568/1/Tese-Bazyl_Final.pdffe79bfeac71321633ebb7a6c5880c0e2MD51LICENSElicense.txtlicense.txttext/plain; charset=utf-83272https://www.repositorio.mar.mil.br/bitstream/ripcmb/846568/2/license.txt8ff7ce654d5215cee2106f3e3b7eb37fMD52ripcmb/8465682024-01-17 09:40:10.968oai:www.repositorio.mar.mil.br:ripcmb/846568QW8gY29uY29yZGFyIGNvbSBlc3RhIGxpY2Vuw6dhLCBvIFNyLiBhdXRvcihlcykgb3UgdGl0dWxhcihlcykgZG9zIGRpcmVpdG9zIGF1dG9yYWlzIGRhIG9icmEgYXF1aSBkZXNjcml0YSAgIGNvbmNlZGUobSkgICDDoCAgIE1BUklOSEEgIERPICAgQlJBU0lMLCAgIGdlc3RvcmEgICBkYSAgUmVkZSAgIEJJTSAgIGUgICBkbyAgIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIGRhIE1hcmluaGEgZG8gQnJhc2lsIChSSS1NQiksIG8gZGlyZWl0byBuw6NvLWV4Y2x1c2l2byBkZSByZXByb2R1emlyLCBjb252ZXJ0ZXIgKGNvbW8gZGVmaW5pZG8gYWJhaXhvKSBlL291IGRpc3RyaWJ1aXIgbyBkb2N1bWVudG8gZGVwb3NpdGFkbyBlbSBmb3JtYXRvIGltcHJlc3NvLCBlbGV0csO0bmljbyBvdSBlbSBxdWFscXVlciBvdXRybyBtZWlvLiBPIFNyKHMpIGNvbmNvcmRhKG0pIHF1ZSBhIE1BUklOSEEgRE8gQlJBU0lMLCBnZXN0b3JhIGRhIFJlZGUgQklNIGUgZG8gUkktTUIsIHBvZGUsIHNlbSBhbHRlcmFyIG8gY29udGXDumRvLCBjb252ZXJ0ZXIgbyBhcnF1aXZvIGRlcG9zaXRhZG8gYSBxdWFscXVlciBtZWlvIG91IGZvcm1hdG8gY29tIGZpbnMgZGUgcHJlc2VydmHDp8Ojby4gTyAgU3IocykgIHRhbWLDqW0gIGNvbmNvcmRhKG0pICBxdWUgIGEgIE1BUklOSEEgIERPICBCUkFTSUwsICBnZXN0b3JhICBkYSAgUmVkZSAgQklNICBlICBkbyAgUkktTUIsICBwb2RlIG1hbnRlciBtYWlzIGRlIHVtYSBjw7NwaWEgZGVzdGUgZGVww7NzaXRvIHBhcmEgZmlucyBkZSBzZWd1cmFuw6dhLCBiYWNrLXVwIGUvb3UgcHJlc2VydmHDp8Ojby5PICBTcihzKSAgZGVjbGFyYShtKSAgcXVlICBhICBhcHJlc2VudGHDp8OjbyAgZG8gIHNldSAgdHJhYmFsaG8gIMOpICBvcmlnaW5hbCAgZSAgcXVlICBvICBTcihzKSAgcG9kZShtKSAgY29uY2VkZXIgIG9zICBkaXJlaXRvcyAgY29udGlkb3MgIG5lc3RhICBsaWNlbsOnYS4gIE8gIFNyKHMpICB0YW1iw6ltICBkZWNsYXJhKG0pICBxdWUgIG8gIGVudmlvICDDqSAgZGUgIHNldSAgY29uaGVjaW1lbnRvICBlICBuw6NvICBpbmZyaW5nZSAgb3MgIGRpcmVpdG9zICBhdXRvcmFpcyAgZGUgIG91dHJhICBwZXNzb2EgIG91ICBpbnN0aXR1acOnw6NvLiAgQ2FzbyAgbyAgZG9jdW1lbnRvICBhICBzZXIgIGRlcG9zaXRhZG8gIGNvbnRlbmhhICBtYXRlcmlhbCAgcGFyYSAgbyAgcXVhbCAgbyAgU3IocykgIG7Do28gIGRldMOpbSAgYSAgdGl0dWxhcmlkYWRlIGRvcyBkaXJlaXRvcyBkZSBhdXRvcmFpcywgbyBTcihzKSBkZWNsYXJhKG0pIHF1ZSBvYnRldmUgYSBwZXJtaXNzw6NvIGlycmVzdHJpdGEgZG8gdGl0dWxhciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgZGUgY29uY2VkZXIgw6AgTUFSSU5IQSBETyBCUkFTSUwsIGdlc3RvcmEgZGEgUmVkZSBCSU0gZSBkbyBSSS1NQiwgb3MgZGlyZWl0b3MgcmVxdWVyaWRvcyBwb3IgZXN0YSBsaWNlbsOnYSBlIHF1ZSBvcyBtYXRlcmlhaXMgZGUgcHJvcHJpZWRhZGUgZGUgdGVyY2Vpcm9zLCBlc3TDo28gZGV2aWRhbWVudGUgaWRlbnRpZmljYWRvcyBlIHJlY29uaGVjaWRvcyBubyB0ZXh0byBvdSBjb250ZcO6ZG8gZGEgYXByZXNlbnRhw6fDo28uIENBU08gIE8gIFRSQUJBTEhPICBERVBPU0lUQURPICBURU5IQSAgU0lETyAgRklOQU5DSUFETyAgT1UgIEFQT0lBRE8gIFBPUiAgVU0gIMOTUkfDg08sICBRVUUgIE7Dg08gIEEgIElOU1RJVFVJw4fDg08gIERFU1RFICBSRVNQT1NJVMOTUklPOiAgTyAgU1IgIERFQ0xBUkEgIFRFUiAgQ1VNUFJJRE8gVE9ET1MgT1MgRElSRUlUT1MgREUgUkVWSVPDg08gRSBRVUFJU1FVRVIgT1VUUkFTIE9CUklHQcOHw5VFUyBSRVFVRVJJREFTIFBFTE8gQ09OVFJBVE8gT1UgQUNPUkRPLk8gICAgU3IocykgICAgY29uY29yZGEobSkgICAgY29tICAgIGEgICAgTGljZW7Dp2EgICAgQ3JlYXRpdmUgICAgQ29tbW9ucyAgICBhZG90YWRhICAgIHBhcmEgICAgZXN0ZSAgICBSZXBvc2l0w7NyaW8gICAgSW5zdGl0dWNpb25hbCAgICBxdWUgICAgY29uY2VkZSAgICBvICAgIGRpcmVpdG8gICAgZGUgICAgQ09NUEFSVElMSEFSICAgIGUgICAgYXMgICAgcmVzdHJpw6fDtWVzICAgIGRlICAgIEFUUklCVUnDh8ODTywgICAgTsODTyAgICBDT01FUkNJQUxJWkHDh8ODTyAgICBFICAgIFNFTSAgICBERVJJVkHDh8OVRVMuQ09NUEFSVElMSEFSOiAgY29waWFyICBlICByZWRpc3RyaWJ1aXIgIG8gIG1hdGVyaWFsICBlbSAgcXVhbHF1ZXIgIHN1cG9ydGUgIG91ICBmb3JtYXRvICBlICBvICBsaWNlbmNpYW50ZSBuw6NvIHBvZGUgcmV2b2dhciBlc3RlcyBkaXJlaXRvcyBkZXNkZSBxdWUgbyBTcihzKSByZXNwZWl0ZShtKSBvcyB0ZXJtb3MgZGEgbGljZW7Dp2EuQVRSSUJVScOHw4NPOiAgbyAgU3IocykgIGRldmUobSkgIGRhciAgbyAgY3LDqWRpdG8gIGFwcm9wcmlhZG8sICBwcm92ZXIgIHVtICBsaW5rICBwYXJhICBhICBsaWNlbsOnYSAgZSAgaW5kaWNhciAgc2UgIG11ZGFuw6dhcyAgZm9yYW0gIGZlaXRhcy4gIE8gIFNyKHMpICBkZXZlKG0pICBmYXrDqi1sbyAgZW0gIHF1YWxxdWVyICBjaXJjdW5zdMOibmNpYSByYXpvw6F2ZWwsIG1hcyBkZSBtYW5laXJhIGFsZ3VtYSBxdWUgc3VnaXJhIGFvIGxpY2VuY2lhbnRlIGEgYXBvaWFyIG8gU3Iocykgb3UgbyBzZXUgdXNvLk7Dg08gQ09NRVJDSUFMOiBvIFNyKHMpIG7Do28gcG9kZShtKSB1c2FyIG8gbWF0ZXJpYWwgcGFyYSBmaW5zIGNvbWVyY2lhaXMuU0VNIERFUklWQcOHw5VFUzogc2UgbyBTcihzKSByZW1peGFyKGVtKSwgdHJhbnNmb3JtYXIoZW0pIG91IGNyaWFyKGVtKSBhIHBhcnRpciBkbyBtYXRlcmlhbCwgbyBTcihzKSBuw6NvIHBvZGUobSkgZGlzdHJpYnVpciBvIG1hdGVyaWFsIG1vZGlmaWNhZG8uU0VNIFJFU1RSScOHw5VFUyBBRElDSU9OQUlTOiBvIFNyKHMpIG7Do28gcG9kZShtKSBhcGxpY2FyIHRlcm1vcyBqdXLDrWRpY29zIG91IG1lZGlkYXMgZGUgY2Fyw6F0ZXIgdGVjbm9sw7NnaWNvIHF1ZSByZXN0cmluamFtIGxlZ2FsbWVudGUgb3V0cm9zIGRlIGZhemVyZW0gYWxnbyBxdWUgYSBsaWNlbsOnYSBwZXJtaXRhLkEgUmVkZSBCSU0gZSBvIFJJLU1CIGlkZW50aWZpY2Fyw6EgY2xhcmFtZW50ZSBvIHNldShzKSBub21lKHMpIGNvbW8gYXV0b3IoZXMpIG91IHRpdHVsYXIoZXMpIGRvIGRpcmVpdG8gZGUgYXV0b3IoZXMpIGRvIGRvY3VtZW50byBzdWJtZXRpZG8gZSBkZWNsYXJhIHF1ZSBuw6NvIGZhcsOhIHF1YWxxdWVyIGFsdGVyYcOnw6NvIGFsw6ltIGRhcyBwZXJtaXRpZGFzIHBvciBlc3RhIGxpY2Vuw6dhLgo=Repositório InstitucionalPUBhttps://www.repositorio.mar.mil.br/oai/requestdphdm.repositorio@marinha.mil.bropendoar:2024-03-20T14:16:06.524330Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB) - Marinha do Brasil (MB)false
dc.title.pt_BR.fl_str_mv Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
title Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
spellingShingle Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
França, Alexandre Bazyl Zacarias de
Redes Neurais Convolucionais (CNN)
Field-Programmable Gate Arrays (FPGA)
LeNet-5
Engenharia elétrica
title_short Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
title_full Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
title_fullStr Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
title_full_unstemmed Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
title_sort Arquiteturas de hardware para redes neurais convolucionais visando compromisso entre custo e desempenho
author França, Alexandre Bazyl Zacarias de
author_facet França, Alexandre Bazyl Zacarias de
author_role author
dc.contributor.author.fl_str_mv França, Alexandre Bazyl Zacarias de
dc.contributor.advisor1.fl_str_mv Gomes, José Gabriel Rodríguez Carneiro
Oliveira, Fernanda Duarte Vilela Reis de
Nedjah, Nadia
contributor_str_mv Gomes, José Gabriel Rodríguez Carneiro
Oliveira, Fernanda Duarte Vilela Reis de
Nedjah, Nadia
dc.subject.por.fl_str_mv Redes Neurais Convolucionais (CNN)
Field-Programmable Gate Arrays (FPGA)
LeNet-5
topic Redes Neurais Convolucionais (CNN)
Field-Programmable Gate Arrays (FPGA)
LeNet-5
Engenharia elétrica
dc.subject.dgpm.pt_BR.fl_str_mv Engenharia elétrica
description As redes neurais convolucionais, especialmente as embarcadas em dispositivos com requisitos de baixo consumo de energia, apresentam um desafio significativo: equilibrar a alta precisão esperada das redes neurais, o tempo de resposta e as demandas de recursos computacionais, lógicos e de memória. Este trabalho apresenta três arquiteturas de hardware para redes neurais convolucionais com alto grau de paralelismo e reutilização de componentes implementadas em um dispositivo programável. O primeiro projeto, denominado arquitetura com memória, utiliza a quantidade de memória necessária para armazenar os dados de entrada e os resultados intermediários. O segundo projeto, denominado arquitetura sem memória, define e explora um padrão específico de sequenciamento da entrada para evitar o uso de memória RAM. O terceiro projeto, denominado arquitetura com memória cache, é uma solução intermediária, onde a padronização da sequência de entrada também é explorada mas uma memória auxiliar é utilizada para armazenar alguns resultados intermediários e, consequentemente, melhorar o tempo de processamento. Comparamos as três arquiteturas em termos de potência, área e tempo de processamento. Permitir o uso de memória aumenta o custo geral de hardware, mas reduz o tempo de processamento. Na outra extremidade, dispensar completamente o uso de memória aumenta o nível de paralelismo mas compromete o tempo de processamento. O balanceamento entre uso de memória e desempenho é alcançado na arquitetura com memória cache que otimiza o tempo de processamento mas com custo em termos de recursos de hardware.
publishDate 2023
dc.date.issued.fl_str_mv 2023
dc.date.accessioned.fl_str_mv 2024-01-17T12:38:26Z
dc.date.available.fl_str_mv 2024-01-17T12:38:26Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://www.repositorio.mar.mil.br/handle/ripcmb/846568
url https://www.repositorio.mar.mil.br/handle/ripcmb/846568
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal do Rio de Janeiro (UFRJ)
publisher.none.fl_str_mv Universidade Federal do Rio de Janeiro (UFRJ)
dc.source.none.fl_str_mv reponame:Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)
instname:Marinha do Brasil (MB)
instacron:MB
instname_str Marinha do Brasil (MB)
instacron_str MB
institution MB
reponame_str Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)
collection Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB)
bitstream.url.fl_str_mv https://www.repositorio.mar.mil.br/bitstream/ripcmb/846568/1/Tese-Bazyl_Final.pdf
https://www.repositorio.mar.mil.br/bitstream/ripcmb/846568/2/license.txt
bitstream.checksum.fl_str_mv fe79bfeac71321633ebb7a6c5880c0e2
8ff7ce654d5215cee2106f3e3b7eb37f
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
repository.name.fl_str_mv Repositório Institucional da Produção Científica da Marinha do Brasil (RI-MB) - Marinha do Brasil (MB)
repository.mail.fl_str_mv dphdm.repositorio@marinha.mil.br
_version_ 1794067344740319232