Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP

Detalhes bibliográficos
Autor(a) principal: LINS, Amanda Pimentel e Silva
Data de Publicação: 2005
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Repositório Institucional da UFPE
Texto Completo: https://repositorio.ufpe.br/handle/123456789/2772
Resumo: Esta dissertação propõe modificações na metodologia yamazaki para a otimização simultânea de arquiteturas e pesos de redes Multilayer Perceptron (MLP). O objetivo principal é propô-las em conjunto com as respectivas validações, visando tornar mais eficiente o processo de otimização. A base para o algoritmo híbrido de otimização são os algoritmos simulated annealing, tabu search e a metodologia yamazaki. As modificações são realizadas nos critérios de implementação tais como mecanismo de geração de vizinhança, esquema de esfriamento e função de custo. Um dos pontos principais desta dissertação é a criação de um novo mecanismo de geração de vizinhança visando aumentar o espaço de busca. O esquema de esfriamento é de grande importância na convergência do algoritmo. O custo de cada solução é medido como média ponderada entre o erro de classificação para o conjunto de treinamento e a porcentagem de conexões utilizadas pela rede. As bases de dados utilizadas nos experimentos são: classificação de odores provenientes de três safras de um mesmo vinho e classificação de gases. A fundamentação estatística para as conclusões observadas através dos resultados obtidos é realizada usando teste de hipóteses. Foi realizado um estudo do tempo de execução separando as fases de otimização global da fase de refinamento local. Concluiu-se que com o novo mecanismo de geração de vizinhança fez desnecessário o uso do backpropagation obtendo assim um alto ganho em tempo de execução. O algoritmo híbrido de otimização apresentou, para ambas as bases de dados, o menor valor da média do erro de classificação do conjunto de teste e o menor valor da quantidade de conexões. Além disso, o tempo de execução foi reduzido em média 46.72%
id UFPE_720fcaa00c214d96f1c5b6f9c5f9d6b5
oai_identifier_str oai:repositorio.ufpe.br:123456789/2772
network_acronym_str UFPE
network_name_str Repositório Institucional da UFPE
repository_id_str 2221
spelling LINS, Amanda Pimentel e SilvaLUDERMIR, Teresa Bernarda2014-06-12T16:01:05Z2014-06-12T16:01:05Z2005Pimentel e Silva Lins, Amanda; Bernarda Ludermir, Teresa. Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP. 2005. Dissertação (Mestrado). Programa de Pós-Graduação em Ciência da Computação, Universidade Federal de Pernambuco, Recife, 2005.https://repositorio.ufpe.br/handle/123456789/2772Esta dissertação propõe modificações na metodologia yamazaki para a otimização simultânea de arquiteturas e pesos de redes Multilayer Perceptron (MLP). O objetivo principal é propô-las em conjunto com as respectivas validações, visando tornar mais eficiente o processo de otimização. A base para o algoritmo híbrido de otimização são os algoritmos simulated annealing, tabu search e a metodologia yamazaki. As modificações são realizadas nos critérios de implementação tais como mecanismo de geração de vizinhança, esquema de esfriamento e função de custo. Um dos pontos principais desta dissertação é a criação de um novo mecanismo de geração de vizinhança visando aumentar o espaço de busca. O esquema de esfriamento é de grande importância na convergência do algoritmo. O custo de cada solução é medido como média ponderada entre o erro de classificação para o conjunto de treinamento e a porcentagem de conexões utilizadas pela rede. As bases de dados utilizadas nos experimentos são: classificação de odores provenientes de três safras de um mesmo vinho e classificação de gases. A fundamentação estatística para as conclusões observadas através dos resultados obtidos é realizada usando teste de hipóteses. Foi realizado um estudo do tempo de execução separando as fases de otimização global da fase de refinamento local. Concluiu-se que com o novo mecanismo de geração de vizinhança fez desnecessário o uso do backpropagation obtendo assim um alto ganho em tempo de execução. O algoritmo híbrido de otimização apresentou, para ambas as bases de dados, o menor valor da média do erro de classificação do conjunto de teste e o menor valor da quantidade de conexões. Além disso, o tempo de execução foi reduzido em média 46.72%porUniversidade Federal de PernambucoAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessRedes Neurais ArtificiaisNarizes ArtificiaisReconhecimento de PadrõesArquiteturas de Redes Multilayer Perceptron (MLP)OtimizaçãoSimulated AnnealingTabu SearchMetodologia YamazakiTeste de HipótesesMétodos de otimização para definição de arquiteturas e pesos de redes neurais MLPinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPEORIGINALarquivo7154_1.pdfapplication/pdf1370997https://repositorio.ufpe.br/bitstream/123456789/2772/1/arquivo7154_1.pdf1580b7b5979343826e4d0a3b88b57dacMD51LICENSElicense.txttext/plain1748https://repositorio.ufpe.br/bitstream/123456789/2772/2/license.txt8a4605be74aa9ea9d79846c1fba20a33MD52TEXTarquivo7154_1.pdf.txtarquivo7154_1.pdf.txtExtracted texttext/plain241433https://repositorio.ufpe.br/bitstream/123456789/2772/3/arquivo7154_1.pdf.txt6e75bbc3e33f2b83c7df40279b6d705eMD53THUMBNAILarquivo7154_1.pdf.jpgarquivo7154_1.pdf.jpgGenerated Thumbnailimage/jpeg1273https://repositorio.ufpe.br/bitstream/123456789/2772/4/arquivo7154_1.pdf.jpgbd258ee0cf96d0f6ff31b5021f928b20MD54123456789/27722019-10-25 02:52:54.203oai:repositorio.ufpe.br:123456789/2772Tk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo=Repositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212019-10-25T05:52:54Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false
dc.title.pt_BR.fl_str_mv Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
title Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
spellingShingle Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
LINS, Amanda Pimentel e Silva
Redes Neurais Artificiais
Narizes Artificiais
Reconhecimento de Padrões
Arquiteturas de Redes Multilayer Perceptron (MLP)
Otimização
Simulated Annealing
Tabu Search
Metodologia Yamazaki
Teste de Hipóteses
title_short Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
title_full Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
title_fullStr Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
title_full_unstemmed Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
title_sort Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP
author LINS, Amanda Pimentel e Silva
author_facet LINS, Amanda Pimentel e Silva
author_role author
dc.contributor.author.fl_str_mv LINS, Amanda Pimentel e Silva
dc.contributor.advisor1.fl_str_mv LUDERMIR, Teresa Bernarda
contributor_str_mv LUDERMIR, Teresa Bernarda
dc.subject.por.fl_str_mv Redes Neurais Artificiais
Narizes Artificiais
Reconhecimento de Padrões
Arquiteturas de Redes Multilayer Perceptron (MLP)
Otimização
Simulated Annealing
Tabu Search
Metodologia Yamazaki
Teste de Hipóteses
topic Redes Neurais Artificiais
Narizes Artificiais
Reconhecimento de Padrões
Arquiteturas de Redes Multilayer Perceptron (MLP)
Otimização
Simulated Annealing
Tabu Search
Metodologia Yamazaki
Teste de Hipóteses
description Esta dissertação propõe modificações na metodologia yamazaki para a otimização simultânea de arquiteturas e pesos de redes Multilayer Perceptron (MLP). O objetivo principal é propô-las em conjunto com as respectivas validações, visando tornar mais eficiente o processo de otimização. A base para o algoritmo híbrido de otimização são os algoritmos simulated annealing, tabu search e a metodologia yamazaki. As modificações são realizadas nos critérios de implementação tais como mecanismo de geração de vizinhança, esquema de esfriamento e função de custo. Um dos pontos principais desta dissertação é a criação de um novo mecanismo de geração de vizinhança visando aumentar o espaço de busca. O esquema de esfriamento é de grande importância na convergência do algoritmo. O custo de cada solução é medido como média ponderada entre o erro de classificação para o conjunto de treinamento e a porcentagem de conexões utilizadas pela rede. As bases de dados utilizadas nos experimentos são: classificação de odores provenientes de três safras de um mesmo vinho e classificação de gases. A fundamentação estatística para as conclusões observadas através dos resultados obtidos é realizada usando teste de hipóteses. Foi realizado um estudo do tempo de execução separando as fases de otimização global da fase de refinamento local. Concluiu-se que com o novo mecanismo de geração de vizinhança fez desnecessário o uso do backpropagation obtendo assim um alto ganho em tempo de execução. O algoritmo híbrido de otimização apresentou, para ambas as bases de dados, o menor valor da média do erro de classificação do conjunto de teste e o menor valor da quantidade de conexões. Além disso, o tempo de execução foi reduzido em média 46.72%
publishDate 2005
dc.date.issued.fl_str_mv 2005
dc.date.accessioned.fl_str_mv 2014-06-12T16:01:05Z
dc.date.available.fl_str_mv 2014-06-12T16:01:05Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.citation.fl_str_mv Pimentel e Silva Lins, Amanda; Bernarda Ludermir, Teresa. Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP. 2005. Dissertação (Mestrado). Programa de Pós-Graduação em Ciência da Computação, Universidade Federal de Pernambuco, Recife, 2005.
dc.identifier.uri.fl_str_mv https://repositorio.ufpe.br/handle/123456789/2772
identifier_str_mv Pimentel e Silva Lins, Amanda; Bernarda Ludermir, Teresa. Métodos de otimização para definição de arquiteturas e pesos de redes neurais MLP. 2005. Dissertação (Mestrado). Programa de Pós-Graduação em Ciência da Computação, Universidade Federal de Pernambuco, Recife, 2005.
url https://repositorio.ufpe.br/handle/123456789/2772
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv Universidade Federal de Pernambuco
publisher.none.fl_str_mv Universidade Federal de Pernambuco
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFPE
instname:Universidade Federal de Pernambuco (UFPE)
instacron:UFPE
instname_str Universidade Federal de Pernambuco (UFPE)
instacron_str UFPE
institution UFPE
reponame_str Repositório Institucional da UFPE
collection Repositório Institucional da UFPE
bitstream.url.fl_str_mv https://repositorio.ufpe.br/bitstream/123456789/2772/1/arquivo7154_1.pdf
https://repositorio.ufpe.br/bitstream/123456789/2772/2/license.txt
https://repositorio.ufpe.br/bitstream/123456789/2772/3/arquivo7154_1.pdf.txt
https://repositorio.ufpe.br/bitstream/123456789/2772/4/arquivo7154_1.pdf.jpg
bitstream.checksum.fl_str_mv 1580b7b5979343826e4d0a3b88b57dac
8a4605be74aa9ea9d79846c1fba20a33
6e75bbc3e33f2b83c7df40279b6d705e
bd258ee0cf96d0f6ff31b5021f928b20
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)
repository.mail.fl_str_mv attena@ufpe.br
_version_ 1802310607157854208