Utilizando contexto na representação de imagens para a classificação de cenas
Autor(a) principal: | |
---|---|
Data de Publicação: | 2014 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) |
Texto Completo: | http://repositorio.ufes.br/handle/10/1626 |
Resumo: | Scene classification is a very popular topic in the field of computer vision and it has many applications, such as, content-based image organization and retrieval and robot navigation.However, scene classification is quite a challenging task, due to the occurrence of occlusion, shadows and reflections, illumination changes and scale variability. Among the approaches to solve the scene classification problems are those that use nonparametric transform and those that improve classification results by using contextual information. Thus, this work proposes two image descriptors that associate contextual information, from neighboring regions, with a non-parametric transforms. The aim is to propose an approach that does not increase excessively the feature vector dimension and that does not use the bag-of-feature method. In this way, the proposals descrease the computational costs and eliminate the dependence parameters, which allows the use of those descriptors in applications for non-experts in the pattern recognition field. The CMCT and ECMCT descriptors are presented and their performances are evaluated, using four public datasets. Five variations of those descriptors are also proposed (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtained through their association with other approaches. The results achieved on four public datasets show that the proposed image representations are competitive and lead to an increase in the classification rates when compared to others descriptors. |
id |
UFES_6c0d420365f5eafc791f39e9ba5318d9 |
---|---|
oai_identifier_str |
oai:repositorio.ufes.br:10/1626 |
network_acronym_str |
UFES |
network_name_str |
Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) |
repository_id_str |
2108 |
spelling |
Salles, Evandro Ottoni TeatiniGazolli, Kelly Assis de SouzaConci, AuraRauber, Thomas WalterVassallo, Raquel FrizeraCiarelli, Patrick Marques2015-11-23T19:25:43Z2016-06-24T06:00:08Z2014-06-272014-06-27Scene classification is a very popular topic in the field of computer vision and it has many applications, such as, content-based image organization and retrieval and robot navigation.However, scene classification is quite a challenging task, due to the occurrence of occlusion, shadows and reflections, illumination changes and scale variability. Among the approaches to solve the scene classification problems are those that use nonparametric transform and those that improve classification results by using contextual information. Thus, this work proposes two image descriptors that associate contextual information, from neighboring regions, with a non-parametric transforms. The aim is to propose an approach that does not increase excessively the feature vector dimension and that does not use the bag-of-feature method. In this way, the proposals descrease the computational costs and eliminate the dependence parameters, which allows the use of those descriptors in applications for non-experts in the pattern recognition field. The CMCT and ECMCT descriptors are presented and their performances are evaluated, using four public datasets. Five variations of those descriptors are also proposed (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtained through their association with other approaches. The results achieved on four public datasets show that the proposed image representations are competitive and lead to an increase in the classification rates when compared to others descriptors.A classificação de cenas é um campo bastante popular na área de visão computacional e encontra diversas aplicações tais como: organização e recuperação de imagem baseada em conteúdo, localização e navegação de robôs. No entanto, a classificação automática de cenas é uma tarefa desafiadora devido a diversos fatores, tais como, ocorrência de oclusão, sombras, reflexões e variações nas condições de iluminação e escala. Dentre os trabalhos que objetivam solucionar o problema da classificação automática de cenas, estão aqueles que utilizam transformadas não-paramétricas e aqueles que têm obtido melhora no desempenho de classificação através da exploração da informação contextual. Desse modo, esse trabalho propõe dois descritores de imagens que associam informação contextual, ou seja, informação advinda de regiões vizinhas, a um tipo de transformada não-paramétrica. O objetivo é propor uma abordagem que não eleve demasiadamente a dimensão do vetor de características e que não utilize a técnica de representação intermediária bag-of-features, diminuindo, assim, o custo computacional e extinguindo a necessidade de informação de parâmetros, o que possibilita a sua utilização por usuários que não possuem conhecimento na área de reconhecimento de padrões. Assim, são propostos os descritores CMCT (Transformada Census Modificada Contextual) e ECMCT (CMCT Estendido) e seus desempenhos são avaliados em quatro bases de dados públicas. São propostas também cinco variações destes descritores (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtidas através da associação de cada um deles com outros descritores. Os resultados obtidos nas quatro bases de dados mostram que as representações propostas são competitivas, e que provocam um aumento nas taxas de classificação, quando comparados com outros descritores.Texthttp://repositorio.ufes.br/handle/10/1626porUniversidade Federal do Espírito SantoDoutorado em Engenharia ElétricaPrograma de Pós-Graduação em Engenharia ElétricaUFESBRCentro TecnológicoClassificação de cenasTransformadas não-paramétricasProcessamento de imagensVisão por computadorSistemas de reconhecimento de padrõesEletrônica Industrial, Sistemas e Controles Eletrônicos621.3Utilizando contexto na representação de imagens para a classificação de cenasinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da Universidade Federal do Espírito Santo (riUfes)instname:Universidade Federal do Espírito Santo (UFES)instacron:UFESORIGINALUtilizando Contexto na Representa¸c˜ao de Imagens para a.pdfUtilizando Contexto na Representa¸c˜ao de Imagens para a.pdfapplication/pdf4083803http://repositorio.ufes.br/bitstreams/d1c15e9d-e931-43cb-89dd-7d5025482658/downloade0ced4975f7eee5db5316f7e096db639MD51CC-LICENSElicense_urllicense_urltext/plain; charset=utf-849http://repositorio.ufes.br/bitstreams/dfbfd652-c664-4bfd-bc70-2934f1951d68/download4afdbb8c545fd630ea7db775da747b2fMD52license_textlicense_texttext/html; charset=utf-821328http://repositorio.ufes.br/bitstreams/d440c0c8-9755-42fb-bfe1-6f76ae992ba5/download683d9883b2ad62ac3b8bafc566b2e600MD53license_rdflicense_rdfapplication/rdf+xml; charset=utf-823148http://repositorio.ufes.br/bitstreams/92f86bbc-505f-45c7-add4-d6f6a796fa2b/download9da0b6dfac957114c6a7714714b86306MD54LICENSElicense.txtlicense.txttext/plain; charset=utf-81748http://repositorio.ufes.br/bitstreams/c91784e8-27f9-464f-912b-7f246fb37c85/download8a4605be74aa9ea9d79846c1fba20a33MD5510/16262024-07-17 16:55:26.576oai:repositorio.ufes.br:10/1626http://repositorio.ufes.brRepositório InstitucionalPUBhttp://repositorio.ufes.br/oai/requestopendoar:21082024-10-15T18:01:45.273999Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) - Universidade Federal do Espírito Santo (UFES)falseTk9URTogUExBQ0UgWU9VUiBPV04gTElDRU5TRSBIRVJFClRoaXMgc2FtcGxlIGxpY2Vuc2UgaXMgcHJvdmlkZWQgZm9yIGluZm9ybWF0aW9uYWwgcHVycG9zZXMgb25seS4KCk5PTi1FWENMVVNJVkUgRElTVFJJQlVUSU9OIExJQ0VOU0UKCkJ5IHNpZ25pbmcgYW5kIHN1Ym1pdHRpbmcgdGhpcyBsaWNlbnNlLCB5b3UgKHRoZSBhdXRob3Iocykgb3IgY29weXJpZ2h0Cm93bmVyKSBncmFudHMgdG8gRFNwYWNlIFVuaXZlcnNpdHkgKERTVSkgdGhlIG5vbi1leGNsdXNpdmUgcmlnaHQgdG8gcmVwcm9kdWNlLAp0cmFuc2xhdGUgKGFzIGRlZmluZWQgYmVsb3cpLCBhbmQvb3IgZGlzdHJpYnV0ZSB5b3VyIHN1Ym1pc3Npb24gKGluY2x1ZGluZwp0aGUgYWJzdHJhY3QpIHdvcmxkd2lkZSBpbiBwcmludCBhbmQgZWxlY3Ryb25pYyBmb3JtYXQgYW5kIGluIGFueSBtZWRpdW0sCmluY2x1ZGluZyBidXQgbm90IGxpbWl0ZWQgdG8gYXVkaW8gb3IgdmlkZW8uCgpZb3UgYWdyZWUgdGhhdCBEU1UgbWF5LCB3aXRob3V0IGNoYW5naW5nIHRoZSBjb250ZW50LCB0cmFuc2xhdGUgdGhlCnN1Ym1pc3Npb24gdG8gYW55IG1lZGl1bSBvciBmb3JtYXQgZm9yIHRoZSBwdXJwb3NlIG9mIHByZXNlcnZhdGlvbi4KCllvdSBhbHNvIGFncmVlIHRoYXQgRFNVIG1heSBrZWVwIG1vcmUgdGhhbiBvbmUgY29weSBvZiB0aGlzIHN1Ym1pc3Npb24gZm9yCnB1cnBvc2VzIG9mIHNlY3VyaXR5LCBiYWNrLXVwIGFuZCBwcmVzZXJ2YXRpb24uCgpZb3UgcmVwcmVzZW50IHRoYXQgdGhlIHN1Ym1pc3Npb24gaXMgeW91ciBvcmlnaW5hbCB3b3JrLCBhbmQgdGhhdCB5b3UgaGF2ZQp0aGUgcmlnaHQgdG8gZ3JhbnQgdGhlIHJpZ2h0cyBjb250YWluZWQgaW4gdGhpcyBsaWNlbnNlLiBZb3UgYWxzbyByZXByZXNlbnQKdGhhdCB5b3VyIHN1Ym1pc3Npb24gZG9lcyBub3QsIHRvIHRoZSBiZXN0IG9mIHlvdXIga25vd2xlZGdlLCBpbmZyaW5nZSB1cG9uCmFueW9uZSdzIGNvcHlyaWdodC4KCklmIHRoZSBzdWJtaXNzaW9uIGNvbnRhaW5zIG1hdGVyaWFsIGZvciB3aGljaCB5b3UgZG8gbm90IGhvbGQgY29weXJpZ2h0LAp5b3UgcmVwcmVzZW50IHRoYXQgeW91IGhhdmUgb2J0YWluZWQgdGhlIHVucmVzdHJpY3RlZCBwZXJtaXNzaW9uIG9mIHRoZQpjb3B5cmlnaHQgb3duZXIgdG8gZ3JhbnQgRFNVIHRoZSByaWdodHMgcmVxdWlyZWQgYnkgdGhpcyBsaWNlbnNlLCBhbmQgdGhhdApzdWNoIHRoaXJkLXBhcnR5IG93bmVkIG1hdGVyaWFsIGlzIGNsZWFybHkgaWRlbnRpZmllZCBhbmQgYWNrbm93bGVkZ2VkCndpdGhpbiB0aGUgdGV4dCBvciBjb250ZW50IG9mIHRoZSBzdWJtaXNzaW9uLgoKSUYgVEhFIFNVQk1JU1NJT04gSVMgQkFTRUQgVVBPTiBXT1JLIFRIQVQgSEFTIEJFRU4gU1BPTlNPUkVEIE9SIFNVUFBPUlRFRApCWSBBTiBBR0VOQ1kgT1IgT1JHQU5JWkFUSU9OIE9USEVSIFRIQU4gRFNVLCBZT1UgUkVQUkVTRU5UIFRIQVQgWU9VIEhBVkUKRlVMRklMTEVEIEFOWSBSSUdIVCBPRiBSRVZJRVcgT1IgT1RIRVIgT0JMSUdBVElPTlMgUkVRVUlSRUQgQlkgU1VDSApDT05UUkFDVCBPUiBBR1JFRU1FTlQuCgpEU1Ugd2lsbCBjbGVhcmx5IGlkZW50aWZ5IHlvdXIgbmFtZShzKSBhcyB0aGUgYXV0aG9yKHMpIG9yIG93bmVyKHMpIG9mIHRoZQpzdWJtaXNzaW9uLCBhbmQgd2lsbCBub3QgbWFrZSBhbnkgYWx0ZXJhdGlvbiwgb3RoZXIgdGhhbiBhcyBhbGxvd2VkIGJ5IHRoaXMKbGljZW5zZSwgdG8geW91ciBzdWJtaXNzaW9uLgo= |
dc.title.none.fl_str_mv |
Utilizando contexto na representação de imagens para a classificação de cenas |
title |
Utilizando contexto na representação de imagens para a classificação de cenas |
spellingShingle |
Utilizando contexto na representação de imagens para a classificação de cenas Gazolli, Kelly Assis de Souza Classificação de cenas Transformadas não-paramétricas Eletrônica Industrial, Sistemas e Controles Eletrônicos Processamento de imagens Visão por computador Sistemas de reconhecimento de padrões 621.3 |
title_short |
Utilizando contexto na representação de imagens para a classificação de cenas |
title_full |
Utilizando contexto na representação de imagens para a classificação de cenas |
title_fullStr |
Utilizando contexto na representação de imagens para a classificação de cenas |
title_full_unstemmed |
Utilizando contexto na representação de imagens para a classificação de cenas |
title_sort |
Utilizando contexto na representação de imagens para a classificação de cenas |
author |
Gazolli, Kelly Assis de Souza |
author_facet |
Gazolli, Kelly Assis de Souza |
author_role |
author |
dc.contributor.advisor1.fl_str_mv |
Salles, Evandro Ottoni Teatini |
dc.contributor.author.fl_str_mv |
Gazolli, Kelly Assis de Souza |
dc.contributor.referee1.fl_str_mv |
Conci, Aura |
dc.contributor.referee2.fl_str_mv |
Rauber, Thomas Walter |
dc.contributor.referee3.fl_str_mv |
Vassallo, Raquel Frizera |
dc.contributor.referee4.fl_str_mv |
Ciarelli, Patrick Marques |
contributor_str_mv |
Salles, Evandro Ottoni Teatini Conci, Aura Rauber, Thomas Walter Vassallo, Raquel Frizera Ciarelli, Patrick Marques |
dc.subject.por.fl_str_mv |
Classificação de cenas Transformadas não-paramétricas |
topic |
Classificação de cenas Transformadas não-paramétricas Eletrônica Industrial, Sistemas e Controles Eletrônicos Processamento de imagens Visão por computador Sistemas de reconhecimento de padrões 621.3 |
dc.subject.cnpq.fl_str_mv |
Eletrônica Industrial, Sistemas e Controles Eletrônicos |
dc.subject.br-rjbn.none.fl_str_mv |
Processamento de imagens Visão por computador Sistemas de reconhecimento de padrões |
dc.subject.udc.none.fl_str_mv |
621.3 |
description |
Scene classification is a very popular topic in the field of computer vision and it has many applications, such as, content-based image organization and retrieval and robot navigation.However, scene classification is quite a challenging task, due to the occurrence of occlusion, shadows and reflections, illumination changes and scale variability. Among the approaches to solve the scene classification problems are those that use nonparametric transform and those that improve classification results by using contextual information. Thus, this work proposes two image descriptors that associate contextual information, from neighboring regions, with a non-parametric transforms. The aim is to propose an approach that does not increase excessively the feature vector dimension and that does not use the bag-of-feature method. In this way, the proposals descrease the computational costs and eliminate the dependence parameters, which allows the use of those descriptors in applications for non-experts in the pattern recognition field. The CMCT and ECMCT descriptors are presented and their performances are evaluated, using four public datasets. Five variations of those descriptors are also proposed (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtained through their association with other approaches. The results achieved on four public datasets show that the proposed image representations are competitive and lead to an increase in the classification rates when compared to others descriptors. |
publishDate |
2014 |
dc.date.submitted.none.fl_str_mv |
2014-06-27 |
dc.date.issued.fl_str_mv |
2014-06-27 |
dc.date.accessioned.fl_str_mv |
2015-11-23T19:25:43Z |
dc.date.available.fl_str_mv |
2016-06-24T06:00:08Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://repositorio.ufes.br/handle/10/1626 |
url |
http://repositorio.ufes.br/handle/10/1626 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
Text |
dc.publisher.none.fl_str_mv |
Universidade Federal do Espírito Santo Doutorado em Engenharia Elétrica |
dc.publisher.program.fl_str_mv |
Programa de Pós-Graduação em Engenharia Elétrica |
dc.publisher.initials.fl_str_mv |
UFES |
dc.publisher.country.fl_str_mv |
BR |
dc.publisher.department.fl_str_mv |
Centro Tecnológico |
publisher.none.fl_str_mv |
Universidade Federal do Espírito Santo Doutorado em Engenharia Elétrica |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) instname:Universidade Federal do Espírito Santo (UFES) instacron:UFES |
instname_str |
Universidade Federal do Espírito Santo (UFES) |
instacron_str |
UFES |
institution |
UFES |
reponame_str |
Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) |
collection |
Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) |
bitstream.url.fl_str_mv |
http://repositorio.ufes.br/bitstreams/d1c15e9d-e931-43cb-89dd-7d5025482658/download http://repositorio.ufes.br/bitstreams/dfbfd652-c664-4bfd-bc70-2934f1951d68/download http://repositorio.ufes.br/bitstreams/d440c0c8-9755-42fb-bfe1-6f76ae992ba5/download http://repositorio.ufes.br/bitstreams/92f86bbc-505f-45c7-add4-d6f6a796fa2b/download http://repositorio.ufes.br/bitstreams/c91784e8-27f9-464f-912b-7f246fb37c85/download |
bitstream.checksum.fl_str_mv |
e0ced4975f7eee5db5316f7e096db639 4afdbb8c545fd630ea7db775da747b2f 683d9883b2ad62ac3b8bafc566b2e600 9da0b6dfac957114c6a7714714b86306 8a4605be74aa9ea9d79846c1fba20a33 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da Universidade Federal do Espírito Santo (riUfes) - Universidade Federal do Espírito Santo (UFES) |
repository.mail.fl_str_mv |
|
_version_ |
1813022573322043392 |