Agrupamento de pixels e autofaces fracionário para reconhecimento de faces

Detalhes bibliográficos
Autor(a) principal: CARVALHO, Tiago Buarque Assunção de
Data de Publicação: 2015
Tipo de documento: Tese
Idioma: por
Título da fonte: Repositório Institucional da UFPE
Texto Completo: https://repositorio.ufpe.br/handle/123456789/15010
Resumo: Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas.
id UFPE_e592ce69d884331dd5cbb2ce1d9d5340
oai_identifier_str oai:repositorio.ufpe.br:123456789/15010
network_acronym_str UFPE
network_name_str Repositório Institucional da UFPE
repository_id_str 2221
spelling CARVALHO, Tiago Buarque Assunção dehttp://lattes.cnpq.br/7150833804013500http://lattes.cnpq.br/3084134533707587REN, Tsang IngCAVALCANTI, George Darmiton da Cunha2016-01-27T17:15:55Z2016-01-27T17:15:55Z2015-04-23https://repositorio.ufpe.br/handle/123456789/15010Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas.CAPESOne problem in face recognition is to identify who is the person shown in a photography. The digital representation of such photo, an image, has thousands of pixels, each pixel represent the light intensity of a tiny image region. The recognition problem is simpler if dozens of features are extracted to represent all the image. We propose two feature extraction frameworks for face recognition: Pixel Clustering and Fractional Eigenfaces. Feature extraction techniques are defined from each framework. Such techniques are applied similarly to the benchmark method Eigenfaces: they define linear projections of the face images. Each projection is an extracted feature, which encodes face visual properties. In the proposed Pixel Clustering framework, two methods are defined, Intensity-patches and Position-patches. Intensity-patches defines regions in the image that have similar intensity values. Position-patches defines regions according to neighborhood of pixels. In both methods, a single feature is extracted for each region. These methods have higher accuracy compared to other state-of-the-art for face recognition techniques. As demonstrated in experiments with artificial data, Intensity-patches is able to extract discriminant features even though it is an unsupervised method. Value-patches is also used for image compression and, compared to the JPEG compression, it generates images more similar to the original for high level compression. The second proposed framework is inspired in the Fractional PCA (FPCA) method, and the Eigenfaces method for face recognition. Three feature extraction techniques are proposed using this framework: Fractional Eigenfaces, Improved Fractional Eigenfaces, and Improved Eigenfaces. These methods presented higher accuracy rates in the face recognition problem compared to FPCA and Eigenfaces. An explanation for their performance is presented using a data visualization experiment: we show that the decision frontier is enlarged, and samples of the same class are approximated, avoiding class overlap.porUNIVERSIDADE FEDERAL DE PERNAMBUCOPrograma de Pos Graduacao em Ciencia da ComputacaoUFPEBrasilAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessInteligência artificialAprendizado do computadorAgrupamento de pixels e autofaces fracionário para reconhecimento de facesinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisdoutoradoreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPETHUMBNAILtbac-tese-biblioteca.pdf.jpgtbac-tese-biblioteca.pdf.jpgGenerated Thumbnailimage/jpeg1309https://repositorio.ufpe.br/bitstream/123456789/15010/5/tbac-tese-biblioteca.pdf.jpg052b5b5aac3149157bd49a1caa40b676MD55ORIGINALtbac-tese-biblioteca.pdftbac-tese-biblioteca.pdfapplication/pdf1708133https://repositorio.ufpe.br/bitstream/123456789/15010/1/tbac-tese-biblioteca.pdf358aacd6d090f9b7678979be16cc120eMD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81232https://repositorio.ufpe.br/bitstream/123456789/15010/2/license_rdf66e71c371cc565284e70f40736c94386MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82311https://repositorio.ufpe.br/bitstream/123456789/15010/3/license.txt4b8a02c7f2818eaf00dcf2260dd5eb08MD53TEXTtbac-tese-biblioteca.pdf.txttbac-tese-biblioteca.pdf.txtExtracted texttext/plain285094https://repositorio.ufpe.br/bitstream/123456789/15010/4/tbac-tese-biblioteca.pdf.txtbc755c9aae1d5eee81d43f56fd4043b4MD54123456789/150102019-10-25 21:31:40.565oai:repositorio.ufpe.br:123456789/15010TGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKClRvZG8gZGVwb3NpdGFudGUgZGUgbWF0ZXJpYWwgbm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgKFJJKSBkZXZlIGNvbmNlZGVyLCDDoCBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBQZXJuYW1idWNvIChVRlBFKSwgdW1hIExpY2Vuw6dhIGRlIERpc3RyaWJ1acOnw6NvIE7Do28gRXhjbHVzaXZhIHBhcmEgbWFudGVyIGUgdG9ybmFyIGFjZXNzw612ZWlzIG9zIHNldXMgZG9jdW1lbnRvcywgZW0gZm9ybWF0byBkaWdpdGFsLCBuZXN0ZSByZXBvc2l0w7NyaW8uCgpDb20gYSBjb25jZXNzw6NvIGRlc3RhIGxpY2Vuw6dhIG7Do28gZXhjbHVzaXZhLCBvIGRlcG9zaXRhbnRlIG1hbnTDqW0gdG9kb3Mgb3MgZGlyZWl0b3MgZGUgYXV0b3IuCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXwoKTGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKCkFvIGNvbmNvcmRhciBjb20gZXN0YSBsaWNlbsOnYSBlIGFjZWl0w6EtbGEsIHZvY8OqIChhdXRvciBvdSBkZXRlbnRvciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMpOgoKYSkgRGVjbGFyYSBxdWUgY29uaGVjZSBhIHBvbMOtdGljYSBkZSBjb3B5cmlnaHQgZGEgZWRpdG9yYSBkbyBzZXUgZG9jdW1lbnRvOwpiKSBEZWNsYXJhIHF1ZSBjb25oZWNlIGUgYWNlaXRhIGFzIERpcmV0cml6ZXMgcGFyYSBvIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIGRhIFVGUEU7CmMpIENvbmNlZGUgw6AgVUZQRSBvIGRpcmVpdG8gbsOjbyBleGNsdXNpdm8gZGUgYXJxdWl2YXIsIHJlcHJvZHV6aXIsIGNvbnZlcnRlciAoY29tbyBkZWZpbmlkbyBhIHNlZ3VpciksIGNvbXVuaWNhciBlL291IGRpc3RyaWJ1aXIsIG5vIFJJLCBvIGRvY3VtZW50byBlbnRyZWd1ZSAoaW5jbHVpbmRvIG8gcmVzdW1vL2Fic3RyYWN0KSBlbSBmb3JtYXRvIGRpZ2l0YWwgb3UgcG9yIG91dHJvIG1laW87CmQpIERlY2xhcmEgcXVlIGF1dG9yaXphIGEgVUZQRSBhIGFycXVpdmFyIG1haXMgZGUgdW1hIGPDs3BpYSBkZXN0ZSBkb2N1bWVudG8gZSBjb252ZXJ0w6otbG8sIHNlbSBhbHRlcmFyIG8gc2V1IGNvbnRlw7pkbywgcGFyYSBxdWFscXVlciBmb3JtYXRvIGRlIGZpY2hlaXJvLCBtZWlvIG91IHN1cG9ydGUsIHBhcmEgZWZlaXRvcyBkZSBzZWd1cmFuw6dhLCBwcmVzZXJ2YcOnw6NvIChiYWNrdXApIGUgYWNlc3NvOwplKSBEZWNsYXJhIHF1ZSBvIGRvY3VtZW50byBzdWJtZXRpZG8gw6kgbyBzZXUgdHJhYmFsaG8gb3JpZ2luYWwgZSBxdWUgZGV0w6ltIG8gZGlyZWl0byBkZSBjb25jZWRlciBhIHRlcmNlaXJvcyBvcyBkaXJlaXRvcyBjb250aWRvcyBuZXN0YSBsaWNlbsOnYS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBhIGVudHJlZ2EgZG8gZG9jdW1lbnRvIG7Do28gaW5mcmluZ2Ugb3MgZGlyZWl0b3MgZGUgb3V0cmEgcGVzc29hIG91IGVudGlkYWRlOwpmKSBEZWNsYXJhIHF1ZSwgbm8gY2FzbyBkbyBkb2N1bWVudG8gc3VibWV0aWRvIGNvbnRlciBtYXRlcmlhbCBkbyBxdWFsIG7Do28gZGV0w6ltIG9zIGRpcmVpdG9zIGRlCmF1dG9yLCBvYnRldmUgYSBhdXRvcml6YcOnw6NvIGlycmVzdHJpdGEgZG8gcmVzcGVjdGl2byBkZXRlbnRvciBkZXNzZXMgZGlyZWl0b3MgcGFyYSBjZWRlciDDoApVRlBFIG9zIGRpcmVpdG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgTGljZW7Dp2EgZSBhdXRvcml6YXIgYSB1bml2ZXJzaWRhZGUgYSB1dGlsaXrDoS1sb3MgbGVnYWxtZW50ZS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBlc3NlIG1hdGVyaWFsIGN1am9zIGRpcmVpdG9zIHPDo28gZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3UgY29udGXDumRvIGRvIGRvY3VtZW50byBlbnRyZWd1ZTsKZykgU2UgbyBkb2N1bWVudG8gZW50cmVndWUgw6kgYmFzZWFkbyBlbSB0cmFiYWxobyBmaW5hbmNpYWRvIG91IGFwb2lhZG8gcG9yIG91dHJhIGluc3RpdHVpw6fDo28gcXVlIG7Do28gYSBVRlBFLMKgZGVjbGFyYSBxdWUgY3VtcHJpdSBxdWFpc3F1ZXIgb2JyaWdhw6fDtWVzIGV4aWdpZGFzIHBlbG8gcmVzcGVjdGl2byBjb250cmF0byBvdSBhY29yZG8uCgpBIFVGUEUgaWRlbnRpZmljYXLDoSBjbGFyYW1lbnRlIG8ocykgbm9tZShzKSBkbyhzKSBhdXRvciAoZXMpIGRvcyBkaXJlaXRvcyBkbyBkb2N1bWVudG8gZW50cmVndWUgZSBuw6NvIGZhcsOhIHF1YWxxdWVyIGFsdGVyYcOnw6NvLCBwYXJhIGFsw6ltIGRvIHByZXZpc3RvIG5hIGFsw61uZWEgYykuCg==Repositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212019-10-26T00:31:40Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false
dc.title.pt_BR.fl_str_mv Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
title Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
spellingShingle Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
CARVALHO, Tiago Buarque Assunção de
Inteligência artificial
Aprendizado do computador
title_short Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
title_full Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
title_fullStr Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
title_full_unstemmed Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
title_sort Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
author CARVALHO, Tiago Buarque Assunção de
author_facet CARVALHO, Tiago Buarque Assunção de
author_role author
dc.contributor.authorLattes.pt_BR.fl_str_mv http://lattes.cnpq.br/7150833804013500
dc.contributor.advisorLattes.pt_BR.fl_str_mv http://lattes.cnpq.br/3084134533707587
dc.contributor.author.fl_str_mv CARVALHO, Tiago Buarque Assunção de
dc.contributor.advisor1.fl_str_mv REN, Tsang Ing
dc.contributor.advisor-co1.fl_str_mv CAVALCANTI, George Darmiton da Cunha
contributor_str_mv REN, Tsang Ing
CAVALCANTI, George Darmiton da Cunha
dc.subject.por.fl_str_mv Inteligência artificial
Aprendizado do computador
topic Inteligência artificial
Aprendizado do computador
description Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas.
publishDate 2015
dc.date.issued.fl_str_mv 2015-04-23
dc.date.accessioned.fl_str_mv 2016-01-27T17:15:55Z
dc.date.available.fl_str_mv 2016-01-27T17:15:55Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/doctoralThesis
format doctoralThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv https://repositorio.ufpe.br/handle/123456789/15010
url https://repositorio.ufpe.br/handle/123456789/15010
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
info:eu-repo/semantics/openAccess
rights_invalid_str_mv Attribution-NonCommercial-NoDerivs 3.0 Brazil
http://creativecommons.org/licenses/by-nc-nd/3.0/br/
eu_rights_str_mv openAccess
dc.publisher.none.fl_str_mv UNIVERSIDADE FEDERAL DE PERNAMBUCO
dc.publisher.program.fl_str_mv Programa de Pos Graduacao em Ciencia da Computacao
dc.publisher.initials.fl_str_mv UFPE
dc.publisher.country.fl_str_mv Brasil
publisher.none.fl_str_mv UNIVERSIDADE FEDERAL DE PERNAMBUCO
dc.source.none.fl_str_mv reponame:Repositório Institucional da UFPE
instname:Universidade Federal de Pernambuco (UFPE)
instacron:UFPE
instname_str Universidade Federal de Pernambuco (UFPE)
instacron_str UFPE
institution UFPE
reponame_str Repositório Institucional da UFPE
collection Repositório Institucional da UFPE
bitstream.url.fl_str_mv https://repositorio.ufpe.br/bitstream/123456789/15010/5/tbac-tese-biblioteca.pdf.jpg
https://repositorio.ufpe.br/bitstream/123456789/15010/1/tbac-tese-biblioteca.pdf
https://repositorio.ufpe.br/bitstream/123456789/15010/2/license_rdf
https://repositorio.ufpe.br/bitstream/123456789/15010/3/license.txt
https://repositorio.ufpe.br/bitstream/123456789/15010/4/tbac-tese-biblioteca.pdf.txt
bitstream.checksum.fl_str_mv 052b5b5aac3149157bd49a1caa40b676
358aacd6d090f9b7678979be16cc120e
66e71c371cc565284e70f40736c94386
4b8a02c7f2818eaf00dcf2260dd5eb08
bc755c9aae1d5eee81d43f56fd4043b4
bitstream.checksumAlgorithm.fl_str_mv MD5
MD5
MD5
MD5
MD5
repository.name.fl_str_mv Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)
repository.mail.fl_str_mv attena@ufpe.br
_version_ 1802310693187223552