Agrupamento de pixels e autofaces fracionário para reconhecimento de faces
Autor(a) principal: | |
---|---|
Data de Publicação: | 2015 |
Tipo de documento: | Tese |
Idioma: | por |
Título da fonte: | Repositório Institucional da UFPE |
dARK ID: | ark:/64986/001300000cjn4 |
Texto Completo: | https://repositorio.ufpe.br/handle/123456789/15010 |
Resumo: | Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas. |
id |
UFPE_e592ce69d884331dd5cbb2ce1d9d5340 |
---|---|
oai_identifier_str |
oai:repositorio.ufpe.br:123456789/15010 |
network_acronym_str |
UFPE |
network_name_str |
Repositório Institucional da UFPE |
repository_id_str |
2221 |
spelling |
CARVALHO, Tiago Buarque Assunção dehttp://lattes.cnpq.br/7150833804013500http://lattes.cnpq.br/3084134533707587REN, Tsang IngCAVALCANTI, George Darmiton da Cunha2016-01-27T17:15:55Z2016-01-27T17:15:55Z2015-04-23https://repositorio.ufpe.br/handle/123456789/15010ark:/64986/001300000cjn4Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas.CAPESOne problem in face recognition is to identify who is the person shown in a photography. The digital representation of such photo, an image, has thousands of pixels, each pixel represent the light intensity of a tiny image region. The recognition problem is simpler if dozens of features are extracted to represent all the image. We propose two feature extraction frameworks for face recognition: Pixel Clustering and Fractional Eigenfaces. Feature extraction techniques are defined from each framework. Such techniques are applied similarly to the benchmark method Eigenfaces: they define linear projections of the face images. Each projection is an extracted feature, which encodes face visual properties. In the proposed Pixel Clustering framework, two methods are defined, Intensity-patches and Position-patches. Intensity-patches defines regions in the image that have similar intensity values. Position-patches defines regions according to neighborhood of pixels. In both methods, a single feature is extracted for each region. These methods have higher accuracy compared to other state-of-the-art for face recognition techniques. As demonstrated in experiments with artificial data, Intensity-patches is able to extract discriminant features even though it is an unsupervised method. Value-patches is also used for image compression and, compared to the JPEG compression, it generates images more similar to the original for high level compression. The second proposed framework is inspired in the Fractional PCA (FPCA) method, and the Eigenfaces method for face recognition. Three feature extraction techniques are proposed using this framework: Fractional Eigenfaces, Improved Fractional Eigenfaces, and Improved Eigenfaces. These methods presented higher accuracy rates in the face recognition problem compared to FPCA and Eigenfaces. An explanation for their performance is presented using a data visualization experiment: we show that the decision frontier is enlarged, and samples of the same class are approximated, avoiding class overlap.porUNIVERSIDADE FEDERAL DE PERNAMBUCOPrograma de Pos Graduacao em Ciencia da ComputacaoUFPEBrasilAttribution-NonCommercial-NoDerivs 3.0 Brazilhttp://creativecommons.org/licenses/by-nc-nd/3.0/br/info:eu-repo/semantics/openAccessInteligência artificialAprendizado do computadorAgrupamento de pixels e autofaces fracionário para reconhecimento de facesinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/doctoralThesisdoutoradoreponame:Repositório Institucional da UFPEinstname:Universidade Federal de Pernambuco (UFPE)instacron:UFPETHUMBNAILtbac-tese-biblioteca.pdf.jpgtbac-tese-biblioteca.pdf.jpgGenerated Thumbnailimage/jpeg1309https://repositorio.ufpe.br/bitstream/123456789/15010/5/tbac-tese-biblioteca.pdf.jpg052b5b5aac3149157bd49a1caa40b676MD55ORIGINALtbac-tese-biblioteca.pdftbac-tese-biblioteca.pdfapplication/pdf1708133https://repositorio.ufpe.br/bitstream/123456789/15010/1/tbac-tese-biblioteca.pdf358aacd6d090f9b7678979be16cc120eMD51CC-LICENSElicense_rdflicense_rdfapplication/rdf+xml; charset=utf-81232https://repositorio.ufpe.br/bitstream/123456789/15010/2/license_rdf66e71c371cc565284e70f40736c94386MD52LICENSElicense.txtlicense.txttext/plain; charset=utf-82311https://repositorio.ufpe.br/bitstream/123456789/15010/3/license.txt4b8a02c7f2818eaf00dcf2260dd5eb08MD53TEXTtbac-tese-biblioteca.pdf.txttbac-tese-biblioteca.pdf.txtExtracted texttext/plain285094https://repositorio.ufpe.br/bitstream/123456789/15010/4/tbac-tese-biblioteca.pdf.txtbc755c9aae1d5eee81d43f56fd4043b4MD54123456789/150102019-10-25 21:31:40.565oai:repositorio.ufpe.br:123456789/15010TGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKClRvZG8gZGVwb3NpdGFudGUgZGUgbWF0ZXJpYWwgbm8gUmVwb3NpdMOzcmlvIEluc3RpdHVjaW9uYWwgKFJJKSBkZXZlIGNvbmNlZGVyLCDDoCBVbml2ZXJzaWRhZGUgRmVkZXJhbCBkZSBQZXJuYW1idWNvIChVRlBFKSwgdW1hIExpY2Vuw6dhIGRlIERpc3RyaWJ1acOnw6NvIE7Do28gRXhjbHVzaXZhIHBhcmEgbWFudGVyIGUgdG9ybmFyIGFjZXNzw612ZWlzIG9zIHNldXMgZG9jdW1lbnRvcywgZW0gZm9ybWF0byBkaWdpdGFsLCBuZXN0ZSByZXBvc2l0w7NyaW8uCgpDb20gYSBjb25jZXNzw6NvIGRlc3RhIGxpY2Vuw6dhIG7Do28gZXhjbHVzaXZhLCBvIGRlcG9zaXRhbnRlIG1hbnTDqW0gdG9kb3Mgb3MgZGlyZWl0b3MgZGUgYXV0b3IuCl9fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fX19fXwoKTGljZW7Dp2EgZGUgRGlzdHJpYnVpw6fDo28gTsOjbyBFeGNsdXNpdmEKCkFvIGNvbmNvcmRhciBjb20gZXN0YSBsaWNlbsOnYSBlIGFjZWl0w6EtbGEsIHZvY8OqIChhdXRvciBvdSBkZXRlbnRvciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMpOgoKYSkgRGVjbGFyYSBxdWUgY29uaGVjZSBhIHBvbMOtdGljYSBkZSBjb3B5cmlnaHQgZGEgZWRpdG9yYSBkbyBzZXUgZG9jdW1lbnRvOwpiKSBEZWNsYXJhIHF1ZSBjb25oZWNlIGUgYWNlaXRhIGFzIERpcmV0cml6ZXMgcGFyYSBvIFJlcG9zaXTDs3JpbyBJbnN0aXR1Y2lvbmFsIGRhIFVGUEU7CmMpIENvbmNlZGUgw6AgVUZQRSBvIGRpcmVpdG8gbsOjbyBleGNsdXNpdm8gZGUgYXJxdWl2YXIsIHJlcHJvZHV6aXIsIGNvbnZlcnRlciAoY29tbyBkZWZpbmlkbyBhIHNlZ3VpciksIGNvbXVuaWNhciBlL291IGRpc3RyaWJ1aXIsIG5vIFJJLCBvIGRvY3VtZW50byBlbnRyZWd1ZSAoaW5jbHVpbmRvIG8gcmVzdW1vL2Fic3RyYWN0KSBlbSBmb3JtYXRvIGRpZ2l0YWwgb3UgcG9yIG91dHJvIG1laW87CmQpIERlY2xhcmEgcXVlIGF1dG9yaXphIGEgVUZQRSBhIGFycXVpdmFyIG1haXMgZGUgdW1hIGPDs3BpYSBkZXN0ZSBkb2N1bWVudG8gZSBjb252ZXJ0w6otbG8sIHNlbSBhbHRlcmFyIG8gc2V1IGNvbnRlw7pkbywgcGFyYSBxdWFscXVlciBmb3JtYXRvIGRlIGZpY2hlaXJvLCBtZWlvIG91IHN1cG9ydGUsIHBhcmEgZWZlaXRvcyBkZSBzZWd1cmFuw6dhLCBwcmVzZXJ2YcOnw6NvIChiYWNrdXApIGUgYWNlc3NvOwplKSBEZWNsYXJhIHF1ZSBvIGRvY3VtZW50byBzdWJtZXRpZG8gw6kgbyBzZXUgdHJhYmFsaG8gb3JpZ2luYWwgZSBxdWUgZGV0w6ltIG8gZGlyZWl0byBkZSBjb25jZWRlciBhIHRlcmNlaXJvcyBvcyBkaXJlaXRvcyBjb250aWRvcyBuZXN0YSBsaWNlbsOnYS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBhIGVudHJlZ2EgZG8gZG9jdW1lbnRvIG7Do28gaW5mcmluZ2Ugb3MgZGlyZWl0b3MgZGUgb3V0cmEgcGVzc29hIG91IGVudGlkYWRlOwpmKSBEZWNsYXJhIHF1ZSwgbm8gY2FzbyBkbyBkb2N1bWVudG8gc3VibWV0aWRvIGNvbnRlciBtYXRlcmlhbCBkbyBxdWFsIG7Do28gZGV0w6ltIG9zIGRpcmVpdG9zIGRlCmF1dG9yLCBvYnRldmUgYSBhdXRvcml6YcOnw6NvIGlycmVzdHJpdGEgZG8gcmVzcGVjdGl2byBkZXRlbnRvciBkZXNzZXMgZGlyZWl0b3MgcGFyYSBjZWRlciDDoApVRlBFIG9zIGRpcmVpdG9zIHJlcXVlcmlkb3MgcG9yIGVzdGEgTGljZW7Dp2EgZSBhdXRvcml6YXIgYSB1bml2ZXJzaWRhZGUgYSB1dGlsaXrDoS1sb3MgbGVnYWxtZW50ZS4gRGVjbGFyYSB0YW1iw6ltIHF1ZSBlc3NlIG1hdGVyaWFsIGN1am9zIGRpcmVpdG9zIHPDo28gZGUgdGVyY2Vpcm9zIGVzdMOhIGNsYXJhbWVudGUgaWRlbnRpZmljYWRvIGUgcmVjb25oZWNpZG8gbm8gdGV4dG8gb3UgY29udGXDumRvIGRvIGRvY3VtZW50byBlbnRyZWd1ZTsKZykgU2UgbyBkb2N1bWVudG8gZW50cmVndWUgw6kgYmFzZWFkbyBlbSB0cmFiYWxobyBmaW5hbmNpYWRvIG91IGFwb2lhZG8gcG9yIG91dHJhIGluc3RpdHVpw6fDo28gcXVlIG7Do28gYSBVRlBFLMKgZGVjbGFyYSBxdWUgY3VtcHJpdSBxdWFpc3F1ZXIgb2JyaWdhw6fDtWVzIGV4aWdpZGFzIHBlbG8gcmVzcGVjdGl2byBjb250cmF0byBvdSBhY29yZG8uCgpBIFVGUEUgaWRlbnRpZmljYXLDoSBjbGFyYW1lbnRlIG8ocykgbm9tZShzKSBkbyhzKSBhdXRvciAoZXMpIGRvcyBkaXJlaXRvcyBkbyBkb2N1bWVudG8gZW50cmVndWUgZSBuw6NvIGZhcsOhIHF1YWxxdWVyIGFsdGVyYcOnw6NvLCBwYXJhIGFsw6ltIGRvIHByZXZpc3RvIG5hIGFsw61uZWEgYykuCg==Repositório InstitucionalPUBhttps://repositorio.ufpe.br/oai/requestattena@ufpe.bropendoar:22212019-10-26T00:31:40Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE)false |
dc.title.pt_BR.fl_str_mv |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
title |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
spellingShingle |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces CARVALHO, Tiago Buarque Assunção de Inteligência artificial Aprendizado do computador |
title_short |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
title_full |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
title_fullStr |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
title_full_unstemmed |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
title_sort |
Agrupamento de pixels e autofaces fracionário para reconhecimento de faces |
author |
CARVALHO, Tiago Buarque Assunção de |
author_facet |
CARVALHO, Tiago Buarque Assunção de |
author_role |
author |
dc.contributor.authorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/7150833804013500 |
dc.contributor.advisorLattes.pt_BR.fl_str_mv |
http://lattes.cnpq.br/3084134533707587 |
dc.contributor.author.fl_str_mv |
CARVALHO, Tiago Buarque Assunção de |
dc.contributor.advisor1.fl_str_mv |
REN, Tsang Ing |
dc.contributor.advisor-co1.fl_str_mv |
CAVALCANTI, George Darmiton da Cunha |
contributor_str_mv |
REN, Tsang Ing CAVALCANTI, George Darmiton da Cunha |
dc.subject.por.fl_str_mv |
Inteligência artificial Aprendizado do computador |
topic |
Inteligência artificial Aprendizado do computador |
description |
Um dos problemas de reconhecimento de faces consiste em identificar quem é a pessoa cuja imagem do rosto está em uma fotografia. A representação digital desta imagem contém milhares de pixels, cada um representando a intensidade de iluminação de uma minúscula região da imagem. O problema de reconhecimento pode ser simplificado se forem extraídas poucas dezenas de características para representar toda a imagem. Neste trabalho são propostas duas metodologias de extração de características. Uma destas metodologias chama-se Agrupamento de Pixels e a outra Autofaces Fracionárias. A partir de cada uma destas metodologias são propostas técnicas de extração de características. Tais técnicas têm a mesma aplicação que a técnica de referência Autofaces (Eigenfaces): geram projeções lineares das imagens de face. Cada uma dessas projeções é dita uma característica extraída, a qual contém informações sobre propriedades visuais da imagem de face. Com a primeira metodologia proposta, Agrupamento de Pixels, são definidas duas técnicas de extração de características, Pedaçospor- valor e Pedaços-por-posição. Pedaços-por-valor define regiões da face com intensidade similar. Pedaços-por-posição define regiões por relações de vizinhança. Em ambos os métodos é extraída uma característica para cada região. Estas técnicas obtiveram taxa de reconhecimento superior a outros métodos no estado da arte. Foi demonstrado com um experimento com dados artificiais que esta técnica é capaz de extrair características discriminantes mesmo sendo uma técnica não-supervisionada. Pedaços-por-valor também é avaliada na aplicação de compressão de imagens. Demonstra-se que esta representação é mais fiel ao original do que a compressão JPEG se comprimida ao máximo. A segunda metodologia proposta também é não-supervisionada. Inspira-se em Autofaces e na técnica no estado da arte PCA Fracionário. Com esta metodologia são definidas três técnicas de extração de características. Experimentos mostram que estas técnicas extraem características que levam a uma taxa de reconhecimento maior do que as técnicas das quais são derivadas. Um experimento em visualização de dados propõe uma explicação para as vantagens destas técnicas: aumentam a fronteira de decisão; e aproximam os exemplos da mesma classe, diminuindo a sobreposição entre classes distintas. |
publishDate |
2015 |
dc.date.issued.fl_str_mv |
2015-04-23 |
dc.date.accessioned.fl_str_mv |
2016-01-27T17:15:55Z |
dc.date.available.fl_str_mv |
2016-01-27T17:15:55Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/doctoralThesis |
format |
doctoralThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
https://repositorio.ufpe.br/handle/123456789/15010 |
dc.identifier.dark.fl_str_mv |
ark:/64986/001300000cjn4 |
url |
https://repositorio.ufpe.br/handle/123456789/15010 |
identifier_str_mv |
ark:/64986/001300000cjn4 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
Attribution-NonCommercial-NoDerivs 3.0 Brazil http://creativecommons.org/licenses/by-nc-nd/3.0/br/ |
eu_rights_str_mv |
openAccess |
dc.publisher.none.fl_str_mv |
UNIVERSIDADE FEDERAL DE PERNAMBUCO |
dc.publisher.program.fl_str_mv |
Programa de Pos Graduacao em Ciencia da Computacao |
dc.publisher.initials.fl_str_mv |
UFPE |
dc.publisher.country.fl_str_mv |
Brasil |
publisher.none.fl_str_mv |
UNIVERSIDADE FEDERAL DE PERNAMBUCO |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da UFPE instname:Universidade Federal de Pernambuco (UFPE) instacron:UFPE |
instname_str |
Universidade Federal de Pernambuco (UFPE) |
instacron_str |
UFPE |
institution |
UFPE |
reponame_str |
Repositório Institucional da UFPE |
collection |
Repositório Institucional da UFPE |
bitstream.url.fl_str_mv |
https://repositorio.ufpe.br/bitstream/123456789/15010/5/tbac-tese-biblioteca.pdf.jpg https://repositorio.ufpe.br/bitstream/123456789/15010/1/tbac-tese-biblioteca.pdf https://repositorio.ufpe.br/bitstream/123456789/15010/2/license_rdf https://repositorio.ufpe.br/bitstream/123456789/15010/3/license.txt https://repositorio.ufpe.br/bitstream/123456789/15010/4/tbac-tese-biblioteca.pdf.txt |
bitstream.checksum.fl_str_mv |
052b5b5aac3149157bd49a1caa40b676 358aacd6d090f9b7678979be16cc120e 66e71c371cc565284e70f40736c94386 4b8a02c7f2818eaf00dcf2260dd5eb08 bc755c9aae1d5eee81d43f56fd4043b4 |
bitstream.checksumAlgorithm.fl_str_mv |
MD5 MD5 MD5 MD5 MD5 |
repository.name.fl_str_mv |
Repositório Institucional da UFPE - Universidade Federal de Pernambuco (UFPE) |
repository.mail.fl_str_mv |
attena@ufpe.br |
_version_ |
1815172789610479616 |