Modelos de compressão de dados para classificação e segmentação de texturas

Detalhes bibliográficos
Autor(a) principal: Honório, Tatiane Cruz de Souza
Data de Publicação: 2010
Tipo de documento: Dissertação
Idioma: por
Título da fonte: Biblioteca Digital de Teses e Dissertações da UFPB
Texto Completo: https://repositorio.ufpb.br/jspui/handle/tede/6044
Resumo: This work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio.
id UFPB_f47eef81ea3ac064c511235e93bc767a
oai_identifier_str oai:repositorio.ufpb.br:tede/6044
network_acronym_str UFPB
network_name_str Biblioteca Digital de Teses e Dissertações da UFPB
repository_id_str
spelling Modelos de compressão de dados para classificação e segmentação de texturasPrediction by Partial Matching (PPM)Lempel-Ziv-Welch (LZW)Segmentação de texturasClassificação de texturasReconhecimento de padrõesCompressão de dadosPrediction by Partial Matching (PPM)Lempel-Ziv-Welch (LZW)Texture segmentationTexture classificationHistogram equalizationPattern recognitionData compressionCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOThis work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESEste trabalho se propõe a analisar métodos de classificação e segmentação de texturas de imagens digitais usando algoritmos de compressão de dados sem perdas. Dois algoritmos de compressão são avaliados: o Prediction by Partial Matching (PPM) e o Lempel-Ziv-Welch (LZW), que já havia sido aplicado na classificação de texturas em trabalhos anteriores. As texturas são pré-processadas utilizando equalização de histograma. O método de classificação divide-se em duas etapas. Na etapa de aprendizagem, ou treinamento, o algoritmo de compressão constrói modelos estatísticos para as estruturas horizontal e vertical de cada classe. Na etapa de classificação, amostras de texturas a serem classificadas são comprimidas utilizando modelos construídos na etapa de aprendizagem, varrendo-se as amostras na horizontal e na vertical. Uma amostra é atribuída à classe que obtiver a maior compressão média. Os testes dos classificadores foram feitos utilizando o álbum de texturas de Brodatz. Os classificadores foram testados para vários tamanhos de contexto (no caso do PPM), amostras e conjuntos de treinamento. Para algumas das combinações desses parâmetros, os classificadores alcançaram 100% de classificações corretas. A segmentação de texturas foi realizada apenas com o PPM. Inicialmente, são criados os modelos horizontais usados no processo de segmentação, utilizando-se oito amostras de texturas de tamanho 32 x 32 pixels para cada classe, com o contexto PPM de tamanho máximo 1. As imagens a serem segmentadas são comprimidas utilizando-se os modelos das classes, inicialmente, em blocos de tamanho 64 x 64 pixels. Se nenhum dos modelos conseguir uma razão de compressão em um intervalo pré-definido, o bloco é dividido em quatro blocos de tamanho 32 x 32. O processo se repete até que algum modelo consiga uma razão de compressão no intervalo de razões de compressão definido para o tamanho do bloco em questão, podendo chegar a blocos de tamanho 4 x 4 quando o bloco é classificado como pertencente à classe do modelo que atingiu a maior taxa de compressão.Universidade Federal da Paraí­baBRInformáticaPrograma de Pós-Graduação em InformáticaUFPBBatista, Leonardo Vidalhttp://lattes.cnpq.br/1047122596139990Honório, Tatiane Cruz de Souza2015-05-14T12:36:26Z2018-07-21T00:14:15Z2011-05-252018-07-21T00:14:15Z2010-08-31info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfHONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraí­ba, João Pessoa, 2010.https://repositorio.ufpb.br/jspui/handle/tede/6044porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFPBinstname:Universidade Federal da Paraíba (UFPB)instacron:UFPB2018-09-06T02:06:04Zoai:repositorio.ufpb.br:tede/6044Biblioteca Digital de Teses e Dissertaçõeshttps://repositorio.ufpb.br/PUBhttp://tede.biblioteca.ufpb.br:8080/oai/requestdiretoria@ufpb.br|| diretoria@ufpb.bropendoar:2018-09-06T02:06:04Biblioteca Digital de Teses e Dissertações da UFPB - Universidade Federal da Paraíba (UFPB)false
dc.title.none.fl_str_mv Modelos de compressão de dados para classificação e segmentação de texturas
title Modelos de compressão de dados para classificação e segmentação de texturas
spellingShingle Modelos de compressão de dados para classificação e segmentação de texturas
Honório, Tatiane Cruz de Souza
Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Segmentação de texturas
Classificação de texturas
Reconhecimento de padrões
Compressão de dados
Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Texture segmentation
Texture classification
Histogram equalization
Pattern recognition
Data compression
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
title_short Modelos de compressão de dados para classificação e segmentação de texturas
title_full Modelos de compressão de dados para classificação e segmentação de texturas
title_fullStr Modelos de compressão de dados para classificação e segmentação de texturas
title_full_unstemmed Modelos de compressão de dados para classificação e segmentação de texturas
title_sort Modelos de compressão de dados para classificação e segmentação de texturas
author Honório, Tatiane Cruz de Souza
author_facet Honório, Tatiane Cruz de Souza
author_role author
dc.contributor.none.fl_str_mv Batista, Leonardo Vidal
http://lattes.cnpq.br/1047122596139990
dc.contributor.author.fl_str_mv Honório, Tatiane Cruz de Souza
dc.subject.por.fl_str_mv Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Segmentação de texturas
Classificação de texturas
Reconhecimento de padrões
Compressão de dados
Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Texture segmentation
Texture classification
Histogram equalization
Pattern recognition
Data compression
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
topic Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Segmentação de texturas
Classificação de texturas
Reconhecimento de padrões
Compressão de dados
Prediction by Partial Matching (PPM)
Lempel-Ziv-Welch (LZW)
Texture segmentation
Texture classification
Histogram equalization
Pattern recognition
Data compression
CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
description This work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio.
publishDate 2010
dc.date.none.fl_str_mv 2010-08-31
2011-05-25
2015-05-14T12:36:26Z
2018-07-21T00:14:15Z
2018-07-21T00:14:15Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv HONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraí­ba, João Pessoa, 2010.
https://repositorio.ufpb.br/jspui/handle/tede/6044
identifier_str_mv HONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraí­ba, João Pessoa, 2010.
url https://repositorio.ufpb.br/jspui/handle/tede/6044
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal da Paraí­ba
BR
Informática
Programa de Pós-Graduação em Informática
UFPB
publisher.none.fl_str_mv Universidade Federal da Paraí­ba
BR
Informática
Programa de Pós-Graduação em Informática
UFPB
dc.source.none.fl_str_mv reponame:Biblioteca Digital de Teses e Dissertações da UFPB
instname:Universidade Federal da Paraíba (UFPB)
instacron:UFPB
instname_str Universidade Federal da Paraíba (UFPB)
instacron_str UFPB
institution UFPB
reponame_str Biblioteca Digital de Teses e Dissertações da UFPB
collection Biblioteca Digital de Teses e Dissertações da UFPB
repository.name.fl_str_mv Biblioteca Digital de Teses e Dissertações da UFPB - Universidade Federal da Paraíba (UFPB)
repository.mail.fl_str_mv diretoria@ufpb.br|| diretoria@ufpb.br
_version_ 1801842903292575744