Modelos de compressão de dados para classificação e segmentação de texturas
Autor(a) principal: | |
---|---|
Data de Publicação: | 2010 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Biblioteca Digital de Teses e Dissertações da UFPB |
Texto Completo: | https://repositorio.ufpb.br/jspui/handle/tede/6044 |
Resumo: | This work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio. |
id |
UFPB_f47eef81ea3ac064c511235e93bc767a |
---|---|
oai_identifier_str |
oai:repositorio.ufpb.br:tede/6044 |
network_acronym_str |
UFPB |
network_name_str |
Biblioteca Digital de Teses e Dissertações da UFPB |
repository_id_str |
|
spelling |
Modelos de compressão de dados para classificação e segmentação de texturasPrediction by Partial Matching (PPM)Lempel-Ziv-Welch (LZW)Segmentação de texturasClassificação de texturasReconhecimento de padrõesCompressão de dadosPrediction by Partial Matching (PPM)Lempel-Ziv-Welch (LZW)Texture segmentationTexture classificationHistogram equalizationPattern recognitionData compressionCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOThis work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio.Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPESEste trabalho se propõe a analisar métodos de classificação e segmentação de texturas de imagens digitais usando algoritmos de compressão de dados sem perdas. Dois algoritmos de compressão são avaliados: o Prediction by Partial Matching (PPM) e o Lempel-Ziv-Welch (LZW), que já havia sido aplicado na classificação de texturas em trabalhos anteriores. As texturas são pré-processadas utilizando equalização de histograma. O método de classificação divide-se em duas etapas. Na etapa de aprendizagem, ou treinamento, o algoritmo de compressão constrói modelos estatísticos para as estruturas horizontal e vertical de cada classe. Na etapa de classificação, amostras de texturas a serem classificadas são comprimidas utilizando modelos construídos na etapa de aprendizagem, varrendo-se as amostras na horizontal e na vertical. Uma amostra é atribuída à classe que obtiver a maior compressão média. Os testes dos classificadores foram feitos utilizando o álbum de texturas de Brodatz. Os classificadores foram testados para vários tamanhos de contexto (no caso do PPM), amostras e conjuntos de treinamento. Para algumas das combinações desses parâmetros, os classificadores alcançaram 100% de classificações corretas. A segmentação de texturas foi realizada apenas com o PPM. Inicialmente, são criados os modelos horizontais usados no processo de segmentação, utilizando-se oito amostras de texturas de tamanho 32 x 32 pixels para cada classe, com o contexto PPM de tamanho máximo 1. As imagens a serem segmentadas são comprimidas utilizando-se os modelos das classes, inicialmente, em blocos de tamanho 64 x 64 pixels. Se nenhum dos modelos conseguir uma razão de compressão em um intervalo pré-definido, o bloco é dividido em quatro blocos de tamanho 32 x 32. O processo se repete até que algum modelo consiga uma razão de compressão no intervalo de razões de compressão definido para o tamanho do bloco em questão, podendo chegar a blocos de tamanho 4 x 4 quando o bloco é classificado como pertencente à classe do modelo que atingiu a maior taxa de compressão.Universidade Federal da ParaíbaBRInformáticaPrograma de Pós-Graduação em InformáticaUFPBBatista, Leonardo Vidalhttp://lattes.cnpq.br/1047122596139990Honório, Tatiane Cruz de Souza2015-05-14T12:36:26Z2018-07-21T00:14:15Z2011-05-252018-07-21T00:14:15Z2010-08-31info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfHONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraíba, João Pessoa, 2010.https://repositorio.ufpb.br/jspui/handle/tede/6044porinfo:eu-repo/semantics/openAccessreponame:Biblioteca Digital de Teses e Dissertações da UFPBinstname:Universidade Federal da Paraíba (UFPB)instacron:UFPB2018-09-06T02:06:04Zoai:repositorio.ufpb.br:tede/6044Biblioteca Digital de Teses e Dissertaçõeshttps://repositorio.ufpb.br/PUBhttp://tede.biblioteca.ufpb.br:8080/oai/requestdiretoria@ufpb.br|| diretoria@ufpb.bropendoar:2018-09-06T02:06:04Biblioteca Digital de Teses e Dissertações da UFPB - Universidade Federal da Paraíba (UFPB)false |
dc.title.none.fl_str_mv |
Modelos de compressão de dados para classificação e segmentação de texturas |
title |
Modelos de compressão de dados para classificação e segmentação de texturas |
spellingShingle |
Modelos de compressão de dados para classificação e segmentação de texturas Honório, Tatiane Cruz de Souza Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Segmentação de texturas Classificação de texturas Reconhecimento de padrões Compressão de dados Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Texture segmentation Texture classification Histogram equalization Pattern recognition Data compression CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
title_short |
Modelos de compressão de dados para classificação e segmentação de texturas |
title_full |
Modelos de compressão de dados para classificação e segmentação de texturas |
title_fullStr |
Modelos de compressão de dados para classificação e segmentação de texturas |
title_full_unstemmed |
Modelos de compressão de dados para classificação e segmentação de texturas |
title_sort |
Modelos de compressão de dados para classificação e segmentação de texturas |
author |
Honório, Tatiane Cruz de Souza |
author_facet |
Honório, Tatiane Cruz de Souza |
author_role |
author |
dc.contributor.none.fl_str_mv |
Batista, Leonardo Vidal http://lattes.cnpq.br/1047122596139990 |
dc.contributor.author.fl_str_mv |
Honório, Tatiane Cruz de Souza |
dc.subject.por.fl_str_mv |
Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Segmentação de texturas Classificação de texturas Reconhecimento de padrões Compressão de dados Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Texture segmentation Texture classification Histogram equalization Pattern recognition Data compression CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
topic |
Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Segmentação de texturas Classificação de texturas Reconhecimento de padrões Compressão de dados Prediction by Partial Matching (PPM) Lempel-Ziv-Welch (LZW) Texture segmentation Texture classification Histogram equalization Pattern recognition Data compression CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
description |
This work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio. |
publishDate |
2010 |
dc.date.none.fl_str_mv |
2010-08-31 2011-05-25 2015-05-14T12:36:26Z 2018-07-21T00:14:15Z 2018-07-21T00:14:15Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
HONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraíba, João Pessoa, 2010. https://repositorio.ufpb.br/jspui/handle/tede/6044 |
identifier_str_mv |
HONÓRIO, Tatiane Cruz de Souza. Modelos de compressão de dados para classificação e segmentação de texturas. 2010. 78 f. Dissertação (Mestrado em Informática) - Universidade Federal da Paraíba, João Pessoa, 2010. |
url |
https://repositorio.ufpb.br/jspui/handle/tede/6044 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Federal da Paraíba BR Informática Programa de Pós-Graduação em Informática UFPB |
publisher.none.fl_str_mv |
Universidade Federal da Paraíba BR Informática Programa de Pós-Graduação em Informática UFPB |
dc.source.none.fl_str_mv |
reponame:Biblioteca Digital de Teses e Dissertações da UFPB instname:Universidade Federal da Paraíba (UFPB) instacron:UFPB |
instname_str |
Universidade Federal da Paraíba (UFPB) |
instacron_str |
UFPB |
institution |
UFPB |
reponame_str |
Biblioteca Digital de Teses e Dissertações da UFPB |
collection |
Biblioteca Digital de Teses e Dissertações da UFPB |
repository.name.fl_str_mv |
Biblioteca Digital de Teses e Dissertações da UFPB - Universidade Federal da Paraíba (UFPB) |
repository.mail.fl_str_mv |
diretoria@ufpb.br|| diretoria@ufpb.br |
_version_ |
1801842903292575744 |