SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10284/9571 |
Resumo: | O objetivo do trabalho proposto nesta Dissertação assenta na contribuição para colmatar a barreira de comunicação existente entre pessoas que comunicam utilizando a Língua Gestual Portuguesa e pessoas que comunicam utilizando a língua oral. Na língua gestual, a forma, o posicionamento e o movimento das mãos, bem como as expressões faciais e os movimentos corporais, desempenham papéis importantes para as pessoas comunicarem entre si. A motivação subjacente à escolha deste tema, centra-se na dificuldade existente na comunicação entre as pessoas que compreendem e utilizam a Língua Gestual Portuguesa e as pessoas que comunicam apenas em língua oral, impedindo que os gestos em Língua Gestual Portuguesa sejam corretamente compreendidos pelas pessoas ouvintes. Devido a não ter sido encontrado conjunto de dados referentes ao alfabeto da Língua Gestual Portuguesa para utilização no desenvolvimento do sistema, foi utilizado um conjunto de dados relativo ao alfabeto da Língua Gestual Americana. Neste contexto, optou-se por desenvolver uma aplicação que permite identificar e traduzir os gestos em Língua Gestual Americana, efetuados por uma pessoa utilizando uma câmara de vídeo convencional, presente na maioria dos smartphones atuais. Para atingir este objetivo, o software desenvolvido recorreu a técnicas de Inteligência Artificial designadas por Deep Learning. Para o treino do conjunto de dados foi utilizado um modelo pré treinado presente no Zoo de modelos disponibilizados pela biblioteca PyTorch, denominado Mobile- Net v2. A avaliação ao sistema proposto foi efetuada a partir de estatísticas guardadas ao longo dos treinos efetuados a vários modelos classificadores e também, a partir de testes, utilizando a câmara de um iPhone para obter as imagens que posteriormente foram classificadas no mesmo. Concluiu-se que com o sistema desenvolvido, apesar de o classificador ter atingido 99% de acurácia, durante a validação, ainda está longe de ser um sistema capaz de colmatar a barreira de comunicação entre pessoas que comunicam utilizando Língua Gestual Americana e as pessoas que comunicam usando língua oral. |
id |
RCAP_299a7cd276a802399a3f8da162b94fec |
---|---|
oai_identifier_str |
oai:bdigital.ufp.pt:10284/9571 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
|
spelling |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine LearningDomínio/Área Científica::Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e InformáticaO objetivo do trabalho proposto nesta Dissertação assenta na contribuição para colmatar a barreira de comunicação existente entre pessoas que comunicam utilizando a Língua Gestual Portuguesa e pessoas que comunicam utilizando a língua oral. Na língua gestual, a forma, o posicionamento e o movimento das mãos, bem como as expressões faciais e os movimentos corporais, desempenham papéis importantes para as pessoas comunicarem entre si. A motivação subjacente à escolha deste tema, centra-se na dificuldade existente na comunicação entre as pessoas que compreendem e utilizam a Língua Gestual Portuguesa e as pessoas que comunicam apenas em língua oral, impedindo que os gestos em Língua Gestual Portuguesa sejam corretamente compreendidos pelas pessoas ouvintes. Devido a não ter sido encontrado conjunto de dados referentes ao alfabeto da Língua Gestual Portuguesa para utilização no desenvolvimento do sistema, foi utilizado um conjunto de dados relativo ao alfabeto da Língua Gestual Americana. Neste contexto, optou-se por desenvolver uma aplicação que permite identificar e traduzir os gestos em Língua Gestual Americana, efetuados por uma pessoa utilizando uma câmara de vídeo convencional, presente na maioria dos smartphones atuais. Para atingir este objetivo, o software desenvolvido recorreu a técnicas de Inteligência Artificial designadas por Deep Learning. Para o treino do conjunto de dados foi utilizado um modelo pré treinado presente no Zoo de modelos disponibilizados pela biblioteca PyTorch, denominado Mobile- Net v2. A avaliação ao sistema proposto foi efetuada a partir de estatísticas guardadas ao longo dos treinos efetuados a vários modelos classificadores e também, a partir de testes, utilizando a câmara de um iPhone para obter as imagens que posteriormente foram classificadas no mesmo. Concluiu-se que com o sistema desenvolvido, apesar de o classificador ter atingido 99% de acurácia, durante a validação, ainda está longe de ser um sistema capaz de colmatar a barreira de comunicação entre pessoas que comunicam utilizando Língua Gestual Americana e as pessoas que comunicam usando língua oral.The objective of the work proposed in this Dissertation is to contribute to establishing a communication bridge between people who communicate using the Portuguese Sign Language and people who communicate using the oral language. In sign language, the shape, positioning and movement of the hands, as well as facial expressions and body movements, play an important role for people to communicate with each other. The motivation underlying the choice of this theme focuses on the difficulty existing in communication between people who understand and use Portuguese Sign Language and people who communicate only with oral language, preventing gestures in Portuguese Sign Language from being correctly understood by hearing people. Due to the lack of a dataset related to the alphabet of the Portuguese Sign Language to use in the development of the system, a dataset containing the alphabet of the American Sign Language was used. In this context, it was decided to develop an application that allows the identification and translation of gestures in American Sign Language, carried out by a person using a conventional video camera, present in most current smartphones. To achieve this goal, the software developed fall back on Artificial Intelligence techniques called Deep Learning. To train the dataset, a pre-trained model called MobileNet v2 was used. This model is present in the Zoo of models made available by the library PyTorch. The evaluation of the proposed system was conducted based on statistics saved during the training carried out on several classifying models and also, based on tests, using a iPhone camera to obtain the images that were later classified on it. It was concluded that with the developed system, although the classifier reached 99% accuracy, during the validation, it is still far from being a system capable of overcoming the communication barrier between people who communicate using American Sign Language and the people who communicate using oral language.Soares, ChristopheMoreira, Rui SilvaRepositório Institucional da Universidade Fernando PessoaNogueira, André2021-03-09T16:58:31Z2021-02-02T00:00:00Z2021-02-02T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10284/9571porinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2022-09-06T02:08:54ZPortal AgregadorONG |
dc.title.none.fl_str_mv |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
title |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
spellingShingle |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning Nogueira, André Domínio/Área Científica::Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática |
title_short |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
title_full |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
title_fullStr |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
title_full_unstemmed |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
title_sort |
SignPic: sistema móvel para deteção de língua gestual utilizando Machine Learning |
author |
Nogueira, André |
author_facet |
Nogueira, André |
author_role |
author |
dc.contributor.none.fl_str_mv |
Soares, Christophe Moreira, Rui Silva Repositório Institucional da Universidade Fernando Pessoa |
dc.contributor.author.fl_str_mv |
Nogueira, André |
dc.subject.por.fl_str_mv |
Domínio/Área Científica::Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática |
topic |
Domínio/Área Científica::Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática |
description |
O objetivo do trabalho proposto nesta Dissertação assenta na contribuição para colmatar a barreira de comunicação existente entre pessoas que comunicam utilizando a Língua Gestual Portuguesa e pessoas que comunicam utilizando a língua oral. Na língua gestual, a forma, o posicionamento e o movimento das mãos, bem como as expressões faciais e os movimentos corporais, desempenham papéis importantes para as pessoas comunicarem entre si. A motivação subjacente à escolha deste tema, centra-se na dificuldade existente na comunicação entre as pessoas que compreendem e utilizam a Língua Gestual Portuguesa e as pessoas que comunicam apenas em língua oral, impedindo que os gestos em Língua Gestual Portuguesa sejam corretamente compreendidos pelas pessoas ouvintes. Devido a não ter sido encontrado conjunto de dados referentes ao alfabeto da Língua Gestual Portuguesa para utilização no desenvolvimento do sistema, foi utilizado um conjunto de dados relativo ao alfabeto da Língua Gestual Americana. Neste contexto, optou-se por desenvolver uma aplicação que permite identificar e traduzir os gestos em Língua Gestual Americana, efetuados por uma pessoa utilizando uma câmara de vídeo convencional, presente na maioria dos smartphones atuais. Para atingir este objetivo, o software desenvolvido recorreu a técnicas de Inteligência Artificial designadas por Deep Learning. Para o treino do conjunto de dados foi utilizado um modelo pré treinado presente no Zoo de modelos disponibilizados pela biblioteca PyTorch, denominado Mobile- Net v2. A avaliação ao sistema proposto foi efetuada a partir de estatísticas guardadas ao longo dos treinos efetuados a vários modelos classificadores e também, a partir de testes, utilizando a câmara de um iPhone para obter as imagens que posteriormente foram classificadas no mesmo. Concluiu-se que com o sistema desenvolvido, apesar de o classificador ter atingido 99% de acurácia, durante a validação, ainda está longe de ser um sistema capaz de colmatar a barreira de comunicação entre pessoas que comunicam utilizando Língua Gestual Americana e as pessoas que comunicam usando língua oral. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-03-09T16:58:31Z 2021-02-02T00:00:00Z 2021-02-02T00:00:00Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10284/9571 |
url |
http://hdl.handle.net/10284/9571 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
|
repository.mail.fl_str_mv |
|
_version_ |
1777301419855970304 |