Tradução automática de língua gestual a partir de vídeo: hand tracking
Autor(a) principal: | |
---|---|
Data de Publicação: | 2020 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10400.22/16904 |
Resumo: | Atualmente existem bastante dificuldade na comunicação entre a comunidade surda com a restante sociedade. Se esta comunidade tivesse, através de uma aplicação, a possibilidade de comunicação sem que seja necessário aprender língua gestual, um leque de novas oportunidades iria surgir, tanto a nível do mundo profissional, como a nível social. Apesar de já existirem formas de comunicação entre a comunidade surda e ouvinte, estas são, no entanto, bastante complicadas e dispendiosas. É necessário o uso de luvas ou outro tipo de ferramenta externa o que dificulta o acesso e a utilização de tal tecnologia. Esta dissertação tem como objetivo melhorar a inclusão social e a comunicação das pessoas surdas com recurso à tradução de língua gestual para língua oral através de um vídeo, com o mínimo recurso a ferramentas externas. É necessário que o acesso à aplicação seja fácil e acessível em vários dispositivos, para isso a aplicação foi hospedada num website, para que possa ser acedida tanto no computador, como num dispositivo móvel, de forma a prever os movimentos realizados pelo utilizador. No entanto, é necessário primeiramente captar os movimentos e treiná-los com ajuda de modelos de classificação. Finalmente, foram realizados testes de forma a concluir se certas características favoreciam os modelos de classificação utilizados e quais destes contêm uma com maior precisão no acerto das palavras ou frases. Os resultados obtidos foram satisfatórios, o uso da previsão da configuração da mão provou ser eficaz e aumentar a precisão. Este projeto contribui para identificar que o uso de características como a configuração de mão durante a gravação, podem ser significativos, aumentando a precisão, bem como quais os modelos de classificação mais indicados para a previsão de palavras/gestos, ampliando assim a possibilidade e a probabilidade da existência de uma aplicação de fácil acesso sem recurso a ferramentas externas para a integração da comunidade surda. |
id |
RCAP_265abe12941551f24bd6947692e5c757 |
---|---|
oai_identifier_str |
oai:recipp.ipp.pt:10400.22/16904 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Tradução automática de língua gestual a partir de vídeo: hand trackingAutomatic translationVideoResearchSign LanguageClassification ModelsAtualmente existem bastante dificuldade na comunicação entre a comunidade surda com a restante sociedade. Se esta comunidade tivesse, através de uma aplicação, a possibilidade de comunicação sem que seja necessário aprender língua gestual, um leque de novas oportunidades iria surgir, tanto a nível do mundo profissional, como a nível social. Apesar de já existirem formas de comunicação entre a comunidade surda e ouvinte, estas são, no entanto, bastante complicadas e dispendiosas. É necessário o uso de luvas ou outro tipo de ferramenta externa o que dificulta o acesso e a utilização de tal tecnologia. Esta dissertação tem como objetivo melhorar a inclusão social e a comunicação das pessoas surdas com recurso à tradução de língua gestual para língua oral através de um vídeo, com o mínimo recurso a ferramentas externas. É necessário que o acesso à aplicação seja fácil e acessível em vários dispositivos, para isso a aplicação foi hospedada num website, para que possa ser acedida tanto no computador, como num dispositivo móvel, de forma a prever os movimentos realizados pelo utilizador. No entanto, é necessário primeiramente captar os movimentos e treiná-los com ajuda de modelos de classificação. Finalmente, foram realizados testes de forma a concluir se certas características favoreciam os modelos de classificação utilizados e quais destes contêm uma com maior precisão no acerto das palavras ou frases. Os resultados obtidos foram satisfatórios, o uso da previsão da configuração da mão provou ser eficaz e aumentar a precisão. Este projeto contribui para identificar que o uso de características como a configuração de mão durante a gravação, podem ser significativos, aumentando a precisão, bem como quais os modelos de classificação mais indicados para a previsão de palavras/gestos, ampliando assim a possibilidade e a probabilidade da existência de uma aplicação de fácil acesso sem recurso a ferramentas externas para a integração da comunidade surda.Currently, there is a lot of difficulty in communication between the deaf community and the rest of society. If this community had, through an application, the possibility of communication without the need to learn sign language, a range of new opportunities would arise, both in the professional world and at the social level. Although there are already forms of communication between the deaf and the hearing community, these are, however, quite complicated and expensive. It is necessary to use gloves or other types of external tools, which makes it difficult to access and use this technology. This dissertation aims to improve the social inclusion and communication of deaf people with the use of sign language to oral language through a video, with minimal use of external tools. The access to the application must be easy and accessible on several devices, for this the application was hosted on a website, which can be accessed both on the computer and on a mobile device, to predict the movements performed by the user. However, it is necessary to first capture the movements and train them with the help of classification models. Finally, tests were carried out to conclude whether certain characteristics favored the classification models used and which of them contains the highest precision. The results obtained were satisfactory, the use of the prediction of the hand configuration proved to be effective and increase the precision. This project helps to identify that the use of characteristics such as the hand configuration during recording, can be significant, increasing the accuracy, as well as which classification models are most suitable for predicting words/gestures, thus expanding the possibility and the probability of the existence of an easily accessible application without recourse to external tools for the integration of the deaf community.Escudeiro, Nuno Filipe Fonseca VasconcelosRepositório Científico do Instituto Politécnico do PortoVieira, Jorge Miguel da Silva2021-11-17T01:30:39Z20202020-01-01T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.22/16904TID:202550320porinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2023-03-13T13:05:11Zoai:recipp.ipp.pt:10400.22/16904Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-19T17:36:33.423880Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
title |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
spellingShingle |
Tradução automática de língua gestual a partir de vídeo: hand tracking Vieira, Jorge Miguel da Silva Automatic translation Video Research Sign Language Classification Models |
title_short |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
title_full |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
title_fullStr |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
title_full_unstemmed |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
title_sort |
Tradução automática de língua gestual a partir de vídeo: hand tracking |
author |
Vieira, Jorge Miguel da Silva |
author_facet |
Vieira, Jorge Miguel da Silva |
author_role |
author |
dc.contributor.none.fl_str_mv |
Escudeiro, Nuno Filipe Fonseca Vasconcelos Repositório Científico do Instituto Politécnico do Porto |
dc.contributor.author.fl_str_mv |
Vieira, Jorge Miguel da Silva |
dc.subject.por.fl_str_mv |
Automatic translation Video Research Sign Language Classification Models |
topic |
Automatic translation Video Research Sign Language Classification Models |
description |
Atualmente existem bastante dificuldade na comunicação entre a comunidade surda com a restante sociedade. Se esta comunidade tivesse, através de uma aplicação, a possibilidade de comunicação sem que seja necessário aprender língua gestual, um leque de novas oportunidades iria surgir, tanto a nível do mundo profissional, como a nível social. Apesar de já existirem formas de comunicação entre a comunidade surda e ouvinte, estas são, no entanto, bastante complicadas e dispendiosas. É necessário o uso de luvas ou outro tipo de ferramenta externa o que dificulta o acesso e a utilização de tal tecnologia. Esta dissertação tem como objetivo melhorar a inclusão social e a comunicação das pessoas surdas com recurso à tradução de língua gestual para língua oral através de um vídeo, com o mínimo recurso a ferramentas externas. É necessário que o acesso à aplicação seja fácil e acessível em vários dispositivos, para isso a aplicação foi hospedada num website, para que possa ser acedida tanto no computador, como num dispositivo móvel, de forma a prever os movimentos realizados pelo utilizador. No entanto, é necessário primeiramente captar os movimentos e treiná-los com ajuda de modelos de classificação. Finalmente, foram realizados testes de forma a concluir se certas características favoreciam os modelos de classificação utilizados e quais destes contêm uma com maior precisão no acerto das palavras ou frases. Os resultados obtidos foram satisfatórios, o uso da previsão da configuração da mão provou ser eficaz e aumentar a precisão. Este projeto contribui para identificar que o uso de características como a configuração de mão durante a gravação, podem ser significativos, aumentando a precisão, bem como quais os modelos de classificação mais indicados para a previsão de palavras/gestos, ampliando assim a possibilidade e a probabilidade da existência de uma aplicação de fácil acesso sem recurso a ferramentas externas para a integração da comunidade surda. |
publishDate |
2020 |
dc.date.none.fl_str_mv |
2020 2020-01-01T00:00:00Z 2021-11-17T01:30:39Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10400.22/16904 TID:202550320 |
url |
http://hdl.handle.net/10400.22/16904 |
identifier_str_mv |
TID:202550320 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799131456597917696 |