id |
UFMG_e66746127190a51e56c1c0151ee6527c
|
oai_identifier_str |
oai:repositorio.ufmg.br:1843/58707
|
network_acronym_str |
UFMG
|
network_name_str |
Repositório Institucional da UFMG
|
repository_id_str |
|
reponame_str |
Repositório Institucional da UFMG
|
instacron_str |
UFMG
|
institution |
Universidade Federal de Minas Gerais (UFMG)
|
instname_str |
Universidade Federal de Minas Gerais (UFMG)
|
spelling |
2023-09-14T21:43:53Z2023-09-14T21:43:53Z2020-08-10511746https://doi.org/10.47627/gradus.v5i1.1472526-2718http://hdl.handle.net/1843/58707https://orcid.org/0000-0002-4484-3590https://orcid.org/0000-0002-3446-313Xhttps://orcid.org/0000-0001-6317-3548A fala é segmentada em unidades entonacionais marcadas por fronteiras prosódicas. Este trabalho tem como objetivo investigar os parâmetros fonético-acústicos que orientam a produção e a percepção de fronteiras prosódicas, bem como desenvolver modelos para detecção automática de fronteiras prosódicas em fala espontânea. Duas amostras de trechos de fala espontânea masculina foram segmentadas em unidades entonacionais por dois grupos de segmentadores treinados. As fronteiras percebidas pelos segmentadores foram anotadas como terminais (TB) ou não-terminais (NTB). Um script foi utilizado para extrair parâmetros fonético-acústicos ao longo do sinal de fala. Os parâmetros extraídos compreendem medidas de: 1) Velocidade e ritmo da fala; 2) Duração normalizada; 3) Frequência fundamental; 4) Intensidade; 5) Pausa silenciosa. Foi desenvolvido um treinamento de modelos compostos por múltiplos parâmetros projetados para a identificação automática das fronteiras marcadas pelos segmentadores. Utilizou-se o algoritmo Linear Discriminant Analysis e consideraram-se como fronteira posições em que pelo menos 50% dos segmentadores indicaram uma fronteira do mesmo tipo. O modelo de detecção automática de fronteiras terminais mostra uma convergência de 80% em relação às fronteiras terminais observadas pelos segmentadores na Amostra I. Para fronteiras não-terminais, foram obtidos três modelos de classificação estatística. Juntos, os três modelos mostram uma convergência de 98% em relação às fronteiras não-terminais observadas pelos segmentadores na Amostra I. Os modelos foram validados posteriormente na Amostra II. Os resultados da validação indicam que o desempenho do modelo TB é de 74% e o do modelo NTB é de 88% na Amostra II.Speech is segmented into intonational units marked by prosodic boundaries. This work aims both to investigate the phonetic-acoustic parameters that guide the production and perception of prosodic boundaries and to develop models for automatic detection of prosodic boundaries in spontaneous speech. Two samples of male spontaneous speech excerpts were segmented into intonational units by two groups of trained annotators. The boundaries perceived by the annotators were annotated as either terminal (TB) or non-terminal (NTB). A script was used to extract phonetic-acoustic parameters along the speech signal. The extracted parameters comprise measures of: 1) Speech rate and rhythm; 2) Normalized duration; 3) Fundamental frequency; 4) Intensity; 5) Silent pause. A training of models composed by multiple parameters designed to the automatic identification of boundaries marked by the annotators was developed. The Linear Discriminant Analysis algorithm was used and positions at which at least 50% of the annotators indicated a boundary of the same type were considered as boundary. The automatic terminal boundary detection model shows a convergence of 80% in relation to terminal boundaries noticed by annotators in sample I. For non-terminal boundaries, three statistical classification models were obtained. Together, the three models show a convergence of 98% in relation to nonterminal boundaries noticed by annotators in sample I. The models were validated later in sample II. The results of the validation indicate that the performance of the TB model is 74% and that of the NTB model is 88% in sample II.porUniversidade Federal de Minas GeraisUFMGBrasilFALE - FACULDADE DE LETRASGradus: Revista Brasileira de Fonologia de LaboratórioAnalise prosódica (Linguística)Atos de fala (Linguística)Percepção da falaFronteiras prosódicasDetecção automáticaFala espontâneaSegmentação da falaDetecção automática de fronteiras prosódicas entre unidades entonacionaisinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/articleBárbara TeixeiraTommaso RasoPlínio Almeida Barbosaapplication/pdfinfo:eu-repo/semantics/openAccessreponame:Repositório Institucional da UFMGinstname:Universidade Federal de Minas Gerais (UFMG)instacron:UFMGLICENSELicense.txtLicense.txttext/plain; charset=utf-82042https://repositorio.ufmg.br/bitstream/1843/58707/1/License.txtfa505098d172de0bc8864fc1287ffe22MD51ORIGINALDetecção automática de fronteiras prosódicas entre unidades entonacionais.pdfDetecção automática de fronteiras prosódicas entre unidades entonacionais.pdfapplication/pdf605323https://repositorio.ufmg.br/bitstream/1843/58707/2/Detec%c3%a7%c3%a3o%20autom%c3%a1tica%20de%20fronteiras%20pros%c3%b3dicas%20entre%20unidades%20entonacionais.pdf9885e91d96018e8f933817807d23e577MD521843/587072023-09-14 18:43:53.777oai:repositorio.ufmg.br:1843/58707TElDRU7vv71BIERFIERJU1RSSUJVSe+/ve+/vU8gTu+/vU8tRVhDTFVTSVZBIERPIFJFUE9TSVTvv71SSU8gSU5TVElUVUNJT05BTCBEQSBVRk1HCiAKCkNvbSBhIGFwcmVzZW50Ye+/ve+/vW8gZGVzdGEgbGljZW7vv71hLCB2b2Pvv70gKG8gYXV0b3IgKGVzKSBvdSBvIHRpdHVsYXIgZG9zIGRpcmVpdG9zIGRlIGF1dG9yKSBjb25jZWRlIGFvIFJlcG9zaXTvv71yaW8gSW5zdGl0dWNpb25hbCBkYSBVRk1HIChSSS1VRk1HKSBvIGRpcmVpdG8gbu+/vW8gZXhjbHVzaXZvIGUgaXJyZXZvZ++/vXZlbCBkZSByZXByb2R1emlyIGUvb3UgZGlzdHJpYnVpciBhIHN1YSBwdWJsaWNh77+977+9byAoaW5jbHVpbmRvIG8gcmVzdW1vKSBwb3IgdG9kbyBvIG11bmRvIG5vIGZvcm1hdG8gaW1wcmVzc28gZSBlbGV0cu+/vW5pY28gZSBlbSBxdWFscXVlciBtZWlvLCBpbmNsdWluZG8gb3MgZm9ybWF0b3Mg77+9dWRpbyBvdSB277+9ZGVvLgoKVm9j77+9IGRlY2xhcmEgcXVlIGNvbmhlY2UgYSBwb2zvv710aWNhIGRlIGNvcHlyaWdodCBkYSBlZGl0b3JhIGRvIHNldSBkb2N1bWVudG8gZSBxdWUgY29uaGVjZSBlIGFjZWl0YSBhcyBEaXJldHJpemVzIGRvIFJJLVVGTUcuCgpWb2Pvv70gY29uY29yZGEgcXVlIG8gUmVwb3NpdO+/vXJpbyBJbnN0aXR1Y2lvbmFsIGRhIFVGTUcgcG9kZSwgc2VtIGFsdGVyYXIgbyBjb250Ze+/vWRvLCB0cmFuc3BvciBhIHN1YSBwdWJsaWNh77+977+9byBwYXJhIHF1YWxxdWVyIG1laW8gb3UgZm9ybWF0byBwYXJhIGZpbnMgZGUgcHJlc2VydmHvv73vv71vLgoKVm9j77+9IHRhbWLvv71tIGNvbmNvcmRhIHF1ZSBvIFJlcG9zaXTvv71yaW8gSW5zdGl0dWNpb25hbCBkYSBVRk1HIHBvZGUgbWFudGVyIG1haXMgZGUgdW1hIGPvv71waWEgZGUgc3VhIHB1YmxpY2Hvv73vv71vIHBhcmEgZmlucyBkZSBzZWd1cmFu77+9YSwgYmFjay11cCBlIHByZXNlcnZh77+977+9by4KClZvY++/vSBkZWNsYXJhIHF1ZSBhIHN1YSBwdWJsaWNh77+977+9byDvv70gb3JpZ2luYWwgZSBxdWUgdm9j77+9IHRlbSBvIHBvZGVyIGRlIGNvbmNlZGVyIG9zIGRpcmVpdG9zIGNvbnRpZG9zIG5lc3RhIGxpY2Vu77+9YS4gVm9j77+9IHRhbWLvv71tIGRlY2xhcmEgcXVlIG8gZGVw77+9c2l0byBkZSBzdWEgcHVibGljYe+/ve+/vW8gbu+/vW8sIHF1ZSBzZWphIGRlIHNldSBjb25oZWNpbWVudG8sIGluZnJpbmdlIGRpcmVpdG9zIGF1dG9yYWlzIGRlIG5pbmd177+9bS4KCkNhc28gYSBzdWEgcHVibGljYe+/ve+/vW8gY29udGVuaGEgbWF0ZXJpYWwgcXVlIHZvY++/vSBu77+9byBwb3NzdWkgYSB0aXR1bGFyaWRhZGUgZG9zIGRpcmVpdG9zIGF1dG9yYWlzLCB2b2Pvv70gZGVjbGFyYSBxdWUgb2J0ZXZlIGEgcGVybWlzc++/vW8gaXJyZXN0cml0YSBkbyBkZXRlbnRvciBkb3MgZGlyZWl0b3MgYXV0b3JhaXMgcGFyYSBjb25jZWRlciBhbyBSZXBvc2l077+9cmlvIEluc3RpdHVjaW9uYWwgZGEgVUZNRyBvcyBkaXJlaXRvcyBhcHJlc2VudGFkb3MgbmVzdGEgbGljZW7vv71hLCBlIHF1ZSBlc3NlIG1hdGVyaWFsIGRlIHByb3ByaWVkYWRlIGRlIHRlcmNlaXJvcyBlc3Tvv70gY2xhcmFtZW50ZSBpZGVudGlmaWNhZG8gZSByZWNvbmhlY2lkbyBubyB0ZXh0byBvdSBubyBjb250Ze+/vWRvIGRhIHB1YmxpY2Hvv73vv71vIG9yYSBkZXBvc2l0YWRhLgoKQ0FTTyBBIFBVQkxJQ0Hvv73vv71PIE9SQSBERVBPU0lUQURBIFRFTkhBIFNJRE8gUkVTVUxUQURPIERFIFVNIFBBVFJPQ++/vU5JTyBPVSBBUE9JTyBERSBVTUEgQUfvv71OQ0lBIERFIEZPTUVOVE8gT1UgT1VUUk8gT1JHQU5JU01PLCBWT0Pvv70gREVDTEFSQSBRVUUgUkVTUEVJVE9VIFRPRE9TIEUgUVVBSVNRVUVSIERJUkVJVE9TIERFIFJFVklT77+9TyBDT01PIFRBTULvv71NIEFTIERFTUFJUyBPQlJJR0Hvv73vv71FUyBFWElHSURBUyBQT1IgQ09OVFJBVE8gT1UgQUNPUkRPLgoKTyBSZXBvc2l077+9cmlvIEluc3RpdHVjaW9uYWwgZGEgVUZNRyBzZSBjb21wcm9tZXRlIGEgaWRlbnRpZmljYXIgY2xhcmFtZW50ZSBvIHNldSBub21lKHMpIG91IG8ocykgbm9tZXMocykgZG8ocykgZGV0ZW50b3IoZXMpIGRvcyBkaXJlaXRvcyBhdXRvcmFpcyBkYSBwdWJsaWNh77+977+9bywgZSBu77+9byBmYXLvv70gcXVhbHF1ZXIgYWx0ZXJh77+977+9bywgYWzvv71tIGRhcXVlbGFzIGNvbmNlZGlkYXMgcG9yIGVzdGEgbGljZW7vv71hLgo=Repositório InstitucionalPUBhttps://repositorio.ufmg.br/oaiopendoar:2023-09-14T21:43:53Repositório Institucional da UFMG - Universidade Federal de Minas Gerais (UFMG)false
|
_version_ |
1813548246930292736
|