Authenticity recognition in laughter and crying : an ERP study
Autor(a) principal: | |
---|---|
Data de Publicação: | 2018 |
Tipo de documento: | Dissertação |
Idioma: | eng |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10451/39306 |
Resumo: | Tese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018 |
id |
RCAP_20818f6bb1dcb8eea22b803035e17353 |
---|---|
oai_identifier_str |
oai:repositorio.ul.pt:10451/39306 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Authenticity recognition in laughter and crying : an ERP studyVoice processingAuthenticityEmotionNon-linguistic vocalizationsEvent-related pontencials (ERPS)Teses de mestrado - 2018Domínio/Área Científica::Ciências MédicasTese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018Our ability to detect authenticity in the human affective voice, whether an emotion was evoked spontaneously (reactive, genuine) or voluntarily (deliberate, controlled), is crucial in our everyday social interactions as emotions may carry different meanings and elicit different social responses. Taking laughter as an example, while a spontaneous laughter is stimulus-driven and signals positive affect, voluntary laughter deliberately signals polite agreement or affiliation without necessarily being associated with an emotional experience. Recent functional magnetic resonance (fMRI) studies have shown brain differences between these voluntary and spontaneous laughter vocalizations. While both spontaneous and voluntary laughs engage the auditory cortex, voluntary laughter requires additional involvement of brain areas typically involved in mentalizing, possibly involved in the decoding of the intentional state behind these vocal expressions. However, how authenticity affects the temporal course of voice processing is still unclear. Previous imaging studies have shed light on the areas putatively involved in the processing of authenticity in vocal emotions. Nevertheless, fMRI lacks temporal resolution and is unable to provide information about the exact time-window on which differences in the processing between spontaneous and voluntary vocalizations in the brain may occur. In the current study we used the event-related brain potentials (ERPs) methodology to shed light on how authenticity modulates the temporal course of vocal information processing in the brain. In particular, we investigated differences between spontaneous and voluntary non-linguistic affective vocalizations (crying and laughter) in both amplitude and latency of ERP components associated with early (N100, P200) and late stages (late positivity potential – LPP) of voice processing. We also aimed to replicate previous findings suggesting amplitude and latency differences as a function of emotionality in these three ERP components. In addition, we explored the extent to which sex differences may exist in both authenticity and emotionality modulation of these potentials. Twenty-three right-handed healthy participants (13 female) listened to spontaneous and voluntary non-linguistic affective vocalizations (happy, sad and neutral) while they rated the authenticity conveyed by the speaker, as the electroencephalogram (EEG) was recorded. No differences in terms of amplitude or latency were found between spontaneous and voluntary vocalizations in the N100, P200 and LPP components. Emotionality effects were found at an early processing stage (N100) with happy and sad vocalizations eliciting more negative amplitude than neutral vocalizations. Happy vocalizations elicited an enhanced P200 when compared with neutral vocalizations. At later processing stages (500 – 700 ms), happy and sad vocalizations elicited a stronger late positivity (LPP) than neutral vocalizations. No differences between emotional and neutral vocalizations were detected in the latency of these components. Lastly, no sex differences were found in the amplitude or latency of N100, P200 and LPP for emotionality or authenticity effects. Although exploratory with a small sample size and deserving further replication, all together, our results possibly suggest authenticity as unlikely to be decoded during the first 700 ms after vocalization onset. The emotional salience of the voice, on the other hand, seems to be extracted as early as 100 ms after onset. While emotional content seems to be rapidly decoded from vocal cues, authenticity may involve further elaborated processing occurring at very late stages of processing.A voz humana comunica não só informação verbal, como também informação acerca da identidade e estado emocional do locutor (e.g., medo, raiva, nojo, tristeza, felicidade, surpresa) através de modulações nas propriedades acústicas (frequência, intensidade, ritmo). A autenticidade de uma expressão emocional é uma propriedade também extraída quando escutamos uma voz. Através do perfil acústico da vocalização e do seu contexto somos capazes de detetar se uma emoção foi evocada espontaneamente (ato reativo, genuíno) ou voluntariamente (ato deliberado, controlado). A capacidade de detetar a autenticidade de expressões emocionais na voz humana é crucial nas nossas interações sociais no dia-a-dia, já que estes dois tipos de expressões transmitem diferentes significados e provocam diferentes respostas sociais. Usando como exemplo a gargalhada, enquanto a gargalhada evocada espontaneamente é o resultado de um evento externo assinalando afeto positivo, a gargalhada evocada voluntariamente é deliberada indicando cortesia ou afiliação, sem necessariamente estar associada a uma experiência emocional. Estudos recentes com ressonância magnética funcional mostraram diferenças no cérebro entre gargalhadas evocadas espontaneamente e voluntariamente. Enquanto tanto a gargalhada espontânea como a gargalhada voluntária ativam áreas do córtex auditivo, a gargalhada voluntária ativa adicionalmente áreas típicas da mentalização, possivelmente envolvendo a interpretação da intenção da expressão vocal. Contudo, permanece por explorar como a autenticidade afeta o curso temporal do processamento de voz. Um modelo de múltiplos estágios de processamento da informação vocal foi proposto por Schirmer & Kotz (2006) com base em estudos com potenciais evocados e de ressonância magnética funcional. Este modelo sugere um processamento da informação vocal em três diferentes estágios: análise das propriedades acústicas (indexado pelo componente N100, ocorrendo cerca de 100 ms após o inicio da vocalização), extração da saliência emocional (indexado pelo componente P200, ocorrendo cerca de 200 ms após o inicio da vocalização) e por último, avaliação cognitiva da expressão vocal (indexado pelo late positivity potential – LPP, ocorre entre 500 e 700 ms após o inicio da vocalização). Diferenças no processamento da informação vocal entre estímulos emocionais e neutros, têm sido amplamente reportadas nestes três estágios de processamento. No entanto, os estudos previamente mencionados utilizaram estímulos que foram desenvolvidos instruindo atores a imitar emoções (expressões de emoção voluntária) e não expressões de emoção espontâneas. Permanece por esclarecer até que ponto estes resultados reportados poderão ser explicados por diferenças na autenticidade da emoção. Estudos de neuroimagem prévios mostraram com elevada resolução espacial quais as áreas no cérebro putativamente envolvidas no processamento de autenticidade no processamento vocal afetivo. Não obstante, a técnica de imagem ressonância magnética funcional carece de resolução temporal, não permitindo extrair informação relativamente à janela temporal exata durante a qual estas diferenças no processamento cognitivo entre vocalizações espontâneas e voluntárias poderão ocorrer no cérebro. No presente estudo utilizámos uma abordagem com potenciais evocados para esclarecer como a autenticidade modula o curso temporal do processamento de informação vocal afetiva no cérebro. Em particular, tivemos por objetivo investigar as diferenças entre vocalizações não-verbais espontâneas e voluntárias (gargalhada e choro) em termos da amplitude e latência dos componentes eletrofisiológicos associados a estágios iniciais (N100, P200) e a estágios mais tardios (LPP). Procurámos também replicar resultados prévios que sugerem diferenças em termos da amplitude e latência em função da emocionalidade da vocalização (emocional vs. neutro) no componente N100, P200 e LPP. Adicionalmente, como hipótese exploratória investigámos até que ponto diferenças de sexo podem existir tanto na autenticidade como na emocionalidade na modulação destes potenciais evocados. Vinte e três participantes destros saudáveis (13 mulheres) ouviram vocalizações não-verbais espontâneas e voluntárias (expressando alegria, tristeza ou tom neutro), enquanto classificavam a autenticidade expressada pelo locutor, enquanto era registado um eletroencefalograma (EEG) em simultâneo. Em termos dos efeitos da autenticidade no processamento de informação vocal, não foram encontradas diferenças relativamente à amplitude e latência entre vocalizações espontâneas e voluntárias nos componentes N100, P200 e LPP. Efeitos de emocionalidade foram encontrados em estágios iniciais do processamento vocal (N100), com vocalizações de alegria e tristeza mostrando deflexões menos negativas quando comparadas com vocalizações neutras. Vocalizações de alegria evocaram um P200 de maior magnitude do que vocalizações neutras, não existindo diferenças significativas entre vocalizações de alegria e tristeza ou entre vocalizações de tristeza e neutras. Em estágios mais tardios do processamento (500 – 700 ms), vocalizações de alegria e tristeza evocaram uma positividade tardia (LPP) mais pronunciada do que vocalizações neutras. Os efeitos de emocionalidade reportados nos potenciais N100, P200 e LPP verificaram-se de igual modo em vocalizações espontâneas e vocalizações voluntárias. Não foram encontradas diferenças de latência entre vocalizações emocionais e neutras em nenhum estágio de processamento vocal (N100, P200 e LPP). Por último, relativamente a diferenças de sexo no processamento da autenticidade e emocionalidade na informação vocal, não foram encontradas diferenças nestes três componentes entre homens e mulheres. Ainda que exploratório e com necessidade de futuras replicações, os nossos resultados sugerem que a autenticidade possivelmente não será descodificada durante os primeiros 700 ms após o início da vocalização. A emocionalidade por outro lado, parece ser extraída cedo no processamento vocal, nos primeiros 100 ms (N100) após o início da vocalização irrespectivamente da valência (positiva e negativa), sendo que tanto vocalizações de alegria como de tristeza evocaram uma menor amplitude no componente N100 do que vocalizações neutras. A emocionalidade da vocalização parece deste modo ser detetada em estágios iniciais (N100), irrespectivamente da valência do estímulo. Porém no estágio seguinte, verificou-se que apenas vocalizações de alegria evocaram um P200 de maior amplitude, relativamente a vocalizações neutras. Este resultado poderá dever-se à elevada sensibilidade do componente P200 à ativação fisiológica inerente ao estímulo vocal, isto é, estímulos caracterizados por uma maior ativação fisiológica (e.g., gargalhada) são percebidos como emocionalmente mais salientes. Em estágios mais tardios do processamento verificou-se uma maior positividade do componente LPP em vocalizações emocionais (alegria e tristeza) comparativamente a vocalizações neutras. As vocalizações emocionais, independentemente da sua valência (positiva ou negativa), parecem assim promover uma elaboração cognitiva mais profunda. Em suma, de acordo com os resultados obtidos neste estudo preliminar enquanto o conteúdo emocional parece ser rapidamente processado em pistas vocais, a autenticidade possivelmente envolve um processamento mais elaborativo que ocorre em estádios mais tardios do processamento.Prata, Diana Maria PintoPinheiro, Ana Patrícia TeixeiraRepositório da Universidade de LisboaCosta, Mónica Gonçalves Barbeito2019-08-13T10:23:07Z2018-10-192018-10-19T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10451/39306TID:202035115enginfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2023-11-08T16:37:50Zoai:repositorio.ul.pt:10451/39306Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-19T21:53:06.290633Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Authenticity recognition in laughter and crying : an ERP study |
title |
Authenticity recognition in laughter and crying : an ERP study |
spellingShingle |
Authenticity recognition in laughter and crying : an ERP study Costa, Mónica Gonçalves Barbeito Voice processing Authenticity Emotion Non-linguistic vocalizations Event-related pontencials (ERPS) Teses de mestrado - 2018 Domínio/Área Científica::Ciências Médicas |
title_short |
Authenticity recognition in laughter and crying : an ERP study |
title_full |
Authenticity recognition in laughter and crying : an ERP study |
title_fullStr |
Authenticity recognition in laughter and crying : an ERP study |
title_full_unstemmed |
Authenticity recognition in laughter and crying : an ERP study |
title_sort |
Authenticity recognition in laughter and crying : an ERP study |
author |
Costa, Mónica Gonçalves Barbeito |
author_facet |
Costa, Mónica Gonçalves Barbeito |
author_role |
author |
dc.contributor.none.fl_str_mv |
Prata, Diana Maria Pinto Pinheiro, Ana Patrícia Teixeira Repositório da Universidade de Lisboa |
dc.contributor.author.fl_str_mv |
Costa, Mónica Gonçalves Barbeito |
dc.subject.por.fl_str_mv |
Voice processing Authenticity Emotion Non-linguistic vocalizations Event-related pontencials (ERPS) Teses de mestrado - 2018 Domínio/Área Científica::Ciências Médicas |
topic |
Voice processing Authenticity Emotion Non-linguistic vocalizations Event-related pontencials (ERPS) Teses de mestrado - 2018 Domínio/Área Científica::Ciências Médicas |
description |
Tese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018 |
publishDate |
2018 |
dc.date.none.fl_str_mv |
2018-10-19 2018-10-19T00:00:00Z 2019-08-13T10:23:07Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10451/39306 TID:202035115 |
url |
http://hdl.handle.net/10451/39306 |
identifier_str_mv |
TID:202035115 |
dc.language.iso.fl_str_mv |
eng |
language |
eng |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799134468357750784 |