Authenticity recognition in laughter and crying : an ERP study

Detalhes bibliográficos
Autor(a) principal: Costa, Mónica Gonçalves Barbeito
Data de Publicação: 2018
Tipo de documento: Dissertação
Idioma: eng
Título da fonte: Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
Texto Completo: http://hdl.handle.net/10451/39306
Resumo: Tese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018
id RCAP_20818f6bb1dcb8eea22b803035e17353
oai_identifier_str oai:repositorio.ul.pt:10451/39306
network_acronym_str RCAP
network_name_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository_id_str 7160
spelling Authenticity recognition in laughter and crying : an ERP studyVoice processingAuthenticityEmotionNon-linguistic vocalizationsEvent-related pontencials (ERPS)Teses de mestrado - 2018Domínio/Área Científica::Ciências MédicasTese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018Our ability to detect authenticity in the human affective voice, whether an emotion was evoked spontaneously (reactive, genuine) or voluntarily (deliberate, controlled), is crucial in our everyday social interactions as emotions may carry different meanings and elicit different social responses. Taking laughter as an example, while a spontaneous laughter is stimulus-driven and signals positive affect, voluntary laughter deliberately signals polite agreement or affiliation without necessarily being associated with an emotional experience. Recent functional magnetic resonance (fMRI) studies have shown brain differences between these voluntary and spontaneous laughter vocalizations. While both spontaneous and voluntary laughs engage the auditory cortex, voluntary laughter requires additional involvement of brain areas typically involved in mentalizing, possibly involved in the decoding of the intentional state behind these vocal expressions. However, how authenticity affects the temporal course of voice processing is still unclear. Previous imaging studies have shed light on the areas putatively involved in the processing of authenticity in vocal emotions. Nevertheless, fMRI lacks temporal resolution and is unable to provide information about the exact time-window on which differences in the processing between spontaneous and voluntary vocalizations in the brain may occur. In the current study we used the event-related brain potentials (ERPs) methodology to shed light on how authenticity modulates the temporal course of vocal information processing in the brain. In particular, we investigated differences between spontaneous and voluntary non-linguistic affective vocalizations (crying and laughter) in both amplitude and latency of ERP components associated with early (N100, P200) and late stages (late positivity potential – LPP) of voice processing. We also aimed to replicate previous findings suggesting amplitude and latency differences as a function of emotionality in these three ERP components. In addition, we explored the extent to which sex differences may exist in both authenticity and emotionality modulation of these potentials. Twenty-three right-handed healthy participants (13 female) listened to spontaneous and voluntary non-linguistic affective vocalizations (happy, sad and neutral) while they rated the authenticity conveyed by the speaker, as the electroencephalogram (EEG) was recorded. No differences in terms of amplitude or latency were found between spontaneous and voluntary vocalizations in the N100, P200 and LPP components. Emotionality effects were found at an early processing stage (N100) with happy and sad vocalizations eliciting more negative amplitude than neutral vocalizations. Happy vocalizations elicited an enhanced P200 when compared with neutral vocalizations. At later processing stages (500 – 700 ms), happy and sad vocalizations elicited a stronger late positivity (LPP) than neutral vocalizations. No differences between emotional and neutral vocalizations were detected in the latency of these components. Lastly, no sex differences were found in the amplitude or latency of N100, P200 and LPP for emotionality or authenticity effects. Although exploratory with a small sample size and deserving further replication, all together, our results possibly suggest authenticity as unlikely to be decoded during the first 700 ms after vocalization onset. The emotional salience of the voice, on the other hand, seems to be extracted as early as 100 ms after onset. While emotional content seems to be rapidly decoded from vocal cues, authenticity may involve further elaborated processing occurring at very late stages of processing.A voz humana comunica não só informação verbal, como também informação acerca da identidade e estado emocional do locutor (e.g., medo, raiva, nojo, tristeza, felicidade, surpresa) através de modulações nas propriedades acústicas (frequência, intensidade, ritmo). A autenticidade de uma expressão emocional é uma propriedade também extraída quando escutamos uma voz. Através do perfil acústico da vocalização e do seu contexto somos capazes de detetar se uma emoção foi evocada espontaneamente (ato reativo, genuíno) ou voluntariamente (ato deliberado, controlado). A capacidade de detetar a autenticidade de expressões emocionais na voz humana é crucial nas nossas interações sociais no dia-a-dia, já que estes dois tipos de expressões transmitem diferentes significados e provocam diferentes respostas sociais. Usando como exemplo a gargalhada, enquanto a gargalhada evocada espontaneamente é o resultado de um evento externo assinalando afeto positivo, a gargalhada evocada voluntariamente é deliberada indicando cortesia ou afiliação, sem necessariamente estar associada a uma experiência emocional. Estudos recentes com ressonância magnética funcional mostraram diferenças no cérebro entre gargalhadas evocadas espontaneamente e voluntariamente. Enquanto tanto a gargalhada espontânea como a gargalhada voluntária ativam áreas do córtex auditivo, a gargalhada voluntária ativa adicionalmente áreas típicas da mentalização, possivelmente envolvendo a interpretação da intenção da expressão vocal. Contudo, permanece por explorar como a autenticidade afeta o curso temporal do processamento de voz. Um modelo de múltiplos estágios de processamento da informação vocal foi proposto por Schirmer & Kotz (2006) com base em estudos com potenciais evocados e de ressonância magnética funcional. Este modelo sugere um processamento da informação vocal em três diferentes estágios: análise das propriedades acústicas (indexado pelo componente N100, ocorrendo cerca de 100 ms após o inicio da vocalização), extração da saliência emocional (indexado pelo componente P200, ocorrendo cerca de 200 ms após o inicio da vocalização) e por último, avaliação cognitiva da expressão vocal (indexado pelo late positivity potential – LPP, ocorre entre 500 e 700 ms após o inicio da vocalização). Diferenças no processamento da informação vocal entre estímulos emocionais e neutros, têm sido amplamente reportadas nestes três estágios de processamento. No entanto, os estudos previamente mencionados utilizaram estímulos que foram desenvolvidos instruindo atores a imitar emoções (expressões de emoção voluntária) e não expressões de emoção espontâneas. Permanece por esclarecer até que ponto estes resultados reportados poderão ser explicados por diferenças na autenticidade da emoção. Estudos de neuroimagem prévios mostraram com elevada resolução espacial quais as áreas no cérebro putativamente envolvidas no processamento de autenticidade no processamento vocal afetivo. Não obstante, a técnica de imagem ressonância magnética funcional carece de resolução temporal, não permitindo extrair informação relativamente à janela temporal exata durante a qual estas diferenças no processamento cognitivo entre vocalizações espontâneas e voluntárias poderão ocorrer no cérebro. No presente estudo utilizámos uma abordagem com potenciais evocados para esclarecer como a autenticidade modula o curso temporal do processamento de informação vocal afetiva no cérebro. Em particular, tivemos por objetivo investigar as diferenças entre vocalizações não-verbais espontâneas e voluntárias (gargalhada e choro) em termos da amplitude e latência dos componentes eletrofisiológicos associados a estágios iniciais (N100, P200) e a estágios mais tardios (LPP). Procurámos também replicar resultados prévios que sugerem diferenças em termos da amplitude e latência em função da emocionalidade da vocalização (emocional vs. neutro) no componente N100, P200 e LPP. Adicionalmente, como hipótese exploratória investigámos até que ponto diferenças de sexo podem existir tanto na autenticidade como na emocionalidade na modulação destes potenciais evocados. Vinte e três participantes destros saudáveis (13 mulheres) ouviram vocalizações não-verbais espontâneas e voluntárias (expressando alegria, tristeza ou tom neutro), enquanto classificavam a autenticidade expressada pelo locutor, enquanto era registado um eletroencefalograma (EEG) em simultâneo. Em termos dos efeitos da autenticidade no processamento de informação vocal, não foram encontradas diferenças relativamente à amplitude e latência entre vocalizações espontâneas e voluntárias nos componentes N100, P200 e LPP. Efeitos de emocionalidade foram encontrados em estágios iniciais do processamento vocal (N100), com vocalizações de alegria e tristeza mostrando deflexões menos negativas quando comparadas com vocalizações neutras. Vocalizações de alegria evocaram um P200 de maior magnitude do que vocalizações neutras, não existindo diferenças significativas entre vocalizações de alegria e tristeza ou entre vocalizações de tristeza e neutras. Em estágios mais tardios do processamento (500 – 700 ms), vocalizações de alegria e tristeza evocaram uma positividade tardia (LPP) mais pronunciada do que vocalizações neutras. Os efeitos de emocionalidade reportados nos potenciais N100, P200 e LPP verificaram-se de igual modo em vocalizações espontâneas e vocalizações voluntárias. Não foram encontradas diferenças de latência entre vocalizações emocionais e neutras em nenhum estágio de processamento vocal (N100, P200 e LPP). Por último, relativamente a diferenças de sexo no processamento da autenticidade e emocionalidade na informação vocal, não foram encontradas diferenças nestes três componentes entre homens e mulheres. Ainda que exploratório e com necessidade de futuras replicações, os nossos resultados sugerem que a autenticidade possivelmente não será descodificada durante os primeiros 700 ms após o início da vocalização. A emocionalidade por outro lado, parece ser extraída cedo no processamento vocal, nos primeiros 100 ms (N100) após o início da vocalização irrespectivamente da valência (positiva e negativa), sendo que tanto vocalizações de alegria como de tristeza evocaram uma menor amplitude no componente N100 do que vocalizações neutras. A emocionalidade da vocalização parece deste modo ser detetada em estágios iniciais (N100), irrespectivamente da valência do estímulo. Porém no estágio seguinte, verificou-se que apenas vocalizações de alegria evocaram um P200 de maior amplitude, relativamente a vocalizações neutras. Este resultado poderá dever-se à elevada sensibilidade do componente P200 à ativação fisiológica inerente ao estímulo vocal, isto é, estímulos caracterizados por uma maior ativação fisiológica (e.g., gargalhada) são percebidos como emocionalmente mais salientes. Em estágios mais tardios do processamento verificou-se uma maior positividade do componente LPP em vocalizações emocionais (alegria e tristeza) comparativamente a vocalizações neutras. As vocalizações emocionais, independentemente da sua valência (positiva ou negativa), parecem assim promover uma elaboração cognitiva mais profunda. Em suma, de acordo com os resultados obtidos neste estudo preliminar enquanto o conteúdo emocional parece ser rapidamente processado em pistas vocais, a autenticidade possivelmente envolve um processamento mais elaborativo que ocorre em estádios mais tardios do processamento.Prata, Diana Maria PintoPinheiro, Ana Patrícia TeixeiraRepositório da Universidade de LisboaCosta, Mónica Gonçalves Barbeito2019-08-13T10:23:07Z2018-10-192018-10-19T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10451/39306TID:202035115enginfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2023-11-08T16:37:50Zoai:repositorio.ul.pt:10451/39306Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-19T21:53:06.290633Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse
dc.title.none.fl_str_mv Authenticity recognition in laughter and crying : an ERP study
title Authenticity recognition in laughter and crying : an ERP study
spellingShingle Authenticity recognition in laughter and crying : an ERP study
Costa, Mónica Gonçalves Barbeito
Voice processing
Authenticity
Emotion
Non-linguistic vocalizations
Event-related pontencials (ERPS)
Teses de mestrado - 2018
Domínio/Área Científica::Ciências Médicas
title_short Authenticity recognition in laughter and crying : an ERP study
title_full Authenticity recognition in laughter and crying : an ERP study
title_fullStr Authenticity recognition in laughter and crying : an ERP study
title_full_unstemmed Authenticity recognition in laughter and crying : an ERP study
title_sort Authenticity recognition in laughter and crying : an ERP study
author Costa, Mónica Gonçalves Barbeito
author_facet Costa, Mónica Gonçalves Barbeito
author_role author
dc.contributor.none.fl_str_mv Prata, Diana Maria Pinto
Pinheiro, Ana Patrícia Teixeira
Repositório da Universidade de Lisboa
dc.contributor.author.fl_str_mv Costa, Mónica Gonçalves Barbeito
dc.subject.por.fl_str_mv Voice processing
Authenticity
Emotion
Non-linguistic vocalizations
Event-related pontencials (ERPS)
Teses de mestrado - 2018
Domínio/Área Científica::Ciências Médicas
topic Voice processing
Authenticity
Emotion
Non-linguistic vocalizations
Event-related pontencials (ERPS)
Teses de mestrado - 2018
Domínio/Área Científica::Ciências Médicas
description Tese de mestrado, Neurociências, Universidade de Lisboa, Faculdade de Medicina, 2018
publishDate 2018
dc.date.none.fl_str_mv 2018-10-19
2018-10-19T00:00:00Z
2019-08-13T10:23:07Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/masterThesis
format masterThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://hdl.handle.net/10451/39306
TID:202035115
url http://hdl.handle.net/10451/39306
identifier_str_mv TID:202035115
dc.language.iso.fl_str_mv eng
language eng
dc.rights.driver.fl_str_mv info:eu-repo/semantics/openAccess
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron:RCAAP
instname_str Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
instacron_str RCAAP
institution RCAAP
reponame_str Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
collection Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)
repository.name.fl_str_mv Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação
repository.mail.fl_str_mv
_version_ 1799134468357750784