TY - THES A1 - Herrmann, Martin Josef T1 - Neurophysiologische Korrelate der Verarbeitung von Gesichtern und emotionalen Gesichtsausdrücken bei Gesunden und Patienten mit schizophrenen Erkrankungen T1 - Neurophysiologic correlates of face processing and facial affect decoding in healthy controls and schizophrenic patients N2 - Ausgangspunkt für diese Arbeit war die Diskrepanz zwischen der vielfach belegten Schwierigkeit schizophrener Patienten bei der Dekodierung emotionaler Gesichtsausdrücke und dem mangelhaften Wissen über die hierfür verantwortlichen Prozesse. In der Literatur der letzten Jahre gab es einige viel versprechende Ergebnisse, die nahe legten, dass mit dem Elektroenzephalogramm (EEG) sowohl die Verarbeitung von Gesichtern, als auch der Mimik messbar ist. Somit wäre das EEG eine geeignete Methode den Prozess der Emotionsdekodierung bei schizophrenen Patienten zu untersuchen. Diese Arbeit untersucht folgende zwei Hauptfragestellungen. Erstens, wie lassen sich die für die Verarbeitung von Gesichtern und das Erkennen von emotionalen Gesichtsausdrücken verantwortlichen kognitiven Prozesse mit Hilfe ereigniskorrelierter Potentiale des EEGs reliabel messen? Zweitens, sind diese Prozesse bei schizophrenen Patienten im Vergleich zu gesunden Probanden beeinträchtigt? Zur Klärung der ersten Fragestellung wurden drei Stichproben gesunder Personen untersucht. Es zeigte sich in allen drei Untersuchungen, dass sich die Verarbeitung von Gesichtern im Vergleich zu Kontrollreizen in einer negativen Komponente um 170 ms über temporalen Elektrodenpositionen widerspiegelt (Gesichterpeak, N170). Die N170 konnte mit dem Quellenlokalisationsprogramm LORETA unter anderem im Gyrus Fusiformis, der entsprechenden Hirnregion für die Gesichtsverarbeitung, lokalisiert werden. Für die Dekodierung emotionaler Gesichtsausdrücke konnten keine wiederholbaren Effekte nachgewiesen werden. Im Weiteren wurde die Gesichtsverarbeitung bei schizophrenen Patienten untersucht. 22 als schizophren diagnostizierte Patienten wurden mit einer nach dem Alter, dem Geschlecht und dem Bildungsstatus angepassten Kontrollgruppe verglichen. In dieser Auswertung deutete sich bei schizophrenen Patienten ein Defizit in den frühen Verarbeitungsschritten von Gesichtern an. Dieses Ergebnis wurde in dieser Art noch nicht gezeigt und reiht sich ein in Studien, die sowohl strukturelle Veränderungen in den für die Gesichtsverarbeitung wesentlichen Hirnregionen bei schizophrenen Patienten zeigen konnten als auch ein allgemeines Defizit früher visueller Verarbeitung nahe legen. N2 - This study was based on the fact that schizophrenic patients show severe deficits in facial affect recognition and face processing but the affected processes are still unknown. Recent studies claimed that face processing as well as facial affect recognition can be measured with the electroencephalogram (EEG). Therefore this study had two main aims. First, we tried to measure face processing and facial affect recognition in a reliable manner in three independent samples of healthy controls. Secondly, we investigated whether these processes are impaired in schizophrenic patients. For face processing we replicated in all three samples the face specific N170 component, with higher negative amplitudes in the event-related potentials at 170 ms after face presentation. LORETA source localisation revealed higher activity for the N170 in the Gyrus Fusiformis, a region well known for face processing. For the facial affect recognition no reliable parameters could be reported. The comparison between 22 schizophrenic patients and 22 healthy controls revealed deficits in the N170 component and therefore for face processing in the group of patients. This result has not been reported before but is accordance with reduced volumes of the Gyrus Fusiformis in schizophrenic patients KW - Schizophrener KW - Mimik KW - Gesunder KW - Neurophysiologie KW - Emotionserkennung KW - Gesichtsverarbeitung KW - EEG KW - EKP KW - Schizophrenie KW - facial affect decoding KW - face processing KW - EEG KW - ERP KW - schizophrenia Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-8202 ER - TY - THES A1 - Anderson, Christina T1 - Idiosyncratic Facial Movement in Face Perception and Recognition T1 - Idiosynkratische Gesichtsbewegung in Gesichterwahrnehmung und -erkennung N2 - It has been proposed that different features of a face provide a source of information for separate perceptual and cognitive processes. Properties of a face that remain rather stable over time, so called invariant facial features, yield information about a face’s identity, and changeable aspects of faces transmit information underlying social communication such as emotional expressions and speech movements. While processing of these different face properties was initially claimed to be independent, a growing body of evidence suggests that these sources of information can interact when people recognize faces with whom they are familiar. This is the case because the way a face moves can contain patterns that are characteristic for that specific person, so called idiosyncratic movements. As a face becomes familiar these idiosyncratic movements are learned and hence also provide information serving face identification. While an abundance of experiments has addressed the independence of invariant and variable facial features in face recognition, little is known about the exact nature of the impact idiosyncratic facial movements have on face recognition. Gaining knowledge about the way facial motion contributes to face recognition is, however, important for a deeper understanding of the way the brain processes and recognizes faces. In the following dissertation three experiments are reported that investigate the impact familiarity of changeable facial features has on processes of face recognition. Temporal aspects of the processing of familiar idiosyncratic facial motion were addressed in the first experiment via EEG by investigating the influence familiar facial movement exerts on event-related potentials associated to face processing and face recognition. After being familiarized with a face and its idiosyncratic movement, participants viewed familiar or unfamiliar faces with familiar or unfamiliar facial movement while their brain potentials were recorded. Results showed that familiarity of facial motion influenced later event-related potentials linked to memory processes involved in face recognition. The second experiment used fMRI to investigate the brain areas involved in processing familiar facial movement. Participants’ BOLD-signal was registered while they viewed familiar and unfamiliar faces with familiar or unfamiliar idiosyncratic movement. It was found that activity of brain regions, such as the fusiform gyrus, that underlie the processing of face identity, was modulated by familiar facial movement. Together these two experiments provide valuable information about the nature of the involvement of idiosyncratic facial movement in face recognition and have important implications for cognitive and neural models of face perception and recognition. The third experiment addressed the question whether idiosyncratic facial movement could increase individuation in perceiving faces from a different ethnic group and hence reduce impaired recognition of these other-race faces compared to own-race faces, a phenomenon named the own-race bias. European participants viewed European and African faces that were each animated with an idiosyncratic smile while their attention was either directed to the form or the motion of the face. Subsequently recognition memory for these faces was tested. Results showed that the own-race bias was equally present in both attention conditions indicating that idiosyncratic facial movement was not able to reduce or diminish the own-race bias. In combination the here presented experiments provide further insight into the involvement of idiosyncratic facial motion in face recognition. It is necessary to consider the dynamic component of faces when investigating face recognition because static facial images are not able to provide the full range of information that leads to recognition of a face. In order to reflect the full process of face recognition, cognitive and neural models of face perception and recognition need to integrate dynamic facial features as a source of information which contributes to the recognition of a face. N2 - Klassische Gesichtsverarbeitungsmodelle postulieren die Unabhängigkeit der Wahrnehmung von unveränderlichen Gesichtsmerkmalen und zeitlich veränderlichen, dynamischen Aspekten eines Gesichts. Während zeitlich stabile Charakteristika die Basis für die Identifikation eines Gesichts bilden, wird Information über dynamische Gesichtsveränderungen im Rahmen sozialer Kommunikation herangezogen z.B. um emotionale Ausdrücke und Intentionen zu erkennen. Während diese Modelle allgemein starke empirische Fundierung aufweisen, mehren sich im Falle von bekannten Gesichtern die Hinweise, dass idiosynkratische Gesichtsbewegungen zur Identifikation einer Person beitragen können. Im Folgenden werden drei Experimente vorgestellt, die sich mit dem Einfluss bekannter Gesichtsbewegung auf die Gesichtsidentifikation befassen. Im ersten Experiment wurde mittels EEG der Einfluss bekannter Bewegung auf evozierte Potentiale der Gesichtsverarbeitung und –erkennung untersucht. Es zeigt sich, dass die Bekanntheit der Gesichtsbewegung Potentiale der Gesichtserkennung beeinflusst. Im zweiten Experiment wurden durch fMRI die Gehirnareale untersucht, die an der Wahrnehmung bekannter Gesichtsbewegung beteiligt sind. Aktivität in Gehirnarealen, die der Verarbeitung von Gesichtsidentität zu Grunde liegen, wie z.B. der fusiforme Gyrus, wurde durch die Bekanntheit der Bewegung des Gesichts moduliert. Zusammen liefern diese beiden Experimente wertvolle Information über die Beteiligung idiosynkratischer Gesichtsdynamik bei der Gesichtsidentifikation. Das dritte Experiment beschäftigte sich mit der Fragestellung, ob eine idiosynkratische Gesichtsbewegung die Individualisierung eines Gesichts im interkulturellen Kontext erhöhen kann und somit den own-race bias, d.h. eine schwächere Wiedererkennensleistung für Gesichter einer anderen ethnischen Herkunft, verglichen mit Gesichtern der eigenen Ethnie, verringern kann. Die Ergebnisse dieses Experiments zeigen zwar eine geringere Wiedererkennensleistung europäischer Versuchspersonen gegenüber Afrikanischen Gesichtern, verglichen mit der Wiedererkennensleistung für Europäische Gesichter, die Salienz der idiosynkratischen Gesichtsbewegung zeigte jedoch keinen Einfluss auf die Wiedererkennensleistung. Die Ergebnisse werden im Kontext der Ergebnisse der EEG Studie diskutiert. Zusammenfassend bieten die hier vorgestellten Daten weiteres Verständnis über das Zusammenspiel von stabilen und veränderlichen Gesichtscharakteristika bei der Gesichtsidentifikation. Es ist wichtig, die dynamische Komponente von Gesichtern zu berücksichtigen, wenn man ein ganzheitliches Bild über die Prozesse, die der Gesichtswahrnehmung und –erkennung zu Grunde liegen, gestalten will. KW - Gesicht KW - Wahrnehmung KW - Gesichtererkennung KW - Gesichtsdynamik KW - fMRT KW - Sehrinde KW - Avatar KW - face recognition KW - dynamic faces KW - face processing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70355 ER - TY - JOUR A1 - Herbert, Cornelia A1 - Sfärlea, Anca A1 - Blumenthal, Terry T1 - Your emotion or mine: labeling feelings alters emotional face perception—an ERP study on automatic and intentional affect labeling JF - Frontiers in Human Neuroscience N2 - Empirical evidence suggests that words are powerful regulators of emotion processing. Although a number of studies have used words as contextual cues for emotion processing, the role of what is being labeled by the words (i.e., one's own emotion as compared to the emotion expressed by the sender) is poorly understood. The present study reports results from two experiments which used ERP methodology to evaluate the impact of emotional faces and self- vs. sender-related emotional pronoun-noun pairs (e.g., my fear vs. his fear) as cues for emotional face processing. The influence of self- and sender-related cues on the processing of fearful, angry and happy faces was investigated in two contexts: an automatic (experiment 1) and intentional affect labeling task (experiment 2), along with control conditions of passive face processing. ERP patterns varied as a function of the label's reference (self vs. sender) and the intentionality of the labeling task (experiment 1 vs. experiment 2). In experiment 1, self-related labels increased the motivational relevance of the emotional faces in the time-window of the EPN component. Processing of sender-related labels improved emotion recognition specifically for fearful faces in the N170 time-window. Spontaneous processing of affective labels modulated later stages of face processing as well. Amplitudes of the late positive potential (LPP) were reduced for fearful, happy, and angry faces relative to the control condition of passive viewing. During intentional regulation (experiment 2) amplitudes of the LPP were enhanced for emotional faces when subjects used the self-related emotion labels to label their own emotion during face processing, and they rated the faces as higher in arousal than the emotional faces that had been presented in the “label sender's emotion” condition or the passive viewing condition. The present results argue in favor of a differentiated view of language-as-context for emotion processing. KW - emotion regulation KW - language-as-context KW - affect labeling KW - face processing KW - event-related brain potentials KW - social context KW - social cognition KW - perspective taking Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-97065 ER - TY - JOUR A1 - Wieser, Matthias J. A1 - Moscovitch, David A. T1 - The effect of affective context on visuocortical processing of neutral faces in social anxiety - An ERP study JF - Frontiers in Psychology N2 - It has been demonstrated that verbal context information alters the neural processing of ambiguous faces such as faces with no apparent facial expression. In social anxiety, neutral faces may be implicitly threatening for socially anxious individuals due to their ambiguous nature, but even more so if these neutral faces are put in self-referential negative contexts. Therefore, we measured event-related brain potentials (ERPs) in response to neutral faces which were preceded by affective verbal information (negative, neutral, positive). Participants with low social anxiety (LSA; n = 23) and high social anxiety (HSA; n = 21) were asked to watch and rate valence and arousal of the respective faces while continuous EEG was recorded. ERP analysis revealed that HSA showed elevated P100 amplitudes in response to faces, but reduced structural encoding of faces as indexed by reduced N170 amplitudes. In general, affective context led to an enhanced early posterior negativity (EPN) for negative compared to neutral facial expressions. Moreover, HSA compared to LSA showed enhanced late positive potentials (LPP) to negatively contextualized faces, whereas in LSA this effect was found for faces in positive contexts. Also, HSA rated faces in negative contexts as more negative compared to LSA. These results point at enhanced vigilance for neutral faces regardless of context in HSA, while structural encoding seems to be diminished (avoidance). Interestingly, later components of sustained processing (LPP) indicate that LSA show enhanced visuocortical processing for faces in positive contexts (happy bias), whereas this seems to be the case for negatively contextualized faces in HSA (threat bias). Finally, our results add further new evidence that top-down information in interaction with individual anxiety levels can influence early-stage aspects of visual perception. KW - context effects KW - face processing KW - social anxiety KW - ERPs (Event-Related Potentials) KW - EEG/ERP Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-125148 VL - 6 ER -