@phdthesis{Hirschfeld2011, author = {Hirschfeld, Josefine}, title = {Entwurf und Evaluation eines Prosodieverst{\"a}ndnistests in deutscher Pseudosprache}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-66208}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2011}, abstract = {In der CI-Forschung ist bislang wenig untersucht worden, ob CI-Tr{\"a}ger in der Lage sind, mit Hilfe ihrer Implantate Melodie- und Betonungsverl{\"a}ufe in der menschlichen Sprache zu erkennen. Da Cochlea-Implantate urspr{\"u}nglich mit dem Fokus auf das phonologische Sprachverstehen entwickelt wurden, in den letzten Jahren jedoch technologische Verbesserungen kontinuierlich eingef{\"u}hrt wurden, ist diese Fragestellung besonders interessant. Solche Merkmale der Sprache, die sich in Form von Grundfrequenz- und Lautheitsschwankungen, sowie Sprechtempo- und Rhythmus darstellen, werden als Prosodie bezeichnet. Die menschliche Sprache ist affektiv gepr{\"a}gt und bei intensiven Gem{\"u}tsregungen sind diese Melodieverl{\"a}ufe bzw. die prosodischen Merkmale besonders deutlich. Daher bietet es sich an, mit emotionaler Sprache zu arbeiten, sie dient als Lieferant f{\"u}r Grundfrequenz- und Intensit{\"a}tsschwankungen. Im Rahmen psychologischer und linguistischer Untersuchungen sind solcherlei Versuche bereits an normalh{\"o}renden Personen durchgef{\"u}hrt worden, allerdings stets auf der Grundlage semantisch-sinntragender Sprache, deren Inhalt bei der Bewertung des Geh{\"o}rten nicht ohne Einfluss bleibt. Daher wurde in der vorliegenden Arbeit eine k{\"u}nstliche Sprache automatisiert erzeugt, die in der statistischen Struktur ihrer Buchstabenzusammensetzung und Lautfolge der deutschen Sprache {\"a}hnelt. Diese Pseudosprache wurde in Form von 44 S{\"a}tzen in zehn verschiedenen Emotionen aufgenommen und durch nachtr{\"a}gliche Schneide- und Auswahlarbeiten als abh{\"o}rbare Audiodateien fertiggestellt. Dabei lagen sie je zur H{\"a}lfte als 10- und 15-silbige S{\"a}tze vor. Es kamen professionelle digitale Aufnahmeger{\"a}te zum Einsatz, deren Aufstellung in Vorversuchen systematisch optimiert wurde. Die Evaluierung der S{\"a}tze und die anschließende Auswertung der Ergebnisse geschahen im Rahmen einer Untersuchung mit Probanden ohne H{\"o}reinschr{\"a}nkungen, um diesen neuartigen Test zun{\"a}chst auf seine prinzipielle Anwendbarkeit hin zu pr{\"u}fen. Die zugrundeliegende Fragestellung war, ob bei normalh{\"o}renden Personen ein korrektes Erkennen von Emotionen in der gesprochenen Sprache nachweisbar ist. Durch die Ergebnisse sollten Hinweise auf die Einsatzm{\"o}glichkeiten des Tests bei CI-Tr{\"a}gern gewonnen werden. Der Test wurde erst nach Ablauf einer vorgeschalteten Pilotstudie konstruiert. Dadurch konnten Verbesserungsm{\"o}glichkeiten im Design und in der Durchf{\"u}hrung des Tests vorab erkannt und umgesetzt werden. Die S{\"a}tze wurden den Probanden der Hauptgruppe in einem genau festgelegten Schema vorgespielt, der Test war untergliedert in einen offen und einen geschlossen zu beurteilenden Abschnitt. Die Ergebnisse zeigen, dass die F{\"a}higkeit der Probanden zur Erkennung der Emotionen nachweislich vorhanden ist, ohne Unterschied zwischen m{\"a}nnlichen und weiblichen Probanden. Dabei wurden sowohl im offenen als auch im geschlossenen Test bestimmte Emotionen (z.B. Gleichg{\"u}ltigkeit, Panik, Trauer) grunds{\"a}tzlich besser erkannt als andere (z.B. Ekel, Freude, Stolz). Zwei der Emotionen ({\"A}rger, Zorn) erwiesen sich als kaum unterscheidbar, weswegen eine davon herausgenommen werden sollte und somit neun verwendbare Emotionen resultieren. Die Aufsprachen und die Evaluierung der prosodischen S{\"a}tze in dieser Arbeit sind Grundsteine f{\"u}r die Er{\"o}rterung und Durchf{\"u}hrung sinnvoller Ver{\"a}nderungen an diesem Prosodieverst{\"a}ndnistest, bevor er bei CI-Tr{\"a}gern zur Anwendung kommt. Solche Ver{\"a}nderungen k{\"o}nnten in technischen Verbesserungen bestehen, in der Variation der prosodischen Darstellungsm{\"o}glichkeiten von Emotionen, in der Aufsprache durch professionelle Schauspieler oder in der Erweiterung um eine weibliche Sprecherstimme. Das Ziel zuk{\"u}nftiger Arbeiten zu diesem Thema ist es, den vorliegenden Test so weiterzuentwickeln, dass er in der Lage ist, in der CI-Forschung zur Gewinnung neuer Erkenntnisse beizutragen. Im Hinblick auf den weiteren praktischen Einsatz konnten bereits in dieser Arbeit die wichtigsten Voraussetzungen und Anforderungen erf{\"u}llt und das Konzept eines klinisch anwendbaren Emotions-Prosodietests erfolgreich umgesetzt werden.}, subject = {Prosodie}, language = {de} } @article{SchererEllgringDieckmannetal.2019, author = {Scherer, Klaus R. and Ellgring, Heiner and Dieckmann, Anja and Unfried, Matthias and Mortillaro, Marcello}, title = {Dynamic Facial Expression of Emotion and Observer Inference}, series = {Frontiers in Psychology}, volume = {10}, journal = {Frontiers in Psychology}, number = {508}, issn = {1664-1078}, doi = {10.3389/fpsyg.2019.00508}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-195853}, year = {2019}, abstract = {Research on facial emotion expression has mostly focused on emotion recognition, assuming that a small number of discrete emotions is elicited and expressed via prototypical facial muscle configurations as captured in still photographs. These are expected to be recognized by observers, presumably via template matching. In contrast, appraisal theories of emotion propose a more dynamic approach, suggesting that specific elements of facial expressions are directly produced by the result of certain appraisals and predicting the facial patterns to be expected for certain appraisal configurations. This approach has recently been extended to emotion perception, claiming that observers first infer individual appraisals and only then make categorical emotion judgments based on the estimated appraisal patterns, using inference rules. Here, we report two related studies to empirically investigate the facial action unit configurations that are used by actors to convey specific emotions in short affect bursts and to examine to what extent observers can infer a person's emotions from the predicted facial expression configurations. The results show that (1) professional actors use many of the predicted facial action unit patterns to enact systematically specified appraisal outcomes in a realistic scenario setting, and (2) na{\"i}ve observers infer the respective emotions based on highly similar facial movement configurations with a degree of accuracy comparable to earlier research findings. Based on estimates of underlying appraisal criteria for the different emotions we conclude that the patterns of facial action units identified in this research correspond largely to prior predictions and encourage further research on appraisal-driven expression and inference.}, language = {en} } @article{MunozCentifantiStickleThomasetal.2021, author = {Mu{\~n}oz Centifanti, Luna C. and Stickle, Timothy R. and Thomas, Jamila and Falc{\´o}n, Amanda and Thomson, Nicholas D. and Gamer, Matthias}, title = {Reflexive Gaze Shifts and Fear Recognition Deficits in Children with Callous-Unemotional Traits and Impulsivity/Conduct Problems}, series = {Brain Sciences}, volume = {11}, journal = {Brain Sciences}, number = {10}, issn = {2076-3425}, doi = {10.3390/brainsci11101342}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-248536}, year = {2021}, abstract = {The ability to efficiently recognize the emotions on others' faces is something that most of us take for granted. Children with callous-unemotional (CU) traits and impulsivity/conduct problems (ICP), such as attention-deficit hyperactivity disorder, have been previously described as being "fear blind". This is also associated with looking less at the eye regions of fearful faces, which are highly diagnostic. Previous attempts to intervene into emotion recognition strategies have not had lasting effects on participants' fear recognition abilities. Here we present both (a) additional evidence that there is a two-part causal chain, from personality traits to face recognition strategies using the eyes, then from strategies to rates of recognizing fear in others; and (b) a pilot intervention that had persistent effects for weeks after the end of instruction. Further, the intervention led to more change in those with the highest CU traits. This both clarifies the specific mechanisms linking personality to emotion recognition and shows that the process is fundamentally malleable. It is possible that such training could promote empathy and reduce the rates of antisocial behavior in specific populations in the future.}, language = {en} }