TY - THES A1 - Anderson, Christina T1 - Idiosyncratic Facial Movement in Face Perception and Recognition T1 - Idiosynkratische Gesichtsbewegung in Gesichterwahrnehmung und -erkennung N2 - It has been proposed that different features of a face provide a source of information for separate perceptual and cognitive processes. Properties of a face that remain rather stable over time, so called invariant facial features, yield information about a face’s identity, and changeable aspects of faces transmit information underlying social communication such as emotional expressions and speech movements. While processing of these different face properties was initially claimed to be independent, a growing body of evidence suggests that these sources of information can interact when people recognize faces with whom they are familiar. This is the case because the way a face moves can contain patterns that are characteristic for that specific person, so called idiosyncratic movements. As a face becomes familiar these idiosyncratic movements are learned and hence also provide information serving face identification. While an abundance of experiments has addressed the independence of invariant and variable facial features in face recognition, little is known about the exact nature of the impact idiosyncratic facial movements have on face recognition. Gaining knowledge about the way facial motion contributes to face recognition is, however, important for a deeper understanding of the way the brain processes and recognizes faces. In the following dissertation three experiments are reported that investigate the impact familiarity of changeable facial features has on processes of face recognition. Temporal aspects of the processing of familiar idiosyncratic facial motion were addressed in the first experiment via EEG by investigating the influence familiar facial movement exerts on event-related potentials associated to face processing and face recognition. After being familiarized with a face and its idiosyncratic movement, participants viewed familiar or unfamiliar faces with familiar or unfamiliar facial movement while their brain potentials were recorded. Results showed that familiarity of facial motion influenced later event-related potentials linked to memory processes involved in face recognition. The second experiment used fMRI to investigate the brain areas involved in processing familiar facial movement. Participants’ BOLD-signal was registered while they viewed familiar and unfamiliar faces with familiar or unfamiliar idiosyncratic movement. It was found that activity of brain regions, such as the fusiform gyrus, that underlie the processing of face identity, was modulated by familiar facial movement. Together these two experiments provide valuable information about the nature of the involvement of idiosyncratic facial movement in face recognition and have important implications for cognitive and neural models of face perception and recognition. The third experiment addressed the question whether idiosyncratic facial movement could increase individuation in perceiving faces from a different ethnic group and hence reduce impaired recognition of these other-race faces compared to own-race faces, a phenomenon named the own-race bias. European participants viewed European and African faces that were each animated with an idiosyncratic smile while their attention was either directed to the form or the motion of the face. Subsequently recognition memory for these faces was tested. Results showed that the own-race bias was equally present in both attention conditions indicating that idiosyncratic facial movement was not able to reduce or diminish the own-race bias. In combination the here presented experiments provide further insight into the involvement of idiosyncratic facial motion in face recognition. It is necessary to consider the dynamic component of faces when investigating face recognition because static facial images are not able to provide the full range of information that leads to recognition of a face. In order to reflect the full process of face recognition, cognitive and neural models of face perception and recognition need to integrate dynamic facial features as a source of information which contributes to the recognition of a face. N2 - Klassische Gesichtsverarbeitungsmodelle postulieren die Unabhängigkeit der Wahrnehmung von unveränderlichen Gesichtsmerkmalen und zeitlich veränderlichen, dynamischen Aspekten eines Gesichts. Während zeitlich stabile Charakteristika die Basis für die Identifikation eines Gesichts bilden, wird Information über dynamische Gesichtsveränderungen im Rahmen sozialer Kommunikation herangezogen z.B. um emotionale Ausdrücke und Intentionen zu erkennen. Während diese Modelle allgemein starke empirische Fundierung aufweisen, mehren sich im Falle von bekannten Gesichtern die Hinweise, dass idiosynkratische Gesichtsbewegungen zur Identifikation einer Person beitragen können. Im Folgenden werden drei Experimente vorgestellt, die sich mit dem Einfluss bekannter Gesichtsbewegung auf die Gesichtsidentifikation befassen. Im ersten Experiment wurde mittels EEG der Einfluss bekannter Bewegung auf evozierte Potentiale der Gesichtsverarbeitung und –erkennung untersucht. Es zeigt sich, dass die Bekanntheit der Gesichtsbewegung Potentiale der Gesichtserkennung beeinflusst. Im zweiten Experiment wurden durch fMRI die Gehirnareale untersucht, die an der Wahrnehmung bekannter Gesichtsbewegung beteiligt sind. Aktivität in Gehirnarealen, die der Verarbeitung von Gesichtsidentität zu Grunde liegen, wie z.B. der fusiforme Gyrus, wurde durch die Bekanntheit der Bewegung des Gesichts moduliert. Zusammen liefern diese beiden Experimente wertvolle Information über die Beteiligung idiosynkratischer Gesichtsdynamik bei der Gesichtsidentifikation. Das dritte Experiment beschäftigte sich mit der Fragestellung, ob eine idiosynkratische Gesichtsbewegung die Individualisierung eines Gesichts im interkulturellen Kontext erhöhen kann und somit den own-race bias, d.h. eine schwächere Wiedererkennensleistung für Gesichter einer anderen ethnischen Herkunft, verglichen mit Gesichtern der eigenen Ethnie, verringern kann. Die Ergebnisse dieses Experiments zeigen zwar eine geringere Wiedererkennensleistung europäischer Versuchspersonen gegenüber Afrikanischen Gesichtern, verglichen mit der Wiedererkennensleistung für Europäische Gesichter, die Salienz der idiosynkratischen Gesichtsbewegung zeigte jedoch keinen Einfluss auf die Wiedererkennensleistung. Die Ergebnisse werden im Kontext der Ergebnisse der EEG Studie diskutiert. Zusammenfassend bieten die hier vorgestellten Daten weiteres Verständnis über das Zusammenspiel von stabilen und veränderlichen Gesichtscharakteristika bei der Gesichtsidentifikation. Es ist wichtig, die dynamische Komponente von Gesichtern zu berücksichtigen, wenn man ein ganzheitliches Bild über die Prozesse, die der Gesichtswahrnehmung und –erkennung zu Grunde liegen, gestalten will. KW - Gesicht KW - Wahrnehmung KW - Gesichtererkennung KW - Gesichtsdynamik KW - fMRT KW - Sehrinde KW - Avatar KW - face recognition KW - dynamic faces KW - face processing Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-70355 ER - TY - THES A1 - Bauer, Andreas Ludwig T1 - Evaluation des Einflusses sagitaler Weichteilparameter hinsichtlich der Attraktivität des Weichteilprofils T1 - Evaluation of the influence of soft tissue parameters regarding the attractiveness of the soft tissue profile N2 - Viele der in der kieferorthopädischen Therapie verwendeten Messwerte stammen aus methodisch zumindest fragwürdigen Quellen. Um diese Werte zu überprüfen und den Einfluss einzelner Weichteilparameter auf die Attraktivität des Gesichtsprofils zu untersuchen, wurden von einem Durchschnittsgesicht in der Saggitalen verschiedene Variationen erstellt, wobei pro Bilderreihe jeweils nur ein Parameter verändert wurde. Zu untersuchende Parameter waren: Die Profiltypen nach AM Schwarz, das Gesichtshöhenverhältnis nach Kollman, Holdawaywinkel, Z-Winkel (Merrifield), Nasofacialwinkel, Nasolabialwinkel (obere und untere Komponente) sowie die Nasenlänge. Die Bilderserien wurden von Probanden hinsichtlich der Attraktivität bewertet und eine statistische Auswertung erstellt. Dabei wurden die nach hinten schiefen Gesichter deutlich besser bewertet als die geraden und nach vorne schiefen Profilverläufe. Ein über die untere Komponente verkleinerter Nasolabialwinkel wurde am besten bewertet. Ein flacheres Lippenprofil wurde im Holdaway- und Z-Winkel tendenziell besser bewertet. N2 - Many of the values used in orthodontic therapy derived from at least methodologically questionable sources. To check the current value of these parameters and to examine the influence of individual parameters on the soft tissue facial profile attractiveness, several variations have been created by an average face in the sagittal, whereby in a series of images, only one parameter was changed. Parameters to be examined were: The profile types according to AM Schwarz, the facial height ratio (Kollman), Holdaway’s angle, Z-angle (Merrifield), nasofacial angle, nasolabial angle (upper and lower component) and the nose length. The series of images were evaluated by subjects in terms of attractiveness and a statistical analysis was carried out. The leaning back faces were rated significantly better than the straight and forward profile curves. A Nasolabial angle reduced by the lower component (lips) was rated best. A flatter lip profile (Holdaway- and Z–angle) tends to be rated better. KW - Attraktivität KW - Profil KW - Gesicht KW - Nase KW - Lippen KW - soft tissue profile Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-106591 ER - TY - THES A1 - Homola, György Ádám T1 - Functional and Microstructural MRI of the Human Brain Revealing a Cerebral Network Processing the Age of Faces T1 - Funktionelles und mikrostrukturelles MRT des menschlichen Gehirns detektiert ein zerebrales Netzwerk zur Verarbeitung des Alters von Gesichtern N2 - Although age is one of the most salient and fundamental aspects of human faces, its processing in the brain has not yet been studied by any neuroimaging experiment. Automatic assessment of temporal changes across faces is a prerequisite to identifying persons over their life-span, and age per se is of biological and social relevance. Using a combination of evocative face morphs controlled for global optical flow and functional magnetic resonance imaging (fMRI), we segregate two areas that process changes of facial age in both hemispheres. These areas extend beyond the previously established face-sensitive network and are centered on the posterior inferior temporal sulcus (pITS) and the posterior angular gyrus (pANG), an evolutionarily new formation of the human brain. Using probabilistic tractography and by calculating spatial cross-correlations as well as creating minimum intersection maps between activation and connectivity patterns we demonstrate a hitherto unrecognized link between structure and function in the human brain on the basis of cognitive age processing. According to our results, implicit age processing involves the inferior temporal sulci and is, at the same time, closely tied to quantity decoding by the presumed neural systems devoted to magnitudes in the human parietal lobes. The ventral portion of Wernicke’s largely forgotten perpendicular association fasciculus is shown not only to interconnect these two areas but to relate to their activations, i.e. to transmit age-relevant information. In particular, post-hoc age-rating competence is shown to be associated with high response levels in the left angular gyrus. Cortical activation patterns related to changes of facial age differ from those previously elicited by other fixed as well as changeable face aspects such as gender (used for comparison), ethnicity and identity as well as eye gaze or facial expressions. We argue that this may be due to the fact that individual changes of facial age occur ontogenetically, unlike the instant changes of gaze direction or expressive content in faces that can be “mirrored” and require constant cognitive monitoring to follow. Discussing the ample evidence for distinct representations of quantitative age as opposed to categorical gender varied over continuous androgyny levels, we suggest that particular face-sensitive regions interact with additional object-unselective quantification modules to obtain individual estimates of facial age. N2 - Obwohl das Alter eines der markantesten und grundlegendsten Aspekte menschlicher Gesichter darstellt, hat man die Verarbeitung im Gehirn noch nicht durch ein funktionell bildgebendes Verfahren untersucht und mit strukturellen Leitungsbahnen in Verbindung gebracht. Die automatische Bewertung der altersbedingten Veränderungen in Gesichtern ist eine Voraussetzung für die Identifizierung von Personen über ihre gesamte Lebenszeit, und das Lebensalter an sich ist von biologischer und sozialer Relevanz. In dieser Dissertation wird die funktionelle Kernspintomographie (fMRI) mit eindrucksvollen Gesichtsmorphs kombiniert, welche auf sichtbare Bewegung im gesamten Bild kontrolliert wurden. Hierdurch werden zwei Bereiche auf beiden Hemisphären isoliert, welche die Veränderungen des Alters von Gesichtern gemeinsam und automatisch verarbeiten. Diese Areale reichen über das zuvor etablierte gesichtssensible Netzwerk hinaus und zentrieren sich auf den hinteren inferio-temporalen Sulcus (pITS) und den hinteren angulären Gyrus (pANG), eine evolutionäre Neubildung des menschlichen Gehirns. Mit Hilfe der probabilistischen Traktographie diffusiongewichteter MRT-Daten und der Berechnung räumlicher Kreuzkorrelationen sowie der Erstellung von Minimum Intersection Maps zwischen Aktivierungs- und Konnektivitätsmustern wird ein bisher unerkannter Zusammenhang zwischen Struktur und Funktion des menschlichen Gehirns anhand der kognitiven Altersverarbeitung aufgezeigt. Unseren Ergebnissen zufolge wird der inferiore temporale Sulcus in die implizite Altersverarbeitung einbezogen und gleichzeitig eng mit der Mengendekodierung verknüpft, welche in den vermutlich Größenabschätzungen gewidmeten neuronalen Systemen im Scheitellappen des menschlichen Gehirns erfolgt. Es wird dargelegt, dass der ventrale Teil von Wernickes weitgehend vergessenem senkrecht verlaufendem Assoziationsbündels nicht nur diese beiden Bereiche miteinander verbindet, sondern auch mit ihren Aktivierungen in Beziehung steht, was die These stützt, dass altersrelevante Informationen tatsächlich über ihn übertragen werden. Bei der nachträglichen Alterseinschätzung der Gesichter zeigt sich, dass gutes Abschneiden der Versuchspersonen mit stärkeren Aktivierungen im linken angulären Gyrus einhergeht. Die kortikalen Aktivierungsmuster auf Änderungen des Gesichtsalters unterscheiden sich von jenen, die mit anderen wechselnden Gesichtsmerkmalen in Zusammenhang gebracht wurden, welche das Geschlecht (das zum Vergleich und zur Kontrolle herangezogen wurde), die Ethnizität und die personelle Identität sowie Blickrichtungen und Mimik betreffen. Es wird argumentiert, dass dies möglicherweise auf die Tatsache zurückzuführen ist, dass individuelle Änderungen des Gesichtsalters ontogenetisch auftreten, anders als beispielsweise die flüchtigen Wechsel von Blickrichtungen oder im Ausdruck in Gesichtern, welche vom Betrachter "gespiegelt" werden können und ständige Beobachtung erfordern, um kognitiv nachvollzogen werden zu können. Damit wird erstmals die eigene Art der Wahrnehmung und Verarbeitung des quantitativen Alters im direkten Gegensatz zu kategorischem Geschlecht belegt, welches über kontinuierliche Androgyniegrade variiert: Bestimmte gesichtssensible Regionen interagieren offenbar mit zusätzlichen nicht objekt-selektiven Quantifizierungsmodulen, um das Alter eines Gesichts individuell abzuschätzen. KW - Gesicht KW - Alter KW - NMR-Bildgebung KW - Gehirn KW - Informationsverarbeitung KW - Wernickes Assoziationsbündel KW - Diffusionsgewichtete Bildgebung KW - Morphing KW - Funktionelle NMR-Tomographie KW - Geschlecht KW - Nervenfaser KW - Korrelation KW - functional MRI KW - face morphing KW - facial age KW - facial gender KW - diffusion tractography KW - Wernicke's perpendicular fasciculus Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-56740 ER - TY - THES A1 - Huestegge, Sujata Maya T1 - Cognitive mechanisms of voice processing T1 - Kognitive Verarbeitung von Stimminformation N2 - The present thesis addresses cognitive processing of voice information. Based on general theoretical concepts regarding mental processes it will differentiate between modular, abstract information processing approaches to cognition and interactive, embodied ideas of mental processing. These general concepts will then be transferred to the context of processing voice-related information in the context of parallel face-related processing streams. One central issue here is whether and to what extent cognitive voice processing can occur independently, that is, encapsulated from the simultaneous processing of visual person-related information (and vice versa). In Study 1 (Huestegge & Raettig, in press), participants are presented with audio-visual stimuli displaying faces uttering digits. Audiovisual gender congruency was manipulated: There were male and female faces, each uttering digits with either a male or female voice (all stimuli were AV- synchronized). Participants were asked to categorize the gender of either the face or the voice by pressing one of two keys in each trial. A central result was that audio-visual gender congruency affected performance: Incongruent stimuli were categorized slower and more error-prone, suggesting a strong cross-modal interaction of the underlying visual and auditory processing routes. Additionally, the effect of incongruent visual information on auditory classification was stronger than the effect of incongruent auditory information on visual categorization, suggesting visual dominance over auditory processing in the context of gender classification. A gender congruency effect was also present under high cognitive load. Study 2 (Huestegge, Raettig, & Huestegge, in press) utilized the same (gender-congruent and -incongruent) stimuli, but different tasks for the participants, namely categorizing the spoken digits (into odd/even or smaller/larger than 5). This should effectively direct attention away from gender information, which was no longer task-relevant. Nevertheless, congruency effects were still observed in this study. This suggests a relatively automatic processing of cross-modal gender information, which eventually affects basic speech-based information processing. Study 3 (Huestegge, subm.) focused on the ability of participants to match unfamiliar voices to (either static or dynamic) faces. One result was that participants were indeed able to match voices to faces. Moreover, there was no evidence for any performance increase when dynamic (vs. mere static) faces had to be matched to concurrent voices. The results support the idea that common person-related source information affects both vocal and facial features, and implicit corresponding knowledge appears to be used by participants to successfully complete face-voice matching. Taken together, the three studies (Huestegge, subm.; Huestegge & Raettig, in press; Huestegge et al., in press) provided information to further develop current theories of voice processing (in the context of face processing). On a general level, the results of all three studies are not in line with an abstract, modular view of cognition, but rather lend further support to interactive, embodied accounts of mental processing. N2 - Die vorliegende Dissertation thematisiert die kognitive Verarbeitung von Stimminformation. Basierend auf allgemeinen theoretischen Vorstellungen zu mentalen Prozessen wird zunächst unterschieden in modulare, abstrakte Informationsverarbeitungsansätze und interaktive, verkörperte Vorstellungen kognitiver Prozesse. Diese allgemeinen Vorstellungen werden dann am Beispiel der Verarbeitung von Stimminformation im Kontext der parallel dazu ablaufenden Gesichterverarbeitung konkretisiert. Es geht also u.a. darum, inwiefern kognitive Stimmverarbeitung unbeeinflusst von der gleichzeitigen Verarbeitung von visueller Personeninformation ablaufen kann (und umgekehrt). In Studie 1 (Huestegge & Raettig, in press) werden Probanden audiovisuelle Stimuli dargeboten, bei denen Gesichter Ziffern aussprechen. Manipuliert wird die Geschlechtskongruenz der Stimuli: Es gibt männliche und weibliche Gesichter, die je entweder mit einer männlichen oder weiblichen Stimme synchronisiert wurden. Probanden sollen entweder nur auf die Stimme oder nur auf das visuelle Gesicht achten und jeweils das Geschlecht per Tastendruck kategorisieren. Dabei stellte sich heraus, dass es für die Kategorisierungsleistung eine Rolle spielt, ob es sich um geschlechts-kongruente oder –inkongruente Stimuli handelt: Letztere wurden langsamer bzw. mit höherer Fehleranfälligkeit kategorisiert, was für eine starke cross-modale Interaktion der zugrundeliegenden visuellen und akustischen Verarbeitungsrouten spricht. Dabei wirkte sich inkongruente visuelle Information stärker auf die Stimmbeurteilung aus als inkongruente Stimminformation auf die visuelle Beurteilung, was auf eine Dominanz visueller gegenüber akustischer Informationsverarbeitung hindeutet. Unter starker kognitiver Belastung konnte ebenfalls ein Kongruenzeffekt nachgewiesen werden. In Studie 2 (Huestegge, Raettig, & Huestegge, in press) wurde dasselbe Stimulusmaterial verwendet, aber kategorisiert werden sollten nun die gesprochenen Ziffern (z.B. in gerade/ungerade oder größer/kleiner 5). Damit ist in der Instruktion die Aufmerksamkeit von der Geschlechtsdimension weggelenkt. Dennoch fanden sich auch hier Geschlechtskongruenzeffekte auf die Ziffernkategorisierung, was für eine relativ automatische Verarbeitung von cross-modaler Geschlechtsinformation spricht, die sich dann auch auf die Sprachverarbeitung auswirken kann. In Studie 3 (Huestegge, subm.) wurde die Fähigkeit von Probanden untersucht, von einer Stimme auf das zugehörige (statisch oder dynamisch) dargebotene Gesicht zu schließen. Dies gelang den Probanden in überzufälliger Weise. Weiterhin konnte keine Evidenz dafür gefunden werden, dass bewegte (dynamische) Gesichter besser den Stimmen zugeordnet werden konnten als statische Gesichter. Die Ergebnisse sprechen dafür, dass gemeinsame Quellinformation sich sowohl auf Stimme wie Gesichtsmerkmale auswirkt, und dass implizites Wissen hierüber von den Probanden genutzt wird, um Stimmen Gesichtern zuzuordnen. Insgesamt konnten die Ergebnisse der drei Studien (Huestegge, subm.; Huestegge & Raettig, in press; Huestegge et al., in press) dazu beitragen, bestehende Theorien der Stimm- und Gesichterverarbeitung entscheidend weiterzuentwickeln. Die Ergebnisse sind allgemein eher im Einklang mit einer stark interaktiven, verkörperten Sicht auf kognitive Prozesse, weniger mit einer modular-abstrakten Informationsverarbeitungsperspektive. KW - Stimme KW - Gesicht KW - Voice Processing KW - Stimmverarbeitung KW - Face Voice Matching KW - Informationsverarbeitung KW - Kognition Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-186086 ER - TY - THES A1 - Karl, Christian T1 - Kontextuelle und differentielle Einflüsse auf die neurophysiologische Verarbeitung wütender und neutraler Gesichter T1 - Contextual and differential effects on the neurophysiological processing of angry and neutral faces N2 - In dieser EEG Untersuchung wurde der Einfluss von zuvor präsentierten Abfolgen wütender und neutraler Gesichtsausdrücke auf die neurokognitive Verarbeitung eines aktuell wahrgenommenen Gesichts unter Berücksichtigung des modulierenden Effekts der individuellen Ängstlichkeit, sowie eines sozial stressenden Kontextes und einer erhöhten kognitiven Auslastung erforscht. Die Ergebnisse lieferten bereits auf der Ebene der basalen visuellen Gesichtsanalyse Belege für eine parallele Verarbeitung und Integration von strukturellen und emotionalen Gesichtsinformationen. Zudem konnte schon in dieser frühen Phase ein genereller kontextueller Einfluss von Gesichtssequenzen auf die kognitive Gesichtsverarbeitung nachgewiesen werden, welcher sogar in späteren Phasen der kognitiven Verarbeitung noch zunahm. Damit konnte nachgewiesen werden, dass die zeitliche Integration, d.h. die spezifische Abfolge wahrgenommener Gesichter eine wichtige Rolle für die kognitive Evaluation des aktuell perzipierten Gesichtes spielt. Diese Ergebnisse wurden zudem in einer Revision des Gesichtsverarbeitungsmodells von Haxby und Kollegen verordnet und in einer sLORETA Analyse dargestellt. Die Befunde zur individuellen Ängstlichkeit und kognitiven Auslastung bestätigten außerdem die Attentional Control Theorie und das Dual Mechanisms of Control Modell. N2 - In this EEG study I investigated the influence of previously presented sequences of angry and neutral facial expressions on the neurocognitive processing of a currently perceived face, taking into account the modulating influence of individual anxiety, as well as the influence of a socially stressful context and an increased cognitive load. The results provided evidence for parallel processing and integration of structural and emotional facial information already at the level of basal visual face analysis. Moreover, as early as this stage, there was evidence for a general contextual influence of face sequences on the cognitive processing of the current face, with it‘s effect increasing further at later stages of cognitive processing, thereby proving that the temporal integration, i. e. that the specific sequence of previously perceived faces plays an important role in the cognitive evaluation of the currently perceived face. These results were also classified in a revised version of Haxby and colleagues' neural model of face processing and presented in a sLORETA analysis. Furthermore, the findings concerning the individual anxiety and cognitive load confirmed the Attentional Control Theory and the Dual Mechanisms of Control Model. KW - Visuelle Wahrnehmung KW - Gesicht KW - EEG KW - Sequenzen KW - Attentional control KW - Elektroencephalogramm KW - Angst KW - Wut KW - Reihenfolge Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-183067 ER - TY - THES A1 - Strnad, Friederike T1 - 3D-Weichteilanalyse - sagittale Parameter T1 - 3D Soft Tissue Analysis – Part 1: Sagittal Parameters N2 - Ziel dieser Untersuchung war die Entwicklung einer reliablen dreidimensionalen (3D) Analyse der Gesichtsweichteile. Es sollten sagittale 3D-Durchschnittswerte bestimmt werden und Beziehungen zwischen sagittalen skelettalen Parametern und digital erfassten 3D-Weichteilparametern dargestellt werden. N2 - The aim of this study was to develop a reliable threedimensional (3D) analysis of facial soft tissues. We determined the mean sagittal 3D values and relationships between sagittal skeletal parameters, and digitally recorded 3D soft tissue parameters. KW - Gesicht KW - Weichteilanalyse KW - 3D KW - Stereofotogrammetrie KW - Kephalometrie KW - sagittal KW - Parameter KW - Face KW - Soft tissue analysis KW - 3D KW - Stereophotogrammetry KW - Cephalometry Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-52917 ER -