Refine
Has Fulltext
- yes (3) (remove)
Is part of the Bibliography
- yes (3)
Year of publication
- 2021 (3) (remove)
Document Type
- Doctoral Thesis (3)
Keywords
- Arteriosklerose (1)
- Karotis-Intima-Media-Dicke (1)
- Letalität (1)
- Qualitätsindikator (1)
- Rezidiv (1)
- Risikofaktoren (1)
- Schlaganfall (1)
- Sterblichkeit (1)
- Trend (1)
- attributable fraction (1)
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
In several countries, a decline in mortality, case-fatality and recurrence rates of stroke was observed. However, studies investigating sex-specific and subtype-specific (pathological and etiological) time trends in stroke mortality, case-fatality and recurrence rates are scarce, especially in Germany. The decline in ischemic stroke mortality and case-fatality might be associated with the high quality of acute care of ischemic stroke, but the exact determinants of early outcome remains unknown for Germany.
Therefore, as first step of this thesis, we investigated the time trends of subtype- and sex-specific age- standardized stroke mortality rates in Germany from 1998 to 2015, by applying joinpoint regression on official causes of death statistics, provided by the Federal Statistical Office. Furthermore, a regional comparison of the time trends in stroke mortality between East and West was conducted. In the second step, time trends in case-fatality and stroke recurrence rates were analyzed using data from a population- based stroke register in Germany between 1996 and 2015. The analysis was stratified by sex and etiological subtype of ischemic stroke. In the third step, quality of stroke care and the association between adherence to measures of quality of acute ischemic stroke care and in-hospital mortality was estimated based on data from nine regional hospital-based stroke registers in Germany from the years 2015 and 2016.
We showed that in Germany, age-standardized stroke mortality declined by over 50% from 1998 to 2015 both, in women and men. Stratified by the pathological subtypes of stroke, the decrease in mortality was larger in ischemic stroke compared to hemorrhagic stroke. Different patterns in the time trends of stroke were observed for stroke subtypes, regions in Germany (former Eastern part of Germany (EG), former Western part of Germany (WG)) and sex, but in all strata a decline was found. By applying joinpoint regression, the number of changes in time trend differed between the regions and up to three changes in the trend in ischemic stroke mortality were detected. Trends in hemorrhagic stroke were in parallel between the regions with up to one change (in women) in joinpoint regression. Comparing the regions, stroke mortality was higher in EG compared to WG throughout the whole observed time period, however the differences between the regions started to diminish from 2007 onwards.
Further it was found that, based on the population-based Erlangen Stroke Project (ESPro), case-fatality and recurrence rates in ischemic stroke patients are still high in Germany. 46% died and 20% got a recurrent stroke within the first five years after stroke. Case-fatality rates declined statistically significant from 1996 to 2015 across all ischemic stroke patients and all etiological subtypes of ischemic stroke. Based on Cox regression no statistically significant decrease in stroke recurrence was observed.
Based on the pooled data of nine regional hospital-based stroke registers from the years 2015 and 2016 covering about 80% of all hospitalized stroke patients in Germany, a high quality of care of acute ischemic stroke patients, measured via 11 evidence-based quality indicators (QI) of process of care, was observed. Across all registers, most QI reached the predefined target values for good quality of stroke care. 9 out of 11 QI showed a significant association with 7-day in-hospital mortality. An inverse linear association between overall adherence to QI and 7-day in-hospital mortality was observed.
In conclusion, stroke mortality and case-fatality showed a favorable development over time in Germany, which might partly be due to improvements in acute treatment. This is supported by the association between overall adherence to quality of care and in-hospital mortality. However, there might be room for improvements in long-term secondary prevention, as no clear reduction in recurrence rates was observed.
Kardiovaskuläre Erkrankungen sind unverändert die häufigste Ursache für Morbidität und Mortalität in den Industrienationen [1]. Die Risikoprädiktion und -prävention dieser Erkrankungen ist von großer Bedeutung, unter anderem deswegen weil primäre Ereignisse bei bis dato asymptomatischen Personen auftreten können [2]. Die zugrundeliegende Pathogenese, die Arteriosklerose, ist immer besser erforscht und zugleich sind Risikofaktoren identifiziert, die einen schädlichen Einfluss haben [3, 4]. Durch die Messung der Karotis-Intima-Media-Dicke (Carotid-Intima-Media-Thickness, CIMT) mittels B-Mode Ultraschall steht eine weit verbreitete, sichere und anerkannte Methode zur Verfügung, mit der bereits subklinische Formen der Arteriosklerose erfasst werden können [5]. Die CIMT ist als Surrogatparameter für eine generalisierte Arteriosklerose im gesamten Gefäßsystem etabliert und ihre Zunahme wird mit dem Vorliegen von kardiovaskulären Risikofaktoren assoziiert [6-8]. In der Risikoprädiktion mit Hilfe der CIMT bilden geschlechts-, alters- und regionalspezifische Normwerte die Basis [5]. Die aktuellen internationalen Leitlinien empfehlen in ihren neusten Fassungen, nicht mehr die CIMT zur kardiovaskulären Risikoprädiktion in der Allgemeinbevölkerung einzusetzen [1, 9]. Die Experten berufen sich auf Studien, in denen lediglich ein singuläres Messsegment betrachtet wurde [1, 9-11]. Das Ziel der vorliegenden Arbeit war es den Einfluss spezifischer kardiovaskulärer Risikofaktoren auf die verschiedenen Segmente der A. carotis zu erfassen und – davon ausgehend – den Stellenwert der vorhandenen Modelle zur Risikoprädiktion zu evaluieren. Des Weiteren wurden Normwerte aus einer repräsentativen Gruppe der Würzburger Allgemeinbevölkerung gebildet und die Reproduzierbarkeit der Ultraschalluntersuchung im Bereich der Halsschlagader überprüft.
Den Berechnungen liegen Daten der STAAB-Kohortenstudie (Häufigkeit und Einflussfaktoren auf frühe STAdien A und B der Herzinsuffizienz in der Bevölkerung) zugrunde, einer große Bevölkerungsstudie, die seit 2015 Daten der Würzburger Bevölkerung erhebt [12]. Es wurden Probanden zwischen mit einem Alter zwischen 30 und 79 Jahren eingeschlossen. Die CIMT wurde auf beiden Seiten des Halses auf der schallkopffernen Seite an drei vorab definierten Lokalisationen des Gefäßes, der A. carotis communis (ACC), dem Bulbus und der A. carotis interna (ACI), vermessen. Es wurden die fünf Risikofaktoren Diabetes mellitus, Dyslipidämie, Hypertonie, Rauchen und Übergewicht berücksichtigt. Mittels einer logistischen Regression wurde der spezifische Einfluss dieser Faktoren auf die individuelle, alters- und geschlechtsbasierte 75. Perzentile der CIMT in den einzelnen Lokalisationen betrachtet. Diese Grenzwerte stammten aus den eigens erstellten Normwerten für die Allgemeinbevölkerung. Es wurde eine „gesunde“ Subpopulation zur Erstellung dieser Normwerte gebildet, die keine der oben genannten Risikofaktoren sowie keine manifesten kardiovaskulären Erkrankungen aufwiesen.
Die Auswertung umfasste die Daten von insgesamt 2492 Probanden. Die segmentspezifische CIMT war am größten im Bereich Bulbus, gefolgt von der ACC und der ACI. Männer hatten höhere Wanddickenwerte und mehr Risikofaktoren als Frauen. Die Reproduzierbarkeit zwischen den einzelnen Untersuchern war insgesamt moderat bis stark. Im Vergleich zu anderen Studien zeigte sich jedoch insgesamt eine schwächere Übereinstimmung, so dass von einer potentiellen Verbesserung des Schulungsprotokolls für unerfahrene Personen ausgegangen wird. Die Ergebnisse der Reproduzierbarkeitsanalyse verdeutlichen den Bedarf eines standardisierten, international anerkannten Protokolls zur Schulung von Untersuchern der CIMT und eines exakten Messprotokolls [5, 13]. Die erhobenen Normwerte der „Gesunden“ zeigten eine Konsistenz mit verschiedenen, auf vergleichbare Weise erhobenen Werten und bildeten die Basis für die weiteren Untersuchungen. Die CIMT nahm mit dem Alter und – unabhängig davon – ebenfalls mit der Anzahl an Risikofaktoren zu. Die Faktoren Dyslipidämie, Rauchen und Hypertonie hatten einen statistisch signifikanten Einfluss für das Überschreiten des Grenzwertes der 75. Perzentile (OR (95 % KI) zwischen 1,28 (0,98 – 1,65), ACC, und 1,86 (1,53 – 2,27), Bulbus) [14]. Die Faktoren Diabetes mellitus und Übergewicht zeigten im verwendeten Modell keinen Effekt auf die CIMT. Insgesamt konnte, bis auf eine mögliche Interaktion zwischen dem Risikofaktor Rauchen und der ACI, kein segmentspezifischer Effekt beobachtet werden [14]. Daraus resultierend wurde die Hypothese aufgestellt, dass zur Erfassung des kardiovaskulären Risikos einer Person die Messung eines singulären Segments möglicherweise ausreicht [14]. Dies stärkt die neusten Empfehlungen der Leitlinien, die sich auf Studien berufen, welche eben nur ein Segment betrachteten. Die identifizierten Risikofaktoren spiegeln sich darüber hinaus in den gängigen Modellen zur Risikoprädiktion und -prävention wider. Demnach gerät der Einsatz der CIMT zur Bestimmung des individuellen Risikos von Personen der Allgemeinbevölkerung in den Hintergrund [15].