Refine
Has Fulltext
- yes (7)
Is part of the Bibliography
- yes (7)
Document Type
- Journal article (6)
- Doctoral Thesis (1)
Keywords
- atrial fibrillation (2)
- ischemic stroke (2)
- NAFLD (1)
- NOAC (1)
- acute kidney injury (1)
- apoptosis (1)
- arterial stiffening (1)
- atherosclerosis (1)
- attributable fraction (1)
- attributable risk (1)
Institute
- Institut für Klinische Epidemiologie und Biometrie (6)
- Klinik und Poliklinik für Thorax-, Herz- u. Thorakale Gefäßchirurgie (3)
- Medizinische Klinik und Poliklinik I (3)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (2)
- Graduate School of Life Sciences (1)
- Medizinische Klinik und Poliklinik II (1)
- Neurologische Klinik und Poliklinik (1)
Aims
We aimed to analyze prevalence and predictors of NOAC off-label under-dosing in AF patients before and after the index stroke.
Methods
The post hoc analysis included 1080 patients of the investigator-initiated, multicenter prospective Berlin Atrial Fibrillation Registry, designed to analyze medical stroke prevention in AF patients after acute ischemic stroke.
Results
At stroke onset, an off-label daily dose was prescribed in 61 (25.5%) of 239 NOAC patients with known AF and CHA2DS2-VASc score ≥ 1, of which 52 (21.8%) patients were under-dosed. Under-dosing was associated with age ≥ 80 years in patients on rivaroxaban [OR 2.90, 95% CI 1.05-7.9, P = 0.04; n = 29] or apixaban [OR 3.24, 95% CI 1.04-10.1, P = 0.04; n = 22]. At hospital discharge after the index stroke, NOAC off-label dose on admission was continued in 30 (49.2%) of 61 patients. Overall, 79 (13.7%) of 708 patients prescribed a NOAC at hospital discharge received an off-label dose, of whom 75 (10.6%) patients were under-dosed. Rivaroxaban under-dosing at discharge was associated with age ≥ 80 years [OR 3.49, 95% CI 1.24-9.84, P = 0.02; n = 19]; apixaban under-dosing with body weight ≤ 60 kg [OR 0.06, 95% CI 0.01-0.47, P < 0.01; n = 56], CHA2DS2-VASc score [OR per point 1.47, 95% CI 1.08-2.00, P = 0.01], and HAS-BLED score [OR per point 1.91, 95% CI 1.28-2.84, P < 0.01].
Conclusion
At stroke onset, off-label dosing was present in one out of four, and under-dosing in one out of five NOAC patients. Under-dosing of rivaroxaban or apixaban was related to old age. In-hospital treatment after stroke reduced off-label NOAC dosing, but one out of ten NOAC patients was under-dosed at discharge.
Objectives
Liver biopsies are the current gold standard in non-alcoholic steatohepatitis (NASH) diagnosis. Their invasive nature, however, still carries an increased risk for patients' health. The development of non-invasive diagnostic tools to differentiate between bland steatosis (NAFL) and NASH remains crucial. The aim of this study is the evaluation of investigated circulating microRNAs in combination with new targets in order to optimize the discrimination of NASH patients by non-invasive serum biomarkers.
Methods
Serum profiles of four microRNAs were evaluated in two cohorts consisting of 137 NAFLD patients and 61 healthy controls. In a binary logistic regression model microRNAs of relevance were detected. Correlation of microRNA appearance with known biomarkers like ALT and CK18-Asp396 was evaluated. A simplified scoring model was developed, combining the levels of microRNA in circulation and CK18-Asp396 fragments. Receiver operating characteristics were used to evaluate the potential of discriminating NASH.
Results
The new finding of our study is the different profile of circulating miR-21 in NASH patients (p<0.0001). Also, it validates recently published results of miR-122 and miR-192 to be differentially regulated in NAFL and NASH. Combined microRNA expression profiles with CK18-Asp396 fragment level scoring model had a higher potential of NASH prediction compared to other risk biomarkers (AUROC = 0.83, 95% CI = 0.754-0.908; p<0.001). Evaluation of score model for NAFL (Score = 0) and NASH (Score = 4) had shown high rates of sensitivity (91%) and specificity (83%).
Conclusions
Our study defines candidates for a combined model of miRNAs and CK18-Asp396 levels relevant as a promising expansion for diagnosis and in turn treatment of NASH.
Background:
Acute kidney injury (AKI) is a serious complication after cardiac surgery that is associated with increased mortality and morbidity. Heme oxygenase-1 (HO-1) is an enzyme synthesized in renal tubular cells as one of the most intense responses to oxidant stress linked with protective, anti-inflammatory properties. Yet, it is unknown if serum HO-1 induction following cardiac surgical procedure involving cardiopulmonary bypass (CPB) is associated with incidence and severity of AKI.
Patients and methods:
In the present study, we used data from a prospective cohort study of 150 adult cardiac surgical patients. HO-1 measurements were performed before, immediately after and 24 hours post-CPB. In univariate and multivariate analyses, the association between HO-1 and AKI was investigated.
Results:
AKI with an incidence of 23.3% (35 patients) was not associated with an early elevation of HO-1 after CPB in all patients (P=0.88), whereas patients suffering from AKI developed a second burst of HO-1 24 hours after CBP. In patients without AKI, the HO-1 concentrations dropped to baseline values (P=0.031). Furthermore, early HO-1 induction was associated with CPB time (P=0.046), while the ones 24 hours later lost this association (P=0.219).
Conclusion:
The association of the second HO-1 burst 24 hours after CBP might help to distinguish between the causality of AKI in patients undergoing CBP, thus helping to adapt patient stratification and management.
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
Background:
Adherence to pharmacotherapeutic treatment guidelines in patients with heart failure (HF) is of major prognostic importance, but thorough implementation of guidelines in routine care remains insufficient. Our aim was to investigate prevalence and characteristics of HF in patients with coronary heart disease (CHD), and to assess the adherence to current HF guidelines in patients with HF stage C, thus identifying potential targets for the optimization of guideline implementation.
Methods:
Patients from the German sample of the European Action on Secondary and Primary Prevention by Intervention to Reduce Events (EuroAspire) IV survey with a hospitalization for CHD within the previous six to 36 months providing valid data on echocardiography as well as on signs and symptoms of HF were categorized into stages of HF: A, prevalence of risk factors for developing HF; B, asymptomatic but with structural heart disease; C, symptomatic HF. A Guideline Adherence Indicator (GAI-3) was calculated for patients with reduced (≤40%) left ventricular ejection fraction (HFrEF) as number of drugs taken per number of drugs indicated; beta-blockers, angiotensin converting enzyme inhibitors/angiotensin receptor blockers, and mineralocorticoid receptor antagonists (MRA) were considered.
Results:
509/536 patients entered analysis. HF stage A was prevalent in n = 20 (3.9%), stage B in n = 264 (51.9%), and stage C in n = 225 (44.2%) patients; 94/225 patients were diagnosed with HFrEF (42%). Stage C patients were older, had a longer duration of CHD, and a higher prevalence of arterial hypertension. Awareness of pre-diagnosed HF was low (19%). Overall GAI-3 of HFrEF patients was 96.4% with a trend towards lower GAI-3 in patients with lower LVEF due to less thorough MRA prescription.
Conclusions:
In our sample of CHD patients, prevalence of HF stage C was high and a sizable subgroup suffered from HFrEF. Overall, pharmacotherapy was fairly well implemented in HFrEF patients, although somewhat worse in patients with more reduced ejection fraction. Two major targets were identified possibly suited to further improve the implementation of HF guidelines: 1) increase patients´ awareness of diagnosis and importance of HF; and 2) disseminate knowledge about the importance of appropriately implementing the use of mineralocorticoid receptor antagonists.
Trial registration:
This is a cross-sectional analysis of a non-interventional study. Therefore, it was not registered as an interventional trial.
Functional versus morphological assessment of vascular age in patients with coronary heart disease
(2021)
Communicating cardiovascular risk based on individual vascular age (VA) is a well acknowledged concept in patient education and disease prevention. VA may be derived functionally, e.g. by measurement of pulse wave velocity (PWV), or morphologically, e.g. by assessment of carotid intima-media thickness (cIMT). The purpose of this study was to investigate whether both approaches produce similar results. Within the context of the German subset of the EUROASPIRE IV survey, 501 patients with coronary heart disease underwent (a) oscillometric PWV measurement at the aortic, carotid-femoral and brachial-ankle site (PWVao, PWVcf, PWVba) and derivation of the aortic augmentation index (AIao); (b) bilateral cIMT assessment by high-resolution ultrasound at three sites (common, bulb, internal). Respective VA was calculated using published equations. According to VA derived from PWV, most patients exhibited values below chronological age indicating a counterintuitive healthier-than-anticipated vascular status: for VA(PWVao) in 68% of patients; for VA\(_{AIao}\) in 52% of patients. By contrast, VA derived from cIMT delivered opposite results: e.g. according to VA\(_{total-cIMT}\) accelerated vascular aging in 75% of patients. To strengthen the concept of VA, further efforts are needed to better standardise the current approaches to estimate VA and, thereby, to improve comparability and clinical utility.
Background
The impact of risk factors on poor outcome after ischemic stroke is well known, but estimating the amount of poor outcome attributable to single factors is challenging in presence of multimorbidity. We aim to compare population attributable risk estimates obtained from different statistical approaches regarding their consistency. We use a real-life data set from the PROSCIS study to identify predictors for mortality and functional impairment one year after first-ever ischemic stroke and quantify their contribution to poor outcome using population attributable risks.
Methods
The PROSpective Cohort with Incident Stroke (PROSCIS) is a prospective observational hospital-based cohort study of patients after first-ever stroke conducted independently in Berlin (PROSCIS-B) and Munich (PROSCIS-M). The association of baseline factors with poor outcome one year after stroke in PROSCIS-B was analysed using multiple logistic regression analysis and population attributable risks were calculated, which were estimated using sequential population attributable risk based on a multiple generalized additive regression model, doubly robust estimation, as well as using average sequential population attributable risk. Findings were reproduced in an independent validation sample from PROSCIS-M.
Results
Out of 507 patients with available outcome information after 12 months in PROSCIS-B, 20.5% suffered from poor outcome. Factors associated with poor outcome were age, pre-stroke physical disability, stroke severity (NIHSS), education, and diabetes mellitus. The order of risk factors ranked by magnitudes of population attributable risk was almost similar for all methods, but population attributable risk estimates varied markedly between the methods. In PROSCIS-M, incidence of poor outcome and distribution of baseline parameters were comparable. The multiple logistic regression model could be reproduced for all predictors, except pre-stroke physical disability. Similar to PROSCIS-B, the order of risk factors ranked by magnitudes of population attributable risk was almost similar for all methods, but magnitudes of population attributable risk differed markedly between the methods.
Conclusions
Ranking of risk factors by population impact is not affected by the different statistical approaches. Thus, for a rational decision on which risk factor to target in disease interventions, population attributable risk is a supportive tool. However, population attributable risk estimates are difficult to interpret and are not comparable when they origin from studies applying different methodology. The predictors for poor outcome identified in PROSCIS-B have a relevant impact on mortality and functional impairment one year after first-ever ischemic stroke.