Refine
Is part of the Bibliography
- yes (43)
Year of publication
Document Type
- Doctoral Thesis (43)
Keywords
Institute
- Medizinische Klinik und Poliklinik I (15)
- Graduate School of Life Sciences (13)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (11)
- Institut für Klinische Epidemiologie und Biometrie (8)
- Klinik und Poliklinik für Thorax-, Herz- u. Thorakale Gefäßchirurgie (3)
- Medizinische Fakultät (3)
- Institut für Informatik (1)
- Institut für Psychotherapie und Medizinische Psychologie (1)
- Institut für Virologie und Immunbiologie (1)
- Institut für diagnostische und interventionelle Radiologie (Institut für Röntgendiagnostik) (1)
Sonstige beteiligte Institutionen
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
Im Zuge der Erstdiagnostik einer Krankenhausaufnahme bei akuter Herzinsuffizienz ist die Röntgen-Thorax-Untersuchung fester Bestandteil. Ziel dieser Arbeit war es, ihren klinischen Stellenwert und die Aufnahmequalität systematisch zu untersuchen. In der AHF-Registerstudie wurden alle am Universitätsklinikum Würzburg vorstelligen Patienten mit akuter Herzinsuffizienz konsekutiv registriert und umfassend phänotypisiert. Die Röntgen-Thorax-Befunde wurden systematisch informationsextrahiert, auf Konsistenz überprüft, katalogisiert und klassifiziert.
Hintergrund: Akute Nierenschädigung (AKI) nach einem herzchirurgischen Eingriff unter Einsatz der Herz-Lungenmaschine ist eine häufige und schwerwiegende Komplikation und erhöht die Morbidität und Mortalität. NGAL (Neutrophiles Gelatine-assoziiertes Lipocalin) und Hämoxygenase-1 (HO-1) sind renale Biomarker mit protektiver Wirkung. Ziel der Studie war, um den Zusammenhang zwischen NGAL und HO-1 und der Inzidenz von AKI nach Herzoperationen zu untersuchen.
Patienten und Methode: In dieser prospektiven Kohortenstudie wurden 150 erwachsene herzchirurgische Patienten untersucht. HO-1- und NGAL-Messungen wurden mittels ELISA durchgeführt. In uni- und multivariaten Analysen wurde der Zusammenhang zwischen Biomarkern und AKI untersucht.
Ergebnisse: Insgesamt 35 Patienten (23,5%) entwickelten AKI in den ersten 48 postoperativen Stunden. Die Konzentrationen von NGAL und HO-1 waren bei ICU-Ankunft im Vergleich zum Ausgangswert höher (p<0.001 für NGAL bzw. HO-1). Bei Patienten, die AKI entwickelten, wurde 24 Stunden nach der Operation ein zusätzlicher Anstieg der Serum-HO-1-Konzentration beobachtet, während bei Patienten, die später keine AKI entwickelten, die Serum-HO-1-Konzentrationen abnahmen (AKI: 12.75 [8.69-34-35] vs. keine AKI: 8.30 [4.13-15.60] ng/ml, p=0.031). In der multivariaten Analyse wurde eine unabhängige Beziehung der Serum-HO-1-Konzentration 24 Stunden nach der Operation mit der Entwicklung einer AKI innerhalb 48 Stunden postoperativ gefunden (p=0.043, OR 1.053, 95% CI: 1.002-1.007).
Zusammenfassung: Die Kinetik der HO-1-Serumkonzentrationen nach einer Herzoperation und der Zusammenhang der HO-1-Konzentration mit der Entwicklung von AKI liefert neue Informationen über die potenzielle Nützlichkeit von HO-1 als Biomarker.
Die vorliegende Arbeit untersucht den Natriumgehalt verschiedener Kompartimente des Körpers mittels Magnetresonanztomographie (= MRT).
Die Korrelation zwischen erhöhtem Salzkonsum und arterieller Hypertonie ist bereits umfangreich analysiert worden. Für das Verständnis der pathophysiologischen Zustände und deren Regulation, ist eine Quantifizierung von Natriumkonzentrationen in verschiedenen Gewebearten bedeutsam. Die exakte Messung von Natriumkonzentrationen im menschlichen Gewebe ist derzeit experimentell. Im Rahmen der hier vorgelegten Arbeit wurden die Natriumkonzentrationen von Haut und Skelettmuskel mittels 23Na Magnetresonanztomographie (= 23 Na MRT) im menschlichen Körper quantifiziert.
Natriummessungen wurden bei Patienten mit primärem Hyperaldosteronismus (= PHA), bei Patienten mit essentieller Hypertonie (= EH), sowie einer gesunden Kontrollgruppe vorgenommen.
Die Ergebnisse zeigten, dass Haut und Skelettmuskel Speicherorgane für Natrium im menschlichen Körper darstellen. Durch gezielte Therapie waren die Natriumkonzentrationen in beiden Speicherorganen modulierbar
Es existieren mehrere Arbeiten, welche die spezifischen Charakteristika der infektiösen Endokarditis unterschiedlicher Erreger untersucht haben, jedoch hat bisher kein direkter Vergleich der drei großen, für die infektiöse Endokarditis in der westlichen Welt hauptsächlich verantwortlichen Erregergruppen (Staphylokokkus aureus, andere Erreger und fehlender Keimnachweis) stattgefunden. In der folgenden Arbeit wurde anhand eines repräsentativen Kollektivs von 103 Patienten retrospektiv der Frage nachgegangen, ob sich zwischen den genannten drei Gruppen signifikante Unterschiede im Krankheitsgeschehen herausarbeiten lassen. Dies könnte einen ersten Schritt der Therapieoptimierung darstellen, indem die Heterogenität der Erkrankung durch das Bilden von Untergruppen reduziert und entsprechende klinische Handlungsstrategien etabliert werden könnten. Im Hinblick darauf wurden die Epidemiologie, der Krankheitsverlauf und das Outcome der Gruppen analysiert. In einem zweiten Schritt wurde mit Hilfe statistischer Analysen untersucht, ob Unterschiede in der Aussagekraft zwischen den gängigen, in der klinischen Situation eingesetzten Nachweismethoden für die jeweiligen Keime bestehen.
Die PAH sowie die CTEPH stellen schwerwiegende Erkrankungen des pulmonalen Gefäßsystems dar. Der moderne PAH-Patienten des 21. Jahrhunderts wird zunehmend älter. Der Häufigkeitsgipfel der CTEPH-Erkrankung liegt zwischen dem 60. und 70. Lebensjahr. Aufgrund des fortgeschrittenen Alters leiden viele der Betroffenen an weiteren Komorbiditäten, weshalb eine genauere Betrachtung der Auswirkungen auf Belastbarkeit, verschiedene klinische und hämodynamische Parameter sowie auf die Mortalität sinnvoll erscheint.
Die vorliegende Arbeit basiert auf einer monozentrischen, retrospektiven Datenanalyse eines fortlaufenden Patientenkollektivs, bestehend aus 114 PAH-Patienten, 42 CTEPH-Patienten und einer Kontrollgruppe mit 99 Patienten ohne pulmonale Hypertonie. Zudem wurden PAH- und CTEPH-Patienten als gepooltes Kollektiv betrachtet und analysiert.
Die Daten zeigen, dass verschiedene wichtige Parameter, wie die 6-Minuten-Gehstrecke, die Fläche des linken und rechten Atriums, der NT-proBNP-Wert aber auch die TAPSE oder der mPAP durch Vorliegen häufiger Komorbiditäten beeinflusst werden könnten. Auch Auswirkungen der Begleiterkrankungen auf die Mortalität der Betroffenen sind mit Verweis auf vorliegende Daten wahrscheinlich.
Background
Tobacco smoking is accountable for more than one in ten deaths in patients with cardiovascular disease. Thus, smoking cessation has a high priority in secondary prevention of coronary heart disease (CHD). The present study meant to assess smoking cessation patterns, identify parameters associated with smoking cessation and investigate personal reasons to change or maintain smoking habits in patients with established CHD.
Methods
Quality of CHD care was surveyed in 24 European countries in 2012/13 by the fourth European Survey of Cardiovascular Disease Prevention and Diabetes. Patients 18 to 79 years of age at the date of the CHD index event hospitalized due to first or recurrent diagnosis of coronary artery bypass graft, percutaneous coronary intervention, acute myocardial infarction or acute myocardial ischemia without infarction (troponin negative) were included. Smoking status and clinical parameters were iteratively obtained a) at the cardiovascular disease index event by medical record abstraction, b) during a face-to-face interview 6 to 36 months after the index event (i.e. baseline visit) and c) by telephone-based follow-up interview two years after the baseline visit. Parameters associated with smoking status at the time of follow-up interview were identified by logistic regression analysis. Personal reasons to change or maintain smoking habits were assessed in a qualitative interview and analyzed by qualitative content analysis.
Results
One hundred and four of 469 (22.2%) participants had been classified current smokers at the index event and were available for follow-up interview. After a median observation period of 3.5 years (quartiles 3.0, 4.1), 65 of 104 participants (62.5%) were classified quitters at the time of follow-up interview. There was a tendency of diabetes being more prevalent in quitters vs non-quitters (37.5% vs 20.5%, p=0.07). Higher education level (15.4% vs 33.3%, p=0.03) and depressed mood (17.2% vs 35.9%, p=0.03) were less frequent in quitters vs non-quitters. Quitters more frequently participated in cardiac rehabilitation programs (83.1% vs 48.7%, p<0.001). Cardiac rehabilitation appeared as factor associated with smoking cessation in multivariable logistic regression analysis (OR 5.19, 95%CI 1.87 to 14.46, p=0.002). Persistent smokers at telephone-based follow-up interview reported on addiction as wells as relaxation and pleasure as reasons to continue their habit. Those current and former smokers who relapsed at least once after a quitting attempt, stated future health hazards as their main reason to undertake quitting attempts. Prevalent factors leading to relapse were influence by their social network and stress. Successful quitters at follow-up interview referred to smoking-related harm done to their health having had been their major reason to quit.
Interpretation
Participating in a cardiac rehabilitation program was strongly associated with smoking cessation after a cardiovascular disease index event. Smoking cessation counseling and relapse prophylaxis may include alternatives for the pleasant aspects of smoking and incorporate effective strategies to resist relapse.
Zahnverluste können zu erheblichen Beeinträchtigungen der Phonetik, Ästhetik und Funktionalität führen. Daher muss Zahnersatz das natürliche Gebiss funktionell ersetzen, möglichst ohne als künstlich empfunden zu werden. Die dentale Implantologie als moderne Therapieform zur Behandlung verloren gegangener Zähne, weist heutzutage hohe Erfolgsraten auf. Dennoch ist die Suche nach Misserfolgsursachen unerlässlich, um auch langfristig eine Therapiesicherheit bieten zu können.
Die vorliegende Untersuchung hatte das Ziel, den Einfluss von Erkrankungen wie Diabetes mellitus, Nikotinabusus und kardiovaskulären Erkrankungen auf die Implantattherapie und deren Erfolg zu untersuchen.
1904 Patienten, welche in einem Zeitraum von 15 Jahren (9.6.1995 - 16.7.2010) in der Zahnarztpraxis Dr. med. Robert Böttcher mit Implantaten verschiedener Implantatsysteme versorgt wurden, wurden in dieser Studie untersucht.
Das Patientengut bestand aus 1107 (58,1%) Frauen und 797 (41,9%) Männern. Im Mittel wurden pro Patient 3 Implantate gesetzt. Das mittlere Alter der 1904 Patienten bei Implantation lag bei 52 Jahren (Minimum: 15 Jahre, Maximum: 86 Jahre). 58% der Implantate (n=3608) wurden bei Frauen eingesetzt. 42% der Implantate (n=2609) wurden bei Männern inseriert.
Bei der Analyse implantatabhängiger Faktoren stellte sich der Parameter „Indikation“ und auch die Interaktion des Parameters Indikation „2b“ und der Einheildauer als signifikant dar. Erstaunlicherweise haben Implantate, welche in „Schaltlücken“ inseriert wurden, ein zunächst über 65000-fach höheres Risiko explantiert zu werden. Dieses Risiko nimmt allerdings mit zunehmender Einheildauer signifikant ab. So ist es nach einem Monat nur noch 1478-fach erhöht, nach 2 Monaten nur noch 33-fach erhöht.
Ein Erklärungsansatz für das bessere Überleben der Implantate im zahnlosen Unterkiefer liegt in der dort zu findenden Knochenqualität mit einem deutlich höheren Anteil an Knochenkompakta und der daraus resultierenden erhöhten Widerstandsfähigkeit. Die Indikation „Schaltlücke“ wurde in der vorliegenden Untersuchung zudem vor allem im Seitenzahnbereich versorgt. Hier kommt es zu einer höheren Kaubelastung und anatomisch bedingt ist in der Seitenzahnregion mit einer geringeren Restknochenhöhe zu rechnen. Zudem kommt es durch den frühen Verlust der Molaren (6-Jahres-Molar) zu einer vertikalen und horizontalen Knochenatrophie, was wiederum bei der Implantation in dieser Position Augmentationsmaßnahmen erfordern kann. Diese sind erwartungsgemäß mit einem höheren Verlustrisiko assoziiert. Weiterhin kann durch Mangel an fixierter Gingiva eine Optimierung der Weichgewebssituation in Form einer Vestibulumplastik erforderlich sein. Dies kann mit einem erhöhten Risiko einer Periimplantitis und schließlich einem Implantatverlust einhergehen.
In der Literatur fanden sich ähnliche Ergebnisse bei Shatkin et al. (2007). Hier kam es zu den höchsten Verlusten in der posterioren Maxillaregion. Auch Machtei et al. (2007) und Johns et al. (1992) ermittelten die höchste Verlustrate im Bereich der oberen ersten Molaren. [81, 102]
Auch die Einheildauer und die Interaktion der Einheildauer mit der Zeit erwiesen sich in der vorliegenden Arbeit als signifikante Variablen. Es erstaunt jedoch nicht, dass sich das Risiko eines Implantatverlustes mit zunehmender Einheildauer, in dieser Studie um den Faktor 3,89 pro Monat Einheildauer, reduziert. Gerade bei zusätzlichen Maßnahmen wie Osteoplastiken oder der gesteuerten Geweberegeneration werden die Einheilzeiten auf bis zu zwölf Monate verlängert um eine optimale Osseointegration zu gewährleisten.
Ein offen-transgingivaler Einheilmodus zeigte gegenüber dem gedeckt-subgingivalen Einheilmodus mit etwa 3% Verlust nach 10 Jahren ein signifikant schlechteres Überleben.
Additive Implantatoberflächen zeigten im Vergleich zu subtraktiven Oberflächen signifikant bessere 10-Jahresüberlebensraten. Die Verlustraten lagen bei letztgenannten bei bis zu 5% nach 10 Jahren.
Erwartungsgemäß wurden in dieser Studie Augmentationsmaßnahmen und zunehmende Implantatanzahl als Risikofaktor einer Explantation identifiziert. So haben augmentierte Implantate ein 2,4-fach höheres Risiko explantiert zu werden. Das relative Risiko eines Implantatverlustes nimmt mit zunehmender Implantatanzahl um den Faktor 1,18 zu.
Implantatregion, -durchmesser und -länge, wie auch der Implantationszeitpunkt und die Knochenqualität konnten nicht als Risikoparameter identifiziert werden.
Bei der Untersuchung patientenabhängiger Faktoren erwies sich das Patientenalter als signifikanter Einflussfaktor auf den Implantaterfolg. So kam es bei Patienten im höheren Lebensalter seltener zu Implantatverlusten. Pro Lebensjahr sank das Risiko eines Implantatverlustes um den Faktor 0,9. Dies lässt sich durch ein größeres Gesundheitsbewusstsein im zunehmenden Lebensalter erklären. Zudem bestand bei jungen Patienten in dieser Untersuchung ganz überwiegend eine Indikation zur Einzelzahnversorgung beispielsweise bei Nichtanlagen der oberen seitlichen Schneidezähne, multiplen Nichtanlagen oder nach Unfällen (Fahrrad, Skater, Schlitten).
Diese Indikationen erfordern häufig Augmentationsmaßnahmen, teilweise auch Knochenblocktransplantationen, was insgesamt wiederum zu einem erhöhten Implantatverlustrisiko führt.
Das Patientengeschlecht hatte keinen Einfluss auf den Implantaterfolg.
Wie erwartet, konnte im untersuchten Patientengut ein negativer Einfluss des Rauchens auf den Implantaterfolg aufgezeigt werden.
In der Literatur wird dem Nikotinabusus nahezu einheitlich ein negativer Einfluss auf das Implantatüberleben zugeschrieben.
Eine diabetische Stoffwechsellage hatte in unserem Patientenkollektiv keinen nachweisbaren Einfluss auf den Implantaterfolg.
Hingegen wurde bei Patienten mit kardiovaskulären Erkrankungen nach 10 Jahren eine signifikant geringere Implantatüberlebenswahrscheinlichkeit nachgewiesen.
Die Hypothese der Arbeit, dass Risikofaktoren zu Komplikationen bei der dentalen Implantation führen und somit das Implantatüberleben beeinflussen, konnte in dieser Untersuchung bestätigt werden.
Insgesamt ist in Anbetracht des Patienten-individuellen Risikos eine spezifische Risiko-Nutzen-Abwägung erforderlich, da eine implantatprothetische Versorgung der Patienten mit definierten Risikofaktoren nicht generell kontraindiziert ist.
Die chronische Herzinsuffizienz ist eine der führenden Ursachen für Morbidität und Mortalität in den industrialisierten Nationen. Herzinsuffizienz ist eine Erkrankung des höheren Lebensalters, ist häufig assoziiert mit komorbiden Faktoren und stellt in Deutschland mittlerweile die häufigste Hauptdiagnose krankheitsbedingter stationärer Krankenhausaufenthalte dar. Herzinsuffizienz ist damit einer der wesentlichen kostentreibenden Faktoren unseres Gesundheitssystems.
Neben allgemeinen nicht-medikamentösen Behandlungsempfehlungen und chirurgischen Therapien für Patienten im Endstadium der Erkrankung gibt es pharmakotherapeutische Leitlinien, die sich auf eine solide Evidenzbasis stützen. Die aktuellen Behandlungsleitlinien basieren jedoch größtenteils auf großen randomisierten kontrollierten Studien, in denen häufig wichtige Patientengruppen aufgrund von Alter, Geschlecht, Komorbiditäten oder erhaltener linksventrikulärer Ejektionsfraktion ausgeschlossen waren. Dies wird jedoch der ausgeprägten Heterogenität chronisch herzinsuffizienter Patienten im klinischen Alltag nur bedingt gerecht. Zudem ist die medikamentöse Therapie oft komplex und erfordert eine häufige Anpassung an die individuellen Begleiterkrankungen des Patienten sowie wiederholte Anpassungen der Dosis (Auftitration). Die Umsetzung dieser Therapieleitlinien und die damit zu erzielenden prognostischen Effekte in der deutschen Bevölkerung sind bislang schlecht beschrieben. Insbesondere ist unklar, inwieweit die Ergebnisse der großen, randomisierten kontrollierten Studien auf die Allgemeinbevölkerung übertragbar sind.
In der vorliegenden Arbeit wurde eine dem Praxisalltag vergleichbare Kohorte konsekutiver chronisch herzinsuffizienter Patienten (n=1054) mit eingeschränkter bzw. erhaltener linksventrikulärer Pumpfunktion rekrutiert und über im Mittel fünf Jahre nachverfolgt.
Im Mittelpunkt stand die Frage, welche Faktoren ausschlaggebend dafür sind, dass ein chronisch herzinsuffizienter Patient eine leitliniengerechte Pharmakotherapie (Korrelate einer besseren Leitlinientreue) bzw. eine höhere Dosierung der Medikation (Korrelate einer optimierten Pharmakotherapie) erhält. Zudem sollten diejenigen Faktoren herausgearbeitet werden, die das Langzeitüberleben chronisch herzinsuffizienter Patienten beeinflussen. Hier sollte insbesondere auch die Frage untersucht werden, in welchem Ausmaß eine höherqualitative Pharmakotherapie die Prognose beeinflussen kann. Als Arbeitshypothese wurde definiert, dass eine bessere Leitlinientreue bzw. eine optimierte Pharmakotherapie die Langzeitprognose chronisch herzinsuffizienter Patienten positiv beeinflusst. Dabei wurde zusätzlich angenommen, dass die zu Studienbeginn erfassten Risikofaktoren sowohl die Auswahl der Arzneimittel als auch die Höhe der Dosierungen beeinflussen.
Anhand des INH-Register Kollektivs konnte gezeigt werden, dass die Leitlinien der Europäischen Gesellschaft für Kardiologie zur Therapie der chronischen Herzinsuffizienz auch auf das Alltagskollektiv des INH-Registers übertragbar sind und sich dabei positiv auf die Prognose dieser Patienten auswirken. Dies ist insbesondere deshalb wichtig, da sich die Leitlinien größtenteils auf randomisiert-kontrollierte Studien stützen, in denen bestimmte Patientengruppen – u.a. alte Patienten, Frauen und Patienten mit erhaltener linksventrikulärer Funktion − ausgeschlossen wurden. Die vorliegende Arbeit zeigt, dass eben diese Patientengruppen bei der Therapie „benachteiligt“ werden. Einen höheren Grad an leitliniengerechter Pharmakotherapie und/oder höhere Dosierungen der Herzinsuffizienzmedikamente erhalten demnach jüngere Patienten, Männer und Patienten im niedrigeren NYHA-Stadium. Diese Erkenntnisse können in Zukunft als möglicher Ansatzpunkt zur Verbesserung der Versorgungssituation chronisch herzinsuffizienter Patienten dienen, wodurch sich perspektivisch die Morbidität und Mortalität dieser Patienten weiter senken ließe.
Die Daten des INH-Registers untermauerten den Überlebensvorteil von chronisch herzinsuffizienten Patienten, die mit einem Betablocker, ACE-Hemmer/ARB und/oder Aldosteronantagonisten behandelt wurden bzw. denen ein höherer Grad an leitliniengerechter Pharmakotherapie zuteilwurde. Im Gegensatz dazu konnte der Zusammenhang zwischen der Dosierung der Herzinsuffizienzmedikamente und der Prognose der Patienten am Beispiel einer Therapie mit Betablockern bzw. ACE-Hemmern/ARBs nur eingeschränkt aufgezeigt werden. Einen prognostischen Vorteil hatten hierbei lediglich Patienten mit einer hohen Dosis an ACE-Hemmer und einer LVEF <45%, wobei nach Gewichtsadaptation kein signifikanter Unterschied mehr nachweisbar war. Hinsichtlich der Gabe eines Betablockers weisen die Analysen auf einen prognostischen Vorteil einer solchen Therapie hin, während die Dosierung bzw. das Erreichen der Zieldosis von nachrangiger Bedeutung zu sein scheint. Vielmehr scheint es sinnvoll zu sein, sich bei der Betablockertherapie an der Herzfrequenz der Patienten zu orientieren, die einen guten Prädiktor für die Prognose darstellt. Primäres Ziel muss es demnach in jedem Fall sein, dass der chronisch herzinsuffiziente Patient die jeweilige Substanzklasse erhält, wenn sie nach Leitlinien indiziert ist. Die Dosissteigerung sollte dann nicht forciert nach festen Schemata erfolgen, sondern angepasst an das individuelle Patientenprofil. Veränderungen von Herzfrequenz, Blutdruck und Laborparametern müssen hierzu repetitiv erfasst und in die Behandlungsstrategie eingebunden werden.
Nach 5 Jahren waren im Register 57% der Patienten verstorben, wobei v.a. kardiovaskuläre Ereignisse aber auch der plötzliche Herztod als Todesursachen dominierten. Wenngleich sich hier ein deutlicher Zusammenhang mit der Schwere der Erkrankung (NYHA-Stadium) bestätigte, verdeutlichen diese Daten den nach wie vor schwerwiegenden („malignen“) Verlauf der chronischen Herzinsuffizienz. Gleichzeitig sind die Daten auch Ansporn, die Pharmakotherapie unter Alltagsbedingungen so zu optimieren, wie es sonst nur unter den Bedingungen klinisch-kontrollierter Studien möglich ist. Die Daten der vorliegenden Arbeit legen nahe, dass allein durch die bestmögliche Anpassung der „konventionellen medikamentösen Therapie“ sich bereits ein erheblicher prognostischer Nutzen für den einzelnen Patienten aber auch für die Bevölkerung und das Gesundheitssystem materialisieren ließe. Künftig müssen demnach verstärkte Anstrengungen darauf gerichtet werden, diese Therapie-Optimierung flächendeckend und nachhaltig umzusetzen. Studienkollektive wie das INH-Register sind dabei geeignete Instrumente der Versorgungsforschung, die langfristig auch direkt zur Verbesserung der Versorgungssituation der Patienten beitragen.
Herzkreislauferkrankungen sind sowohl in Deutschland als auch weltweit die führende Todesursache. Große epidemiologische Studien ermöglichten das Erkennen von kardiovaskulären Risikofaktoren, das Modellieren von Scores zur Risikostratifizierung und das Erarbeiten von Präventions- und Therapiestrategien. Trotz steter Anpassungen und Validierungen basieren Risikoscores auf konservativen Ergebnissen, deren limitierte Sensitivität, mit Akzentuierung für Frauen, Personen relativ jungem und fortgeschrittenem Alters, die Mehrheit unerwarteter kardiovaskulärer Erstereignisse bei bis dato asymptomatischen Individuen mitverantwortet. Modalitäten zur Erhebung eines Gefäßstatus zeigten ergänzende, respektive alternative Möglichkeiten zur Identifizierung von vermeintlichen Hochrisikopatienten mit signifikanter Verbesserung in der Risikoprädiktion.
Die hier vorgelegte Arbeit war prospektiv geplant als Subanalyse „Plaque- Screening“ der populationsbasierten STAAB Kohortenstudie Würzburg. Im Zentrum der Arbeit stand das Ultraschall-basierte Plaque-Screening peripherer Arterien. Die Arbeit adressierte die Fragestellungen „Prävalenz subklinischer Atherosklerose in der Allgemeinbevölkerung in Würzburg“, „Zusatznutzen einer Femoraluntersuchung“, „Einfluss traditioneller Risikofaktoren auf die Plaqueprävalenz“ und „Übereinstimmung der Risikoklassifizierung des ESC SCORES mit dem Plaquestatus“.
Die STAAB Kohortenstudie analysiert die Prävalenz und Inzidenz von Vorstufen der Herzinsuffizienz (Stadien A und B gemäß der AHA/ACC Klassifikation) in der Allgemeinbevölkerung von Würzburg. Studienbeginn war Dezember 2013. Der geplante Probandenumfang war n=5000. Die Auswahl der Studienteilnehmer erfolgte geschlechts- und altersstratifiziert über das Einwohnermeldeamt nach Zufallsprinzip. Einschlusskriterien waren Alter zwischen 30–79 Jahren und Hauptwohnsitz im Landkreis Würzburg, einziges Ausschlusskriterien war eine diagnostizierte Herzinsuffizienz Stadium C oder D.
Die Subanalyse „Plaque Screening” umfasste eine Stichprobe aus der STAAB Kohorte ab Oktober 2015, n=250, nach Anwendung des zusätzlichen Einschlusskriterium Alter 40–69 Jahre und Ausschluss von Probanden mit inkonklusiven Daten oder zurückgezogenem Einverständnis.
Die Resultate unserer Fragestellungen waren mit Ergebnissen in der Literatur kongruent. So detektierten wir eine relevante Plaqueprävalenz (50%) in der Allgemeinbevölkerung von Würzburg, insbesondere auch unter Personen mit niedrigem Risiko (34%).
Wir wiesen einen quantifizierbaren Zusatznutzen für die Femoraluntersuchung, nebst etablierter Karotisuntersuchung, durch eine relevante Zunahme der Plaqueprävalenz (+15% absolut) und Reklassifizierungsrate (+11% absolut) nach.
Wir dokumentierten eine erwartet positive Assoziation zwischen traditionellen Risikofaktoren und Plaqueprävalenz mit geschlechtsspezifischer Akzentuierung.
Wir belegten eine Diskrepanz zwischen der Risikoklassifizierung des ESC SCORE und den Ergebnissen des Plaque-Screenings.
In Konklusion interpretieren wir, dass das Inkorporieren eines ultraschallbasierten Gefäß-Screenings in bestehende Präventionsstrategien zur Steigerung der Sensitivität aktueller Risikomodelle beitragen könnte. Daraus wäre eine Verbesserung der Risikoprädiktion, eine frühere und gezieltere Prävention, sowie eine Reduktion von Morbidität, Mortalität und Gesundheitskosten ableiten lässt, muss in weiteren prospektiven Studien untersucht werden. Unsere Daten legen jedoch nahe, dass insbesondere für das weibliche Geschlecht und Personen in niedrigem und sehr fortgeschrittenem Alter von diesem Ansatz profitieren könnten.