Refine
Has Fulltext
- yes (20)
Is part of the Bibliography
- yes (20)
Document Type
- Doctoral Thesis (20)
Keywords
- Koronare Herzkrankheit (4)
- Schlaganfall (4)
- Arteriosklerose (2)
- Awareness (2)
- Chronische Niereninsuffizienz (2)
- Echokardiographie (2)
- Herzinsuffizienz (2)
- Sekundärprävention (2)
- ADHD (1)
- ADHS (1)
Institute
- Institut für Klinische Epidemiologie und Biometrie (15)
- Graduate School of Life Sciences (14)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (3)
- Klinik und Poliklinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie (1)
- Klinik und Poliklinik für Thorax-, Herz- u. Thorakale Gefäßchirurgie (1)
- Medizinische Klinik und Poliklinik I (1)
Sonstige beteiligte Institutionen
Beinahe jeder dritte ischämische Schlaganfall ist ursächlich auf Erkrankungen des Herzens zurückzuführen. Daher empfehlen Leitlinien allen Patienten und Patientinnen, bei denen eine kardioembolische Ätiologie des Schlaganfalls vermutet wird und bei denen ein Vorhofflimmern nicht bereits bekannt ist, als Teil der Routinediagnostik eine echokardiographische Untersuchung, um Hinweise auf die Ätiologie des ischämischen Schlaganfalls zu gewinnen und um gegebenenfalls Maßnahmen zur Sekundärprävention einleiten zu können. Jedoch ist der Zugang zu solchen echokardiographischen Untersuchungen oftmals limitiert, besonders für Patienten und Patientinnen auf Stroke Units, denn dort überschreitet die Nachfrage häufig die verfügbaren personellen und instrumentellen Kapazitäten. Zudem stellt der Transport bettlägeriger Patienten und Patientinnen in andere Abteilungen eine Belastung dar.
Daher stellt sich die Frage, ob zukünftig im Rahmen wissenschaftlicher Studien POC-Echokardiographie-Geräte zur Diagnostik bestimmter Herzerkrankungen einschließlich einer systolischen Dysfunktion bei Patienten und Patientinnen mit ischämischem Schlaganfall eingesetzt werden können, mit dem Ziel Patienten und Patientinnen zu identifizieren, die von einer erweiterten echokardiographischen Untersuchung profitieren könnten. Im Rahmen der vorliegenden prospektiven Validierungsstudie untersuchte eine Studentin 78 Patienten und Patientinnen mit akutem ischämischem Schlaganfall mithilfe eines POC-Echokardiographie-Geräts auf der Stroke Unit der Neurologischen Abteilung des Universitätsklinikums Würzburg. Im Anschluss daran erhielten alle 78 Patienten und Patientinnen eine Kontrolluntersuchung durch eine erfahrene Echokardiographie-Raterin mithilfe eines SE-Geräts in einem externen Herzzentrum.
Die diagnostischen Qualitäten des POC-Echokardiographie-Geräts für Forschungszwecke zur fokussierten kardialen Diagnostik nach ischämischem Schlaganfall im Vergleich zu einer SE-Untersuchung konnten mithilfe der Validierungsstudie bestätigt werden. Es zeigte sich insbesondere, dass die POC-Echokardiographie für die Detektion einer LVEF≤55% mit einer Sensitivität von 100% geeignet war.
Um zu evaluieren, ob sich das POC-Echokardiographie-Gerät in Zukunft auch in der klinischen Praxis als Screeninginstrument eignet, mit dem Ziel eine individuelle Behandlung von Schlaganfallpatienten und -patientinnen zu gewährleisten, müssen größere, prospektive Studien durchgeführt werden, in denen die Fallzahl für bestimmte kardiologische Erkrankungen ausreichend hoch ist.
Das Non-Hodgkin-Lymphom (NHL) steht an siebter Stelle der Inzidenzen aller Krebserkrankungen, mit jährlich steigender Tendenz. Wie kann einer so gefährlichen und heterogenen Krankheitsentität in der heutigen Medizin angemessen begegnet werden? Neben etablierten Therapien, die geraden bei rezidivierten oder refraktären NHL an ihre Grenzen stoßen, bieten experimentelle Therapieansätze neue Hoffnung: Blinatumomab ist ein bispezifischer Antikörper, der durch seine beiden Domänen als Adapter für die T-Zelle und die Tumor-Zelle fungiert und eine Zytolyse der malignen B-Zelle induziert. Bei der ALL fand Blinatumomab schon Anwendung in mehreren klinischen Studien und wurde im Dezember 2014 von der FDA in den USA zur Behandlung von Philadelphia-Chromosom-negativer rezidivierten/ refraktären B-Zell Vorläufer-ALL zugelassen. Als erste klinische Studie an NHL-Patienten wurde von 2004-2011 die MT103/104-Studie veranlasst. Im Zuge dieser unverblindeten, multizentrischen Phase I/II Studie wurden 76 Patienten mit refraktärem und rezidiviertem NHL vier bis acht Wochen mit Blinatumomab als Dauerinfusion behandelt und hierbei Informationen zu Toxizität und Tolerabilität gesammelt. Mit der Langzeitbeobachtung der Würzburger Kohorte aus dieser Studie befasst sich die vorliegende Arbeit. Ziel ist es zunächst, festzustellen, wie lange die Patienten nach Blinatumomab-Therapie im Zuge der MT103/104 Studie gesamt, rezidiv- oder therapiefrei überlebten und ob bei einem bestimmten Patientensubkollektiv ein besonders vorteilhaftes Langzeitüberleben gezeigt werden kann. Die Frage nach der Sicherheit von Blinatumomab beantwortet die Erfassung des Langzeitnebenwirkungsspektrums: Somit werden als zweiter Endpunkt die häufigsten Gründe für Krankenhausaufenthalte nach Blinatumomabtherapie, eventuelle Häufungen einer spezifischen Nebenwirkungsentität und die Reversibilität der unter der Therapie aufgetretenen Nebenwirkungen mit einem selbst entwickelten Fragebogen erfasst. Der MoCA-Test soll neurokognitive Langzeittoxizitäten ausschließen. Die Arbeit konnte nicht nur zeigen, dass Patienten, die auf Blinatumomab ansprachen gegenüber den Patienten ohne Ansprechen ein deutlich längeres Überleben zeigten, sie bestätigte die Wichtigkeit des Erhalts der effektiven Dosis von 60 µg/m²/24h für das Erreichen und den Erhalt der Progressionsfreiheit. Sechs Patienten waren bei Beobachtungsende noch in Remission. Die unterschiedlichen Eindosierungsmodi hatten keinen Effekt auf das Langzeitüberleben, können aber nebenwirkungsbedingte Therapieabbrüche während der Therapie minimieren. Alle während der Therapie aufgetretenen Nebenwirkungen waren in der Langzeitnachbeobachtung vollständig reversibel. Am häufigsten mussten Patienten auf Grund von Infektionen im Verlauf hospitalisiert werden, bei zwei Patienten traten zusätzliche Tumorerkrankungen auf, die allerdings nicht mit der Blinatumomab-Therapie assoziiert waren. Die Rate der Transformationen von indolenten in aggressive NHL war nicht erhöht. Im MoCA-Test lassen sich keine Häufungen von neurokognitiven Defiziten finden. Blinatumomab zeigt sich auch in der Langzeitbeobachtung als ein für die Behandlung von rezidivierten und refraktären NHLs effektives und sicheres Medikament.
Das Pleuraempyem ist eine Ansammlung infizierten Sekrets oder Eiters im Pleuraspalt mit konsekutiv entzündlich verschwielender Reaktion der parietalen und viszeralen Pleura. Trotz moderner Antibiotikatherapie stellt es eine ernste thorakale und mit einer hohen Morbidität und Letalität assoziierte Erkrankung dar. Die Pneumonie ist nach wie vor der häufigste ätiologisch relevante Faktor. Eine frühzeitige und ausführliche Diagnostik bei Patienten mit klinischem Verdacht auf ein Pleuraempyem ist eine notwendige Voraussetzung für eine effektive stadiengerechte Therapie. Ein Vergleich mit der zur Verfügung stehenden Literatur ergab eine weitgehende Übereinstimmung der prinzipiellen Therapieregime. Die größtmögliche Heilungschance besteht offensichtlich in der konsequenten, invasiven Diagnostik und einer sich daraus in entsprechenden Fällen ergebenden radikalen chirurgischen Therapie.
Die vorliegende Evaluation der Behandlung des Pleuraempyems führt zu folgenden Schlussfolgerungen:
1.Jeder signifikante Pleuraerguss- insbesondere bei Vorliegen systemischer Infektionszeichen- sollte umgehend, ggf. unter CT-Führung, drainiert werden, wobei im selben Schritt Material zur mikrobiologischen Untersuchung asserviert werden sollte.
2.Eine zunächst kalkulierte Antibiose ist bei Vorliegen systemischer Infektionszeichen indiziert. Sie sollte nach der mikrobiologischen Untersuchung von (intraoperativ gewonnenem) Abstrichmaterial entsprechend angepasst werden.
3.Video-assistierte thorakale Chirurgie (VATS) ist auch beim schwerkranken Patienten (persistierendes Empyem nach Drainierung) ohne Zeitverzug durchzuführen.
4.Durch ein aggressives Operationsregime kann die vollständige Entleerung des Pleuraraumes erzwungen werden. Jedes Verbleiben infizierten Gewebes in der Pleurahöhle erhöht die Gefahr der Entwicklung eines septischen Schocks oder eines Multiorganversagens.
Die chronische Niereninsuffizienz (CKD) ist ein weltweites Gesundheitsproblem. Insbesondere in den Industrienationen stellt es aufgrund des demographischen Wandels eine große gesundheitliche und finanzielle Herausforderung dar, da besonders ältere Menschen an einer eingeschränkten Nierenfunktion leiden. Hypertonie und Diabetes mellitus sind wichtige Risikofaktoren sowohl für die Entstehung der CKD, als auch für die koronare Herzerkrankung (KHK). Die Wahrnehmung der CKD in der Bevölkerung ist niedrig, wodurch eine frühzeitige Diagnose erschwert wird.
Die EUROASPIRE IV Studie hat es ermöglicht, die Prävalenz der CKD in einer Studienpopulation von KHK-Patienten im Raum Würzburg zu beschreiben. Nach den KDIGO-Leitlinien wurden die Patienten mit einer eGFRCKD-EPI<60ml/min als CKD-Patienten eingestuft. Zusätzlich wurde der Albumin/Kreatinin-Quotient (ACR) bestimmt. Zusammenhänge zwischen der Nierenfunktion und möglichen Determinanten wurden untersucht. Mit Hilfe eines Fragebogens wurde die Patienten-Awareness beschrieben. Retrospektiv erfolgte die Recherche, ob die Diagnose der CKD bei Aufnahme und/oder Entlassung des Indexaufenthalts im Arztbrief vermerkt wurde, dies wurde als Awareness der CKD seitens des behandelnden Arztes im Krankenhaus gewertet.
25% der 536-Teilnehmer wiesen am Tag der Untersuchung eine CKD auf. Das mediane Alter betrug 69 Jahre und die mediane eGFR lag bei 74 ml/min. Der ACR war mit 8,3 mg/g in der CKD-Gruppe deutlich erhöht (p<0,01). Das mediane Alter (p<0,01) und auch der prozentuale Anteil an Diabetikern (<0,01) waren in der CKD-Gruppe signifikant höher. 42,7% der Patienten mit CKD wussten von ihrer Nierenfunktionseinschränkung Bescheid. Bei 34 der 79 Patienten, die zum Zeitpunkt der Entlassung eine eGFR <60ml/min aufwiesen, wurde eine CKD im Arztbrief erwähnt.
Die vorliegende Studie zeigt eine hohe Prävalenz von CKD und klassischen kardiovaskulären Risikofaktoren wie beispielsweise Diabetes Mellitus. Trotz dieses hohen CKD-Anteils war sich nur ein geringer Teil der Patienten ihrer Nierenfunktionseinschränkung bewusst und wurde nur in geringem Maße von Ärzten im Entlassungsbrief erwähnt. Insgesamt war sowohl eine vermehrte Wahrnehmung der CKD seitens der Patienten als auch eine häufigere Erwähnung von CKD im Arztbrief mit zunehmendem Schweregrad der CKD assoziiert.
Zielsetzung
Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar.
In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention.
Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten.
Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene.
Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt.
In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen.
Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft.
Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz.
Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE.
Methoden
In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert.
Ergebnisse
%Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt.
Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird.
Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen.
Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert.
Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst.
Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten.
Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse.
Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet.
Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt.
Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können.
Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs.
Schlussfolgerungen
Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen.
Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt.
Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch
(1) die Auswahl der statistischen Methoden passend zur Forschungsfrage,
(2) die Berücksichtigung aktueller methodischer Forschungsergebnisse,
(3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung,
(4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und
(5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen.
Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen.
In several countries, a decline in mortality, case-fatality and recurrence rates of stroke was observed. However, studies investigating sex-specific and subtype-specific (pathological and etiological) time trends in stroke mortality, case-fatality and recurrence rates are scarce, especially in Germany. The decline in ischemic stroke mortality and case-fatality might be associated with the high quality of acute care of ischemic stroke, but the exact determinants of early outcome remains unknown for Germany.
Therefore, as first step of this thesis, we investigated the time trends of subtype- and sex-specific age- standardized stroke mortality rates in Germany from 1998 to 2015, by applying joinpoint regression on official causes of death statistics, provided by the Federal Statistical Office. Furthermore, a regional comparison of the time trends in stroke mortality between East and West was conducted. In the second step, time trends in case-fatality and stroke recurrence rates were analyzed using data from a population- based stroke register in Germany between 1996 and 2015. The analysis was stratified by sex and etiological subtype of ischemic stroke. In the third step, quality of stroke care and the association between adherence to measures of quality of acute ischemic stroke care and in-hospital mortality was estimated based on data from nine regional hospital-based stroke registers in Germany from the years 2015 and 2016.
We showed that in Germany, age-standardized stroke mortality declined by over 50% from 1998 to 2015 both, in women and men. Stratified by the pathological subtypes of stroke, the decrease in mortality was larger in ischemic stroke compared to hemorrhagic stroke. Different patterns in the time trends of stroke were observed for stroke subtypes, regions in Germany (former Eastern part of Germany (EG), former Western part of Germany (WG)) and sex, but in all strata a decline was found. By applying joinpoint regression, the number of changes in time trend differed between the regions and up to three changes in the trend in ischemic stroke mortality were detected. Trends in hemorrhagic stroke were in parallel between the regions with up to one change (in women) in joinpoint regression. Comparing the regions, stroke mortality was higher in EG compared to WG throughout the whole observed time period, however the differences between the regions started to diminish from 2007 onwards.
Further it was found that, based on the population-based Erlangen Stroke Project (ESPro), case-fatality and recurrence rates in ischemic stroke patients are still high in Germany. 46% died and 20% got a recurrent stroke within the first five years after stroke. Case-fatality rates declined statistically significant from 1996 to 2015 across all ischemic stroke patients and all etiological subtypes of ischemic stroke. Based on Cox regression no statistically significant decrease in stroke recurrence was observed.
Based on the pooled data of nine regional hospital-based stroke registers from the years 2015 and 2016 covering about 80% of all hospitalized stroke patients in Germany, a high quality of care of acute ischemic stroke patients, measured via 11 evidence-based quality indicators (QI) of process of care, was observed. Across all registers, most QI reached the predefined target values for good quality of stroke care. 9 out of 11 QI showed a significant association with 7-day in-hospital mortality. An inverse linear association between overall adherence to QI and 7-day in-hospital mortality was observed.
In conclusion, stroke mortality and case-fatality showed a favorable development over time in Germany, which might partly be due to improvements in acute treatment. This is supported by the association between overall adherence to quality of care and in-hospital mortality. However, there might be room for improvements in long-term secondary prevention, as no clear reduction in recurrence rates was observed.
Background
Tobacco smoking is accountable for more than one in ten deaths in patients with cardiovascular disease. Thus, smoking cessation has a high priority in secondary prevention of coronary heart disease (CHD). The present study meant to assess smoking cessation patterns, identify parameters associated with smoking cessation and investigate personal reasons to change or maintain smoking habits in patients with established CHD.
Methods
Quality of CHD care was surveyed in 24 European countries in 2012/13 by the fourth European Survey of Cardiovascular Disease Prevention and Diabetes. Patients 18 to 79 years of age at the date of the CHD index event hospitalized due to first or recurrent diagnosis of coronary artery bypass graft, percutaneous coronary intervention, acute myocardial infarction or acute myocardial ischemia without infarction (troponin negative) were included. Smoking status and clinical parameters were iteratively obtained a) at the cardiovascular disease index event by medical record abstraction, b) during a face-to-face interview 6 to 36 months after the index event (i.e. baseline visit) and c) by telephone-based follow-up interview two years after the baseline visit. Parameters associated with smoking status at the time of follow-up interview were identified by logistic regression analysis. Personal reasons to change or maintain smoking habits were assessed in a qualitative interview and analyzed by qualitative content analysis.
Results
One hundred and four of 469 (22.2%) participants had been classified current smokers at the index event and were available for follow-up interview. After a median observation period of 3.5 years (quartiles 3.0, 4.1), 65 of 104 participants (62.5%) were classified quitters at the time of follow-up interview. There was a tendency of diabetes being more prevalent in quitters vs non-quitters (37.5% vs 20.5%, p=0.07). Higher education level (15.4% vs 33.3%, p=0.03) and depressed mood (17.2% vs 35.9%, p=0.03) were less frequent in quitters vs non-quitters. Quitters more frequently participated in cardiac rehabilitation programs (83.1% vs 48.7%, p<0.001). Cardiac rehabilitation appeared as factor associated with smoking cessation in multivariable logistic regression analysis (OR 5.19, 95%CI 1.87 to 14.46, p=0.002). Persistent smokers at telephone-based follow-up interview reported on addiction as wells as relaxation and pleasure as reasons to continue their habit. Those current and former smokers who relapsed at least once after a quitting attempt, stated future health hazards as their main reason to undertake quitting attempts. Prevalent factors leading to relapse were influence by their social network and stress. Successful quitters at follow-up interview referred to smoking-related harm done to their health having had been their major reason to quit.
Interpretation
Participating in a cardiac rehabilitation program was strongly associated with smoking cessation after a cardiovascular disease index event. Smoking cessation counseling and relapse prophylaxis may include alternatives for the pleasant aspects of smoking and incorporate effective strategies to resist relapse.
Die Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung (ADHS) ist eine häufige Erkran-kung bei Kindern und Jugendlichen. Vor allem bei Ausbleiben einer suffizienten Be-handlung verursacht die ADHS sehr oft vielfältige Probleme, die das Leben der Be-troffenen in Familie, Schule und Freizeit gravierend beeinträchtigen. Zahlreiche Studien beschreiben eine Dysfunktion des dopaminergen Systems als Hauptursache für das Auf-treten der Kardinalsymptome Hyperaktivität, Konzentrationsmangel und Impulsivität. Die Hauptsäule der medikamentösen Behandlung ist das zwingend per Betäubungsmit-telrezept zu verordnende Stimulanz METHYLPHENIDAT mit eigenem Nebenwir-kungsprofil und einer nicht geringen Rate an Nonrespondern.
Einzelne Literaturstellen und theoretische Vorüberlegungen lassen eine Korrektur dys-funktionaler dopaminerger Transmitterprozesse bei ADHS nicht allein durch Stimulanzi-en, sondern auch durch die Klasse der Dopamin-Agonisten denkbar erscheinen. Diese Vorüberlegungen basieren u. a. auf den Kenntnissen der Eigenschaften und des Wirkmechanismus des Dopamin-Agonisten ROPINIROL, der vielfach in der Behandlung der Parkinson-Krankheit eingesetzt wird.
Dieser Heilversuch ist die erste prospektive Untersuchung zur Sicherheit und Wirksam-keit des Dopamin-Agonisten ROPINIROL in der Behandlung von jungen männlichen ADHS-Patienten. Gleichzeitig liegt damit auch der erste Wirksamkeitsvergleich des erstmals gezielt zur ADHS-Behandlung eingesetzten Wirkstoffes ROPINIROL mit der Goldstandard-Substanz der ADHS-Medikation, nämlich METHYLPHENIDAT vor.
Insgesamt nahmen 9 Jungen mit ADHS im Alter zwischen 8 und 13 Jahren an dem Heilversuch teil, 3 dieser 9 Probanden im Rahmen eines Vortests, die übrigen 6 unter den Bedingungen des endgültigen Heilversuchs. Die Effekte der jeweils eingesetzten Substanz auf die Symptomausprägung der ADHS wurden mit Hilfe der Kurzform des Eltern-Lehrer-Fragebogens nach Conners und speziell hinsichtlich der ADHS-relevanten Verhaltensparameter Konzentrationsfähigkeit und Impulskontrolle durch den computer-gestützten Continuous Performance Test, CPT, erhoben.
Im Bild der angewandten computergestützten Konzentrations- und Impulskontroll-belastungstests (CPT) ergab sich bei 2 der 6 Probanden des Hauptheilversuches unter ROPINIROL eine sehr deutliche Verbesserung der Konzentration (Steigerung der rich-tigen Tastendrücke um 30% bzw. 70%). In der Betrachtung der gesamten Probanden-gruppe war der die Konzentration fördernde Effekt von ROPINIROL aber unspezifisch (p=0,463) und blieb weit hinter dem statistisch signifikanten konzentrationsfördernden Effekt von METHYLPHENIDAT auf die Probandengruppe (p=0,021) zurück.
5 von 6 Probanden handelten unter ROPINIROL weniger impulsiv und reduzierten die Anzahl falscher Tastendrücke im CPT gering bis deutlich. 3 dieser 5 Probanden verrin-gerten diese Fehlerzahl unter ROPINIROL um mindestens 40% der Ausgangsfehlerzahl ohne Medikation.
Anders als beim Verhaltensparameter Konzentration ließ sich hinsichtlich der Impuls-kontrolle kein Nachteil der Medikation mit ROPINIROL gegenüber METHYLPHENI-DAT errechnen.
Auch in der Auswertung der Kurzform des Eltern-Lehrer-Fragebogens nach Conners war ROPINIROL METHYLPHENIDAT rechnerisch nicht signifikant unterlegen. We-gen der kleinen Probandengruppe in Verbindung mit der deutlichen Streubreite der Er-gebnisse zur Impulsivität und innerhalb der Conners-Skalen kann dies aber bestenfalls als Hinweis, nicht aber als rechnerisch bewiesene Ähnlichkeit der Wirkstärke beider Substanzen in der Verbesserung vor allem der Impulskontrolle interpretiert werden.
6 von 9 Probanden beschrieben unter Ropinirol spürbare Tagesmüdigkeit. Diese war unter den höheren Dosen Ropinirol des Vortestes (max. 2mg ROP/die) besonders häufig und stark (3 von 3 Probanden). Unter der reduzierten Enddosis von maximal 1mg ROP/die im Haupttest lag die Häufigkeit der Tagesmüdigkeit bei 4 von 6 Probanden und wurde weniger stark erlebt. Dies weist auf eine Dosisabhängigkeit dieser im Heil-versuch am häufigsten registrierten unerwünschten Wirkung von Ropinirol hin. Impera-tive Schlafattacken blieben vollständig aus.
Der Beweis für das Potential des Dopamin-Agonisten ROPINIROL, die Symptome einer ADHS in ähnlichem Ausmaß wie das Stimulanz METHYLPHENIDAT zu verrin-gern oder zumindest statistisch fassbar zu reduzieren, konnte in der Gesamtwürdigung der Ergebnisse dieses Heilversuchs nicht erbracht werden. Es ergaben sich aber einzelne Hinweise auf eine Teilwirksamkeit von ROPINIROL gegen ADHS-Symptome bei einzelnen Probanden, vor allem für den Symptombereich der Impulsivi-tät. Hinweise auf ein Nebenwirkungsprofil, das jede zukünftige Anwendung von ROPINIROL bei ADHS-Erkrankten ausschließt, wurden nicht festgestellt.
Die mit Hilfe dieses pilotstudienartigen Heilversuchs gewonnenen Erkenntnisse könnten durch breiter angelegte Studien z. B. im Design einer randomisierten doppelblinden Wirksamkeitsvergleichsstudie überprüft und weiterentwickelt werden, um die mögliche Eignung von Dopamin-Agonisten wie Ropinirol als medikamentöse Alternative für be-stimmte Subpopulationen von ADHS-Betroffenen besser beurteilen zu können.
Dialysepatienten weisen eine hohe Anzahl kardiovaskulärer Ereignisse auf. Betrachtet man die häufigsten Todesursachen von Dialysepatienten, so fällt ein großer Teil in den kardiovaskulären Bereich. In dieser Arbeit wurde der Einfluss von Aldosteron und Cortisol auf kardiale und vaskuläre Ereignisse bei Dialysepatienten mit Diabetes mellitus untersucht. Dazu wurden Daten von 1255 Dialysepatienten mit Diabetes mellitus aus der Deutschen Diabetes Dialyse Studie analysiert.
In der vorliegenden Arbeit konnte gezeigt werden, dass mit erhöhten Aldosteronkonzentrationen ein signifikanter Anstieg des Risikos für plötzlichen Herztod (HR: 1.69; 95% CI: 1.06–2.69) einhergeht. Das Risiko an plötzlichem Herztod zu versterben war bei hohen Konzentrationen von Aldosteron und gleichzeitig vorliegenden hohen Konzentrationen von Cortisol noch deutlicher erhöht (HR: 2.86, 95% CI: 1.32–6.21). Ebenso war die Gesamtsterblichkeit signifikant erhöht bei Patienten, die hohe Aldosteron- und Cortisolkonzentrationen aufwiesen im Vergleich zu Patienten mit niedrigen Spiegeln beider Hormone (HR: 1.62, 95% CI: 1.01–2.62).
In dieser Arbeit konnte somit ein deutlicher Zusammenhang hoher Aldosteron- und Cortisolkonzentrationen mit plötzlichem Herztod und Gesamtsterblichkeit gezeigt werden.
Die Einhaltung eines gesunden Lebensstils, einschließlich der Behandlung modifizierbarer kardiovaskulärer Risikofaktoren, beeinflusst maßgeblich die Entstehung und Progression von Herz-Kreislauf-Erkrankungen (HKE). So reduziert eine ausgewogene Ernährungsweise, ausreichend körperliche Aktivität, Tabakverzicht, das Halten des Normalgewichtes sowie die Behandlung einer Hypertonie, Hyperlipidämie und Diabetes mellitus, die kardiovaskuläre Morbidität und Mortalität.
Die vorliegende Arbeit widmet sich (a) der Prävalenz und leitliniengerechten Kontrolle kardiovaskulärer Risikofaktoren von Teilnehmern aus der Allgemeinbevölkerung der STAAB Kohortenstudie („Häufigkeit und Einflussfaktoren auf frühe Stadien A und B der Herzinsuffizienz in der Bevölkerung“) sowie der Schätzung des 10-Jahres Risikos für tödliche HKE in diesem Kollektiv. Weiterhin wurde (b) der Einfluss von medikamentenbezogenen Überzeugungen auf die Blutdruckkontrolle von Teilnehmern der STAAB Kohortenstudie untersucht. Schließlich wurde (c) der Erhalt von ärztlichen Lebensstilempfehlungen sowie deren Determinanten bei Teilnehmern der STAAB Kohortenstudie sowie der EUROASPIRE IV Studie („European Action on Secondary and Primary Prevention by Intervention to Reduce
Events“) in Deutschland betrachtet.
Die STAAB Kohortenstudie untersucht die frühen asymptomatischen Formen der Herzinsuffizienz-Stadien A und B in einer repräsentativen Stichprobe von 5.000 Personen
ohne symptomatische Herzinsuffizienz im Alter von 30 bis 79 Jahren aus der Allgemeinbevölkerung mit Wohnsitz in der Stadt Würzburg.
Die EUROASPIRE IV Studie untersuchte bei 7.998 Koronarpatienten im Alter von 18 bis 79
Jahren aus insgesamt 24 Europäischen Ländern (536 Patienten aus Deutschland) im Zeitraum 2012 bis 2013 die Risikofaktoren sowie die Umsetzung der leitliniengerechten Versorgung und Prävention von HKE im europäischen Vergleich. Die Datenerhebung beider Studien erfolgte durch ein geschultes Studienpersonal nach standardisierten Vorgaben.
Die Prävalenz und Kontrolle kardiovaskulärer Risikofaktoren nach den aktuellen Vorgaben der „European Society of Cardiology“ (ESC) wurde bei insgesamt 1.379 Teilnehmern, die zwischen Dezember 2013 und April 2015 an der STAAB Kohortenstudie teilgenommen haben, untersucht. Es zeigte sich eine hohe Prävalenz der kardiovaskulären Risikofaktoren Hypertonie (31.8%), Hyperlipidämie (57.6%) und Diabetes mellitus (3.5%). Hierbei erreichten
trotz Pharmakotherapie über die Hälfte der Teilnehmer mit einem Bluthochdruck (52.7%) oder erhöhten LDL-Cholesterinwerten (56.7%) sowie 44.0% der Personen mit einem Diabetes mellitus die empfohlenen Grenzwerte nicht. Weiterhin wurde erstmalig zu Studienbesuch eine Hypertonie (36.0%), Hyperlipidämie (54.2%) oder ein Langzeitzuckerwert (HbA1c) >6.5% (23.3%) detektiert. In der jüngsten Altersgruppe (30-39 Jahre) fand sich der höchste Anteil von unbekanntem Bluthochdruck (76.5%) sowie hohem LDL-Cholesterin (78.0%) und die Altersgruppe 60-69 Jahren wies mit 43.5% die höchste Prävalenz für einen bislang nicht detektierten HbA1c >6.5% auf. Die Akkumulation von drei oder mehr kardiovaskulären Risikofaktoren war mit dem männlichen Geschlecht, einem höheren Alter und einem niedrigeren Bildungsgrad assoziiert. Von 980 mittels SCORE („Systematic Coronary Risk Evaluation“) Risiko-Chart untersuchten Teilnehmern befanden sich jeweils 56.6%, 35.8% und 7.5% in der niedrigen, mittleren und hohen bis sehr hohen SCORE-Risikogruppe für tödliche HKE. Das Hochrisiko-Kollektiv für tödliche HKE war vorwiegend männlich und wies häufiger eine Hypertonie oder ein hohes LDL-Cholesterin auf.
Der Einfluss von Überzeugungen gegenüber antihypertensiver Medikation auf die Blutdruckkontrolle wurde an 293 Teilnehmern, die von Oktober 2014 bis März 2017 an der STAAB Kohortenstudie teilgenommen haben, untersucht. Auf ihre Medikamente gesundheitlich angewiesen zu sein gaben 87% der Teilnehmer an, 78.1% stimmten der Aussage zu, dass ihre Medikamente sie vor einer Verschlechterung ihrer Gesundheit schützen. Es zeigte sich ein inverser Zusammenhang zwischen einem höheren Maß an Bedenken gegenüber der verordneten blutdrucksenkenden Medikation und einer besseren Blutdruckkontrolle bei Frauen. Ein signifikanter Zusammenhang zwischen Bedenken gegenüber einer antihypertensiven Medikation und der Blutdruckkontrolle bei Männern ließ sich hingegen nicht feststellen. Es konnten keine statistisch signifikanten Assoziationen für die Notwendigkeit von Medikation in der vorliegen Untersuchung gezeigt werden.
Die Häufigkeit und Determinanten für die Empfehlung eines ärztlichen Lebensstils wurde bei 665 Teilnehmern der STAAB Kohortenstudie ohne vorbestehende HKE (Primärprävention) und bei 536 Koronarpatienten der EUROASPIRE IV Studie (Sekundärprävention) untersucht.
Mit Ausnahme der Empfehlung zum Rauchverzicht erhielten die Patienten der EUROASPIRE IV Studie häufiger ärztliche Lebensstilempfehlungen verglichen mit Teilnehmern der STAAB Kohortenstudie: (Rauchverzicht: STAAB 44.0%, EUROASPIRE 36.7%; Gewichtsreduktion: STAAB 43.9%, EUROASPIRE 69.2%; körperliche Aktivität steigern: STAAB 52.1%, EUROASPIRE 71.4%; gesundes Ernährungsverhalten: STAAB 43.9%, EUROASPIRE 73.1%). Die Chance für den Erhalt von mindestens 50% aufgrund der individuellen Risikofaktoren adäquaten ärztlichen Lebensstilempfehlungen war bei STAAB Teilnehmern mit offensichtlichen oder beobachtbaren kardiovaskulären Risikofaktoren signifikant erhöht (BMI >25kg/m2, Hypertonie, Hyperlipidämie und Diabetes mellitus).
Hingegen erhielten Patienten mit einer vorbestehenden HKE signifikant häufiger eine ärztliche Lebensstilempfehlung bei einem Diabetes mellitus, wobei die Empfehlungshäufigkeit mit zunehmendem Alter abnahm. Die weitergehende nicht publizierte Analyse des Interaktions
Modells zeigte, dass der Zusammenhang zwischen dem Alter und der Empfehlungshäufigkeit bei Patienten mit bereits bestehender HKE stärker ausgeprägt war, als bei Teilnehmern der STAAB Kohortenstudie ohne koronare HKE. Weiterhin war der Zusammenhang zwischen einer adäquaten Lebensstilempfehlung und Hyperlipidämie bei Teilnehmern ohne koronares Ereignis signifikant stärker ausgeprägt, im Vergleich zu Patienten mit einer bereits bestehender HKE.
Die Ergebnisse zeigten ein erhebliches Potenzial für eine verbesserte Umsetzung leitliniengerechter Behandlung modifizierbarer kardiovaskulärer Risikofaktoren in der Primär- und Sekundärprävention. Vor dem Hintergrund einer hohen Anzahl kardiovaskulärer Risikofaktoren bei jungen Erwachsenen sollte die Bedeutung der Langzeitfolgen im Arzt
Patienten-Gespräch hervorgehoben und bei der Erarbeitung von Präventionsstrategien, insbesondere für junge Altersgruppen, Beachtung finden. Geschlechtsspezifische
Determinanten hinsichtlich der Kontrolle kardiovaskulärer Risikofaktoren sowie Befürchtungen gegenüber der Medikation sollten stärker im Arzt-Patientengespräch berücksichtigt werden.
Zur Stärkung der Compliance des Patienten bei der Umsetzung eines gesunden Lebensstils,
sollte der Arzt hinsichtlich der Bedeutung von Lebensstilintervention, aber auch im Umgang mit schwierigen Situationen, wie die Empfehlung einer Gewichtsreduktion, sensibilisiert und bei der richtigen Handhabung der Leitlinienempfehlung stärker unterstützt werden.
Seit Mitte der 1990er Jahre wurden nationale und regionale Schlaganfallregister in Europa etabliert, die Auskunft über die Versorgungsqualität von Schlaganfallpatienten geben. Bislang lagen nur wenige Daten zu zeitlichen Trends der akuten Schlaganfallversorgung vor. Diese sind jedoch essentiell, um beispielsweise Zusammenhänge zwischen der Einführung potentiell qualitätsverbessernder Maßnahmen und der Entwicklung der Versorgungsqualität feststellen zu können. Die Behandlung von Schlaganfallpatienten auf Stroke Units ist aufgrund der eindeutigen Evidenz aus randomisierten- und Beobachtungsstudien zum Standard geworden. Bislang war unklar, ob demografische und klinische Charakteristika die direkte Aufnahme auf eine Stroke Unit beeinflussen. Zudem war nicht bekannt, ob und wenn ja, in welchem Ausmaß strukturelle Kriterien und der Anteil der Patienten, der auf eine Stroke Unit aufgenommen wurde, die Qualität der Stroke Unit Versorgung beeinflussen. Im Anschluss an die Akutbehandlung im Krankenhaus bzw. nach geeigneten Rehabilitationsmaßnahmen übernehmen pflegende Angehörige häufig die Versorgung der Schlaganfallpatienten im häuslichen Umfeld. Die aktuelle Situation der pflegenden Angehörigen von Schlaganfallpatienten in Deutschland ist bisher jedoch nur unzureichend evaluiert.
In der vorliegenden Dissertation wurden zunächst im Rahmen des „European Implementation Score“-Projektes zeitliche Trends der Qualität der akuten Schlaganfallversorgung in fünf nationalen europäischen Schlaganfallregistern aus Deutschland, England/Wales/Nordirland, Polen, Schottland und Schweden nach zuvor definierten evidenzbasierten Qualitätsindikatoren berechnet. Im zweiten Schritt wurde anhand von Daten der Arbeitsgemeinschaft Deutscher Schlaganfall Register (ADSR) evaluiert, ob demografische und klinische Patientencharakteristika die direkte Aufnahme auf eine Stroke Unit in Deutschland beeinflussen. Weiterhin wurde der Einfluss struktureller Charakteristika auf die Erfüllung von 11 evidenzbasierter Qualitätsindikatoren in Krankenhäusern, die über eine regionale oder überregionale Stroke Unit verfügen, untersucht. Abschließend wurden im Rahmen des regionalen Telemedizinnetzwerkes TRANSIT-Stroke demografische und klinische Charakteristika von Schlaganfallpatienten, die 3 Monate nach dem Schlaganfall mit dem Erhalt von Pflege durch einen Angehörigen assoziiert waren, identifiziert. Zusätzlich wurden mit standardisierten Erhebungsinstrumenten positive und negative Erfahrungen der Pflege eines Schlaganfallpatienten sowie die selbsteingeschätzte Belastung (deutsche Version des Caregiver Reaction Assessment und Self-Rated Burden Scale) ausgewertet sowie Faktoren, die mit den Pflegeerfahrungen und Belastungen assoziiert sind, evaluiert.
Auf europäischer Ebene konnten wir einen Zusammenhang zwischen der Einführung eines neuen Qualitätsindikators und der Verbesserung der Qualität beobachten. Dies galt insbesondere für die erstmalige Einführung des Qualitätsindikators Dysphagiescreening im deutschen -(2006) und schwedischen Schlaganfallregister (2007). Somit gibt es Hinweise darauf, dass das Monitoring der Qualität der Schlaganfallversorgung zu Qualitätsverbesserungen bzw. auch zu einer vollständigeren Dokumentation führt.
Insgesamt konnten wir ein qualitativ hohes Niveau der akuten Schlaganfallversorgung auf Stroke Units in Deutschland gemäß evidenzbasierter Qualitätsindikatoren feststellen. Patienten mit einem ischämischen Schlaganfall, die am Wochenende aufgenommen wurden (p<0,0001), innerhalb von 3 Stunden nach Symptombeginn im Krankenhaus aufgenommen wurden (p<0,0001), hypertensiv waren (p<0,0001), unter einer Hyperlipidämie (p<0,0001) litten, wurden mit einer höheren Wahrscheinlichkeit auf einer Stroke Unit aufgenommen. Dagegen hatten Patienten mit einem schwereren Schlaganfall (NIHSS>15) eine geringere Chance, auf einer Stroke Unit aufgenommen zu werden (p<0,0001). Der Einfluss struktureller Charakteristika auf die Qualität der Stroke Unit Versorgung war gering. Eine Verbesserung der Qualität könnte noch durch einen höheren Anteil der auf einer Stroke Unit aufgenommenen Patienten erreicht werden.
Im Rahmen der Nachbefragung von Patienten im regionalen Telemedizinnetzwerk TRANSIT-Stroke stellten Frauen mit 70,1% den größten Anteil der pflegenden Angehörigen dar. 74,4% der pflegenden Angehörigen war älter als 55 Jahre. In univariablen und multivariablen logistischen Regressionsanalysen waren ein hohes Alter, ein niedriger Barthel-Index bei Entlassung sowie das Vorliegen von Diabetes signifikant mit einer höheren Wahrscheinlichkeit assoziiert, Pflege von einem Angehörigen zu erhalten. Der Großteil der pflegenden Angehörigen möchte den Angehörigen pflegen und ist gleichzeitig dem Risiko gesundheitlicher Probleme ausgesetzt. Circa ein Fünftel der pflegenden Angehörigen berichtete finanzielle Belastungen aufgrund der Pflegesituation. Depressive Symptome der Patienten waren mit einer höheren Belastung der pflegenden Angehörigen hinsichtlich der selbsteingeschätzten Belastung und den positiven und negativen Erfahrungen assoziiert. Jüngere, männliche Schlaganfallpatienten, mit einem milderen Schlaganfall, die mit einer Partnerin oder Ehepartnerin zusammenleben, scheinen sich oft nicht bewusst zu sein, dass sie Pflege erhalten. Möglich ist hier, dass sie die Unterstützung und Pflege als „normal“ betrachten, während der Partner bzw. die Partnerin dies als tatsächliche Pflege wertet.
Schlaganfallregister eignen sich, um die Qualität der Akutversorgung im Zeitverlauf zu monitorieren und Zusammenhänge zwischen der Einführung potentiell qualitätsverbessernder Maßnahmen und der tatsächlichen Qualität darstellen zu können. Die Qualität der Stroke Unit Versorgung in Deutschland ist auf einem hohen Niveau. Eine Verbesserung der Qualität könnte noch durch einen höheren Anteil der auf einer Stroke Unit aufgenommenen Patienten erreicht werden. Ein Großteil der Schlaganfallpatienten lebt im Anschluss an die Akutversorgung im häuslichen Umfeld, in dem pflegende Angehörige eine wichtige Rolle bei der Versorgung spielen. Pflegenden Angehörigen ist ihre Aufgabe wichtig, sind jedoch aufgrund der Pflege zugleich Belastungen hinsichtlich ihrer Gesundheit, der Gestaltung ihres täglichen Zeitplans und der Finanzen ausgesetzt.
Die Erhebung der alltäglichen Funktionsfähigkeit mithilfe von Skalen zu instrumentellen
Aktivitäten des täglichen Lebens (IADL) ist essenziell zur Erfassung der individuellen und
gesellschaftlichen Konsequenzen von klinischen und subklinischen Erkrankungen. Im
deutschsprachigen Raum existieren jedoch nur wenige validierte Instrumente zur Erfassung von
IADL. Da all diese Skalen für ein geriatrisches Patientenkollektiv entwickelt wurden, haben sie
wichtige Schwächen in der Anwendung bei jüngeren Patientengruppen (insbesondere die
fehlende Erfassung beruflicher Funktionsfähigkeit). Aus diesem Grund wurde im Rahmen der
vorliegenden Arbeit mit dem Functioning Assessment Short Test (FAST) ein bereits in
mehreren Sprachen validiertes, für erwachsene Patienten jedweden Alters konzipiertes
Instrument mit sehr guten psychometrischen Kennwerten ins Deutsche übertragen und
hinsichtlich Validität und Reliabilität untersucht. Die deutschsprachige Variante des FAST
wurde durch standardisierte vorwärts-rückwärts-Übersetzung aus dem Englischen erstellt und
ist als Selbstausfüllerfragebogen konzipiert. Die Skala enthält 23 ordinal skalierte Einzelitems,
aus denen sich ein Summenscore berechnen lässt, wobei höhere Werte für eine schlechtere
alltägliche Funktionsfähigkeit stehen. Der Fragebogen wurde zwischen 2017 und 2018 an
insgesamt 120 Teilnehmern in Würzburg und Münster getestet, von denen 60 aus
bevölkerungsbasierten Kohortenstudien stammten und je 30 Patienten aufgrund eines
ischämischen Schlaganfalls oder einer akuten Depression stationär behandelt wurden. Als Maß
für die Reliabilität des Instrumentes wurde die Übereinstimmung zwischen Selbst- und
Fremdeinschätzung der alltäglichen Funktionsfähigkeit (Fremdeinschätzung durch Angehörige
der Teilnehmer bzw. behandelnde Ärzte / Psychologen) mithilfe des FAST gewählt. Die
Validität der Skala wurde durch die Messung von Korrelationen des FAST Summenscores mit
gängigen Skalen zu Depressivität (PHQ-D-9, CES-D), Angstsymptomatik (PHQ-GAD-7),
gesundheitsbezogener Lebensqualität (SF-12, EQ-5D) und kognitiver Leistungsfähigkeit
(MOCA) erhoben. Daneben erfolgte eine uni- und multivariate Regression zur Erhebung des
Einflusses der o.g. Skalen und relevanter Vorerkrankungen auf den Summenscore des FAST.
Die Reliabilitätsanalyse zeigte für die Probanden aus der Allgemeinbevölkerung ein moderates
(ICC 0.50 (95%-CI 0.64 – 0.54), für die Patienten mit akutem ischämischem Schlaganfall ein
gutes (ICC 0.65 (95%-CI 0.55 – 0.75) und für die stationär behandelten Patienten mit
Depression ein schlechtes Ergebnis (ICC 0.11 (95%-CI 0.02 – 0.20). Hinsichtlich der
Konstruktvalidität zeigte sich in der bevölkerungsbasierten Stichprobe eine signifikante
Korrelation des FAST Summenscores mit PHQ-D-9, CES-D, PHQ-GAD-7 und psychischer
Summenskala der SF-12. In der univariablen Regression waren PHQ-D9, PHQ-GAD-7,
psychische Summenskala des SF-12 und das Vorliegen von chronischem Rückenschmerz
signifikante Prädiktoren für den FAST Summenscore. In der multivariablen Analyse verblieben
SF-12 und chronischer Rückenschmerz als signifikante Einflussfaktoren. In der Stichprobe von
Patienten mit akutem ischämischem Schlaganfall zeigte sich eine signifikante, negative
Korrelation des FAST Summenscores mit dem MOCA.
Zusammenfassend zeigte die deutschsprachige Variante des FAST moderate bis gute
psychometrische Kennwerte in der Allgemeinbevölkerung und bei Patienten mit akutem
ischämischem Schlaganfall, während die Ergebnisse bei stationär behandelten Patienten mit
Depression schlecht waren. Aufgrund der kleinen Fallzahl der untersuchten Stichproben und
des fehlenden Assessment von Test-Retest-Reliabilität sollten vor der breiten Anwendung des
FAST im deutschsprachigen Raum weitere psychometrische Prüfungen des Instruments
erfolgen.
1 Summary
Left ventricular (LV) ejection fraction (EF) and global longitudinal strain (GLS) are the most commonly used measures of LV function. Yet, they are highly dependent on loading conditions since higher afterload yields lower systolic deformation and thereby a lower LVEF and GLS – despite presumably unchanged LV myocardial contractile strength. Invasive pressure-volume loop measurements represent the reference standard to assess LV function, also considering loading conditions. However, this procedure cannot be used in serial investigations or large sample populations due to its invasive nature. The novel concept of echocardiography-derived assessment of myocardial work (MyW) is based on LV pressure-strain loops, may be a valuable alternative to overcome these challenges, and may also be used with relative ease in large populations. As MyW also accounts for afterload, it is considered less load-dependent than LVEF and GLS.
The current PhD work addresses the application and clinical characterization of MyW, an innovative echocardiographic tool. As the method is new, we focused on four main topics:
(a) To establish reference values for MyW indices, i.e., Global Work Index (GWI), Global Constructive Work (GCW), Global Wasted Work (GWW), and Global Work Efficiency (GWE); we addressed a wide age range and evaluated the association of MyW indices with age, sex and other clinical and echocardiography parameters in apparently cardiovascular healthy individuals.
(b) To investigate the impact of cardiovascular (CV) risk factors on MyW indices and characterize the severity of subclinical LV deterioration in the general population.
(c) To assess the association of the LV geometry, i.e., LV mass and dimensions, with MyW indices.
(d) To evaluate in-hospital dynamics of MyW indices in patients hospitalized for acute heart failure (AHF).
For the PhD thesis, we could make use of two larger cohorts:
The STAAB population-based cohort study prospectively recruited and phenotyped a representative sample (5,000 individuals) of the general population of the City of Würzburg, aged 30-79 years and free from symptomatic heart failure at the time of inclusion. We focused on the first half of the study sample (n=2473 individuals), which fulfilled the anticipated strata regarding age and sex.
The Acute Heart Failure (AHF) Registry is a prospective clinical registry recruiting and phenotyping consecutive patients admitted for decompensated AHF to the Department of Medicine I, University Hospital Würzburg, and observing the natural course of the disease. The AHF Registry focuses on the pathophysiological understanding, particularly in relation to the early phase after cardiac decompensation, with the aim to improve diagnosis and better-tailored treatment of patients with AHF. For the current study, we concentrated on patients who provided pairs of echocardiograms acquired early after index hospital admission and prior to discharge.
The main findings of the PhD thesis were:
From the STAAB cohort study, we determined the feasibility of large-scale MyW derivation and the accuracy of the method. We established reference values for MyW indices based on 779 analyzable, apparently healthy participants (mean age 49 ± 10 years, 59% women), who were in sinus rhythm, free from CV risk factors or CV disease, and had no significant LV valve disease. Apart from GWI, there were no associations of other MyW indices with sex. Further, we found a disparate association with age, where MyW showed stable values until the age of 45 years, with an upward shift occurring beyond the age of 45. A higher age decade was associated with higher GWW and lower GWE, respectively. MyW indices only correlated weakly with common echocardiographic parameters, suggesting that MyW may add incremental information to clinically established parameters.
Further analyses from the STAAB cohort study contributed to a better understanding of the impact of CV risk factors on MyW indices and the association of LV geometry with LV performance. We demonstrated that CV risk factors impacted selectively on GCW and GWW. Hypertension appears to profoundly compromise the work of the myocardium, in particular, by increasing both GCW and GWW. The LV in hypertension seems to operate at a higher energy level yet lower efficiency. Other classical CV risk factors (Diabetes mellitus, Obesity, Dyslipidemia, Smoking) – independent of blood pressure – impacted consistently and adversely on GCW but did not affect GWW. Further, all CV risk factors affected GWE adversely.
We observed that any deviation from a normal LV geometric profile was associated with alterations on MyW. Of note, MyW was sensitive to early changes in LV mass and dimensions. Individuals with normal LV geometry yet established arterial hypertension exhibited a MyW pattern that is typically found in LV hypertrophy. Therefore, such a pattern might serve as an early sign of myocardial damage in hypertensive heart disease and might aid in risk stratification and primary prevention.
From the AHF Registry, we selected individuals with serial in-hospital echocardiograms and described in-hospital changes in myocardial performance during recompensation. In patients presenting with a reduced ejection fraction (HFrEF), decreasing N-terminal pro-natriuretic peptide (NT-proBNP) levels as a surrogate of successful recompensation were associated with an improvement in GCW and GWI and consecutively in GWE. In contrast, in patients presenting with a preserved ejection fraction (HFpEF), there was no significant change in GCW and GWI. However, unsuccessful recompensation, i.e., no change or an increase in NT-proBNP levels, was associated with an increase in GWW. This suggests a differential myocardial response to de- and recompensation depending on the HF phenotype.
Further, GWW as a surrogate of inappropriate LV energy consumption was elevated in all patients with AHF (compared to reference values) and was not associated with conventional markers as LVEF or NT-proBNP. In an exploratory analysis, GWW predicted the risk of death or rehospitalization within six months after discharge. Hence, GWW might carry incremental information beyond conventional markers of HF severity.
Chronic Kidney Disease as an Important Co-morbid Condition in Coronary Heart Disease Patients
(2019)
In patients with coronary heart disease (CHD) the control of the modifiable “traditional” cardiovascular risk factors such as hypertension, dyslipidemia, diabetes, achieving/maintaining normal body weight and smoking cessation is of major importance to improve prognosis. Guideline recommendations for secondary CHD prevention include specific treatment targets for blood pressure, lipid levels, and markers of glucose metabolism for both younger and older patients. Chronic kidney disease (CKD) has been identified as a “non-traditional” risk factor for worse outcome in CHD patients, as it is associated with a markedly increased risk for subsequent CV events and mortality.
The specific objectives of the current thesis-project are to investigate (a) the quality of care in a recent sample of German CHD patients and to investigate variation of risk factor control between younger and elder patients (≤70 versus >70 years), (b) to analyze the prevalence of CKD across Europe in stable CHD patients in the outpatient setting and during a hospital stay for CHD, (c) to investigate the level of awareness of CKD in German CHD patients and their treating physicians.
Data from the European-wide EUROASPIRE IV study were used that include data on 7998 CHD patients in the ambulatory setting (study visit) and during a hospital stay for CHD (index). The German EUROASPIRE IV study center in Würzburg recruited 536 patients in 2012-2013. Risk factor control was compared against the current recommendations of the European Society of Cardiology. CKD was described by stages of glomerular filtration rate (eGFR) and albuminuria. German patients were asked in an additional kidney specific module whether they have ever been told by a physician about renal impairment. The fact that CKD or acute kidney injury (AKI) was mentioned in prominent parts of the hospital discharge letter as well as correct ICD-coding of CKD or AKI served as a proxy for physician’s awareness of CKD.
The majority of German CHD patients was treated with the recommended drug therapies including e.g. β-blockers, anti-platelets and statins. However, treatment targets for blood pressure and LDL-cholesterol levels were not achieved in many patients (45% and 53%, respectively) and glycemic control in diabetic CHD patients with HbA1-levels <7% was insufficient (61%). A minority of patients reported on current smoking (10%), but unhealthy life-styles e.g. overweight/obesity (85%/37%) were frequent. Patterns of care differed between younger and older CHD patients while older patients were less likely to receive the recommended medical CHD-therapy, were more likely to have uncontrolled blood pressure and also to be diabetic. However, a greater proportion of diabetic patients >70 years was achieving the HbA1c target, and less elder patients were current smokers or were obese. About 17% of patients on average had CKD (eGFR< 60 ml/min/1.73m²) in the entire European sample at the study visit, and an additional 10% had albuminuria despite preserved eGFR, with considerable variation among countries. Impaired kidney function was observed in every fifth patient admitted for CHD in the entire European dataset of the EUROASPIRE IV study. Of the German CHD patients with CKD at the study visit, only a third were aware of their renal impairment. A minority of these patients was being seen by nephrologists, however, with a higher likelihood of CKD awareness and specialist care in more advanced stages of CKD. About a third of patients admitted for CHD showed either CKD or AKI during the hospital stay, but the discharge letter mentioned chronic or acute kidney disease only in every fifth of these patients. In contrast, correct ICD coding of CKD or AKI was more complete, but still suboptimal.
In summary, quality of secondary prevention in German CHD patients indicates considerably room for improvement, with life-style modifications may become an even greater factor in prevention campaigns than medical treatment into certain target ranges. Preventive therapies should also consider different needs in older individuals acknowledging physical and mental potential, other comorbidities and drug-interactions with co-medication. CKD is common in CHD patients, not only in the elderly. Since CHD and CKD affect each other and impact on worse prognosis of each other, raising the awareness of CKD among patients and physicians and considering CKD in medical therapy may improve prognosis and slow disease progression of CHD as well as CKD.
Die koronare Herzkrankheit ist weltweit die häufigste Todesursache und belastet die Gesellschaft durch Therapien und Arbeitsausfälle mit hohen Kosten. Die Europäischen Gesellschaft für Kardiologie empfiehlt in den Leitlinien zur Sekundärprävention der koronaren Herzkrankheit verschiedene Lebensstiländerungen. In der vorliegenden Arbeit wurde untersucht, wie häufig diese Empfehlungen tatsächlich gegeben werden, ob diese von den Patienten umgesetzt werden und welche Faktoren den Erhalt der Empfehlung bzw. die Umsetzung beeinflussen. Hierzu wurden 536 Probanden mit bekannter KHK aus dem Raum Würzburg im Rahmen der multizentrischen Querschnittsstudie EUROASPIRE IV befragt und untersucht.
Es konnte gezeigt werden, dass die Empfehlungen insgesamt viel zu selten gegeben werden. Als positiver Einflussfaktor für den Erhalt einer Empfehlung konnte die Teilnahme an einem Rehabilitationsprogramm identifiziert werden. Die Wahrscheinlichkeit, die Empfehlungen zu erhalten, sank zudem mit zunehmendem Alter bei Erstdiagnose der KHK. Diese Erkenntnisse können in Zukunft dabei helfen, die Aufklärung über die Risikofaktoren insgesamt und besonders bei älteren Menschen zu intensivieren. Sie untermauern zudem die große Bedeutung eines Rehabilitationsprogrammes bei der Informationsvermittlung.
Auch die Umsetzung der empfohlenen Lebensstilveränderungen erfolgte nicht in zufriedenstellender Häufigkeit. Für die Beendigung des Rauchens konnte die Teilnahme an einem Rehabilitationsprogramm als größter Einflussfaktor ermittelt werden. Die Wahrscheinlichkeit, dass die verschiedenen Maßnahmen zu Lebensstilveränderungen umgesetzt werden, war beim weiblichen Geschlecht deutlich höher als beim männlichen. Die Umsetzung wurde zudem dadurch beeinflusst, ob der Patient vorher die entsprechende Empfehlung erhalten hatte. Die Daten zeigen somit auch bei der Umsetzung der Maßnahmen die Bedeutung von Rehabilitationsprogrammen, besonders für Raucher, und verdeutlichen, dass vor allem bei Männern weitere Anreize geschaffen werden müssen, damit diese die Empfehlungen zur Lebensstiländerung auch umsetzen. Dass viel mehr Probanden die Maßnahmen umgesetzt haben, wenn sie vorher die entsprechende Empfehlung erhalten haben, unterstreicht die außerordentliche Wichtigkeit der umfassenden Aufklärung des Patienten über die existentiellen Chancen eines Lebensstilwandels.
Für die Diagnose und Therapie von Brustkrebs existiert die nationale evidenz- und konsensbasierte S3-Leitlinie. Die klinischen Krebsregister stellen sektor- und facharztübergreifende Diagnose- und Therapiedaten zur Qualitätssicherung bereit. Bislang fehlen jedoch Daten bezüglich patient-reported outcome measures (PROMs). Aufgrund des demographischen Wandels werden Brustkrebserkrankungen vor allem in ländlichen Regionen weiter zunehmen, weshalb Versorgungsstrukturen für alle Patientinnen erreichbar sein sollten. Es wurde ein patientenorientiertes Registerkonzept (Breast Cancer Care for patients with metastatic disease (BRE-4-MED)) für den metastasierten Brustkrebs entwickelt und hinsichtlich vordefinierter Machbarkeitskriterien pilotiert. An der BRE-4-MED-Pilotstudie nahmen 31 Patientinnen (96.8% weiblich) teil. Die bayernweite Erreichbarkeit zu brustkrebsspezifischen Versorgungsstrukturen wurde mithilfe einer Geographic Information System (GIS)-Analyse untersucht. Anhand von Leitlinienempfehlungen und Ergebnissen der BRE-4-MED-Pilotstudie wurden relevante Versorgungsstrukturen identifiziert. Die Ergebnisse der Pilotstudie zeigen, dass die Integration von Primär- und Sekundärdaten aus verschiedenen Quellen in ein zentrales Studienregister machbar ist und die erforderlichen organisatorischen Prozesse (z. B. data linkage mit Krebsregister) funktionieren. Die Ergebnisse der Erreichbarkeitsanalyse verdeutlichen, dass es keine bayernweite Erreichbarkeit zu brustkrebsspezifischen Versorgungsstrukturen gibt. Am stärksten war dieser Zusammenhang in grenznahen Regionen ausgeprägt. Die vorliegende Arbeit zeigt Chancen für eine patientenorientierte, qualitätsgesicherte Brustkrebsversorgung unabhängig vom Wohnort auf.
Kardiovaskuläre Erkrankungen sind unverändert die häufigste Ursache für Morbidität und Mortalität in den Industrienationen [1]. Die Risikoprädiktion und -prävention dieser Erkrankungen ist von großer Bedeutung, unter anderem deswegen weil primäre Ereignisse bei bis dato asymptomatischen Personen auftreten können [2]. Die zugrundeliegende Pathogenese, die Arteriosklerose, ist immer besser erforscht und zugleich sind Risikofaktoren identifiziert, die einen schädlichen Einfluss haben [3, 4]. Durch die Messung der Karotis-Intima-Media-Dicke (Carotid-Intima-Media-Thickness, CIMT) mittels B-Mode Ultraschall steht eine weit verbreitete, sichere und anerkannte Methode zur Verfügung, mit der bereits subklinische Formen der Arteriosklerose erfasst werden können [5]. Die CIMT ist als Surrogatparameter für eine generalisierte Arteriosklerose im gesamten Gefäßsystem etabliert und ihre Zunahme wird mit dem Vorliegen von kardiovaskulären Risikofaktoren assoziiert [6-8]. In der Risikoprädiktion mit Hilfe der CIMT bilden geschlechts-, alters- und regionalspezifische Normwerte die Basis [5]. Die aktuellen internationalen Leitlinien empfehlen in ihren neusten Fassungen, nicht mehr die CIMT zur kardiovaskulären Risikoprädiktion in der Allgemeinbevölkerung einzusetzen [1, 9]. Die Experten berufen sich auf Studien, in denen lediglich ein singuläres Messsegment betrachtet wurde [1, 9-11]. Das Ziel der vorliegenden Arbeit war es den Einfluss spezifischer kardiovaskulärer Risikofaktoren auf die verschiedenen Segmente der A. carotis zu erfassen und – davon ausgehend – den Stellenwert der vorhandenen Modelle zur Risikoprädiktion zu evaluieren. Des Weiteren wurden Normwerte aus einer repräsentativen Gruppe der Würzburger Allgemeinbevölkerung gebildet und die Reproduzierbarkeit der Ultraschalluntersuchung im Bereich der Halsschlagader überprüft.
Den Berechnungen liegen Daten der STAAB-Kohortenstudie (Häufigkeit und Einflussfaktoren auf frühe STAdien A und B der Herzinsuffizienz in der Bevölkerung) zugrunde, einer große Bevölkerungsstudie, die seit 2015 Daten der Würzburger Bevölkerung erhebt [12]. Es wurden Probanden zwischen mit einem Alter zwischen 30 und 79 Jahren eingeschlossen. Die CIMT wurde auf beiden Seiten des Halses auf der schallkopffernen Seite an drei vorab definierten Lokalisationen des Gefäßes, der A. carotis communis (ACC), dem Bulbus und der A. carotis interna (ACI), vermessen. Es wurden die fünf Risikofaktoren Diabetes mellitus, Dyslipidämie, Hypertonie, Rauchen und Übergewicht berücksichtigt. Mittels einer logistischen Regression wurde der spezifische Einfluss dieser Faktoren auf die individuelle, alters- und geschlechtsbasierte 75. Perzentile der CIMT in den einzelnen Lokalisationen betrachtet. Diese Grenzwerte stammten aus den eigens erstellten Normwerten für die Allgemeinbevölkerung. Es wurde eine „gesunde“ Subpopulation zur Erstellung dieser Normwerte gebildet, die keine der oben genannten Risikofaktoren sowie keine manifesten kardiovaskulären Erkrankungen aufwiesen.
Die Auswertung umfasste die Daten von insgesamt 2492 Probanden. Die segmentspezifische CIMT war am größten im Bereich Bulbus, gefolgt von der ACC und der ACI. Männer hatten höhere Wanddickenwerte und mehr Risikofaktoren als Frauen. Die Reproduzierbarkeit zwischen den einzelnen Untersuchern war insgesamt moderat bis stark. Im Vergleich zu anderen Studien zeigte sich jedoch insgesamt eine schwächere Übereinstimmung, so dass von einer potentiellen Verbesserung des Schulungsprotokolls für unerfahrene Personen ausgegangen wird. Die Ergebnisse der Reproduzierbarkeitsanalyse verdeutlichen den Bedarf eines standardisierten, international anerkannten Protokolls zur Schulung von Untersuchern der CIMT und eines exakten Messprotokolls [5, 13]. Die erhobenen Normwerte der „Gesunden“ zeigten eine Konsistenz mit verschiedenen, auf vergleichbare Weise erhobenen Werten und bildeten die Basis für die weiteren Untersuchungen. Die CIMT nahm mit dem Alter und – unabhängig davon – ebenfalls mit der Anzahl an Risikofaktoren zu. Die Faktoren Dyslipidämie, Rauchen und Hypertonie hatten einen statistisch signifikanten Einfluss für das Überschreiten des Grenzwertes der 75. Perzentile (OR (95 % KI) zwischen 1,28 (0,98 – 1,65), ACC, und 1,86 (1,53 – 2,27), Bulbus) [14]. Die Faktoren Diabetes mellitus und Übergewicht zeigten im verwendeten Modell keinen Effekt auf die CIMT. Insgesamt konnte, bis auf eine mögliche Interaktion zwischen dem Risikofaktor Rauchen und der ACI, kein segmentspezifischer Effekt beobachtet werden [14]. Daraus resultierend wurde die Hypothese aufgestellt, dass zur Erfassung des kardiovaskulären Risikos einer Person die Messung eines singulären Segments möglicherweise ausreicht [14]. Dies stärkt die neusten Empfehlungen der Leitlinien, die sich auf Studien berufen, welche eben nur ein Segment betrachteten. Die identifizierten Risikofaktoren spiegeln sich darüber hinaus in den gängigen Modellen zur Risikoprädiktion und -prävention wider. Demnach gerät der Einsatz der CIMT zur Bestimmung des individuellen Risikos von Personen der Allgemeinbevölkerung in den Hintergrund [15].
Die nicht-invasive Gefäßdiagnostik stellt einen wichtigen Pfeiler in der Prävention von Herz-Kreislauferkrankungen dar. Während lange Zeit die sonographische Messung der cIMT, als morphologisches Korrelat der Gefäßalterung, als Goldstandard galt, ist in den letzten Jahren in Gestalt der Pulswellenanalyse/PWV-Messung eine Technik weiterentwickelt worden, die, als funktionelles Korrelat der Gefäßalterung, aufgrund der leichteren Durchführbarkeit und geringerer Untersucherabhängigkeit und Kosten vielversprechend ist. So erlaubt die Messung der Pulswelle mittels gewöhnlicher Blutdruckmanschetten, genau wie die cIMT, die Berechnung des individuellen Gefäßalters und die Diagnostik für das Vorliegen eines Endorganschadens der Blutgefäße.
Um die Messergebnisse der beiden Untersuchungen miteinander zu vergleichen, wurden beide in der EUROASPIRE-IV Studie an Patienten mit koronarer Herzkrankheit durchgeführt. Die Auswertung der Messergebnisse der mit dem Vascular Explorer durchgeführten Pulswellenanalyse/PWV-Messung ergab überraschenderweise, dass die Mehrheit der herzkranken Patienten weder eine vaskuläre Voralterung noch einen Endorganschaden der Blutgefäße aufweisen. Im Falle der cIMT-Messung war Gegenteiliges der Fall, was trotz der medikamentösen Therapie der Patienten so zu erwarten war. Weiterhin zeigte sich lediglich eine geringe Korrelation zwischen den Messergebnissen beider Untersuchungen. Die Determinanten der einzelnen Messwerte aus cIMT und Pulswellenanalyse/PWV-Messung waren deckungsgleich mit den in der Literatur beschriebenen Faktoren, wenn auch viele der sonst signifikanten Regressoren das Signifikanzniveau in unserer Auswertung nicht unterschritten.
Eine Limitation der funktionellen Gefäßdiagnostik liegt derzeit darin, dass die Messergebnisse stark von dem verwendeten Messgerät abhängen. Es liegen noch zu wenig Vergleichsstudien vor, um die Messergebnisse, speziell von neueren Geräten wie dem Vascular Explorer, auf andere zu übertragen. Bei der Berechnung des Gefäßalters sollten daher optimalerweise gerätespezifische Normwerte vorliegen, was beim Vascular Explorer nicht der Fall ist. Gleiches gilt für die Verwendung des PWVcf-Grenzwerts für die Diagnose eines Endorganschadens der Blutgefäße.
Analog hat auch die Messung der cIMT gewisse Einschränkungen. So wäre eine weitere Standardisierung der Messorte (A. carotis communis vs Bulbus vs A. carotis interna), zwischen denen sich die durchschnittliche cIMT erheblich unterscheidet, sowie der Messparameter (Minimal- vs Maximal- vs Mittelwert) wünschenswert. Die universelle Anwendung eines cIMT-Grenzwerts zur Diagnose eines Endorganschadens der Blutgefäße ist daher kritisch zu sehen. Dies zeigt sich auch darin, dass in den neuesten Leitlinien der bislang geltende Grenzwert angezweifelt und kein aktuell gültiger Grenzwert mehr genannt wird.
Wir interpretieren unsere Ergebnisse dahingehend, dass unsere Messung der cIMT die zu erwartende pathologische Gefäßalterung bei Patienten mit koronarer Herzkrankheit besser widerspiegelt als die Messung der Pulswelle mit dem Vascular Explorer. Welche der beiden Untersuchungen hinsichtlich der prognostischen Wertigkeit überlegen ist, muss im Rahmen von Längsschnittstudien geklärt werden.
Die chronische Niereninsuffizienz (CKD) gilt als wichtiger prognostischer Faktor bei Patienten mit koronarer Herzerkrankung (KHK). Das Bewusstsein (Awareness) für das Vorliegen einer CKD bei Ärzten wie bei Patienten kann bei der Therapie von KHK-Patienten eine entscheidende Rolle spielen. Ziel dieser Arbeit war die Beschreibung der zeitlichen Trends der CKD-Prävalenz sowie der Awareness bei KHK-Patienten und Ärzten im Rahmen der EUROASPIRE (EA) V Studie im Studienzentrum Würzburg. EA V ist eine multizentrische Querschnittsstudie der European Society of Cardiology (ESC) zur Untersuchung der Qualität der Sekundärprävention bei KHK-Patienten, die 6-24 Monate vor dem Studienbesuch stationär behandelt wurden. Nierenfunktion und Nierenerkrankung wurden mit der glomerulären Filtrationsrate (eGFR) und der Urin Albumin-Kreatinin-Ratio abgeschätzt und klassifiziert. Die CKD Awareness der Patienten wurde anhand standardisierter Fragen erhoben. Die CKD Awareness der Ärzte wurde über die ICD-10 Codierung in der Patientenakte sowie die Dokumentation im Entlassungsbrief erfasst. Die Ergebnisse wurden mit der Würzburger EUROASPIRE IV (2012/13) Substudie verglichen. In EA V wurden 219 KHK-Patienten (Median 70 Jahre, 81% Männer) in Würzburg eingeschlossen. Bei Studienbesuch betrug die Prävalenz der CKD 32%, davon waren sich 30% der Patienten der CKD bewusst. Bei 26% der 73 Patienten mit während des Index-Krankenhausaufenthaltes apparenter Nierenfunktionseinschränkung wurde diese auch im Entlassungsbrief dokumentiert und bei 80% korrekt in der Patientenakte codiert. Im Vergleich zu EA IV zeigte sich die eingeschränkte Nierenfunktion während des Krankenhausaufenthaltes (p=0,013) und während des Studienbesuchs (p=0,056) häufiger. Bezüglich der CKD Awareness bei Ärzten und Patienten gab es keine signifikanten Unterschiede bezogen auf die gesamten Kohorten. Im Frühstadium G3a zeigte sich eine statistisch signifikant geringere CKD Awareness der Patienten in EA V verglichen mit EA IV. Die CKD ist eine häufige Komorbidität bei KHK-Patienten. Die CKD Awareness ist bei Patienten, aber auch Ärzten niedrig. Aus dieser Konstellation ergeben sich Handlungsaufträge für eine gezielte Aufklärung von Patienten und nachhaltig wirksame Fortbildung der behandelnden Ärzte.
Wenige Publikationen beschäftigen sich mit der diastolischen Dysfunktion (DD) bei Schlaganfallpatienten. Um diese Datenlücke zu bearbeiten, wurden, im Rahmen der SICFAIL-Kohortenstudie, Schlaganfallpatienten hinsichtlich des Vorhandenseins einer diastolischen Funktionsstörung in Anlehnung an, zum Zeitpunkt des Verfassens dieser Arbeit, aktuelle Empfehlungen anhand echokardiographischer Parameter eingeteilt und charakterisiert. Zudem konnten Erkenntnisse über Einflussfaktoren gewonnen werden, die mit einer DD assoziiert sind.
Dabei zeigte sich, dass Schlaganfallpatienten mit einer diastolischen Funktionsstörung älter sind als Schlaganfallpatienten ohne DD und dass mit steigendem Lebensalter auch die Chance für eine DD ansteigt. Zudem bestand häufiger eine medikamentös behandelte aber auch eine unbehandelte arterielle Hypertonie, die mit dem Auftreten einer DD assoziiert ist. Diese Erkenntnisse decken sich mit den Ergebnissen verschiedener Arbeitsgruppen, die sich mit dem Vorkommen der DD in der Allgemeinbevölkerung beschäftigt haben.
Die im Rahmen dieser Arbeit ermittelte Prävalenz der diastolischen Funktionsstörung bei Schlaganfallpatienten ist deutlich niedriger als diejenige, die in anderen Forschungsarbeiten herausgefunden wurde. Unterschiedliche Definitionen der DD können ein Grund dafür sein.
Es bedarf aber weitere Forschungsarbeit in diese Richtung genauso wie eine stärkere Etablierung der aktuellen Definitionsgrundlagen der DD um umfassende und einheitliche Erkenntnisse über die diastolische Funktionsstörung bei Schlaganfallpatienten und auch in der Allgemeinbevölkerung zu erlangen. Zudem sollte ein weiteres Forschungsziel sein, mögliche Einflüsse der DD auf das Outcome der Patienten nach ischämischem Schlaganfall zu identifizieren, um diese gezielt in die Erarbeitung von Präventionsmaßnahmen aufzunehmen.