Refine
Has Fulltext
- yes (7)
Is part of the Bibliography
- yes (7)
Document Type
- Doctoral Thesis (7)
Language
- German (7)
Keywords
- Sepsis (2)
- Antibiotikum (1)
- Arztbegleiteter Patiententransport (1)
- Dravet Syndrom (1)
- EKG (1)
- EPU (1)
- Elektrokardiografie (1)
- Elektrophysiologische Untersuchung (1)
- Herzfrequenzvariabilität (1)
- Herzinsuffizienz (1)
Institute
Sonstige beteiligte Institutionen
Patientencharakteristik und Einsatzlogistik beim Interhospitaltransport kritisch kranker Patienten
(2018)
Der steigende Bedarf an Interhospitaltransporten, erforderte die Einführung einer zusätzlichen Transportoption für den arztbegleiteten Patiententransport in Bayern. Mit der Überarbeitung des Bayerischen Rettungsdienstgesetzes wurde die gesetzliche Grundlage für die Einführung und Tätigkeit des Verlegungsarztes (VA) in Bayern geschaffen. Dem voraus ging eine Analyse des Instituts für Notfallmedizin und Medizinmanagement München im Auftrag des Freistaats Bayern, die in verschiedenen Szenarien ermitteln sollte, wie der hohen Nachfrage an arztbegleiteten Verlegungen ohne die Einführung weiterer Intensivtransportmittel begegnet werden kann. Die vom Gesetzgeber beschlossene Variante war das Rendezvous-System aus VEF und RTW.
Ziel der vorliegenden Dissertation war es, den Intensivtransportwagen (ITW) und das Verlegungsarzteinsatzfahrzeug (VEF) hinsichtlich ihrer Einsatz- und Patientenstruktur zu analysieren und näher zu beschreiben. Des Weiteren sollte untersucht werden, ob sich durch die Anwendung der überarbeiteten Alarmierungsstrukturen Unterversorgungen und damit potenzielle Patientenschädigungen verhindern ließen.
Zu diesem Zweck, wurden retrospektiv mehr als 1500 Datensätze ausgewertet, die in einem Zeitraum von über zwei Jahren zur Qualitätssicherung prospektiv gesammelt wurden. Die beiden Transportvarianten (ITW oder VA+RTW) unterscheiden sich durch die personelle und materielle Ausstattung und sollten deshalb zielgerichtet zur Anwendung kommen.
Die Patienten-Fahrzeug-Zuteilung, wie sie durch den von Wurmb et al. konstruierten Algorithmus, sowie den neueingeführten Indikationskatalog erfolgte, fand in mehr als 90% der Fälle im Arzt-zu-Arzt-Gespräch Bestätigung, und ermöglichte dementsprechend eine zuverlässige, schnelle und gut anwendbare Einsatzdisposition. Fehldispositionen wurden sicher verhindert. ITW und VEF wurden meist zur lückenlosen Fortführung einer Intensivtherapie, und zu etwa gleichgroßen Anteilen für disponible und nicht-disponible Transporte eingesetzt. Auch wenn der Transport von Intensivpatienten mittels VA eine Ausnahme bleiben muss, so konnte doch gezeigt werden, dass eine Verlegung von invasiv beatmeten oder katecholaminpflichtigen Patienten nicht automatisch eine Unterversorgung zur Folge hat. Die Patienten des Intensivtransportwagens waren insgesamt schwerer erkrankt, deutlich häufiger invasiv beatmet oder katecholaminpflichtig als die VA-Patienten. Eine Patientengefährdung oder Schädigung konnte aus keinem der dokumentierten Fällen ermittelt werden.
Da sich beide Transportmittel im täglichen Routinebetrieb gut ergänzen, erscheint es sinnvoll an der dualen Struktur des arztbesetzten bodengebundenen Patiententransports festzuhalten.
Der Stellenwert des Interhospitaltransfers wird voraussichtlich auch in Zukunft weiter steigen, da die Bildung von Regionalen Behandlungsnetzwerken, sowie die zunehmende Spezialisierung von Fachkliniken einen erhöhten Austausch von Patienten zwischen unterschiedlichen Behandlungseinrichtungen erfordert. Aus diesem Grund wäre es notwendig in regelmäßigen Abständen die Situation des arztbegleiteten Patiententransports zu analysieren, sowohl um Optimierungsbedarf zu entdecken, als auch um Versorgungsengpässe, wie sie in der Vergangenheit zu verzeichnen waren, vorzubeugen. Mit den vorliegenden Ergebnissen stellt sich abschließend die Frage, ob das in Bayern erfolgreiche System, auch auf weitere Bundesländer übertragen werden könnte. Diese Arbeit könnte als Grundlage weiterer Untersuchungen dienen, um die Qualität und Effizienz des ärztlich begleiteten Patiententransports weiter zu verbessern.
Kardialer Phänotyp und SUDEP durch Knockout des Nav1.1 Kanalgens (SCN1A) in einem Dravet-Mausmodell
(2018)
SUDEP bezeichnet den plötzlichen und unerwarteten Epilepsietod ohne offensichtliche kausale Todesursache. Junge Patienten, die an der schweren infantilen enzephalo-pathischen Epilepsieform des Dravet-Syndroms (SMEI) leiden, tragen besonderes
Risiko an SUDEP zu versterben. Die pathophysiologische Ursache für das Dravet-Syndrom liegt in einem Defekt des brain-type Natriumkanals Nav1.1. Neuere Studien zeigen, dass der ursprünglich als hirnspezifisch geltende Kanal nicht explizit in
neuronalem Gewebe, sondern auch im Herzen exprimiert wird.
Ziel dieser Arbeit war es daher, die Auswirkungen des Nav1.1-Defektes auf kardialer Ebene zu evaluieren, um eine mögliche Beteiligung von Herzrhythmusstörungen an der Ätiologie des SUDEP aufzudecken. Dazu wurde ein Knockout-Mausmodell hinsichtlich seines kardialen Phänotyps charakterisiert. Mit Hilfe elektrokardiographischer
Untersuchungen (EKG) konnte eine gesteigerte Herzfrequenz unter Stressbedingungen festgestellt werden. Die Frequenz lag sowohl bei den Versuchen unter pharmakologischem Stress mittels Isoproterenol als auch unter induziertem Stress mittels
Hyperthermie bei den Dravet-Syndrom-Mäusen höher als in dem wildtypischen
Kontrollkollektiv. Elektrophysiologische Untersuchungen (EPU) zeigten neben einem erhöhten Schweregrad der induzierbaren Arrhythmien, gemessen anhand eines
Arrhythmie-Scores, auch eine erhöhte Quantität ausgelöster Herzrhythmusstörungen. Sowohl unter Ruhebedingungen als auch nach Induktion von Hyperthermie überwogen die aufgezeichneten Arrhythmien bei Dravet-Syndrom-Mäusen.
Die Erkenntnisse dieser Studie helfen die Rolle des Nav1.1-Defektes an einer kardialen Beteiligung im Rahmen von SUDEP bei Dravet-Patienten zu beschreiben. Sie zeigen ver-schiedene kardiale Auswirkungen bei Knockout des primär neuronalen Natrium¬kanalgens SCN1A. Weitere Einsichten in diesen Bereich werden angemessene Risikostratifizierung für Epilepsie-Patienten hinsichtlich Ihres SUDEP-Risikos ermöglichen und moderne The-rapieansätze anregen.
Die Sepsis ist ein häufiges, komplexes Krankheitsbild und oft mit einer hohen Letalität verbunden. Um das Outcome der betroffenen Patienten zu verbessern, ist eine schnelle adäquate Therapie notwendig. Durch den schnellen Erregernachweis ist eine gezielte Antibiotikatherapie möglich. In der vorliegenden Arbeit wurden 57 Patienten der IMPACT-Sepsis Studie, die bereits antibiotisch vorbehandelt waren, hinsichtlich der Erregerdiagnostik mit dem aktuellen Goldstandard, der Blutkulturdiagnostik, und der VYOO®-Multiplex-PCR untersucht.
Das Patientenkollektiv war epidemiologisch vergleichbar mit dem anderer Studien, nur lag der Anteil an immunsupprimierten Patienten höher, was a. e. auf das Patientenkollektiv einer Universitätsklinik zurückzuführen ist.
Insgesamt konnten bei den Patienten 21 Erreger diagnostiziert werden. 10 Erreger wurden nur in der VYOO®-Multiplex-PCR, nur 3 in der Blutkulturdiagnostik und 4 Erreger in beiden Methoden nachgewiesen. Dies entspricht einer Nachweisquote pro Patient von 21,4% für die VYOO®-Multiplex-PCR und 12,5% für die Blutkulturdiagnostik. Es zeigte sich somit eine tendenziell bessere Detektionsrate bei der VYOO®-Multiplex-PCR. Verglichen mit Blutkulturdiagnostik gab es jedoch keine statistisch signifikante Verbesserung der Erregerdiagnostik mit der VYOO®-Multiplex-PCR. Dies ist a.e. auf eine kleine Studiengröße zurückzuführen.
Wird die aktuelle Studienlage betrachtet, so bleibt die Blutkulturdiagnostik bei septischen Patienten weiterhin der Goldstandard, was sich auch in den aktuellen Leitlinien von 2016 widerspiegelt. Ob molekulardiagnostische Verfahren, wie die PCR, die Blutkulturdiagnostik ablösen oder routinemäßig ergänzen werden, müssen weitere Studien zeigen. Auch der gesundheits-ökonomische Nutzen durch Verkürzung der intensivmedizinischen Behandlung und Reduktion des Antibiotikaverbrauchs bedarf prospektiver Untersuchungen eines großen Patientenkollektivs.
Das Syndrom Herzinsuffizienz ist in Deutschland einer der häufigsten Beratungsanlässe in einer allgemeinmedizinischen Praxis und der häufigste Grund für eine stationäre Krankenhausaufnahme. Die Inzidenz ist weiter steigend. Die häufigste Todesursache dieser Patienten ist der plötzliche Herztod, meist auf Grund maligner Herzrhythmusstörungen. Es gibt verschiedene Kriterien, anhand derer das Risiko des Einzelnen, potenziell tödliche Herzrhythmusstörungen zu erleiden, individuell abgewägt werden kann. Eine zuverlässige Vorhersage ist nach wie vor schwierig. Neben der Symptomatik des Patienten und der Vorgeschichte spielen hier vor allem Ejektionsfraktion und EKG-Veränderungen eine Rolle. Zahlreiche Publikationen haben den Parametern STV-RR und STV-QT einen unabhängigen Stellenwert in der Risikostratifizierung bei Patienten mit chronischer Herzinsuffizienz zugesprochen. Diese beiden Werte können aus der Analyse 30 aufeinanderfolgender Herzaktionen berechnet werden und spiegeln die zeitliche Dispersion des RR-Intervalls bzw. der QT-Zeit wider.
Ziel dieser Arbeit war es, diese beiden Marker an einem bislang nicht etablierten Herzinsuffizienzmodell zu evaluieren. Dies ist zum einen interessant, da STV-RR und STV-QT im Rahmen des Monitorings intensivpflichtiger Patienten eine kardiale Dekompensation möglicherweise frühzeitig anzuzeigen vermögen, zum anderen lässt dieses Modell unter Umständen auch Rückschlüsse auf die Ätiologie dieser EKG-Veränderungen zu.
Zu diesem Zweck wurde bei primär herzgesunden Schafen ein hypertensives Lungenödem induziert und die EKG-Parameter wurden mit dem Ausmaß der kardialen Dekompensation korreliert. Eine Gruppe gematchter Vergleichstiere wurde unter denselben Versuchsbedingungen mit Ausnahme der Ödeminduktion untersucht. Insgesamt wurden die Daten von 15 Schafen evaluiert, von denen 10 der Experiment- und 5 der Kontrollgruppe zugeordnet wurden. Es wurden sowohl intraindividuelle (Baseline- versus Endwerte) als auch interindividuelle Änderungen der EKG-Parameter ausgewertet. Die Vergleiche basierten dabei vornehmlich auf relativen Änderungen, da die Tiere zum Teil mit deutlich unterschiedlichen Baseline-Werten in den Versuch gestartet waren. Nicht alle Experimenttiere erreichten das maximal angestrebte Ausmaß der Dekompensation (130 % des Ausgangswertes des EVLW). Daher nahm die Anzahl der in die Auswertung miteinfließenden Tiere mit zunehmendem EVLW-Level ab. Zusätzlich wurde eine rein zeitbezogene Analyse durchgeführt.
Es galt zu prüfen, ob sich im Rahmen der hypertensiven Entgleisung mit Hypervolämie und konsekutiver kardialer Dekompensation signifikante Änderungen von STV-RR oder STV-QT in Abhängigkeit vom Ausmaß des Lungenödems ergeben. Die Analyse der aus dem Schafmodell gewonnenen Daten ergab keine statistisch signifikanten Änderungen was STV-QT betrifft, zudem konnte keine Korrelation zwischen STV-QT und EVLW nachgewiesen werden. Das gesamte Experiment-Kollektiv betrachtet, fand sich auch kein signifikanter Abfall von STV-RR im Rahmen des Versuchs. Die Tiere einzeln betrachtet fand sich jedoch bei allen mit Ausnahme von Nr. 77 ein signifikanter Abfall des Parameters nach Anstieg von EVLW auf 130 % des Ausgangswerts. Das Kollektiv ohne Nr. 77 zeigte einen signifikanten Abfall von STV-RR (p = 0,001) bei einem EVLW Level von 130 %. Das gesamte Kollektiv (15 Schafe) betrachtet, ließ sich eine signifikante Korrelation von STV-RR mit EVLW (p = 0,0003) und dem RR-Intervall nachweisen (p = 1,5 x10-11).
Diese Ergebnisse lassen die Schlussfolgerung zu, dass sich am gesunden Myokard im Rahmen einer akuten kardialen Dekompensation im Tiermodell keine verlässlichen, pathologischen Veränderungen von STV-QT ableiten lassen. Bezüglich STV-RR waren die Ergebnisse insofern nicht überraschend, als dass mit zunehmender Herzfrequenz bekanntermaßen die Herzfrequenzvariabilität abnimmt. Hier wäre ein Vergleich mit einer entsprechend tachykarden Kontrollgruppe nötig, um festzustellen, ob die registrierte Abnahme von STV-RR über die Grenzen des Normalen hinausgeht. Alternativ wäre auch eine erneute Evaluation in demselben Setting denkbar, jedoch mit Induktion einer strukturellen Veränderung des Myokards im Vorfeld zum Akutversuch. Da die Untersuchung an primär herzgesunden Tieren durchgeführt wurde, stellen diese Ergebnisse in keiner Weise den Stellenwert von STV-QT und STV-RR im Zusammenhang mit CHF und SCD in Frage. Vielmehr stützen sie die Theorie, dass strukturelle Veränderungen am Myokard, z.B. im Rahmen des kardialen Remodellings, für die entsprechenden pathologischen EKG-Veränderungen ursächlich sind. Ob die beiden Parameter sinnvoll beim Monitoring von Intensivpatienten zum Einsatz kommen könnten, lässt sich mit den erhaltenen Daten nicht abschließend beantworten. Unter den gegeben Versuchsbedingungen erfolgte die kardiale Dekompensation so rasch, dass die Herzfrequenz sich als sensitivster und zuverlässigster Parameter erwies, die akute Kreislaufbelastung anzuzeigen. Interessant bleibt die Frage, wie sich die beiden Parameter bei primär herzkranken Patienten im Rahmen einer kardialen Dekompensation verhalten, die sich - insbesondere wenn sie langsam und stetig erfolgt - erst spät auf einen klassischen Vitalparameter wie die Herzfrequenz auswirken kann.
Im Rahmen der Suche nach genetischen Korrelaten für die Suszeptibilität für Herzrhythmusstörungen wurde man auf die Genfamilie mit der sogenannten Popey-Domäne aufmerksam.
Ein Gen aus dieser Familie ist das Popdc2-Gen, welches für Transmembranproteine codiert, die möglicherweise eine Rolle in der Zell-Adhäsion und Zell-Interaktion spielen. Diese fanden sich sowohl in adulten Mäusen als auch im Reizleitungssystem des menschlichen Herzens in höherer Dichte. Eine systemische elektrophyiologische Charakterisierung der Podpc2-Nullmutanten erbrachte normale AV-Überleitungseigenschaften und Sinusknotenerholzeit. Im Vergleich zu den Wildtyp-Mäusen zeigten die transgenen Tiere eine erhöhte ektope Aktivität im Ventrikel nach Katecholamin-Stimulation(z.B. Kammerflimmern), sowie öfter Vorhofflimmern nach Burstmanövern.
Arrhythmien konnten signifikant häufiger bei Popdc2-Knockout-Mäusen > 9 Monaten nachgewiesen werden, dies könnte auf eine altersabhängige Alteration hindeuten. Möglicherweise spielt das Popdc2-Gen eine wichtige Rolle in der Pathogenese des plötzlichen Herztods durch ventrikuläre Arrhythmien.
EINLEITUNG: Die frühzeitige Erregeridentifikation bei Sepsis-Patienten ist essentiell zur Therapieoptimierung und Senkung der Letalität. Molekularbiologische Detektionsmethoden mit direktem Nachweis bakterieller oder fungaler DNA aus Vollblut stellen einen vielversprechenden Ansatz dar, mit kürzerer Zeitdauer bis zum Resultat und potentiell erhöhter Sensitivität. Beim Vergleich dieser PCR-basierten, kulturunabhängigen Verfahren mit der konventionellen Blutkultur muss streng zwischen antibiotisch vorbehandelten und antibiotisch nicht vorbehandelten Patienten unterschieden werden.
METHODIK: Bei Patienten, die sich von Mai 2010 bis Dezember 2011 mit V.a. Sepsis im Zentrum für Innere Medizin einer Universitätsklinik vorstellten, wurden im Rahmen der IMPACT Sepsis Studie zusätzlich zum routinemäßigen Vorgehen 2 x 5 ml EDTA Blut für die VYOO®-PCR entnommen. In der vorliegenden Arbeit wurden die Erregernachweise der PCR mit den Ergebnissen der Blutkultur für alle antibiotisch nicht vorbehandelten Patienten hinsichtlich Detektionsrate, Time to Result und Plausibilität verglichen. Außerdem wurde die antibiotische Therapie dieser Patienten analysiert und potentielle Therapieoptimierungen durch die PCR-Ergebnisse evaluiert.
ERGEBNISSE: 126 der 200 in die IMPACT Sepsis Studie eingeschlossenen Patienten waren nicht antibiotisch vorbehandelt. Ihr Durchschnittsalter betrug 66,0 ± 16,4 (MW ± SD) Jahre, der Anteil männlicher Patienten 60% und der Anteil immunsupprimierter Patienten 33%. Die durchschnittliche Krankenhaus-Liegedauer lag bei 11,9 ± 10,5 (MW ± SD) Tagen, der Anteil der Patienten mit schwerer Sepsis oder septischem Schock bei 47% und die Letalitätsrate bei 9,7%. Die durchschnittliche Latenzzeit bis zur ersten Antibiotika-Gabe betrug 4,13 ± 6,75 (MW ± SD) h bei einem Median von 2,16 h.
Insgesamt wurden 26 Erreger identifiziert. In 6 Fällen wurde der Erreger von beiden Methoden identifiziert, in 15 nur von der Blutkultur und in 5 nur von der PCR. Die Detektionsraten betrugen 8,7% für die PCR und 16,7% für die Blutkultur (Fisher-Yates-Test; p=0,087; korrigiertes p=1). Die Zeitdauer bis zum Erregerresultat war bei der PCR signifikant kürzer (8,0h bzw. 40,0h; korrigiertes p<0,001). Die PCR versagte vor allem beim Nachweis von Streptokokken, während die Blutkultur mehrere, teilweise gramnegative Problemkeime nicht erfasste. Bei mindestens 4% aller Patienten, 9% der Patienten mit schweren Verlaufsformen und 45% der Patienten mit positivem PCR-Resultat hätte eine Berücksichtigung des PCR-Ergebnisses höchstwahrscheinlich zu einer Therapieoptimierung beigetragen.
SCHLUSSFOLGERUNG: Die beiden untersuchten Verfahren zur Erregerdiagnostik unterschieden sich hinsichtlich der Detektionsrate nicht signifikant, eine diagnostische Überlegenheit der VYOO®-PCR gegenüber der Blutkultur konnte also nicht festgestellt werden. Als komplementäres Verfahren zusätzlich zur Blutkultur bei ausgewählten Patientengruppen eingesetzt, kann durch die PCR eine Verbesserung des therapeutischen Managements von Sepsis-Patienten erzielt werden.