Refine
Has Fulltext
- yes (10)
Is part of the Bibliography
- yes (10)
Document Type
- Doctoral Thesis (9)
- Journal article (1)
Language
- German (10) (remove)
Keywords
- Validierung (10) (remove)
Institute
- Institut für Pharmazie und Lebensmittelchemie (4)
- Lehrstuhl für Tissue Engineering und Regenerative Medizin (2)
- Graduate School of Life Sciences (1)
- Institut für Pharmakologie und Toxikologie (1)
- Institut für Psychologie (1)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (1)
- Klinik und Poliklinik für Strahlentherapie (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
- Fraunhofer (1)
Die Ergebnisse einer publizierten Arbeit zur Validierung von acht Konfigurationen generalisierter Kontrollüberzeugungen werden durch drei weitere Auswertungsschritte ergänzt. Die Anwendung der Interaktionsstrukturanalyse führt zu einer Hervorhebung von zwei Konfigurationen als Typen und zur Aufstellung einer 5-Gruppen-Hypothese über die Bildung einer Restgruppe aus den Neutral-Konfigurationen. Die Betrachtung der Unterschiede in den FPI-Mittelwerten der ursprünglichen acht Gruppen bestätigt die 5-Gruppen-Hypothese. Mit einer multidimensionalen geometrischen Darstellung der Profildistanzen wird in einem dritten Schritt versucht, neben der "Restgruppe" und den beiden "Typen"-Gruppen auch die Eigenständigkeit der beiden verbleibenden "Anti-Typen"-Gruppen zu validieren.
Zur Bestimmung von geringen Wirkstoffkonzentrationen in biologischen, speziell human-biologischen Matrizes wie Blut, Urin oder Mikrodialysat bedarf es einer Analysentechnik, die den Wirkstoff mit einem Höchstmaß an Selektivität, Spezifität und Präzision bestimmen kann. Daneben muß die verwendetete Methode eine hohe Geschwindigkeit aufweisen und sehr robust sein, da bei der heutigen marktwirtschaftlichen Lage Analysensysteme eine optimale Auslastung erfahren müssen. Aus diesem Grund ist der Umbau oder die Umstellung der Methode von einem zum anderen Wirkstoff ohne nennenswerten Zeitverlust ein maßgeblicher Faktor. Als Technik, die diese Anforderungen optimal erfüllt, hat sich in den letzten Jahren die LC-MS/MS-Technik etabliert. Sie ist den bislang überwiegenden Methoden, wie GC-MS-Techniken oder HPLC-UV-Detektion bzw. Fluoreszenztechniken in Bezug auf die oben genannten Parameter deutlich überlegen. In der vorliegenden Arbeit wurden für die Wirkstoffe Cisaprid, SC-72393, Haloperidol, Linezolid, Methotrexat und Ketoprofen LC-MS/MS-Methoden entwickelt oder via unabhängiger Laborvalidierung auf die lokalen Gegebenheiten transferiert und zur Bestimmung pharmakokinetischer Parameter zur Anwendung gebracht. Ziel der Methodenentwicklung war es die hohe Selektivität und Empfindlichkeit des Detektors zu nutzten, um bei geringen Probenvolumina eine Bestimmungsgrenze zu erreichen, die es ermöglichte ausreichend viele Meßwerte zu bestimmen, um die pharmakokinetischen Parameter der Wirkstoffe zu berechnen. Zusätzlich wurde eine Maximierung des Probendurchsatzes und eine Minimierung des personellen und materiellen Aufwandes angestrebt ohne dabei einen Qualitätsverlust der Methode zu erleiden. Eine gelungene Methoden-entwicklung bedurfte daher der Optimierung der Probenaufarbeitung, die sich neben den chemisch-physikalischen Eigenschaften des Wirkstoffes hauptsächlich an der Menge der zur Verfügung stehenden Probe orientierte. Das chromato-graphische System hingegen hing weitestgehend von den chemischen Eigenschaften des Analyten und von den massenspektroskopischen Bedingungen ab, die verdampfbare Puffer im Fließmittel erforderten. Diese drei zu optimierenden Teilbereiche, die miteinander interagieren, wurden jeweils sorgsam aufeinander abgestimmt, um eine Methode zu entwickeln, die die zu erwartenden Wirkstoffkonzentrationen in der jeweiligen Matrix sicher und robust bis hin zum Quantifizierungslimit bestimmen konnte.
Die vorliegende Arbeit beschreibt die Entwicklung und Validierung der neuartigen 3D-QSAR Technik Mapping Property Distributions of Molecular Surfaces (MaP). Die Methode ist gegenüber Translation und Rotation invariant, d. h. eine Überlagerung der Moleküle, wie sie zum Beispiel für CoMFA nötig ist, entfällt. MaP basiert auf der Charakterisierung der Moleküle nach ihrer Fähigkeit Wasserstoffbrücken auszubilden, sowie ihrer Hydrophobie / Hydrophilie. Dabei werden jedoch nicht nur die atombasierten Eigenschaften, sondern auch die Oberflächeneigenschaften der Moleküle zur Charakterisierung genutzt. Diese Loslösung von der chemischen Struktur der Verbindungen erlaubt es, die für die Ligand-Rezeptor-Interaktion (bzw. Substrat-Enzym-Interaktion) wichtigen Grenzflächen zu charakterisieren. Die wichtigsten methodischen Elemente der MaP-Technik, sowie die erhaltenen Ergebnisse der untersuchten Datensätze sollen hier noch einmal in kurzer Form dargestellt werden: Die theoretische Basis des MaP-Deskriptors bilden so genannte Radialverteilungsfunktionen. Mittels dieser selektiven Distanz-Zählstatistiken (SDZS) können sowohl die Form der Moleküle, als auch die Verteilung der einzelnen Oberflächeneigenschaften zueinander, in einem einzelnen Vektor beschrieben werden. Die MaP-Variablen kodieren dabei die Größe (absolute Anzahl an Einträgen), sowie die Orientierung (Distanz) verschiedener Oberflächeneigenschaften zueinander. Die Grundlage der Oberflächeneigenschaften stellen atomare Charakteristika wie das Wasserstoffbrückenbindungspotential sowie die atomare Hydrophobie / Hydrophilie dar. Diese Eigenschaften werden den Atomen mittels einfacher Regeln (Wasserstoffbrücken) bzw. einer Substruktursuche (Hydrophobie / Hydrophilie) zugewiesen und dann auf die Oberfläche projiziert. Um die mathematische Transformation der Rohdaten in die SDZS zu ermöglichen, muss die Moleküloberfläche durch gleichverteilte Oberflächenpunkte diskretisiert werden. Da diese Anforderung von gebräuchlichen analytischen Oberflächenberechnungsmethoden, wie zum Beispiel dem GEPOL-Algorithmus, nicht erfüllt wird, wurde der GEPOL-Algorithmus so modifiziert, dass ein Zusammenhang zwischen der Oberflächengröße und der Anzahl an Oberflächenpunkten gegeben ist. Da es aufgrund dieser Diskretisierung jedoch zum Verlust der Invarianz gegenüber Translation und Rotation kommen kann, wurde der Bestimmung der Moleküloberflächen eine spezielle Technik zur Ausrichtung der Moleküle im Koordinatensystem (Kanonisierung) vorgeschaltet. Dadurch wird ein identischer MaP-Deskriptor unabhängig von der Position der Moleküle im Raum garantiert. Um den Diskretisierungsfehler der Oberflächenbestimmung weiter zu reduzieren, wurde eine unscharfe Zählweise bei der Berechnung des MaP-Deskriptors adaptiert. Diese erlaubt es, Einträge die an den Kategoriengrenzen des MaP-Vektors liegen, auf die beiden nächsten Zentren zu verteilen. Dadurch werden kleine Schwankungen in den Distanzwerten kompensiert. Zur Modellbildung werden die infomativsten Variablen (MIV) mit Hilfe der ‚Reverse-Elimination-Method’-Tabu-Suche (REM-TS) identifiziert. Die so erhaltenen MIV’s können auf die Moleküle zurückprojiziert werden, was die Interpretation der berechneten Modelle stark vereinfacht. Zur Visualisierung der Ergebnisse können die Variablen unter Zuhilfenahme der unscharfen Zählweise nochmals gefiltert werden, um die Interpretation hoch besetzter Variablen zu vereinfachen. Da es aufgrund der Variablenselektion zu einer Zufallskorrelation in der Modellbildung kommen kann, werden die erhaltenen Modelle einer strengen Validierung unterzogen. Dabei werden neben der sehr anspruchsvollen ‚Lass-mehrere-Objekte-heraus’-Kreuzvalidierung als Gütefunktion der Variablenselektion auch ein Permutationstest der Modelle sowie eine Testdatenvorhersage angewandt. Durchläuft ein Modell all diese Validierungsschritte erfolgreich, so ist die Wahrscheinlichkeit einer Zufallskorrelation sehr gering. Um die Anwendbarkeit und die Güte des MaP-Deskriptors zu überprüfen, wurden verschiedene Datensätze untersucht. Diese können entsprechend ihrer Zielsetzung in unterschiedliche Gebiete aufgeteilt werden. Der erste Datensatz (Steroide) wird in der QSAR häufig als Vergleichsdatensatz eingesetzt. Ein weiterer Datensatz umfasst strukturell sehr heterogene Substanzen, die ein augenirritierendes Potential aufweisen (ECETOC). Inhibitoren des EndothelinA-Rezeptors (ETA) bildeten einen weiteren Datensatz. Die enthaltenen Moleküle sind im Datenraum stark in Untergruppen geklustert. Weiterhin wurden konformell sehr flexible, allostere Modulatoren des muskarinischen M2-Rezeptors (M2-Modulatoren) untersucht. Dieser Datensatz diente aufgrund der hohen Flexibilität der Moleküle auch zur Überprüfung der konformellen Abhängigkeit der Methode. Die Erweiterung des Standardparametersatzes wurde mit Hilfe von Naphthylisochinolin-Derivaten (NIQ) untersucht, die eine Aktivität gegen Plasmodium falciparum aufweisen. Ein weiterer Datensatz, deren Moleküle die Öffnungswahrscheinlickeit ATP-abhängiger Kalium-Kanäle erhöht (KCO), wurde herangezogen, um den Vorteil der mathematischen Transformation der MaP-Technik gegenüber der von GRIND benutzten MACC-2-Transformation herauszustellen. Inhibitoren des nicotinischen Acetylcholin-Rezeptors (CAR) bildeten einen weiteren Datensatz für den bisher keine QSAR-Studie vorlag. Zur strukturbasierten Validierung der Methode wurden Inhibitoren der Acetylcholinesterase (APZ-Datensatz) untersucht. Hierbei wurde geprüft, ob die aus der Kristallstruktur der Acetylcholinesterase wichtigen Ligand-Enzym-Wechselwirkungen durch MaP beschrieben werden. Die Ergebnisse dieser Untersuchungen lassen folgenden Rückschlüsse zu: Im Vergleich mit bereits etablierten 3D-QSAR-Techniken wie CoMFA, CoMSIA oder GRID/PLS führt die MaP-Technik zu vergleichbar guten Modellen (Steroide, ETA, M2-Modulatoren). Durch die Loslösung vom strukturellen Grundgerüst der Substanzen können auch strukturell diverse Datensätze gut modelliert und die relevante Information extrahiert werden (ECETOC). Dies ist mit Deskriptoren, die eine gemeinsame Ausrichtung der Moleküle benötigen (z.B. CoMFA), oft nicht möglich. Auch Datensätze, deren Objekte geklustert vorliegen, können mittels MaP gut modelliert werden. MaP ist dabei in der Lage die relevante Information sowohl zwischen, als auch innerhalb der einzelnen Gruppen zu extrahieren (ETA). Auch für Datensätze, deren Moleküle eine sehr hohe Flexibilität aufweisen, ist es möglich mit MaP gute Modelle zu erhalten (M2-Modulatoren, APZ). Hierbei ist es jedoch wichtig, zu beachten, dass MaP als 3D-QSAR-Technik gegenüber der Konformation der Moleküle nicht invariant ist. Bei der Anwendung der Methode zeigte sich jedoch, dass kleine konformelle Änderungen der Verbindungen oft einen sehr geringen Einfluss auf die Ergebnisse der Methode haben (M2-Modulatoren, APZ). Bei der Untersuchung der NIQ-Daten zeigte sich, dass unter Verwendung der MaP-Standardparameter bereits die relevanten Eigenschaften der Moleküle charakterisiert werden können. Allerdings führte eine Erweiterung dieser Parameter zu einer Vereinfachung der Interpretation der Ergebnisse. Hierbei ist jedoch darauf zu achten, dass die Modellvalidierung strikt eingehalten werden muss. Der Vorteil der mathematischen Transformation der Rohdaten (SDZS) gegenüber der von GRIND verwendeten MACC-2 Transformation konnte mittels der KCO-Daten aufgezeigt werden. Das erhaltene Modell spiegelte sehr schön die bereits bekannten Struktur-Wirkungs-Beziehungen wider. Leider ist die publizierte Datenlage in diesem Falle noch nicht ausreichend, um einen abschließenden Vergleich der beiden konkurrierenden Techniken zu ermöglichen. Beim CAR-Datensatz war MaP in der Lage, neben der bekannten, relevanten strukturellen Allylalkoholgruppe ein weiteres strukturelles Merkmal zu identifizieren. Abschließend konnte gezeigt werden, dass MaP in der Lage ist, die für die Wechselwirkung zwischen Acetylcholinesterase und Ligand wichtigen Interaktionsstellen und Charakteristika eindeutig zu identifizieren (APZ-Datensatz). Diese Eigenschaften wurden zur besseren Interpretation der Ergebnisse in die Bindetasche projiziert. Die Ergebnisse dieser Untersuchungen zeigen, dass die entwickelte Technik ein weites Anwendungsspektrum besitzt, leicht zu interpretieren ist und sich dabei durch ihre Robustheit auszeichnet. Vor allem aber liefert MaP aussagekräftige 3D-QSAR-Modelle. Bei der MaP-Methode handelt es sich jedoch nicht nur um einen neuen Moleküldeskriptor, sondern um eine Kombination aus Deskriptor, mathematischer Modellierung, Modellvalidierung und Modellvisualisierung. Obwohl MaP in Hinsicht auf Modellqualität und Modellinterpretierbarkeit Techniken wie zum Beispiel CoMFA in nichts nachsteht, sind aufgrund der einfachen und trotzdem hocheffizienten mathematischen Grundlagen folgende Erweiterungen denkbar: (1) als dreidimensionale Technik ist MaP von den Ausgangskonformationen der Moleküle abhängig. Findet sich im untersuchten Datensatz ein starres Molekül (M2-Modulatoren) oder aber sind Informationen über einen möglichen Bindungsmodus vorhanden, so können diese Konformationen relativ leicht erhalten werden. Da dies jedoch nicht immer der Fall ist, ist eine Erweiterung der Technik in die vierte Dimension (konformelle Flexibilität) wichtig. Dass dies prinzipiell möglich ist, konnte Hopfinger bereits zeigen. Da die mathematische Grundlage der MaP-Technik sehr einfach ist, sollte diese Art der Erweiterung in die vierte Dimension auch für MaP möglich sein. (2) Momentan ist der MaP-Deskriptor auf Verknüpfungen zwischen zwei Oberflächenpunkten beschränkt. Diese Einschränkung könnte dazu führen, dass Inkremente ein und derselben Variablen aus verschiedenen Teilen des Moleküls stammen. Wenn nur ein Teil davon Eigenschaften kodieren, die relevant für die Ligand-Rezeptor-Interaktion sind, könnte dies theoretisch zu Inkonsistenzen in dem resultierenden Modell führen. Bei den bislang untersuchten Datensätzen konnte dies noch nicht beobachtet werden. Eine mögliche Erklärung hierfür ist, dass die MaP-Variablen zu einem gewissen Grad redundant sind, d.h. das selbe Phänomen kann durch verschiedene Variablen beschrieben werden. Von diesen redundanten Variablen werden durch die strenge Validierung diejenigen vom Suchalgorithmus der Variablenselektion identifiziert, die am wenigsten mit anderen Eigenschaften vermengt sind. Prinzipiell ist eine solche Problematik jedoch denkbar. Um die Wahrscheinlichkeit eines derartigen Phänomens weiter zu reduzieren, sollten die bisher genutzten Zweipunktverknüpfungen auf drei Punkte erweitert werden.
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden.
Hintergrund: Die Schlafbezogene Atmungsstörung (SBAS) ist eine häufige Komorbidität der systolischen Herzinsuffizienz und mit einer kürzeren Lebenserwartung assoziiert. Es steht derzeit eine Vielzahl einfacher ambulanter SBAS-Screening-Geräte zur Verfügung. Keines davon wurde jedoch bisher für Patienten mit chronischer systolischer Herzinsuffizienz validiert.
Fragestellung: Die vorliegende Untersuchung diente der Prüfung eines einfachen ambulanten SBAS-Screenings hinsichtlich diagnostischer Trennschärfe und prognostischer Relevanz für Patienten mit systolischer Herzinsuffizienz.
Methoden: Bei Patienten mit symptomatischer systolischer Herzinsuffizienz (linksventrikuläre Ejektionsfraktion (LVEF) < 45%, NYHA ≥ II) wurden nächtlicher Atemfluss, Pulsfrequenz und Sauerstoffsättigung mit dem ApneaLinkTM (Fa. ResMed) ambulant aufgezeichnet. Hieraus werden der Apnoe-/Hypopnoe-Index (AHI) sowie der Entsättigungsindex (ODI) berechnet. Die Ergebnisse wurden der Diagnose des Schlafmediziners anhand einer PSG als gültigem Goldstandard der SBAS-Diagnostik gegenübergestellt. Der Überlebensstatus wurde bei allen Patienten durch ambulante bzw. telefonische Nachuntersuchungen erfasst. Mittels ROC-Analysen wurden diagnostische und durch Cox-Regressionen prognostische Schwellenwerte des SBAS-Screenings ermittelt.
Ergebnisse: Insgesamt wurden 131 Patienten eingeschlossen: das mittlere Alter lag bei 68±13 Jahren, 110 Patienten (84%) waren männlich, 53 Patienten (41%) hatten ein NYHA-Stadium ≥3, die mittlere LVEF lag bei 34%. Bei 69 Patienten (53%) konnte eine PSG durchgeführt werden, welche bei 55 Patienten (80%) eine SBAS diagnostizierte. Bei 38 Patienten (55%) lag eine mind. mittelgradige, therapiepflichtige SBAS vor. In ROC-Analysen für ein mind. mittelgradige SBAS ergaben sich AUCs von 0.77; 0.82; 0.81; 0,79 und 0,82 für AHI; ODI; (AHI+ODI)/2; (2xAHI+ODI)/3 und (AHI+2xODI)/3. Die größtmögliche Spezifität (0,90) und Sensitivität (0,66) für die Diagnose einer Therapiepflichtigen SBAS lab bei einem cut-off von (AHI+2xODI)/3 ≥ 21/h. Die mediane Follow-up Zeit der Studie lag bei 23 (18; 27) Monaten; es starben 21 Patienten (16%). Es fand sich eine positive Korrelation zwischen (AHI+2xODI)/3 und Mortalitätsrate. Bereits für den (AHI+2xODI)/3 ≥9/h war die Mortalität signifikant erhöht (3,55 (95%CI: 1.04-12.13) p=0,04).
Schlussfolgerung: Eine therapiepflichtige SBAS lässt durch ein ambulantes Screening zuverlässig diagnostizieren. Dabei ist der ODI dem AHI überlegen. Für die bestmögliche diagnostische Trennschärfe empfehlen wir einen (AHI+2xODI)/3 von 21/h heranzuziehen, wobei bereits ein Wert von 9/h prognostisch relevant ist, so dass bei Patienten mit einem (AHI+2xODI)/3 von 9-20/h zwar auf eine schlafmedizinische Untersuchung verzichtet werden kann, eine engmaschige kardiologische Kontrolle inklusive wiederholten Screenings jedoch unabdingbar bleibt.
Die Narbenhernie stellt eine häufige Komplikation nach Laparotomien dar. Die Therapie der Narbenhernie erfolgt mittels chirurgischer Netzimplantation. Dieses Verfahren erfordert detaillierte anatomische Kenntnisse. Dem ethischen Imperativ folgend, wurde ein kosten-effizientes Modell entwickelt, welches den humanen Situs imitiert und an dem sich eine retromuskuläre Netzimplantation durchführen lässt. Das High-Fidelity-Modell besteht zum Hauptteil aus 2-Komponenten-Silikon. Das Modell wurde entwickelt und im Rahmen dieser Studie validiert. Zur Ermittlung der Testpersonenanzahl wurde die Methodik des sequentiellen Dreieckstests genutzt. Nachdem 6 Anfänger (PJ-Studierende) und 6 Könner (Fachärzte für Viszeralchirurgie) jeweils ein Modell operiert hatten, wurde die Kontent-, die Konstrukt- und die Kriterienvalidität untersucht. Anschließend wurde das Modell und die Operationsdurchführung mit drei Methoden untersucht. Zum einen füllten die Teilnehmenden einen Fragebogen bezüglich der Realitätsnahe des Modells direkt nach der Operation aus. Außerdem bewerteten drei verblindete Bewerter die Operationen anhand des Competency assessment tool (CAT), welcher eine modifizierte Version des Fragebogens nach Miskovic darstellt, nach den folgenden Subskalen: „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Mängel und Fehler“, „Qualität des Endprodukts“. Zuletzt wurden die operierten Modelle bezüglicher der „Endergebnisse“ autopsiert und bewertet.
Die Ergebnisse zeigen, dass am SUBsON-Modell eine Narbenhernienoperation mit Netzimplantation authentisch durchgeführt werden kann. Die Testpersonen bewerteten das Modell als realitätsnah. Die Reliabilität war in allen Kategorien gut bis exzellent. Die Könner waren in allen Subskalen des CATs den Anfängern überlegen. Bei Betrachtung der Kriterienvalidität zeigte sich ein paradoxer Effekt: Bei der Präparation des Fatty Triangles erbrachten die Anfänger eine signifikant (p< 0,05) höhere Leistung als die Könner. Mögliche Erklärungen dafür sind mannigfaltig.
Die Leistungsunterschiede zwischen Anfängern und Könnern bestätigen die Konstruktvalidität von Modell und Fragebogen sowie die Realitätsnähe des Modells. In dieser Studie konnten Defizite vor allem unter Könnern bezüglich anatomischer Kenntnisse bei der Präparation des Fatty Triangles aufgezeigt werden. Das Modell kann zukünftig genutzt werden, um die Netzimplantation und die Präparation des Fatty Triangles zu üben als auch um die chirurgischen Leistungen zu evaluieren.