Refine
Has Fulltext
- yes (12)
Is part of the Bibliography
- yes (12)
Document Type
- Doctoral Thesis (11)
- Journal article (1)
Keywords
- Validierung (12) (remove)
Institute
- Institut für Pharmazie und Lebensmittelchemie (5)
- Lehrstuhl für Tissue Engineering und Regenerative Medizin (2)
- Graduate School of Life Sciences (1)
- Institut für Anorganische Chemie (1)
- Institut für Pharmakologie und Toxikologie (1)
- Institut für Psychologie (1)
- Klinik und Poliklinik für Allgemein-, Viszeral-, Gefäß- und Kinderchirurgie (Chirurgische Klinik I) (1)
- Klinik und Poliklinik für Strahlentherapie (1)
- Medizinische Klinik (bis 2004) (1)
Sonstige beteiligte Institutionen
- Fraunhofer (1)
Die Narbenhernie stellt eine häufige Komplikation nach Laparotomien dar. Die Therapie der Narbenhernie erfolgt mittels chirurgischer Netzimplantation. Dieses Verfahren erfordert detaillierte anatomische Kenntnisse. Dem ethischen Imperativ folgend, wurde ein kosten-effizientes Modell entwickelt, welches den humanen Situs imitiert und an dem sich eine retromuskuläre Netzimplantation durchführen lässt. Das High-Fidelity-Modell besteht zum Hauptteil aus 2-Komponenten-Silikon. Das Modell wurde entwickelt und im Rahmen dieser Studie validiert. Zur Ermittlung der Testpersonenanzahl wurde die Methodik des sequentiellen Dreieckstests genutzt. Nachdem 6 Anfänger (PJ-Studierende) und 6 Könner (Fachärzte für Viszeralchirurgie) jeweils ein Modell operiert hatten, wurde die Kontent-, die Konstrukt- und die Kriterienvalidität untersucht. Anschließend wurde das Modell und die Operationsdurchführung mit drei Methoden untersucht. Zum einen füllten die Teilnehmenden einen Fragebogen bezüglich der Realitätsnahe des Modells direkt nach der Operation aus. Außerdem bewerteten drei verblindete Bewerter die Operationen anhand des Competency assessment tool (CAT), welcher eine modifizierte Version des Fragebogens nach Miskovic darstellt, nach den folgenden Subskalen: „Instrumentengebrauch“, „Umgang mit dem Gewebe“, „Mängel und Fehler“, „Qualität des Endprodukts“. Zuletzt wurden die operierten Modelle bezüglicher der „Endergebnisse“ autopsiert und bewertet.
Die Ergebnisse zeigen, dass am SUBsON-Modell eine Narbenhernienoperation mit Netzimplantation authentisch durchgeführt werden kann. Die Testpersonen bewerteten das Modell als realitätsnah. Die Reliabilität war in allen Kategorien gut bis exzellent. Die Könner waren in allen Subskalen des CATs den Anfängern überlegen. Bei Betrachtung der Kriterienvalidität zeigte sich ein paradoxer Effekt: Bei der Präparation des Fatty Triangles erbrachten die Anfänger eine signifikant (p< 0,05) höhere Leistung als die Könner. Mögliche Erklärungen dafür sind mannigfaltig.
Die Leistungsunterschiede zwischen Anfängern und Könnern bestätigen die Konstruktvalidität von Modell und Fragebogen sowie die Realitätsnähe des Modells. In dieser Studie konnten Defizite vor allem unter Könnern bezüglich anatomischer Kenntnisse bei der Präparation des Fatty Triangles aufgezeigt werden. Das Modell kann zukünftig genutzt werden, um die Netzimplantation und die Präparation des Fatty Triangles zu üben als auch um die chirurgischen Leistungen zu evaluieren.
Aufgrund der sich umkehrenden Alterspyramide in Deutschland leiden bereits jetzt immer mehr Menschen an Gelenkknorpelschäden. Doch nicht nur das Alter, sondern auch Unfälle und Sportverletzungen und Übergewicht können zu irreversiblen Knorpeldefekten führen. Obwohl es diverse Behandlungsmöglichkeiten gibt, können die bisherige Methoden nicht als dauerhafte Heilung betrachtet werden. Im Rahmen des internationalen Forschungsprojektes BIO-CHIP sollte eine vielsprechende Behandlungsmethode mit neuartigen Arzneimitteln untersucht werden.
Als Ausgangsmaterial des Arzneimittels, ein hergestelltes Knorpelimplantat, dienen patienteneigene Knorpelzellen aus der Nase. Diese werden isoliert, vermehrt und letztlich auf einer Matrix zu einem Knorpelimplantat kultiviert. Wesentliche Voraussetzung für die Implantatfreigabe stellt neben toxikologischen und biologischen Unbedenklichkeitstests die Beurteilung der Viabilität dar. Diese wurde bisher anhand von Histologieschnitten von der Pathologie durchgeführt.
Ziel der vorliegenden Arbeit war die Entwicklung und Validierung eines standardisierten und objektiven Viabilitätstests für die Chondrozyten innerhalb der Knorpelmatrix. Hierfür wurde die LDH als Marker für irreversibel geschädigte Zellen verwendet. Die LDH Konzentration konnte mit dem CyQuant LDH-Assay durch die Messung der Absorption gemessen werden. Es konnte nachgewiesen werden, dass LDH die erforderliche Stabilität und Nachweisbarkeit im Medium besitzt. Mithilfe der Lyse, analog zum Herstellungsprozess, gezüchteter Mini-Knorpelimplantate, konnten die maximal erreichbaren LDH Konzentrationen ermittelt werden. Mithilfe dieser Konzentrationen wurde eine Eichkurve generiert. Diese dient als Beurteilung der Viabilität zukünftig gemessener Absorptionen des Überstandmediums.
Das entwickelte Verfahren erfordert keine invasiven Eingriffe am Implantat und zeichnet sich durch eine einfache Durchführung aus, da nur der Überstand gemessen werden muss. Die durchgeführte Validierung der Methode bescheinigte eine hohe Robustheit, Linearität, Genauigkeit und Präzision.
Bevor ein zellbasiertes GTMP erstmalig beim Menschen angewendet werden kann, müssen verschiedene notwendige nicht-klinische Studien durchgeführt werden. Wichtig ist hier u.a. die Untersuchung der Biodistribution im Tiermodel. Diese umfasst die Verteilung, das Engraftment, die Persistenz, die Eliminierung und gegebenenfalls die Expansion der humanen Zellen in verschiedenen Organen, meistens im Mausmodel. Deshalb wurde eine qPCR-basierte Analysenmethode entwickelt, mit der humane genomische DNA innerhalb von muriner genomischer DNA bestimmt werden kann, und entsprechend den regulatorischen Richtlinien der European Medicines Agency und des International Council for Harmonisation validiert. Anschließend wurde diese Methode innerhalb einer präklinischen worst-case Szenario Biodistributionsstudie angewendet. Das Ziel dieser Studie war die Untersuchung des Biodistributionsprofils von genetisch modifizierten Blood Outgrowth Endothelial Cells von Hämophilie A Patienten 24 Stunden und sieben Tage nach intravenöser Applikation einer Dosis von 2x106 Zellen. Die Isolation, genetische Modifikation und die Expansion der Zellen sollte entsprechend den Richtlinien der Guten Herstellungspraxis durchgeführt werden. Hierbei ist die Auswahl und Anwendung geeigneter und essentieller Rohstoffe wichtig. Gleichermaßen ist die Durchführung einer definierten Qualitätskontrollstrategie notwendig und die Patientenzellen sollten nur innerhalb von nicht-klinischen Studien eingesetzt werden, wenn alle Akzeptanzkriterien erfüllt wurden. Die Validierung der qPCR-Methode zeigte eine hohe Genauigkeit, Präzision und Linearität innerhalb des Konzentrationsintervalls von 1:1x103 bis 1:1x106 humanen zu murinen Genomen. Bei Anwendung dieser Methode für die Biodistributionsstudie konnten nach 24 Stunden humane Genome in vier der acht untersuchten Mausorgane bestimmt werden. Nach sieben Tagen konnten in keinem der acht Organe humane Genome nachgewiesen werden...
Patienten mit Hirnmetastasen weisen eine limitierte Prognose auf. Um diese Prognose besser abschätzen zu können, wurden verschiedene Prognosescores entwickelt. Der EC-Score ist ein sehr einfach bestimmbarer Summenscore basierend auf extrakraniellen Faktoren. In dieser retrospektiven Arbeit wurden 538 Patientenfälle inkludiert, die im Zeitraum 10/1998 bis 11/2017 eine Bestrahlung ihrer Hirnmetastasen am Uniklinikum Würzburg erhalten haben. Der EC-Score konnte bei 173 der Patientenfälle ausgewertet werden. Zusätzlich wurden die bereits etablierten DS-GPA- und RPA-Score am eigenen Patientenkollektiv angewendet und mit dem EC-Score verglichen. Im Ergebnis stellt diese Arbeit eine wichtige unabhängige externe Validierung des EC-Scores dar. Der Score ermöglicht es, Patienten sicher zu identifizieren, welche nicht von einer Bestrahlung ihrer Hirnmetastasen profitieren würden.
Hintergrund: Die Schlafbezogene Atmungsstörung (SBAS) ist eine häufige Komorbidität der systolischen Herzinsuffizienz und mit einer kürzeren Lebenserwartung assoziiert. Es steht derzeit eine Vielzahl einfacher ambulanter SBAS-Screening-Geräte zur Verfügung. Keines davon wurde jedoch bisher für Patienten mit chronischer systolischer Herzinsuffizienz validiert.
Fragestellung: Die vorliegende Untersuchung diente der Prüfung eines einfachen ambulanten SBAS-Screenings hinsichtlich diagnostischer Trennschärfe und prognostischer Relevanz für Patienten mit systolischer Herzinsuffizienz.
Methoden: Bei Patienten mit symptomatischer systolischer Herzinsuffizienz (linksventrikuläre Ejektionsfraktion (LVEF) < 45%, NYHA ≥ II) wurden nächtlicher Atemfluss, Pulsfrequenz und Sauerstoffsättigung mit dem ApneaLinkTM (Fa. ResMed) ambulant aufgezeichnet. Hieraus werden der Apnoe-/Hypopnoe-Index (AHI) sowie der Entsättigungsindex (ODI) berechnet. Die Ergebnisse wurden der Diagnose des Schlafmediziners anhand einer PSG als gültigem Goldstandard der SBAS-Diagnostik gegenübergestellt. Der Überlebensstatus wurde bei allen Patienten durch ambulante bzw. telefonische Nachuntersuchungen erfasst. Mittels ROC-Analysen wurden diagnostische und durch Cox-Regressionen prognostische Schwellenwerte des SBAS-Screenings ermittelt.
Ergebnisse: Insgesamt wurden 131 Patienten eingeschlossen: das mittlere Alter lag bei 68±13 Jahren, 110 Patienten (84%) waren männlich, 53 Patienten (41%) hatten ein NYHA-Stadium ≥3, die mittlere LVEF lag bei 34%. Bei 69 Patienten (53%) konnte eine PSG durchgeführt werden, welche bei 55 Patienten (80%) eine SBAS diagnostizierte. Bei 38 Patienten (55%) lag eine mind. mittelgradige, therapiepflichtige SBAS vor. In ROC-Analysen für ein mind. mittelgradige SBAS ergaben sich AUCs von 0.77; 0.82; 0.81; 0,79 und 0,82 für AHI; ODI; (AHI+ODI)/2; (2xAHI+ODI)/3 und (AHI+2xODI)/3. Die größtmögliche Spezifität (0,90) und Sensitivität (0,66) für die Diagnose einer Therapiepflichtigen SBAS lab bei einem cut-off von (AHI+2xODI)/3 ≥ 21/h. Die mediane Follow-up Zeit der Studie lag bei 23 (18; 27) Monaten; es starben 21 Patienten (16%). Es fand sich eine positive Korrelation zwischen (AHI+2xODI)/3 und Mortalitätsrate. Bereits für den (AHI+2xODI)/3 ≥9/h war die Mortalität signifikant erhöht (3,55 (95%CI: 1.04-12.13) p=0,04).
Schlussfolgerung: Eine therapiepflichtige SBAS lässt durch ein ambulantes Screening zuverlässig diagnostizieren. Dabei ist der ODI dem AHI überlegen. Für die bestmögliche diagnostische Trennschärfe empfehlen wir einen (AHI+2xODI)/3 von 21/h heranzuziehen, wobei bereits ein Wert von 9/h prognostisch relevant ist, so dass bei Patienten mit einem (AHI+2xODI)/3 von 9-20/h zwar auf eine schlafmedizinische Untersuchung verzichtet werden kann, eine engmaschige kardiologische Kontrolle inklusive wiederholten Screenings jedoch unabdingbar bleibt.
In this thesis eight robust and reliable LC-MS/MS methods were developed and validated to analyze atorvastatin, clopidogrel, furosemide, itraconazole, loratadine, naproxen, nisoldipine and sunitinib in human plasma. The active metabolites 2-hydroxyatorvastatin, 4-hydroxyatorvastatin, hydroxyitraconazole, descarboethoxy-loratadine, 4-hydroxynisoldipine and N-desethylsunitinib were also included in the corresponding methods. Due to the different physical, chemical and pharmacokinetic properties of the analytes a wide spectrum regarding sample preparation techniques, chromatography and mass spectrometric detection was covered. Protein precipitation methods were developed for furosemide, itraconazole, naproxen, nisoldipine and sunitinib. Liquid-liquid extraction methods were developed for atorvastatin, clopidogrel and loratadine. Criteria to choose protein precipitation or liquid-liquid extraction were the final plasma concentrations of the drugs, which are mainly dependant on the dose, bioavailability and t1/2 and of course cost-effectiveness. Altogether, the methods have a concentration range from 0.001 ng/mL (LLOQ of clopidogrel) to 50000 ng/mL (highest calibration point for naproxen), covering 5 x 107 orders of magnitude. The runtime of the methods ranged from 2 to 4 minutes, facilitating a high sample throughput. All developed methods were validated according to recent guidelines as they were used to analyze sampes from clinical trials. Excellent linearity, intra-day and inter-day precision and accuracy were observed in the validated calibration ranges. Hemolyzed, lipemic and different batches of human plasma as well as sample dilution did not affect the determiantion of the analytes. Clopidogrel, loratadine, nisoldipine and sunitinib and if available their metabolites were subjected to a matrix effect test, resulting in no influence of different batches of human plasma on the analytical methods. Noteworthy is clopidogrel that shows a slight effect on one of the two used mass spectrometers. However, that effect was reproducible and did therefore not affect clopidogrel determination. No evidence of instability during chromatography, extraction and sample storage processes for all analytes except 4-hydroxyatorvastatin was found, for which a significant decrease was observed after three months. During incurred sample reanalysis of study samples 95 % of the samples were within ±15 % with respect to the first analysis. Moreover, the atorvastatin, loratadine and clopidogrel method were compared on two generations of triple quadrupole mass spectrometers, the API 3000™ and the API 5000™. The new ion source and the changes in the ion path of the API 5000™ provided higher sensitivity, the extend depending on the substance. However, the API 3000™ had very good precision in the performed system comparison. The validated methods showed excellent performance and quality data during routine sample analysis of eight clinical trials. Moreover, they are suitable for high sample throughput due to their short run times.
Das Ziel vorliegender Arbeit war die Entwicklung einer HPLC-MS(/MS)-Methode, die im Rahmen der pharmazeutischen Qualitätskontrolle zur direkten Quantifizierung von Aminosäuren (AS) in Infusionslösungen angewendet werden kann. Die Zielset-zung schloss eine Validierung innerhalb der für die Zweckbestimmung vorgesehenen Grenzen ein. Im Rahmen der Methodenentwicklung wurde das ESI-MS/MS-Fragmentierungs-muster von 21 Aminosäuren, von 20 stabil-isotopenmarkierten Aminosäuren, die als interne Standards verwendet wurden, sowie von einigen weiteren Substanzen bestimmt. Nach Kenntnis von Precursor- und Produktionen erstellte man eine SRM-Methode zur spezifischen MS/MS-Analyse. Dabei wurden durch das jeweilige Frag-mentierungsmuster bedingte Interferenzen bei den zu untersuchenden Aminosäuren bestimmt, die bei der zu erarbeitenden HPLC-MS-Methode beachtet werden mussten. Die Methodenentwicklung zur HPLC-MS-Analytik von underivatisierten AS umfasste mit der RP-HPLC unter Verwendung eines Ionenpaarreagenzes (IP) und der hydrophilen Interaktionschromatographie (HILIC) zwei verschiedene chromatographi-sche Ansätze. Bei der Anwendung der RP-HPLC ergaben sich Probleme. Die Verwendung eines IP, im vorliegenden Fall TDFHA (Tridecafluorheptansäure), führte zu langen Equilibrierungs-, Re-Equilibrierungs- und Spülzeiten und damit bei zwar relativ kurzer HPLC-Laufzeit zu einem aber insgesamt hohen Zeitaufwand. Gleich-zeitig war die LC-MS-Anlage auf diese Anwendung fixiert, da das Ionenpaarreagenz das Gerät stark verschmutzte und dadurch andere Analysen erheblich störte. Zudem waren die Retentionszeiten der Analyten trotz langer Equilibrierungszeiten schlecht reproduzierbar, so dass eine solche Methode im Rahmen der pharmazeutischen Qualitätskontrolle schwer validierbar wäre. Weiterführende Untersuchungen erfolgten daher nicht. In nachfolgenden Studien mit der HILIC wurden verschiedene Einflussparameter (Anteil organischer Phase im Fließmittel, pH-Wert des Fließmittels, Temperatur der Säule, Pufferkonzentration im Fließmittel, Gradientenelution) auf die Trennung der AS an einer ZIC®-HILIC-Säule untersucht. Durch Optimierung der Parameter wurde so eine HILIC-HPLC-Methode entwickelt, bei der 21 AS und 20 ihrer isotopen-markierten Referenz-AS innerhalb von 20 min eluierten. Diejenigen AS, bei denen im Rahmen der Fragmentierungsstudien Interferenzen aufgrund gleicher bzw. ähnlicher Massen der Precursor- bzw. Produktionen aufgetreten waren, wurden chroma-tographisch getrennt. Gleichzeitig hat sich die SIM-Analyse als anwendbar erwiesen. Die Anwendung des spezifischeren SRM-Modus und damit der Tandem-Massenspektrometrie war nicht erforderlich. Im Rahmen der nachfolgenden Studien zur Validierung ergab sich, dass die entwickelte Methode über einen weiten Bereich eine lineare Abhängigkeit zwischen Konzentrations- und Messwerten zeigte. Für drei der 21 AS (NAcCys, NAcTyr, Pro) wurde die quadratische Regression mit dem Anpassungstest nach Mandel als geeig-neteres Regressionsmodell ermittelt. Bei Untersuchungen zur Wiederfindung wurde ein Einfluss der Matrix-Lösung der Infusionslösung festgestellt, der zu Abweichungen hinsichtlich des Quotienten AreaAS / AreaIS führte, so dass eine Quantifizierung innerhalb der geforderten Grenzen bei Kalibrierung über reine Standardlösungen nicht möglich war. Die Validierung wurde daher nachfolgend in der Matrixlösung durchgeführt. Dabei wurde gezeigt, dass mit der entwickelten HILIC-HPLC-MS-Methode Aminosäuren in Infusionslösungen mit hoher Präzision und Richtigkeit bestimmt werden können. Neun der 21 untersuchten AS konnten im Bereich von 30% - 350%, zehn weitere im Bereich von 50% - 350% innerhalb der zur Gehaltsbestimmung von pharmazeutischen Formulierungen vorgeschriebenen Grenzen (Wiederfindung Einzelbestimmung: 98% -102.0%, Mittelwert einer Dreifachbestimmung: 98.5% – 101.5%) quantifiziert werden. Für His und Phe gelang allerdings keine Quantifizierung innerhalb der Akzeptanzkriterien, wobei der Grund hierfür in weiteren Studien geklärt werden müsste. Mit der entwickelten Methode ist damit eine gleichzeitige Quantifizierung verschiedener AS-Infusionslösungsformulierungen möglich, die sich bei gleicher Matrix in der Konzentration an AS unterscheiden. Beispielsweise seien hier die Formulierungen „Aminoplasmal® E 5% / 10% /15%“ genannt, die mit der validierten Methode erfassbar sind. Die Probenvorbereitung beschränkt sich dabei auf den Zusatz der IS-Formulierung zur Infusionslösung und einen Verdünnungsschritt. Die Quanti-fizierung erfolgt über eine 5-Punkt-Kalibriergerade, die aus einer AS- und IS-Standardmischung, nach Zusatz der einfach herzustellenden Elektrolyt-Matrix, erstellt wird. Die Analysenzeit der HPLC-MS-Methode beträgt einschließlich Equilibrie-rungszeit 35 min und ist damit deutlich kürzer als die 120 min, die bei der nach wie vor zur AS-Analytik allgemein gebräuchlichen Ionenaustauschchromatographie mit Ninhydrin-Nachsäulenderivatisierung anzusetzen sind.
Für die Lösung der quantenmechanischen Bewegungsgleichungen, die komplexe, molekulare Systeme beschreiben, sind effiziente und verlässliche Näherungsverfahren erforderlich. Die Dichtefunktionaltheorie (DFT) stellt für die Behandlung der Elektronenwechselwirkung in vielen Fällen den besten Kompromiss zwischen Effizienz und Genauigkeit dar. Im Rahmen der DFT wird die gesamte nicht-klassische Elektron-Elektron-Wechselwirkung im so genannten Austausch-Korrelationsfunktional angenähert. Viele solcher Näherungen sind semi-empirischer Natur, andere wurden ausschließlich von physikalischen Überlegungen abgeleitet. In globalen Hybridfunktionale wird ein konstanter Anteil der integrierten DFT-Austauschenergiedichte durch exakten Austausch aus der Hartree-Fock Näherung ersetzt. Das populärste Funktional B3LYP enthält 20 % exakten Austausch und mehrere empirische Parameter. Der optimale Prozentsatz hängt allerdings sehr stark von den zu berechnenden Systemen und molekularen Eigenschaften ab. Eine Lösung dieses Problems sollten lokale Hybridfunktionale liefern, in denen die Beimischung der exakten Austauschenergiedichte über eine lokale Mischfunktion (LMF) gesteuert wird und daher positions- und molekülabhängig ist. In dieser Arbeit wird ein semi-empirischer Ansatz für die Entwicklung neuer lokaler Hybridfunktionale verfolgt: während die Energiedichten unverändert aus etablierten Näherungen zum Austauschkorrelationsfunktional übernommen werden, stehen parametrisierte LMFs im Zentrum der Untersuchungen. Die verschiedenen LMFs beinhalten neben mindestens einem empirischen Parameter eine Variable die vom Quotienten der von-Weizsäcker kinetischen Energiedichte und der korrelierten kinetischen Energiedichte (sogenannte t-LMFs) bzw. dem reduzierten Dichtegradienten (bezeichnet als t-LMFs) abhängt. Weitere LMFs werden durch zusätzliche Berücksichtigung der Spinpolarisation erhalten. Alle Parameter werden an Atomisierungsenergien bzw. Reaktionsbarrieren bekannter molekularer Testsätze gefittet. Durch Visualisierung der LMFs können zusätzlich Einblicke in den physikalischen Hintergrund und in Möglichkeiten der Weiterentwicklung gewonnen werden. Es wurde beispielsweise beobachtet, dass entlang einer gedehnten Bindung höhere Werte der LMF und damit größere Beimischungen exakter Austauschenergie in Übergangszuständen einhergehen. Dieser Effekt ist für t-LMFs am ausgeprägtesten und korreliert mit besseren Ergebnissen für Reaktionsbarrieren mit lokalen Hybridfunktionalen, die auf einer t-LMF basieren. Bis auf wenige Ausnahmen leiten sich die lokalen Hybridfunktionale in dieser Arbeit aus dem Austausch- und Korrelationsfunktional der lokalen Dichtenäherung (LSDA) ab und enthalten keine Gradientenkorrektur im Sinne der GGA (generalized gradient approximation). Die neuen Funktionale wurden zunächst nicht-selbstkonsistent in eine Entwicklerversion des quantenchemischen Programmpaketes Turbomole implementiert. Das bedeutet, für gegebene Molekülorbitale bzw. eine gegeben Elektronendichte kann lediglich die Gesamtenergie berechnet werden. Dies ist eine anerkannte Näherung, die vor allem für die Optimierung der Parameter eine große Zeitersparnis darstellt. Um letztlich orbitalabhängige, molekulare Eigenschaften berechnen zu können wird neben der Gesamtenergie auch noch das zugehörige lokale Hybridpotential benötigt. Für die selbstkonsistente Implementierung wird die funktionale Ableitung der Austauschkorrelationsenergie nach den Orbitalen bestimmt. Daraus resultierend müssen neben den üblichen lokalen Austauschkorrelationspotentialtermen auch Integrale berechnet werden, die das mit der LMF gewichtete nicht-lokale exakte Austauschpotential enthalten. Die entsprechenden Terme kann man, genauso wie die exakte Austauschenergiedichte an sich, nicht analytisch berechnen. Früheren Ansätzen folgend wurden sie in der vorliegenden Arbeit in einer Basissatzentwicklung angenähert, wobei der Einfachheit halber die atomaren Basisfunktionen verwendet wurden. Um die Genauigkeit dieser sogenannten RI (resolution of the identity)-Näherung validieren zu können und auch schon im Hinblick auf die Anpassung einer Hilfsbasis, wurde darüber hinaus die numerische Berechnung aller Integrale, die das exakte Austauschpotential und die entsprechende Energiedichte enthalten, implementiert. Unter Verwendung der RI-Näherung ist der Rechenaufwand lokaler Hybride vergleichbar mit dem globaler Hybridfunktionale: Während die formale Skalierung in Abhängigkeit der Systemgröße gleich ist, ergab sich ein etwas höherer Vorfaktor für die lokalen Hybride. Verschiedene Literaturbekannte Testsätze mit Atomisierungsenergien, Reaktionsbarrieren, Dissoziationsenergien oder Gleichgewichtsabständen, die teilweise einige Schwächen bisheriger Dichtefunktionalnäherungen aufdecken, wurden berücksichtigt. Für die 223 Atomisierungsenergien des G3 Testsatzes stellen alle unsere Funktionale eine signifikante Verbesserung gegenüber B3LYP dar. Atomisierungsenergien sind insofern ein sensibler Test, da alle Bindungen gebrochen werden und Fehlerkompensation eine untergeordnete Rolle spielt. Vor allem lokale Hybridfunktionale, deren LMFs neben der kinetischen Energiedichte explizit von der Spinpolarisation abhängen, lieferten hervorragende Resultate. Obwohl im Vergleich zu Atomisierungsenergien für die korrekte Berechnung von Reaktionsbarrieren im Allgemeinen mehr exakter Austausch benötigt wird, sind unsere Funktionale auch für zwei Testsätze mit jeweils 38 Reaktionsbarrieren besser als B3LYP. Zwar kann mit einem globalen Hybrid mit 50 % exaktem Austausch eine geringere Abweichung von den Richtwerten erzielt werden, aber ein solches Funktional ist für thermochemische Daten unzureichend. Hier wurde erstmals gezeigt, dass lokale Hybridfunktionale ohne Gradientenkorrektur sowohl für Thermochemie als auch für Kinetik zufrieden stellende Ergebnisse liefern können. Das Dissoziationsverhalten symmetrischer Radikalkationen stellt für die hier diskutierten Dichtefunktionale nach wie vor eine Herausforderung dar: Die Dissoziationsenergien von sieben Modellsystemen werden mit unseren Funktionalen stark überschätzt und Gleichgewichtsabstände unterschätzt. Insgesamt sind die Werte nur marginal besser als mit B3LYP. Neben Eigenschaften von Hauptgruppenverbindungen wurden zudem Übergangsmetalldimere und -monohydride untersucht. Für erstere ist eine gute Beschreibung dynamischer sowie statischer Elektronenkorrelation ausschlaggebend. In den Hydriden andererseits dominiert mit gängigen Dichtefunktionalen die unphysikalische Selbstwechselwirkung eines Elektrons mit sich selbst. Für die 3d-Übergangsmetalldimere sind die getesteten Funktionale genauso gut wie B3LYP und für die Hydride etwas besser. Atomare s-d Transferenergien von 3d Übergangsmetallen verbleiben auch für unsere lokalen Hybridfunktionale, die insgesamt schlechtere Ergebnisse erzielen als B3LYP, noch problematisch. Das hierfür geeignetste lokale Hybridfunktional basiert auf einer s-LMF und beinhaltet LYP Korrelation. Für die isotropen Hyperfeinkopplungskonstanten (HFCCs) kleiner Hauptgruppenverbindungen wurden zufriedenstellende Ergebnisse (ähnlich wie B3LYP) mit einem t-LMF basierten lokalen Hybrid erzielt. Die RI Näherung zum lokalen Hybridpotential wurde dem numerisch exakten Potential für die Berechnung von Gesamtenergien, isotrope HFCCs und Orbitalenergien für verschiedene Basissätze gegenübergestellt. Wie erwartet ist der Fehler für Gesamtenergien mit der RI-Näherungen vergleichsweise gering, vor allem relativ zu den verbleibenden Abweichungen von experimentellen Energien. Der Vergleich der mittleren absoluten Abweichung von experimentellen Werten für 26 isotrope HFCCs zeigt sogar für mittelgroße und kontrahierte IGLO Basissätze nur geringe Unterschiede zwischen dem RI-Potential und dem numerisch exakten lokalen Hybridpotential. Die Analyse der HFCCs einzelner Moleküle und der Orbitalenergien des CN Moleküls offenbart allerdings, dass Ungenauigkeiten aufgrund der RI-Näherung hier eine größere Rolle spielen, vor allem wenn zu kleine atomare Basissätze verwendet werden. Von den untersuchten lokalen Hybriden stellen sich einige als hervorragende Kandidaten für die Berechnung thermochemischer und kinetischer Eigenschaften heraus. Jeweils unterschiedliche Funktionale erzielen darüber hinaus mit den besten bekannten Funktionalen vergleichbare Ergebnisse für isotrope Hyperfeinkopplungskonstanten und ausgewählte Eigenschaften kleiner Übergangsmetallverbindungen. Die in dieser Arbeit präsentierten lokalen Hybridfunktionale stellen daher einen wichtigen Schritt in der Entwicklung universeller Näherungen zum Austauschkorrelationsfunktional dar. Zur akkuraten Beschreibung molekularer Eigenschaften von Übergangsmetallkomplexen und dem Dissoziationsverhalten von Radikal-Kation-Dimeren neben Thermochemie und Kinetik, werden in Zukunft wohl komplexere LMFs benötigt. Um konkurrenzfähige lokale Hybride mit gradientenkorrigierter Austausch- und Korrelationsenergiedichte zu entwickeln, müssen darüber hinaus weitere Studien zum Einfluss des abweichenden Eichursprungs der miteinander kombinierten Austauschenergiedichten durchgeführt werden. Eine andere Möglichkeit ist die Entwicklung speziell abgestimmter Korrelationsfunktionale für lokale Hybride. Außerdem sollte die Qualität der RI-Näherung zum lokalen Hybridpotential detaillierter untersucht werden. Hierfür könnten zum Beispiel Ionisierungsenergien und Elektronenaffinitäten herangezogen werden. Um zusätzliche Abweichungen oder sogar fälschlicherweise "zu gute" Ergebnisse bei Validierungsrechnungen zu vermeiden, sollten Hilfsbasen für die Entwicklung des nicht-lokalen exakten Austauschpotentials implementiert und optimiert werden. Einer der nächsten Implementierungsschritte sollte auch Gradienten bezüglich der Kernkoordinaten beinhalten, um die Validierung der neuen lokalen Hybridfunktionale auf Strukturoptimierungen auszuweiten.
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden.
Die vorliegende Arbeit beschreibt die Entwicklung und Validierung der neuartigen 3D-QSAR Technik Mapping Property Distributions of Molecular Surfaces (MaP). Die Methode ist gegenüber Translation und Rotation invariant, d. h. eine Überlagerung der Moleküle, wie sie zum Beispiel für CoMFA nötig ist, entfällt. MaP basiert auf der Charakterisierung der Moleküle nach ihrer Fähigkeit Wasserstoffbrücken auszubilden, sowie ihrer Hydrophobie / Hydrophilie. Dabei werden jedoch nicht nur die atombasierten Eigenschaften, sondern auch die Oberflächeneigenschaften der Moleküle zur Charakterisierung genutzt. Diese Loslösung von der chemischen Struktur der Verbindungen erlaubt es, die für die Ligand-Rezeptor-Interaktion (bzw. Substrat-Enzym-Interaktion) wichtigen Grenzflächen zu charakterisieren. Die wichtigsten methodischen Elemente der MaP-Technik, sowie die erhaltenen Ergebnisse der untersuchten Datensätze sollen hier noch einmal in kurzer Form dargestellt werden: Die theoretische Basis des MaP-Deskriptors bilden so genannte Radialverteilungsfunktionen. Mittels dieser selektiven Distanz-Zählstatistiken (SDZS) können sowohl die Form der Moleküle, als auch die Verteilung der einzelnen Oberflächeneigenschaften zueinander, in einem einzelnen Vektor beschrieben werden. Die MaP-Variablen kodieren dabei die Größe (absolute Anzahl an Einträgen), sowie die Orientierung (Distanz) verschiedener Oberflächeneigenschaften zueinander. Die Grundlage der Oberflächeneigenschaften stellen atomare Charakteristika wie das Wasserstoffbrückenbindungspotential sowie die atomare Hydrophobie / Hydrophilie dar. Diese Eigenschaften werden den Atomen mittels einfacher Regeln (Wasserstoffbrücken) bzw. einer Substruktursuche (Hydrophobie / Hydrophilie) zugewiesen und dann auf die Oberfläche projiziert. Um die mathematische Transformation der Rohdaten in die SDZS zu ermöglichen, muss die Moleküloberfläche durch gleichverteilte Oberflächenpunkte diskretisiert werden. Da diese Anforderung von gebräuchlichen analytischen Oberflächenberechnungsmethoden, wie zum Beispiel dem GEPOL-Algorithmus, nicht erfüllt wird, wurde der GEPOL-Algorithmus so modifiziert, dass ein Zusammenhang zwischen der Oberflächengröße und der Anzahl an Oberflächenpunkten gegeben ist. Da es aufgrund dieser Diskretisierung jedoch zum Verlust der Invarianz gegenüber Translation und Rotation kommen kann, wurde der Bestimmung der Moleküloberflächen eine spezielle Technik zur Ausrichtung der Moleküle im Koordinatensystem (Kanonisierung) vorgeschaltet. Dadurch wird ein identischer MaP-Deskriptor unabhängig von der Position der Moleküle im Raum garantiert. Um den Diskretisierungsfehler der Oberflächenbestimmung weiter zu reduzieren, wurde eine unscharfe Zählweise bei der Berechnung des MaP-Deskriptors adaptiert. Diese erlaubt es, Einträge die an den Kategoriengrenzen des MaP-Vektors liegen, auf die beiden nächsten Zentren zu verteilen. Dadurch werden kleine Schwankungen in den Distanzwerten kompensiert. Zur Modellbildung werden die infomativsten Variablen (MIV) mit Hilfe der ‚Reverse-Elimination-Method’-Tabu-Suche (REM-TS) identifiziert. Die so erhaltenen MIV’s können auf die Moleküle zurückprojiziert werden, was die Interpretation der berechneten Modelle stark vereinfacht. Zur Visualisierung der Ergebnisse können die Variablen unter Zuhilfenahme der unscharfen Zählweise nochmals gefiltert werden, um die Interpretation hoch besetzter Variablen zu vereinfachen. Da es aufgrund der Variablenselektion zu einer Zufallskorrelation in der Modellbildung kommen kann, werden die erhaltenen Modelle einer strengen Validierung unterzogen. Dabei werden neben der sehr anspruchsvollen ‚Lass-mehrere-Objekte-heraus’-Kreuzvalidierung als Gütefunktion der Variablenselektion auch ein Permutationstest der Modelle sowie eine Testdatenvorhersage angewandt. Durchläuft ein Modell all diese Validierungsschritte erfolgreich, so ist die Wahrscheinlichkeit einer Zufallskorrelation sehr gering. Um die Anwendbarkeit und die Güte des MaP-Deskriptors zu überprüfen, wurden verschiedene Datensätze untersucht. Diese können entsprechend ihrer Zielsetzung in unterschiedliche Gebiete aufgeteilt werden. Der erste Datensatz (Steroide) wird in der QSAR häufig als Vergleichsdatensatz eingesetzt. Ein weiterer Datensatz umfasst strukturell sehr heterogene Substanzen, die ein augenirritierendes Potential aufweisen (ECETOC). Inhibitoren des EndothelinA-Rezeptors (ETA) bildeten einen weiteren Datensatz. Die enthaltenen Moleküle sind im Datenraum stark in Untergruppen geklustert. Weiterhin wurden konformell sehr flexible, allostere Modulatoren des muskarinischen M2-Rezeptors (M2-Modulatoren) untersucht. Dieser Datensatz diente aufgrund der hohen Flexibilität der Moleküle auch zur Überprüfung der konformellen Abhängigkeit der Methode. Die Erweiterung des Standardparametersatzes wurde mit Hilfe von Naphthylisochinolin-Derivaten (NIQ) untersucht, die eine Aktivität gegen Plasmodium falciparum aufweisen. Ein weiterer Datensatz, deren Moleküle die Öffnungswahrscheinlickeit ATP-abhängiger Kalium-Kanäle erhöht (KCO), wurde herangezogen, um den Vorteil der mathematischen Transformation der MaP-Technik gegenüber der von GRIND benutzten MACC-2-Transformation herauszustellen. Inhibitoren des nicotinischen Acetylcholin-Rezeptors (CAR) bildeten einen weiteren Datensatz für den bisher keine QSAR-Studie vorlag. Zur strukturbasierten Validierung der Methode wurden Inhibitoren der Acetylcholinesterase (APZ-Datensatz) untersucht. Hierbei wurde geprüft, ob die aus der Kristallstruktur der Acetylcholinesterase wichtigen Ligand-Enzym-Wechselwirkungen durch MaP beschrieben werden. Die Ergebnisse dieser Untersuchungen lassen folgenden Rückschlüsse zu: Im Vergleich mit bereits etablierten 3D-QSAR-Techniken wie CoMFA, CoMSIA oder GRID/PLS führt die MaP-Technik zu vergleichbar guten Modellen (Steroide, ETA, M2-Modulatoren). Durch die Loslösung vom strukturellen Grundgerüst der Substanzen können auch strukturell diverse Datensätze gut modelliert und die relevante Information extrahiert werden (ECETOC). Dies ist mit Deskriptoren, die eine gemeinsame Ausrichtung der Moleküle benötigen (z.B. CoMFA), oft nicht möglich. Auch Datensätze, deren Objekte geklustert vorliegen, können mittels MaP gut modelliert werden. MaP ist dabei in der Lage die relevante Information sowohl zwischen, als auch innerhalb der einzelnen Gruppen zu extrahieren (ETA). Auch für Datensätze, deren Moleküle eine sehr hohe Flexibilität aufweisen, ist es möglich mit MaP gute Modelle zu erhalten (M2-Modulatoren, APZ). Hierbei ist es jedoch wichtig, zu beachten, dass MaP als 3D-QSAR-Technik gegenüber der Konformation der Moleküle nicht invariant ist. Bei der Anwendung der Methode zeigte sich jedoch, dass kleine konformelle Änderungen der Verbindungen oft einen sehr geringen Einfluss auf die Ergebnisse der Methode haben (M2-Modulatoren, APZ). Bei der Untersuchung der NIQ-Daten zeigte sich, dass unter Verwendung der MaP-Standardparameter bereits die relevanten Eigenschaften der Moleküle charakterisiert werden können. Allerdings führte eine Erweiterung dieser Parameter zu einer Vereinfachung der Interpretation der Ergebnisse. Hierbei ist jedoch darauf zu achten, dass die Modellvalidierung strikt eingehalten werden muss. Der Vorteil der mathematischen Transformation der Rohdaten (SDZS) gegenüber der von GRIND verwendeten MACC-2 Transformation konnte mittels der KCO-Daten aufgezeigt werden. Das erhaltene Modell spiegelte sehr schön die bereits bekannten Struktur-Wirkungs-Beziehungen wider. Leider ist die publizierte Datenlage in diesem Falle noch nicht ausreichend, um einen abschließenden Vergleich der beiden konkurrierenden Techniken zu ermöglichen. Beim CAR-Datensatz war MaP in der Lage, neben der bekannten, relevanten strukturellen Allylalkoholgruppe ein weiteres strukturelles Merkmal zu identifizieren. Abschließend konnte gezeigt werden, dass MaP in der Lage ist, die für die Wechselwirkung zwischen Acetylcholinesterase und Ligand wichtigen Interaktionsstellen und Charakteristika eindeutig zu identifizieren (APZ-Datensatz). Diese Eigenschaften wurden zur besseren Interpretation der Ergebnisse in die Bindetasche projiziert. Die Ergebnisse dieser Untersuchungen zeigen, dass die entwickelte Technik ein weites Anwendungsspektrum besitzt, leicht zu interpretieren ist und sich dabei durch ihre Robustheit auszeichnet. Vor allem aber liefert MaP aussagekräftige 3D-QSAR-Modelle. Bei der MaP-Methode handelt es sich jedoch nicht nur um einen neuen Moleküldeskriptor, sondern um eine Kombination aus Deskriptor, mathematischer Modellierung, Modellvalidierung und Modellvisualisierung. Obwohl MaP in Hinsicht auf Modellqualität und Modellinterpretierbarkeit Techniken wie zum Beispiel CoMFA in nichts nachsteht, sind aufgrund der einfachen und trotzdem hocheffizienten mathematischen Grundlagen folgende Erweiterungen denkbar: (1) als dreidimensionale Technik ist MaP von den Ausgangskonformationen der Moleküle abhängig. Findet sich im untersuchten Datensatz ein starres Molekül (M2-Modulatoren) oder aber sind Informationen über einen möglichen Bindungsmodus vorhanden, so können diese Konformationen relativ leicht erhalten werden. Da dies jedoch nicht immer der Fall ist, ist eine Erweiterung der Technik in die vierte Dimension (konformelle Flexibilität) wichtig. Dass dies prinzipiell möglich ist, konnte Hopfinger bereits zeigen. Da die mathematische Grundlage der MaP-Technik sehr einfach ist, sollte diese Art der Erweiterung in die vierte Dimension auch für MaP möglich sein. (2) Momentan ist der MaP-Deskriptor auf Verknüpfungen zwischen zwei Oberflächenpunkten beschränkt. Diese Einschränkung könnte dazu führen, dass Inkremente ein und derselben Variablen aus verschiedenen Teilen des Moleküls stammen. Wenn nur ein Teil davon Eigenschaften kodieren, die relevant für die Ligand-Rezeptor-Interaktion sind, könnte dies theoretisch zu Inkonsistenzen in dem resultierenden Modell führen. Bei den bislang untersuchten Datensätzen konnte dies noch nicht beobachtet werden. Eine mögliche Erklärung hierfür ist, dass die MaP-Variablen zu einem gewissen Grad redundant sind, d.h. das selbe Phänomen kann durch verschiedene Variablen beschrieben werden. Von diesen redundanten Variablen werden durch die strenge Validierung diejenigen vom Suchalgorithmus der Variablenselektion identifiziert, die am wenigsten mit anderen Eigenschaften vermengt sind. Prinzipiell ist eine solche Problematik jedoch denkbar. Um die Wahrscheinlichkeit eines derartigen Phänomens weiter zu reduzieren, sollten die bisher genutzten Zweipunktverknüpfungen auf drei Punkte erweitert werden.
Zur Bestimmung von geringen Wirkstoffkonzentrationen in biologischen, speziell human-biologischen Matrizes wie Blut, Urin oder Mikrodialysat bedarf es einer Analysentechnik, die den Wirkstoff mit einem Höchstmaß an Selektivität, Spezifität und Präzision bestimmen kann. Daneben muß die verwendetete Methode eine hohe Geschwindigkeit aufweisen und sehr robust sein, da bei der heutigen marktwirtschaftlichen Lage Analysensysteme eine optimale Auslastung erfahren müssen. Aus diesem Grund ist der Umbau oder die Umstellung der Methode von einem zum anderen Wirkstoff ohne nennenswerten Zeitverlust ein maßgeblicher Faktor. Als Technik, die diese Anforderungen optimal erfüllt, hat sich in den letzten Jahren die LC-MS/MS-Technik etabliert. Sie ist den bislang überwiegenden Methoden, wie GC-MS-Techniken oder HPLC-UV-Detektion bzw. Fluoreszenztechniken in Bezug auf die oben genannten Parameter deutlich überlegen. In der vorliegenden Arbeit wurden für die Wirkstoffe Cisaprid, SC-72393, Haloperidol, Linezolid, Methotrexat und Ketoprofen LC-MS/MS-Methoden entwickelt oder via unabhängiger Laborvalidierung auf die lokalen Gegebenheiten transferiert und zur Bestimmung pharmakokinetischer Parameter zur Anwendung gebracht. Ziel der Methodenentwicklung war es die hohe Selektivität und Empfindlichkeit des Detektors zu nutzten, um bei geringen Probenvolumina eine Bestimmungsgrenze zu erreichen, die es ermöglichte ausreichend viele Meßwerte zu bestimmen, um die pharmakokinetischen Parameter der Wirkstoffe zu berechnen. Zusätzlich wurde eine Maximierung des Probendurchsatzes und eine Minimierung des personellen und materiellen Aufwandes angestrebt ohne dabei einen Qualitätsverlust der Methode zu erleiden. Eine gelungene Methoden-entwicklung bedurfte daher der Optimierung der Probenaufarbeitung, die sich neben den chemisch-physikalischen Eigenschaften des Wirkstoffes hauptsächlich an der Menge der zur Verfügung stehenden Probe orientierte. Das chromato-graphische System hingegen hing weitestgehend von den chemischen Eigenschaften des Analyten und von den massenspektroskopischen Bedingungen ab, die verdampfbare Puffer im Fließmittel erforderten. Diese drei zu optimierenden Teilbereiche, die miteinander interagieren, wurden jeweils sorgsam aufeinander abgestimmt, um eine Methode zu entwickeln, die die zu erwartenden Wirkstoffkonzentrationen in der jeweiligen Matrix sicher und robust bis hin zum Quantifizierungslimit bestimmen konnte.
Die Ergebnisse einer publizierten Arbeit zur Validierung von acht Konfigurationen generalisierter Kontrollüberzeugungen werden durch drei weitere Auswertungsschritte ergänzt. Die Anwendung der Interaktionsstrukturanalyse führt zu einer Hervorhebung von zwei Konfigurationen als Typen und zur Aufstellung einer 5-Gruppen-Hypothese über die Bildung einer Restgruppe aus den Neutral-Konfigurationen. Die Betrachtung der Unterschiede in den FPI-Mittelwerten der ursprünglichen acht Gruppen bestätigt die 5-Gruppen-Hypothese. Mit einer multidimensionalen geometrischen Darstellung der Profildistanzen wird in einem dritten Schritt versucht, neben der "Restgruppe" und den beiden "Typen"-Gruppen auch die Eigenständigkeit der beiden verbleibenden "Anti-Typen"-Gruppen zu validieren.