@phdthesis{Becht2022, author = {Becht, Alexander Ulrich}, title = {New applications for spectroscopic and chemometric studies of drugs}, doi = {10.25972/OPUS-27534}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-275342}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Spectroscopic methods were established decades ago in a wide variety of fields. This also applies to the pharmaceutical field, although they initially were mostly used for identity testing or structure elucidation only. Technical developments, such as miniaturization (NMR benchtop devices), Fourier transformations (for NMR, MIR spectroscopy) or the combination with chemometric evaluation (e.g., in Process Analytical Technology, PAT), have further increased their importance and opened up new applications. The aim of this work was to investigate further new approaches and to find new applications for already established methods and to show their benefits. By means of MIR, NIR and NMR data and their chemometric evaluation (principal component analysis, PCA; hierarchical cluster analysis, HCA; linear discriminant analysis, LDA), possibilities were presented to successfully determine the manufacturer or the pharmaceutical company of various paracetamol preparations. In the course of this, various similarities and correlations between the preparations of individual companies could also be identified. For this purpose, a suitable sample preparation was developed for each spectroscopic method, and suitable measurement parameters in order to obtain reproducible spectra for the chemometric evaluation were determined. Furthermore, the results of the two unsupervised methods (HCA, PCA) were compared with each other. The HCA was able to confirm those of the PCA for the very most part. Additionally, through these methods it was possible to characterize many of the preparations based on clusters formed by comparable tablet compositions. In order to be able to measure unmortared, whole tablets using the NIR spectrometer, an attachment was developed and manufactured using 3D printing. Its functionality was demonstrated by measuring and analyzing the tablets of two different batches of nine paracetamol preparations. The batches were clearly distinguished on the basis of a PCA and a significant difference was also demonstrated by means of statistical tests. For NMR spectroscopy, a method was developed to obtain optimized "fingerprint" spectra of drug formulations. For this purpose, a 1D DOSY measurement was elaborated, in which the signals of the active ingredient could be filtered out by the appropriate choice of measurement parameters. The chemometric evaluation can thus focus on the remaining signals of the excipients, on the basis of which the preparations of the same API can be distinguished. Especially in the case of formulations that consist largely of active ingredient, data pre processing of the spectra can thus be simplified and greater importance can be assigned to the originally very small excipient signals. A quantitative 1H NMR method was developed for the comparison of a high field spectrometer (400 MHz) with a benchtop spectrometer (80 MHz) for two finished drugs. It was shown that it is possible to obtain comparable results with both instruments, but that the influence of the excipients on the signals and the lower resolution of the benchtop instrument must be taken into account. Therefore, it was not possible to obtain comparable results without further optimization of the method for one of the active ingredients. In the investigation of various reactions between APIs and excipients using DOSY, its usefulness as a screening method in stability testing was demonstrated. For this purpose, three different APIs and excipients were stressed together and the reaction mixtures were subsequently measured using DOSY. Based on the translational diffusion coefficient, the reaction products could be identified and distinguished from the active ingredients and the excipients used. The importance of thoughtful processing could also be demonstrated. If all peak heights are selected when evaluating signals split by direct spin spin coupling, this allows the detection of hidden signals as long as not all signals have the same diffusion coefficient. The selective selection of individual peak heights in the case of split signals also enables the evaluation of signals that overlap slightly. However, the limitations of this method were also shown when two signals overlap too much and differ too little in their diffusion coefficients. Hence, it has been successfully demonstrated in the various projects that the new chemometric approaches, as well as the new applications of already established methods, enable in depth findings and thus have a clear added value.}, subject = {Instrumentelle Analytik}, language = {en} } @phdthesis{Wagner2008, author = {Wagner, Silvia}, title = {Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkapturs{\"a}uren als Indikatoren f{\"u}r die Bildung toxischer Intermediate}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-35760}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2008}, abstract = {Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Ph{\"a}notyp hierf{\"u}r der Begriff „Metabotyp" gepr{\"a}gt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, k{\"o}nnen Signaturen gegen{\"u}bergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einf{\"u}hrung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die urspr{\"u}nglich zur Pr{\"a}diktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu {\"u}bertragen, die den Menschen im Mittelpunkt haben. Neben pr{\"a}klinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ern{\"a}hrung einen Schritt n{\"a}her zu kommen. Da sich die urspr{\"u}nglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anf{\"a}llig gegen{\"u}ber biologischen und analytischen Einflussgr{\"o}ßen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckfl{\"u}ssigchromatographie erwies sich hierbei f{\"u}r das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datens{\"a}tze resultierten, die h{\"a}ufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen" zu k{\"o}nnen. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zus{\"a}tzlichen Schwierigkeiten verbunden und bedarf aufw{\"a}ndiger analytischer Verfahren. Eine Strategie stellt daher die Beschr{\"a}nkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, k{\"o}nnen die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erh{\"o}ht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Sch{\"a}digungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verf{\"u}gt der K{\"o}rper {\"u}ber einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkapturs{\"a}uren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkapturs{\"a}urederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilit{\"a}tsmarkerklasse der Merkapturs{\"a}uren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker f{\"u}r diverse toxikologische sowie medizinische Endpunkte erh{\"o}ht werden.}, subject = {Metabolom}, language = {de} } @phdthesis{Busemann2006, author = {Busemann, Matthias}, title = {Entwicklung chemometrischer Methoden f{\"u}r das in-silico-Wirkstoffdesign}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-18777}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2006}, abstract = {Diese Dissertation beschreibt Methoden zur L{\"o}sung wichtiger anwendungsorientierter Aspekte des struktur- und ligandbasierten in-silico-Wirkstoffdesigns. Dabei liegt der Fokus auf der Entwicklung chemometrischer Verfahren und der {\"U}berpr{\"u}fung ihrer Leistungsf{\"a}higkeit. Die vorgeschlagenen Algorithmen werden mit entsprechenden etablierten Techniken verglichen. Die folgenden Abschnitte fassen die Vorgehensweisen und Resultate in den einzelnen Projektbereichen zusammen. Identifizierung von Outliern. Die Untersuchung eines QSAR-Datensatzes mit dem Ziel der Outlier-Identifizierung wird in der Praxis h{\"a}ufig vernachl{\"a}ssigt. Dabei ist es offensichtlich, daß kein QSAR-Modell auf jede nur denkbare chemische Verbindung anwendbar sein kann. Vielmehr handelt es sich um empirische mathematische Modelle, die nur innerhalb jenes Datenraums G{\"u}ltigkeit besitzen, der von den Trainingsobjekten aufgespannt wird. Daher ist jedes Modell auf gewisse Grenzen beschr{\"a}nkt, außerhalb derer eine verl{\"a}ßliche Vorhersage unm{\"o}glich ist. Die in dieser Arbeit entwickelte Methode ODD dient der Ermittlung dieser Grenzen und damit der Identifizierung von Outliern, also Objekten außerhalb des Anwendungsbereichs des Modells. Ziel der Entwicklung war ein nur auf den unabh{\"a}ngigen Variablen (X-Daten) basierendes Verfahren, das auch auf hochdimensionaleDatens{\"a}tze anwendbar ist undweitestgehend auf den Eingriff des Benutzers (etwa die Definition von Grenzwerten) verzichtet. Ebenfalls w{\"u}nschenswert war die F{\"a}higkeit zur Identifikation von Inliern. Eine ausreichend hohe Geschwindigkeit sollte die Einsetzbarkeit im virtuellen Screening gew{\"a}hrleisten. Die Methode mußte der {\"U}berpr{\"u}fung standhalten, den Vorhersagefehler eines Modells bei Vorhandensein extremer Outlier zu reduzieren, gleichzeitig aber unkritische Datens{\"a}tze unbeeinflußt zu lassen. ODD basiert auf der Beurteilung der euklidischen Distanz eines Testobjekts zu seinem am n{\"a}chsten benachbarten Trainingsobjekt. Der Schwellenwert f{\"u}r die Betrachtung eines Objekts als Outlier wird dabei aus der Verteilung der N{\"a}chster-Nachbar-Distanzen der Trainingsobjekte berechnet. Durch dieses intrinsische Maß ergibt sich die gew{\"u}nschte Dimensionsunabh{\"a}ngigkeit und vor allem die automatische Anpassung des Grenzwerts an die Charakteristik des Kalibrierdatensatzes ohne Eingriff des Benutzers. Die Validierung zeigt, daß ODD extreme Outlier zuverl{\"a}ssig erkennt und sich gleichzeitig durch eine im Vergleich zu anderen gebr{\"a}uchlichen Verfahren geringere Anzahl falsch positiver Identifizierungen auszeichnet. Ensemble-Techniken. In einer vergleichenden Studie wurde die Leistungsf{\"a}higkeit verschiedener Ensemble-Techniken hinsichtlich ihres Einflusses auf den Vorhersagefehler untersucht. Dazu wurden umfangreiche Simulationen anhand mehrerer realer QSAR-Datens{\"a}tze durchgef{\"u}hrt. Die Verwendung von Ensembles (d. h. einer Sammlung vielerModelle, diemit geringf{\"u}gigmanipulierten Varianten des Trainingsdatensatzes kalibriert wurden) wirkt sich im allgemeinen positiv auf den Vorhersagefehler (RMSEP) aus. Diese Reduzierung des RMSEP wurde hier ermittelt und f{\"u}r verschiedenen Ans{\"a}tze zur Ensemble-Generierung verglichen. Insgesamt betrachtet erwiesen sich die Methoden der konvexen Pseudodaten und des Baggings als die effektivsten Verfahren zur Ensemble-Generierung, da sie den Vorhersagefehler am deutlichsten verbesserten. Die konvexen Pseudodaten wurden erstmalig zur Erzeugung von Ensembles in der QSAR-Analyse eingesetzt; sie werden als neuer Standard zur Reduzierung des RMSEP bei QSAR-Problemen vorgeschlagen, die Regressionsmodelle auf Basis von latenten Variablen verwenden. Dar{\"u}ber hinaus bieten die Studien eine Absch{\"a}tzung dermit Hilfe von Ensembles zu erzielenden Reduktion des Vorhersagefehlers bei typischen QSAR-Datens{\"a}tzen. Virtuelles Screening. Beim virtuellen Screening handelt es sich um eine Technik zum Durchsuchen großer (virtueller)Molek{\"u}lbibliotheken—oftmehrere Millionen Verbindungen — nach den aussichtsreichsten Wirkstoffkandidaten. Dies kann sowohl durch strukturbasierte als auch mit Hilfe ligandbasierter Verfahren geschehen. Es wurden umfangreiche Simulationen anhand sechs verschiedener Targets und einer Bibliothek von mehr als 90 000 Molek{\"u}len durchgef{\"u}hrt, um das Potential strukturbasierter (Docking mit FLEXX) und ligandbasierter ({\"A}hnlichkeitssuchemitmehreren Referenzen) Verfahren zu vergleichen. Dar{\"u}ber hinauswurde durch Berechnung von Interaktionsfingerprints eineM{\"o}glichkeit geschaffen, die Information der beiden sonst getrennten Herangehensweisen zu kombinieren. Um den Einfluß des Klassifizierungsalgorithmus zu untersuchen, wurden verschiedene statistische Methoden zur Datenauswertung herangezogen. Als Bewertungskriterium f{\"u}r die Leistungsf{\"a}higkeit eines Verfahrens diente jeweils die Anzahl der wiedergefundenen aktiven Molek{\"u}le in der simulierten Screeningdatenbank. Die Resultate f{\"u}hren zu dem Schluß, daß ligandbasierte Verfahren, die einfacher einzusetzen sind aber mehr a-priori -Information ben{\"o}tigen, dem strukturbasierten virtuellen Screening hinsichtlich der Datenbankanreicherung {\"u}berlegen sind. Weiterhin konnte gezeigt werden, wie nutzbringend die Zusammenf{\"u}hrung von strukturbasierter Information und solcher {\"u}ber das Interaktionsmuster bekanntermaßen aktiver Verbindungen f{\"u}r die Erh{\"o}hung der Wiederfindungsrate ist. Bei der Datenanalyse stellte sich heraus, daß im Mittel bestimmte statistische Methoden (minimale euklidische Distanz ED/Min bzw. Tanimoto-{\"A}hnlichkeit der Integer-Fingerprints Int/Min) zu bevorzugen sind. Kovalentes Docking von Cathepsin-Inhibitoren. Die Cysteinproteasen Cathepsin B und L sind interessante pharmakologische Targets. Geeignete Inhibitoren stammen u. a. aus der Strukturklasse der Aziridine. Ein nukleophiler Angriff des Cysteinrests des Enzyms auf den elektrophilen Aziridinring f{\"u}hrt hier zur Ausbildung einer kovalenten Ligand-Rezeptor-Bindung. Praktisch alle erh{\"a}ltlichen Dockingprogramme konzentrieren sich jedoch auf nicht-kovalente Ligand-Rezeptor-Interaktionen und lassen kein uneingeschr{\"a}nktes kovalentes Docking zu. Daher wurde f{\"u}r FLEXX ein Dockingprotokoll entworfen, das den entscheidenden nicht-kovalenten Zustand vor Ausbildung der kovalenten Bindung simulieren kann. Auf dieseWeise konnte untersucht werden, ob sich die Reaktionszentren von Ligand und Enzym ausreichend nahe f{\"u}r die Ausbildung einer kovalenten Bindung kommen. Der vorgestellte Ansatz l{\"a}ßt sich leicht auf andere kovalente Ligand-Rezeptor- Systeme {\"u}bertragen und bietet somit eine breite Anwendbarkeit. Weiterhin wurde die Parametrisierung der in FLEXX vorgesehenen Interaktionsgeometrien an die strukturellen Eigenheiten der zu dockenden Aziridide angepaßt. Diese weisen n{\"a}mlich formal eine Amidbindung auf, deren geometrische und elektronische Eigenschaften jedoch deutlich von den Werten eines typischen Amids abweichen. Die Ergebnisse der Dockingstudien liefern wertvolle Einblicke f{\"u}r das Verst{\"a}ndnis der Selektivit{\"a}t der untersuchten Liganden bez{\"u}glich Cathepsin B beziehungsweise L. Umgekehrt erbringt die gute {\"U}bereinstimmung der FLEXX-Resultate mit den experimentell bestimmten Inhibitionskonstanten den Nachweis f{\"u}r die Validit{\"a}t des verwendeten Dockingprotokolls.}, subject = {Arzneimitteldesign}, language = {de} } @phdthesis{Stiefl2004, author = {Stiefl, Nikolaus Johannes}, title = {Entwicklung, Validierung und Anwendung einer neuen translations- und rotationsinvarianten 3D-QSAR-Methodik}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-8230}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2004}, abstract = {Die vorliegende Arbeit beschreibt die Entwicklung und Validierung der neuartigen 3D-QSAR Technik Mapping Property Distributions of Molecular Surfaces (MaP). Die Methode ist gegen{\"u}ber Translation und Rotation invariant, d. h. eine {\"U}berlagerung der Molek{\"u}le, wie sie zum Beispiel f{\"u}r CoMFA n{\"o}tig ist, entf{\"a}llt. MaP basiert auf der Charakterisierung der Molek{\"u}le nach ihrer F{\"a}higkeit Wasserstoffbr{\"u}cken auszubilden, sowie ihrer Hydrophobie / Hydrophilie. Dabei werden jedoch nicht nur die atombasierten Eigenschaften, sondern auch die Oberfl{\"a}cheneigenschaften der Molek{\"u}le zur Charakterisierung genutzt. Diese Losl{\"o}sung von der chemischen Struktur der Verbindungen erlaubt es, die f{\"u}r die Ligand-Rezeptor-Interaktion (bzw. Substrat-Enzym-Interaktion) wichtigen Grenzfl{\"a}chen zu charakterisieren. Die wichtigsten methodischen Elemente der MaP-Technik, sowie die erhaltenen Ergebnisse der untersuchten Datens{\"a}tze sollen hier noch einmal in kurzer Form dargestellt werden: Die theoretische Basis des MaP-Deskriptors bilden so genannte Radialverteilungsfunktionen. Mittels dieser selektiven Distanz-Z{\"a}hlstatistiken (SDZS) k{\"o}nnen sowohl die Form der Molek{\"u}le, als auch die Verteilung der einzelnen Oberfl{\"a}cheneigenschaften zueinander, in einem einzelnen Vektor beschrieben werden. Die MaP-Variablen kodieren dabei die Gr{\"o}ße (absolute Anzahl an Eintr{\"a}gen), sowie die Orientierung (Distanz) verschiedener Oberfl{\"a}cheneigenschaften zueinander. Die Grundlage der Oberfl{\"a}cheneigenschaften stellen atomare Charakteristika wie das Wasserstoffbr{\"u}ckenbindungspotential sowie die atomare Hydrophobie / Hydrophilie dar. Diese Eigenschaften werden den Atomen mittels einfacher Regeln (Wasserstoffbr{\"u}cken) bzw. einer Substruktursuche (Hydrophobie / Hydrophilie) zugewiesen und dann auf die Oberfl{\"a}che projiziert. Um die mathematische Transformation der Rohdaten in die SDZS zu erm{\"o}glichen, muss die Molek{\"u}loberfl{\"a}che durch gleichverteilte Oberfl{\"a}chenpunkte diskretisiert werden. Da diese Anforderung von gebr{\"a}uchlichen analytischen Oberfl{\"a}chenberechnungsmethoden, wie zum Beispiel dem GEPOL-Algorithmus, nicht erf{\"u}llt wird, wurde der GEPOL-Algorithmus so modifiziert, dass ein Zusammenhang zwischen der Oberfl{\"a}chengr{\"o}ße und der Anzahl an Oberfl{\"a}chenpunkten gegeben ist. Da es aufgrund dieser Diskretisierung jedoch zum Verlust der Invarianz gegen{\"u}ber Translation und Rotation kommen kann, wurde der Bestimmung der Molek{\"u}loberfl{\"a}chen eine spezielle Technik zur Ausrichtung der Molek{\"u}le im Koordinatensystem (Kanonisierung) vorgeschaltet. Dadurch wird ein identischer MaP-Deskriptor unabh{\"a}ngig von der Position der Molek{\"u}le im Raum garantiert. Um den Diskretisierungsfehler der Oberfl{\"a}chenbestimmung weiter zu reduzieren, wurde eine unscharfe Z{\"a}hlweise bei der Berechnung des MaP-Deskriptors adaptiert. Diese erlaubt es, Eintr{\"a}ge die an den Kategoriengrenzen des MaP-Vektors liegen, auf die beiden n{\"a}chsten Zentren zu verteilen. Dadurch werden kleine Schwankungen in den Distanzwerten kompensiert. Zur Modellbildung werden die infomativsten Variablen (MIV) mit Hilfe der ‚Reverse-Elimination-Method'-Tabu-Suche (REM-TS) identifiziert. Die so erhaltenen MIV's k{\"o}nnen auf die Molek{\"u}le zur{\"u}ckprojiziert werden, was die Interpretation der berechneten Modelle stark vereinfacht. Zur Visualisierung der Ergebnisse k{\"o}nnen die Variablen unter Zuhilfenahme der unscharfen Z{\"a}hlweise nochmals gefiltert werden, um die Interpretation hoch besetzter Variablen zu vereinfachen. Da es aufgrund der Variablenselektion zu einer Zufallskorrelation in der Modellbildung kommen kann, werden die erhaltenen Modelle einer strengen Validierung unterzogen. Dabei werden neben der sehr anspruchsvollen ‚Lass-mehrere-Objekte-heraus'-Kreuzvalidierung als G{\"u}tefunktion der Variablenselektion auch ein Permutationstest der Modelle sowie eine Testdatenvorhersage angewandt. Durchl{\"a}uft ein Modell all diese Validierungsschritte erfolgreich, so ist die Wahrscheinlichkeit einer Zufallskorrelation sehr gering. Um die Anwendbarkeit und die G{\"u}te des MaP-Deskriptors zu {\"u}berpr{\"u}fen, wurden verschiedene Datens{\"a}tze untersucht. Diese k{\"o}nnen entsprechend ihrer Zielsetzung in unterschiedliche Gebiete aufgeteilt werden. Der erste Datensatz (Steroide) wird in der QSAR h{\"a}ufig als Vergleichsdatensatz eingesetzt. Ein weiterer Datensatz umfasst strukturell sehr heterogene Substanzen, die ein augenirritierendes Potential aufweisen (ECETOC). Inhibitoren des EndothelinA-Rezeptors (ETA) bildeten einen weiteren Datensatz. Die enthaltenen Molek{\"u}le sind im Datenraum stark in Untergruppen geklustert. Weiterhin wurden konformell sehr flexible, allostere Modulatoren des muskarinischen M2-Rezeptors (M2-Modulatoren) untersucht. Dieser Datensatz diente aufgrund der hohen Flexibilit{\"a}t der Molek{\"u}le auch zur {\"U}berpr{\"u}fung der konformellen Abh{\"a}ngigkeit der Methode. Die Erweiterung des Standardparametersatzes wurde mit Hilfe von Naphthylisochinolin-Derivaten (NIQ) untersucht, die eine Aktivit{\"a}t gegen Plasmodium falciparum aufweisen. Ein weiterer Datensatz, deren Molek{\"u}le die {\"O}ffnungswahrscheinlickeit ATP-abh{\"a}ngiger Kalium-Kan{\"a}le erh{\"o}ht (KCO), wurde herangezogen, um den Vorteil der mathematischen Transformation der MaP-Technik gegen{\"u}ber der von GRIND benutzten MACC-2-Transformation herauszustellen. Inhibitoren des nicotinischen Acetylcholin-Rezeptors (CAR) bildeten einen weiteren Datensatz f{\"u}r den bisher keine QSAR-Studie vorlag. Zur strukturbasierten Validierung der Methode wurden Inhibitoren der Acetylcholinesterase (APZ-Datensatz) untersucht. Hierbei wurde gepr{\"u}ft, ob die aus der Kristallstruktur der Acetylcholinesterase wichtigen Ligand-Enzym-Wechselwirkungen durch MaP beschrieben werden. Die Ergebnisse dieser Untersuchungen lassen folgenden R{\"u}ckschl{\"u}sse zu: Im Vergleich mit bereits etablierten 3D-QSAR-Techniken wie CoMFA, CoMSIA oder GRID/PLS f{\"u}hrt die MaP-Technik zu vergleichbar guten Modellen (Steroide, ETA, M2-Modulatoren). Durch die Losl{\"o}sung vom strukturellen Grundger{\"u}st der Substanzen k{\"o}nnen auch strukturell diverse Datens{\"a}tze gut modelliert und die relevante Information extrahiert werden (ECETOC). Dies ist mit Deskriptoren, die eine gemeinsame Ausrichtung der Molek{\"u}le ben{\"o}tigen (z.B. CoMFA), oft nicht m{\"o}glich. Auch Datens{\"a}tze, deren Objekte geklustert vorliegen, k{\"o}nnen mittels MaP gut modelliert werden. MaP ist dabei in der Lage die relevante Information sowohl zwischen, als auch innerhalb der einzelnen Gruppen zu extrahieren (ETA). Auch f{\"u}r Datens{\"a}tze, deren Molek{\"u}le eine sehr hohe Flexibilit{\"a}t aufweisen, ist es m{\"o}glich mit MaP gute Modelle zu erhalten (M2-Modulatoren, APZ). Hierbei ist es jedoch wichtig, zu beachten, dass MaP als 3D-QSAR-Technik gegen{\"u}ber der Konformation der Molek{\"u}le nicht invariant ist. Bei der Anwendung der Methode zeigte sich jedoch, dass kleine konformelle {\"A}nderungen der Verbindungen oft einen sehr geringen Einfluss auf die Ergebnisse der Methode haben (M2-Modulatoren, APZ). Bei der Untersuchung der NIQ-Daten zeigte sich, dass unter Verwendung der MaP-Standardparameter bereits die relevanten Eigenschaften der Molek{\"u}le charakterisiert werden k{\"o}nnen. Allerdings f{\"u}hrte eine Erweiterung dieser Parameter zu einer Vereinfachung der Interpretation der Ergebnisse. Hierbei ist jedoch darauf zu achten, dass die Modellvalidierung strikt eingehalten werden muss. Der Vorteil der mathematischen Transformation der Rohdaten (SDZS) gegen{\"u}ber der von GRIND verwendeten MACC-2 Transformation konnte mittels der KCO-Daten aufgezeigt werden. Das erhaltene Modell spiegelte sehr sch{\"o}n die bereits bekannten Struktur-Wirkungs-Beziehungen wider. Leider ist die publizierte Datenlage in diesem Falle noch nicht ausreichend, um einen abschließenden Vergleich der beiden konkurrierenden Techniken zu erm{\"o}glichen. Beim CAR-Datensatz war MaP in der Lage, neben der bekannten, relevanten strukturellen Allylalkoholgruppe ein weiteres strukturelles Merkmal zu identifizieren. Abschließend konnte gezeigt werden, dass MaP in der Lage ist, die f{\"u}r die Wechselwirkung zwischen Acetylcholinesterase und Ligand wichtigen Interaktionsstellen und Charakteristika eindeutig zu identifizieren (APZ-Datensatz). Diese Eigenschaften wurden zur besseren Interpretation der Ergebnisse in die Bindetasche projiziert. Die Ergebnisse dieser Untersuchungen zeigen, dass die entwickelte Technik ein weites Anwendungsspektrum besitzt, leicht zu interpretieren ist und sich dabei durch ihre Robustheit auszeichnet. Vor allem aber liefert MaP aussagekr{\"a}ftige 3D-QSAR-Modelle. Bei der MaP-Methode handelt es sich jedoch nicht nur um einen neuen Molek{\"u}ldeskriptor, sondern um eine Kombination aus Deskriptor, mathematischer Modellierung, Modellvalidierung und Modellvisualisierung. Obwohl MaP in Hinsicht auf Modellqualit{\"a}t und Modellinterpretierbarkeit Techniken wie zum Beispiel CoMFA in nichts nachsteht, sind aufgrund der einfachen und trotzdem hocheffizienten mathematischen Grundlagen folgende Erweiterungen denkbar: (1) als dreidimensionale Technik ist MaP von den Ausgangskonformationen der Molek{\"u}le abh{\"a}ngig. Findet sich im untersuchten Datensatz ein starres Molek{\"u}l (M2-Modulatoren) oder aber sind Informationen {\"u}ber einen m{\"o}glichen Bindungsmodus vorhanden, so k{\"o}nnen diese Konformationen relativ leicht erhalten werden. Da dies jedoch nicht immer der Fall ist, ist eine Erweiterung der Technik in die vierte Dimension (konformelle Flexibilit{\"a}t) wichtig. Dass dies prinzipiell m{\"o}glich ist, konnte Hopfinger bereits zeigen. Da die mathematische Grundlage der MaP-Technik sehr einfach ist, sollte diese Art der Erweiterung in die vierte Dimension auch f{\"u}r MaP m{\"o}glich sein. (2) Momentan ist der MaP-Deskriptor auf Verkn{\"u}pfungen zwischen zwei Oberfl{\"a}chenpunkten beschr{\"a}nkt. Diese Einschr{\"a}nkung k{\"o}nnte dazu f{\"u}hren, dass Inkremente ein und derselben Variablen aus verschiedenen Teilen des Molek{\"u}ls stammen. Wenn nur ein Teil davon Eigenschaften kodieren, die relevant f{\"u}r die Ligand-Rezeptor-Interaktion sind, k{\"o}nnte dies theoretisch zu Inkonsistenzen in dem resultierenden Modell f{\"u}hren. Bei den bislang untersuchten Datens{\"a}tzen konnte dies noch nicht beobachtet werden. Eine m{\"o}gliche Erkl{\"a}rung hierf{\"u}r ist, dass die MaP-Variablen zu einem gewissen Grad redundant sind, d.h. das selbe Ph{\"a}nomen kann durch verschiedene Variablen beschrieben werden. Von diesen redundanten Variablen werden durch die strenge Validierung diejenigen vom Suchalgorithmus der Variablenselektion identifiziert, die am wenigsten mit anderen Eigenschaften vermengt sind. Prinzipiell ist eine solche Problematik jedoch denkbar. Um die Wahrscheinlichkeit eines derartigen Ph{\"a}nomens weiter zu reduzieren, sollten die bisher genutzten Zweipunktverkn{\"u}pfungen auf drei Punkte erweitert werden.}, language = {de} }