Refine
Has Fulltext
- yes (22)
Is part of the Bibliography
- yes (22)
Year of publication
Document Type
- Journal article (17)
- Doctoral Thesis (5)
Keywords
- validation (22) (remove)
Institute
- Institut für Geographie und Geologie (6)
- Institut für Pharmazie und Lebensmittelchemie (4)
- Institut für Psychologie (2)
- Medizinische Klinik und Poliklinik I (2)
- Institut für Informatik (1)
- Klinik und Poliklinik für Psychiatrie, Psychosomatik und Psychotherapie (1)
- Klinik und Poliklinik für Strahlentherapie (1)
- Klinik und Poliklinik für Unfall-, Hand-, Plastische und Wiederherstellungschirurgie (Chirurgische Klinik II) (1)
- Lehrstuhl für Tissue Engineering und Regenerative Medizin (1)
- Medizinische Klinik und Poliklinik II (1)
Sonstige beteiligte Institutionen
- Fraunhofer (1)
Land Surface Temperature (LST) is an important parameter for tracing the impact of changing climatic conditions on our environment. Describing the interface between long- and shortwave radiation fluxes, as well as between turbulent heat fluxes and the ground heat flux, LST plays a crucial role in the global heat balance. Satellite-derived LST is an indispensable tool for monitoring these changes consistently over large areas and for long time periods. Data from the AVHRR (Advanced Very High-Resolution Radiometer) sensors have been available since the early 1980s. In the TIMELINE project, LST is derived for the entire operating period of AVHRR sensors over Europe at a 1 km spatial resolution. In this study, we present the validation results for the TIMELINE AVHRR daytime LST. The validation approach consists of an assessment of the temporal consistency of the AVHRR LST time series, an inter-comparison between AVHRR LST and in situ LST, and a comparison of the AVHRR LST product with concurrent MODIS (Moderate Resolution Imaging Spectroradiometer) LST. The results indicate the successful derivation of stable LST time series from multi-decadal AVHRR data. The validation results were investigated regarding different LST, TCWV and VA, as well as land cover classes. The comparisons between the TIMELINE LST product and the reference datasets show seasonal and land cover-related patterns. The LST level was found to be the most determinative factor of the error. On average, an absolute deviation of the AVHRR LST by 1.83 K from in situ LST, as well as a difference of 2.34 K from the MODIS product, was observed.
Earth observation time series are well suited to monitor global surface dynamics. However, data products that are aimed at assessing large-area dynamics with a high temporal resolution often face various error sources (e.g., retrieval errors, sampling errors) in their acquisition chain. Addressing uncertainties in a spatiotemporal consistent manner is challenging, as extensive high-quality validation data is typically scarce. Here we propose a new method that utilizes time series inherent information to assess the temporal interpolation uncertainty of time series datasets. For this, we utilized data from the DLR-DFD Global WaterPack (GWP), which provides daily information on global inland surface water. As the time series is primarily based on optical MODIS (Moderate Resolution Imaging Spectroradiometer) images, the requirement of data gap interpolation due to clouds constitutes the main uncertainty source of the product. With a focus on different temporal and spatial characteristics of surface water dynamics, seven auxiliary layers were derived. Each layer provides probability and reliability estimates regarding water observations at pixel-level. This enables the quantification of uncertainty corresponding to the full spatiotemporal range of the product. Furthermore, the ability of temporal layers to approximate unknown pixel states was evaluated for stratified artificial gaps, which were introduced into the original time series of four climatologic diverse test regions. Results show that uncertainty is quantified accurately (>90%), consequently enhancing the product's quality with respect to its use for modeling and the geoscientific community.
Introduction
Epidemiological injury surveillance in professional sports is often based on online media analysis in order to collect necessary data. However, the validation of this study protocol is lacking. Therefore, this study aimed to identify the validity of injury surveillance in men's professional team sports based on media reports.
Methods
In a retrospective cohort study, the validity of media-data-relating injuries was investigated in participating teams of the highest two German divisions in men's professional basketball (BB) and handball (HB) in the season 2018/2019. Injury protocols completed by the team physicians were compared to those of sports media injury reports.
Results
The study population was composed of 133 athletes (54 BB and 79 HB). Of 343 injuries reported by the team physicians, 151 (44%) could be identified by means of sports media reports. Severe injuries (n = 75, 72%) were reported more likely in sports media compared to less severe injuries (n = 76, 32%, p < 0.00001). Odds ratio (OR) was 5.33 (95% CI 3.22-8.82). No differences regarding injury reporting could be seen between the two team sports.
Conclusion
For severe injuries, media analysis may be a sufficient method for data collection in popular men's professional ball sports. An underestimation of true injury prevalence lies within the range of previous reported investigations concerning the validation of injury surveillance methods. Non-severe injuries could not be verified via media analysis in professional handball and basketball.
Investigation of isomerization of dexibuprofen in a ball mill using chiral capillary electrophoresis
(2021)
Besides the racemate, the S‐enantiomer of ibuprofen (Ibu) is used for the treatment of inflammation and pain. Since the configurational stability of S‐Ibu in solid state is of interest, it was studied by means of ball milling experiments. For the evaluation of the enantiomeric composition, a chiral CE method was developed and validated according to the ICH guideline Q2(R1). The addition of Mg\(^{2+}\), Ca\(^{2+}\), or Zn\(^{2+}\) ions to the background electrolyte (BGE) was found to improve Ibu enantioresolution. Chiral separation of Ibu enantiomers was achieved on a 60.2 cm (50.0 cm effective length) x 75 μm fused‐silica capillary using a background electrolyte (BGE) composed of 50 mM sodium acetate, 10 mM magnesium acetate tetrahydrate, and 35 mM heptakis‐(2,3,6‐tri‐O‐methyl)‐β‐cyclodextrin (TM‐β‐CD) as chiral selector. The quantification of R‐Ibu in the mixture was performed using the normalization procedure. Linearity was evaluated in the range of 0.68–5.49% R‐Ibu (R\(^{2}\) = 0.999), recovery was found to range between 97 and 103%, the RSD of intra‐ and interday precision below 2.5%, and the limit of quantification for R‐ in S‐Ibu was calculated to be 0.21% (extrapolated) and 0.15% (dilution of racemic ibuprofen), respectively. Isomerization of S‐Ibu was observed under basic conditions by applying long milling times and high milling frequencies.
Aufgrund der sich umkehrenden Alterspyramide in Deutschland leiden bereits jetzt immer mehr Menschen an Gelenkknorpelschäden. Doch nicht nur das Alter, sondern auch Unfälle und Sportverletzungen und Übergewicht können zu irreversiblen Knorpeldefekten führen. Obwohl es diverse Behandlungsmöglichkeiten gibt, können die bisherige Methoden nicht als dauerhafte Heilung betrachtet werden. Im Rahmen des internationalen Forschungsprojektes BIO-CHIP sollte eine vielsprechende Behandlungsmethode mit neuartigen Arzneimitteln untersucht werden.
Als Ausgangsmaterial des Arzneimittels, ein hergestelltes Knorpelimplantat, dienen patienteneigene Knorpelzellen aus der Nase. Diese werden isoliert, vermehrt und letztlich auf einer Matrix zu einem Knorpelimplantat kultiviert. Wesentliche Voraussetzung für die Implantatfreigabe stellt neben toxikologischen und biologischen Unbedenklichkeitstests die Beurteilung der Viabilität dar. Diese wurde bisher anhand von Histologieschnitten von der Pathologie durchgeführt.
Ziel der vorliegenden Arbeit war die Entwicklung und Validierung eines standardisierten und objektiven Viabilitätstests für die Chondrozyten innerhalb der Knorpelmatrix. Hierfür wurde die LDH als Marker für irreversibel geschädigte Zellen verwendet. Die LDH Konzentration konnte mit dem CyQuant LDH-Assay durch die Messung der Absorption gemessen werden. Es konnte nachgewiesen werden, dass LDH die erforderliche Stabilität und Nachweisbarkeit im Medium besitzt. Mithilfe der Lyse, analog zum Herstellungsprozess, gezüchteter Mini-Knorpelimplantate, konnten die maximal erreichbaren LDH Konzentrationen ermittelt werden. Mithilfe dieser Konzentrationen wurde eine Eichkurve generiert. Diese dient als Beurteilung der Viabilität zukünftig gemessener Absorptionen des Überstandmediums.
Das entwickelte Verfahren erfordert keine invasiven Eingriffe am Implantat und zeichnet sich durch eine einfache Durchführung aus, da nur der Überstand gemessen werden muss. Die durchgeführte Validierung der Methode bescheinigte eine hohe Robustheit, Linearität, Genauigkeit und Präzision.
Validation of text information as a general mechanism for detecting inconsistent or false information is an integral part of text comprehension. This study examined how the credibility of the information source affects validation processes. Two experiments investigated combined effects of source credibility and plausibility of information during validation with explicit (ratings) and implicit (reading times) measurements. Participants read short stories with a high-credible versus low-credible person that stated a consistent or inconsistent assertion with general world knowledge. Ratings of plausibility and ratings of source credibility were lower when a credible source stated a world-knowledge inconsistent assertion compared with a low-credible source. Reading times on target sentences and on spillover sentences were slower when a credible source stated an assertion inconsistent with world knowledge compared with a low-credible source, suggesting that source information modulated the validation of implausible information. These results show that source credibility modulates validation and suggest a bidirectional relationship of perceived plausibility and source credibility in the reading process.
Objective
To use statistical methods to establish a threshold for individual response in patient-reported outcomes (PROs) in patients with rheumatoid arthritis.
Methods
We used an analysis of variance model in patients on stable therapy (discovery cohort) to establish critical differences (d(crit)) for the minimum change associated with a significant individual patient response (beyond normal variation) in the PRO measures of pain (0-10), fatigue (0-10), and function (Funktionsfragebogen Hannover questionnaire; 0-100). We then evaluated PRO responses in patients initiating adalimumab in a noninterventional study (treatment cohort).
Results
In the discovery cohort (n=700), PROs showed excellent long-term retest reliability. The minimum change that exceeded random fluctuation was conservatively determined to be 3 points for pain, 4 points for fatigue, and 16 points for function. In the treatment cohort (n=2,788), 1,483 patients (53.2%) achieved a significant individual therapeutic response as assessed by Disease Activity Score in 28 joints (DAS28)-d(crit) (1.8 points) after 12 months of adalimumab treatment; 68.5% of patients with a DAS28-d(crit) response achieved a significant improvement in pain, whereas approximately 40% achieved significant improvements in fatigue or function. Significant improvements in all 3 PROs occurred in 22.7% of patients; 22.8% did not have any significant PRO responses. In contrast, significant improvements in all 3 PROs occurred in only 4.4% of 1,305 patients who did not achieve a DAS28-d(crit) response at month 12, and 59.1% did not achieve any significant PRO responses.
Conclusion
The establishment of critical differences in PROs distinguishes true responses from random variation and provides insights into appropriate patient management.
BACKGROUND: Climate change will probably alter the spread and transmission intensity of malaria in Africa. OBJECTIVES: In this study, we assessed potential changes in the malaria transmission via an integrated weather disease model.
METHODS: We simulated mosquito biting rates using the Liverpool Malaria Model (LMM). The input data for the LMM were bias-corrected temperature and precipitation data from the regional model (REMO) on a 0.5 degrees latitude longitude grid. A Plasmodium falciparum infection model expands the LMM simulations to incorporate information on the infection rate among children. Malaria projections were carried out with this integrated weather disease model for 2001 to 2050 according to two climate scenarios that include the effect of anthropogenic land-use and land-cover changes on climate.
RESULTS: Model-based estimates for the present climate (1960 to 2000) are consistent with observed data for the spread of malaria in Africa. In the model domain, the regions where malaria is epidemic are located in the Sahel as well as in various highland territories. A decreased spread of malaria over most parts of tropical Africa is projected because of simulated increased surface temperatures and a significant reduction in annual rainfall. However, the likelihood of malaria epidemics is projected to increase in the southern part of the Sahel. In most of East Africa, the intensity of malaria transmission is expected to increase. Projections indicate that highland areas that were formerly unsuitable for malaria will become epidemic, whereas in the lower-altitude regions of the East African highlands, epidemic risk will decrease.
CONCLUSIONS: We project that climate changes driven by greenhouse-gas and land-use changes will significantly affect the spread of malaria in tropical Africa well before 2050. The geographic distribution of areas where malaria is epidemic might have to be significantly altered in the coming decades.
The prosocial tendencies measure (PTM; Carlo and Randall, 2002) is a widely used measurement for prosocial tendencies in English speaking participants. This instrument distinguishes between six different types of prosocial tendencies that partly share some common basis, but also can be opposed to each other. To examine these constructs in Germany, a study with 1067 participants was conducted. The study investigated the structure of this German version of the PTM-R via exploratory factor analysis, confirmatory factor analysis, correlations with similar constructs in subsamples as well as via measurement invariance test concerning the original English version. The German translation showed a similar factor structure to the English version in exploratory factor analysis and in confirmatory factor analysis. Measurement invariance was found between the English and German language versions of the PTM and support for the proposed six-factor structure (altruistic, anonymous, compliant, dire, emotional and public prosocial behavior) was also found in confirmatory factor analysis. Furthermore, the expected interrelations of these factors of prosocial behavior tendencies were obtained. Finally, correlations of the prosocial behavior tendencies with validating constructs and behaviors were found. Thus, the findings stress the importance of seeing prosocial behavior not as a single dimension construct, but as a factored construct which now can also be assessed in German speaking participants.
Background: Recently published results of quality of life (QoL) studies indicated different outcomes of palliative radiotherapy for brain metastases. This prospective multi-center QoL study of patients with brain metastases was designed to investigate which QoL domains improve or worsen after palliative radiotherapy and which might provide prognostic information.
Methods: From 01/2007-01/2009, n=151 patients with previously untreated brain metastases were recruited at 14 centers in Germany and Austria. Most patients (82 %) received whole-brain radiotherapy. QoL was measured with the EORTC-QLQ-C15-PAL and brain module BN20 before the start of radiotherapy and after 3 months.
Results: At 3 months, 88/142 (62 %) survived. Nine patients were not able to be followed up. 62 patients (70.5 % of 3-month survivors) completed the second set of questionnaires. Three months after the start of radiotherapy QoL deteriorated significantly in the areas of global QoL, physical function, fatigue, nausea, pain, appetite loss, hair loss, drowsiness, motor dysfunction, communication deficit and weakness of legs. Although the use of corticosteroid at 3 months could be reduced compared to pre-treatment (63 % vs. 37 %), the score for headaches remained stable. Initial QoL at the start of treatment was better in those alive than in those deceased at 3 months, significantly for physical function, motor dysfunction and the symptom scales fatigue, pain, appetite loss and weakness of legs. In a multivariate model, lower Karnofsky performance score, higher age and higher pain ratings before radiotherapy were prognostic of 3-month survival.
Conclusions: Moderate deterioration in several QoL domains was predominantly observed three months after start of palliative radiotherapy for brain metastases. Future studies will need to address the individual subjective benefit or burden from such treatment. Baseline QoL scores before palliative radiotherapy for brain metastases may contain prognostic information.
Background:
In recent years, there has been an increasing interest in psychosocial workplace risk assessments in Germany. One of the questionnaires commonly employed for this purpose is the Short Questionnaire for Workplace Analysis (KFZA). Originally, the KFZA was developed and validated for office workers. The aim of the present study was to examine the factorial validity of the KFZA when applied to hospital settings. Therefore, we examined the factorial structure of a questionnaire that contained all the original items plus an extension adding 11 questions specific to hospital workplaces and analyzed both, the original version and the extended version.
Methods:
We analyzed questionnaire data of a total of 1731 physicians and nurses obtained over a 10-year period. Listwise exclusion of data sets was applied to account for variations in questionnaire versions and yielded 1163 questionnaires (1095 for the extended version) remaining for factor analysis. To examine the factor structure, we conducted a principal component factor analysis. The number of factors was determined using the Kaiser criterion and scree-plot methods. Factor interpretation was based on orthogonal Varimax rotation as well as oblique rotation.
Results:
The Kaiser criterion revealed a 7-factor solution for the 26 items of the KFZA, accounting for 62.0% of variance. The seven factors were named: “Social Relationships”, “Job Control”, “Opportunities for Participation and Professional Development”, “Quantitative Work Demands”, “Workplace Environment”, “Variability” and “Qualitative Work Demands”. The factor analysis of the 37 items of the extended version yielded a 9-factor solution. The two additional factors were named “Consequences of Strain” and “Emotional Demands”. Cronbach’s α ranged from 0.63 to 0.87 for these scales.
Conclusions:
Overall, the KFZA turned out to be applicable to hospital workers, and its content-related structure was replicated well with some limitations. However, instead of the 11 factors originally proposed for office workers, a 7-factor solution appeared to be more suitable when employed in hospitals. In particular, the items of the KFZA factor “Completeness of Task” might need adaptation for the use in hospitals. Our study contributes to the assessment of the validity of this popular instrument and should stimulate further psychometric testing.
The 2007 flood in the Sahel: causes, characteristics and its presentation in the media and FEWS NET
(2012)
During the rainy season in 2007, reports about exceptional rains and floodings in the Sahel were published in the media, especially in August and September. Institutions and organizations like the World Food Programme (WFP) and FEWS NET put the events on the agenda and released alerts and requested help. The partly controversial picture was that most of the Sahel faced a crisis caused by widespread floodings. Our study shows that the rainy season in 2007 was exceptional with regard to rainfall amount and return periods. In many areas the event had a return period between 1 and 50 yr with high spatial heterogeneity, with the exception of the Upper Volta basin, which yielded return periods of up to 1200 yr. Despite the strong rainfall, the interpretation of satellite images show that the floods were mainly confined to lakes and river beds. However, the study also proves the difficulties in assessing the meteorological processes and the demarcation of flooded areas in satellite images without ground truthing. These facts and the somewhat vague and controversial reports in the media and FEWS NET demonstrate that it is crucial to thoroughly analyze such events at a regional and local scale involving the local population.
An Overview of the Regional Experiments for Land-atmosphere Exchanges 2012 (REFLEX 2012) Campaign
(2015)
The REFLEX 2012 campaign was initiated as part of a training course on the organization of an airborne campaign to support advancement of the understanding of land-atmosphere interaction processes. This article describes the campaign, its objectives and observations, remote as well as in situ. The observations took place at the experimental Las Tiesas farm in an agricultural area in the south of Spain. During the period of ten days, measurements were made to capture the main processes controlling the local and regional land-atmosphere exchanges. Apart from multi-temporal, multi-directional and multi-spatial space-borne and airborne observations, measurements of the local meteorology, energy fluxes, soil temperature profiles, soil moisture profiles, surface temperature, canopy structure as well as leaf-level measurements were carried out. Additional thermo-dynamical monitoring took place at selected sites. After presenting the different types of measurements, some examples are given to illustrate the potential of the observations made.
Introduction The fast, precise, and accurate measurement of the new generation of oral anticoagulants such as dabigatran and rivaroxaban in patients' plasma my provide important information in different clinical circumstances such as in the case of suspicion of overdose, when patients switch from existing oral anticoagulant, in patients with hepatic or renal impairment, by concomitant use of interaction drugs, or to assess anticoagulant concentration in patients' blood before major surgery. Methods Here, we describe a quick and precise method to measure the coagulation inhibitors dabigatran and rivaroxaban using ultra-performance liquid chromatography electrospray ionization-tandem mass spectrometry in multiple reactions monitoring (MRM) mode (UPLC-MRM MS). Internal standards (ISs) were added to the sample and after protein precipitation; the sample was separated on a reverse phase column. After ionization of the analytes the ions were detected using electrospray ionization-tandem mass spectrometry. Run time was 2.5 minutes per injection. Ion suppression was characterized by means of post-column infusion. Results The calibration curves of dabigatran and rivaroxaban were linear over the working range between 0.8 and 800 mu g/L (r > 0.99). Limits of detection (LOD) in the plasma matrix were 0.21 mu g/L for dabigatran and 0.34 mu g/L for rivaroxaban, and lower limits of quantification (LLOQ) in the plasma matrix were 0.46 mu g/L for dabigatran and 0.54 mu g/L for rivaroxaban. The intraassay coefficients of variation (CVs) for dabigatran and rivaroxaban were < 4% and 6%; respectively, the interassay CVs were < 6% for dabigatran and < 9% for rivaroxaban. Inaccuracy was < 5% for both substances. The mean recovery was 104.5% (range 83.8-113.0%) for dabigatran and 87.0%(range 73.6-105.4%) for rivaroxaban. No significant ion suppressions were detected at the elution times of dabigatran or rivaroxaban. Both coagulation inhibitors were stable in citrate plasma at -20 degrees C, 4 degrees C and even at RT for at least one week. A method comparison between our UPLC-MRM MS method, the commercially available automated Direct Thrombin Inhibitor assay (DTI assay) for dabigatran measurement from CoaChrom Diagnostica, as well as the automated anti-Xa assay for rivaroxaban measurement from Chromogenix both performed by ACL-TOP showed a high degree of correlation. However, UPLC-MRM MS measurement of dabigatran and rivaroxaban has a much better selectivity than classical functional assays measuring activities of various coagulation factors which are susceptible to interference by other coagulant drugs. Conclusions Overall, we developed and validated a sensitive and specific UPLC-MRM MS assay for the quick and specific measurement of dabigatran and rivaroxaban in human plasma.
Background: International disease management guidelines recommend the regular assessment of depression and anxiety in heart failure patients. Currently there is little data on the effect of screening for depression and anxiety on the quality of life and the prognosis of heart failure (HF). We will investigate the association between the recognition of current depression/anxiety by the general practitioner (GP) and the quality of life and the patients' prognosis.
Methods/Design: In this multicenter, prospective, observational study 3,950 patients with HF are recruited by general practices in Germany. The patients fill out questionnaires at baseline and 12-month follow-up. At baseline the GPs are interviewed regarding the somatic and psychological comorbidities of their patients. During the follow-up assessment, data on hospitalization and mortality are provided by the general practice. Based on baseline data, the patients are allocated into three observation groups: HF patients with depression and/or anxiety recognized by their GP (P+/+), those with depression and/or anxiety not recognized (P+/-) and patients without depression and/or anxiety (P-/-). We will perform multivariate regression models to investigate the influence of the recognition of depression and/or anxiety on quality of life at 12 month follow-up, as well as its influences on the prognosis (hospital admission, mortality).
Discussion: We will display the frequency of GP-acknowledged depression and anxiety and the frequency of installed therapeutic strategies. We will also describe the frequency of depression and anxiety missed by the GP and the resulting treatment gap. Effects of correctly acknowledged and missed depression/anxiety on outcome, also in comparison to the outcome of subjects without depression/anxiety will be addressed. In case results suggest a treatment gap of depression/anxiety in patients with HF, the results of this study will provide methodological advice for the efficient planning of further interventional research.
Background: Persistent pain after inguinal herniorrhaphy is a disabling condition with a lack of evidence-based pharmacological treatment options. This randomized placebo-controlled trial investigated the efficacy of a capsaicin 8% cutaneous patch in the treatment of severe persistent inguinal postherniorrhaphy pain. Methods: Forty-six patients with persistent inguinal postherniorrhaphy pain were randomized to receive either a capsaicin 8% patch or a placebo patch. Pain intensity (Numerical Rating Scale [NRS 0-10]) was evaluated under standardized conditions (at rest, during movement, and during pressure) at baseline and at 1, 2 and 3 months after patch application. Skin punch biopsies for intraepidermal nerve fiber density (IENFD) measurements were taken at baseline and 1 month after patch application. Quantitative sensory testing was performed at baseline and at 1, 2, and 3 months after patch application. The primary outcome was comparisons of summed pain intensity differences (SPIDs) between capsaicin and placebo treatments at 1, 2 and 3 months after patch application (significance level P<0.01). Results: The maximum difference in SPID, between capsaicin and placebo treatments, was observed at 1 month after patch application, but the pain reduction was not significant (NRS, mean difference [95% CI]: 5.0 [0.09 to 9.9]; P=0.046). No differences in SPID between treatments were observed at 2 and 3 months after patch application. Changes in IENFD on the pain side, from baseline to 1 month after patch application, did not differ between capsaicin and placebo treatment: 1.9 [-0.1 to 3.9] and 0.6 [-1.2 to 2.5] fibers/mm, respectively (P=0.32). No significant changes in sensory function, sleep quality or psychological factors were associated with capsaicin patch treatment. Conclusions: The study did not demonstrate significant differences in pain relief between capsaicin and placebo treatment, although a trend toward pain improvement in capsaicin treated patients was observed 1 month after patch application.
Central Asia consists of the five former Soviet States Kazakhstan, Kyrgyzstan, Tajikistan, Turkmenistan, and Uzbekistan, therefore comprising an area of similar to 4 Mio km(2). The continental climate is characterized by hot and dry summer months and cold winter seasons with most precipitation occurring as snowfall. Accordingly, freshwater supply is strongly depending on the amount of accumulated snow as well as the moment of its release after snowmelt. The aim of the presented study is to identify possible changes in snow cover characteristics, consisting of snow cover duration, onset and offset of snow cover season within the last 28 years. Relying on remotely sensed data originating from medium resolution imagers, these snow cover characteristics are extracted on a daily basis. The resolution of 500-1000 m allows for a subsequent analysis of changes on the scale of hydrological sub-catchments. Long-term changes are identified from this unique dataset, revealing an ongoing shift towards earlier snowmelt within the Central Asian Mountains. This shift can be observed in most upstream hydro catchments within Pamir and Tian Shan Mountains and it leads to a potential change of freshwater availability in the downstream regions, exerting additional pressure on the already tensed situation.
Background: The Global initiative for chronic Obstructive Lung Disease (GOLD) defines COPD as a fixed postbronchodilator ratio of forced expiratory volume in 1 second and forced vital capacity (FEV1/FVC) below 0.7. Agedependent cut-off values below the lower fifth percentile (LLN) of this ratio derived from the general population have been proposed as an alternative. We wanted to assess the diagnostic accuracy and prognostic capability of the GOLD and LLN definition when compared to an expert-based diagnosis. Methods: In a prospective cohort study, 405 patients aged ≥ 65 years with a general practitioner’s diagnosis of COPD were recruited and followed up for 4.5 (median; quartiles 3.9; 5.1) years. Prevalence rates of COPD according to GOLD and three LLN definitions and diagnostic performance measurements were calculated. The reference standard was the diagnosis of COPD of an expert panel that used all available diagnostic information, including spirometry and bodyplethysmography. Results: Compared to the expert panel diagnosis, ‘GOLD-COPD’ misclassified 69 (28%) patients, and the three LLNs misclassified 114 (46%), 96 (39%), and 98 (40%) patients, respectively. The GOLD classification led to more false positives, the LLNs to more false negative diagnoses. The main predictors beyond the FEV1/FVC ratio for an expert diagnosis of COPD were the FEV1 % predicted, and the residual volume/total lung capacity ratio (RV/TLC). Adding FEV1 and RV/TLC to GOLD or LLN improved the diagnostic accuracy, resulting in a significant reduction of up to 50% of the number of misdiagnoses. The expert diagnosis of COPD better predicts exacerbations, hospitalizations and mortality than GOLD or LLN. Conclusions: GOLD criteria over-diagnose COPD, while LLN definitions under-diagnose COPD in elderly patients as compared to an expert panel diagnosis. Incorporating FEV1 and RV/TLC into the GOLD-COPD or LLN-based definition brings both definitions closer to expert panel diagnosis of COPD, and to daily clinical practice.
Das Ziel vorliegender Arbeit war die Entwicklung einer HPLC-MS(/MS)-Methode, die im Rahmen der pharmazeutischen Qualitätskontrolle zur direkten Quantifizierung von Aminosäuren (AS) in Infusionslösungen angewendet werden kann. Die Zielset-zung schloss eine Validierung innerhalb der für die Zweckbestimmung vorgesehenen Grenzen ein. Im Rahmen der Methodenentwicklung wurde das ESI-MS/MS-Fragmentierungs-muster von 21 Aminosäuren, von 20 stabil-isotopenmarkierten Aminosäuren, die als interne Standards verwendet wurden, sowie von einigen weiteren Substanzen bestimmt. Nach Kenntnis von Precursor- und Produktionen erstellte man eine SRM-Methode zur spezifischen MS/MS-Analyse. Dabei wurden durch das jeweilige Frag-mentierungsmuster bedingte Interferenzen bei den zu untersuchenden Aminosäuren bestimmt, die bei der zu erarbeitenden HPLC-MS-Methode beachtet werden mussten. Die Methodenentwicklung zur HPLC-MS-Analytik von underivatisierten AS umfasste mit der RP-HPLC unter Verwendung eines Ionenpaarreagenzes (IP) und der hydrophilen Interaktionschromatographie (HILIC) zwei verschiedene chromatographi-sche Ansätze. Bei der Anwendung der RP-HPLC ergaben sich Probleme. Die Verwendung eines IP, im vorliegenden Fall TDFHA (Tridecafluorheptansäure), führte zu langen Equilibrierungs-, Re-Equilibrierungs- und Spülzeiten und damit bei zwar relativ kurzer HPLC-Laufzeit zu einem aber insgesamt hohen Zeitaufwand. Gleich-zeitig war die LC-MS-Anlage auf diese Anwendung fixiert, da das Ionenpaarreagenz das Gerät stark verschmutzte und dadurch andere Analysen erheblich störte. Zudem waren die Retentionszeiten der Analyten trotz langer Equilibrierungszeiten schlecht reproduzierbar, so dass eine solche Methode im Rahmen der pharmazeutischen Qualitätskontrolle schwer validierbar wäre. Weiterführende Untersuchungen erfolgten daher nicht. In nachfolgenden Studien mit der HILIC wurden verschiedene Einflussparameter (Anteil organischer Phase im Fließmittel, pH-Wert des Fließmittels, Temperatur der Säule, Pufferkonzentration im Fließmittel, Gradientenelution) auf die Trennung der AS an einer ZIC®-HILIC-Säule untersucht. Durch Optimierung der Parameter wurde so eine HILIC-HPLC-Methode entwickelt, bei der 21 AS und 20 ihrer isotopen-markierten Referenz-AS innerhalb von 20 min eluierten. Diejenigen AS, bei denen im Rahmen der Fragmentierungsstudien Interferenzen aufgrund gleicher bzw. ähnlicher Massen der Precursor- bzw. Produktionen aufgetreten waren, wurden chroma-tographisch getrennt. Gleichzeitig hat sich die SIM-Analyse als anwendbar erwiesen. Die Anwendung des spezifischeren SRM-Modus und damit der Tandem-Massenspektrometrie war nicht erforderlich. Im Rahmen der nachfolgenden Studien zur Validierung ergab sich, dass die entwickelte Methode über einen weiten Bereich eine lineare Abhängigkeit zwischen Konzentrations- und Messwerten zeigte. Für drei der 21 AS (NAcCys, NAcTyr, Pro) wurde die quadratische Regression mit dem Anpassungstest nach Mandel als geeig-neteres Regressionsmodell ermittelt. Bei Untersuchungen zur Wiederfindung wurde ein Einfluss der Matrix-Lösung der Infusionslösung festgestellt, der zu Abweichungen hinsichtlich des Quotienten AreaAS / AreaIS führte, so dass eine Quantifizierung innerhalb der geforderten Grenzen bei Kalibrierung über reine Standardlösungen nicht möglich war. Die Validierung wurde daher nachfolgend in der Matrixlösung durchgeführt. Dabei wurde gezeigt, dass mit der entwickelten HILIC-HPLC-MS-Methode Aminosäuren in Infusionslösungen mit hoher Präzision und Richtigkeit bestimmt werden können. Neun der 21 untersuchten AS konnten im Bereich von 30% - 350%, zehn weitere im Bereich von 50% - 350% innerhalb der zur Gehaltsbestimmung von pharmazeutischen Formulierungen vorgeschriebenen Grenzen (Wiederfindung Einzelbestimmung: 98% -102.0%, Mittelwert einer Dreifachbestimmung: 98.5% – 101.5%) quantifiziert werden. Für His und Phe gelang allerdings keine Quantifizierung innerhalb der Akzeptanzkriterien, wobei der Grund hierfür in weiteren Studien geklärt werden müsste. Mit der entwickelten Methode ist damit eine gleichzeitige Quantifizierung verschiedener AS-Infusionslösungsformulierungen möglich, die sich bei gleicher Matrix in der Konzentration an AS unterscheiden. Beispielsweise seien hier die Formulierungen „Aminoplasmal® E 5% / 10% /15%“ genannt, die mit der validierten Methode erfassbar sind. Die Probenvorbereitung beschränkt sich dabei auf den Zusatz der IS-Formulierung zur Infusionslösung und einen Verdünnungsschritt. Die Quanti-fizierung erfolgt über eine 5-Punkt-Kalibriergerade, die aus einer AS- und IS-Standardmischung, nach Zusatz der einfach herzustellenden Elektrolyt-Matrix, erstellt wird. Die Analysenzeit der HPLC-MS-Methode beträgt einschließlich Equilibrie-rungszeit 35 min und ist damit deutlich kürzer als die 120 min, die bei der nach wie vor zur AS-Analytik allgemein gebräuchlichen Ionenaustauschchromatographie mit Ninhydrin-Nachsäulenderivatisierung anzusetzen sind.
The success of diagnostic knowledge systems has been proved over the last decades. Nowadays, intelligent systems are embedded in machines within various domains or are used in interaction with a user for solving problems. However, although such systems have been applied very successfully the development of a knowledge system is still a critical issue. Similarly to projects dealing with customized software at a highly innovative level a precise specification often cannot be given in advance. Moreover, necessary requirements of the knowledge system can be defined not until the project has been started or are changing during the development phase. Many success factors depend on the feedback given by users, which can be provided if preliminary demonstrations of the system can be delivered as soon as possible, e.g., for interactive systems validation the duration of the system dialog. This thesis motivates that classical, document-centered approaches cannot be applied in such a setting. We cope with this problem by introducing an agile process model for developing diagnostic knowledge systems, mainly inspired by the ideas of the eXtreme Programming methodology known in software engineering. The main aim of the presented work is to simplify the engineering process for domain specialists formalizing the knowledge themselves. The engineering process is supported at a primary level by the introduction of knowledge containers, that define an organized view of knowledge contained in the system. Consequently, we provide structured procedures as a recommendation for filling these containers. The actual knowledge is acquired and formalized right from start, and the integration to runnable knowledge systems is done continuously in order to allow for an early and concrete feedback. In contrast to related prototyping approaches the validity and maintainability of the collected knowledge is ensured by appropriate test methods and restructuring techniques, respectively. Additionally, we propose learning methods to support the knowledge acquisition process sufficiently. The practical significance of the process model strongly depends on the available tools supporting the application of the process model. We present the system family d3web and especially the system d3web.KnowME as a highly integrated development environment for diagnostic knowledge systems. The process model and its activities, respectively, are evaluated in two real life applications: in a medical and in an environmental project the benefits of the agile development are clearly demonstrated.
Die vorliegende Arbeit beschreibt die Entwicklung und Validierung der neuartigen 3D-QSAR Technik Mapping Property Distributions of Molecular Surfaces (MaP). Die Methode ist gegenüber Translation und Rotation invariant, d. h. eine Überlagerung der Moleküle, wie sie zum Beispiel für CoMFA nötig ist, entfällt. MaP basiert auf der Charakterisierung der Moleküle nach ihrer Fähigkeit Wasserstoffbrücken auszubilden, sowie ihrer Hydrophobie / Hydrophilie. Dabei werden jedoch nicht nur die atombasierten Eigenschaften, sondern auch die Oberflächeneigenschaften der Moleküle zur Charakterisierung genutzt. Diese Loslösung von der chemischen Struktur der Verbindungen erlaubt es, die für die Ligand-Rezeptor-Interaktion (bzw. Substrat-Enzym-Interaktion) wichtigen Grenzflächen zu charakterisieren. Die wichtigsten methodischen Elemente der MaP-Technik, sowie die erhaltenen Ergebnisse der untersuchten Datensätze sollen hier noch einmal in kurzer Form dargestellt werden: Die theoretische Basis des MaP-Deskriptors bilden so genannte Radialverteilungsfunktionen. Mittels dieser selektiven Distanz-Zählstatistiken (SDZS) können sowohl die Form der Moleküle, als auch die Verteilung der einzelnen Oberflächeneigenschaften zueinander, in einem einzelnen Vektor beschrieben werden. Die MaP-Variablen kodieren dabei die Größe (absolute Anzahl an Einträgen), sowie die Orientierung (Distanz) verschiedener Oberflächeneigenschaften zueinander. Die Grundlage der Oberflächeneigenschaften stellen atomare Charakteristika wie das Wasserstoffbrückenbindungspotential sowie die atomare Hydrophobie / Hydrophilie dar. Diese Eigenschaften werden den Atomen mittels einfacher Regeln (Wasserstoffbrücken) bzw. einer Substruktursuche (Hydrophobie / Hydrophilie) zugewiesen und dann auf die Oberfläche projiziert. Um die mathematische Transformation der Rohdaten in die SDZS zu ermöglichen, muss die Moleküloberfläche durch gleichverteilte Oberflächenpunkte diskretisiert werden. Da diese Anforderung von gebräuchlichen analytischen Oberflächenberechnungsmethoden, wie zum Beispiel dem GEPOL-Algorithmus, nicht erfüllt wird, wurde der GEPOL-Algorithmus so modifiziert, dass ein Zusammenhang zwischen der Oberflächengröße und der Anzahl an Oberflächenpunkten gegeben ist. Da es aufgrund dieser Diskretisierung jedoch zum Verlust der Invarianz gegenüber Translation und Rotation kommen kann, wurde der Bestimmung der Moleküloberflächen eine spezielle Technik zur Ausrichtung der Moleküle im Koordinatensystem (Kanonisierung) vorgeschaltet. Dadurch wird ein identischer MaP-Deskriptor unabhängig von der Position der Moleküle im Raum garantiert. Um den Diskretisierungsfehler der Oberflächenbestimmung weiter zu reduzieren, wurde eine unscharfe Zählweise bei der Berechnung des MaP-Deskriptors adaptiert. Diese erlaubt es, Einträge die an den Kategoriengrenzen des MaP-Vektors liegen, auf die beiden nächsten Zentren zu verteilen. Dadurch werden kleine Schwankungen in den Distanzwerten kompensiert. Zur Modellbildung werden die infomativsten Variablen (MIV) mit Hilfe der ‚Reverse-Elimination-Method’-Tabu-Suche (REM-TS) identifiziert. Die so erhaltenen MIV’s können auf die Moleküle zurückprojiziert werden, was die Interpretation der berechneten Modelle stark vereinfacht. Zur Visualisierung der Ergebnisse können die Variablen unter Zuhilfenahme der unscharfen Zählweise nochmals gefiltert werden, um die Interpretation hoch besetzter Variablen zu vereinfachen. Da es aufgrund der Variablenselektion zu einer Zufallskorrelation in der Modellbildung kommen kann, werden die erhaltenen Modelle einer strengen Validierung unterzogen. Dabei werden neben der sehr anspruchsvollen ‚Lass-mehrere-Objekte-heraus’-Kreuzvalidierung als Gütefunktion der Variablenselektion auch ein Permutationstest der Modelle sowie eine Testdatenvorhersage angewandt. Durchläuft ein Modell all diese Validierungsschritte erfolgreich, so ist die Wahrscheinlichkeit einer Zufallskorrelation sehr gering. Um die Anwendbarkeit und die Güte des MaP-Deskriptors zu überprüfen, wurden verschiedene Datensätze untersucht. Diese können entsprechend ihrer Zielsetzung in unterschiedliche Gebiete aufgeteilt werden. Der erste Datensatz (Steroide) wird in der QSAR häufig als Vergleichsdatensatz eingesetzt. Ein weiterer Datensatz umfasst strukturell sehr heterogene Substanzen, die ein augenirritierendes Potential aufweisen (ECETOC). Inhibitoren des EndothelinA-Rezeptors (ETA) bildeten einen weiteren Datensatz. Die enthaltenen Moleküle sind im Datenraum stark in Untergruppen geklustert. Weiterhin wurden konformell sehr flexible, allostere Modulatoren des muskarinischen M2-Rezeptors (M2-Modulatoren) untersucht. Dieser Datensatz diente aufgrund der hohen Flexibilität der Moleküle auch zur Überprüfung der konformellen Abhängigkeit der Methode. Die Erweiterung des Standardparametersatzes wurde mit Hilfe von Naphthylisochinolin-Derivaten (NIQ) untersucht, die eine Aktivität gegen Plasmodium falciparum aufweisen. Ein weiterer Datensatz, deren Moleküle die Öffnungswahrscheinlickeit ATP-abhängiger Kalium-Kanäle erhöht (KCO), wurde herangezogen, um den Vorteil der mathematischen Transformation der MaP-Technik gegenüber der von GRIND benutzten MACC-2-Transformation herauszustellen. Inhibitoren des nicotinischen Acetylcholin-Rezeptors (CAR) bildeten einen weiteren Datensatz für den bisher keine QSAR-Studie vorlag. Zur strukturbasierten Validierung der Methode wurden Inhibitoren der Acetylcholinesterase (APZ-Datensatz) untersucht. Hierbei wurde geprüft, ob die aus der Kristallstruktur der Acetylcholinesterase wichtigen Ligand-Enzym-Wechselwirkungen durch MaP beschrieben werden. Die Ergebnisse dieser Untersuchungen lassen folgenden Rückschlüsse zu: Im Vergleich mit bereits etablierten 3D-QSAR-Techniken wie CoMFA, CoMSIA oder GRID/PLS führt die MaP-Technik zu vergleichbar guten Modellen (Steroide, ETA, M2-Modulatoren). Durch die Loslösung vom strukturellen Grundgerüst der Substanzen können auch strukturell diverse Datensätze gut modelliert und die relevante Information extrahiert werden (ECETOC). Dies ist mit Deskriptoren, die eine gemeinsame Ausrichtung der Moleküle benötigen (z.B. CoMFA), oft nicht möglich. Auch Datensätze, deren Objekte geklustert vorliegen, können mittels MaP gut modelliert werden. MaP ist dabei in der Lage die relevante Information sowohl zwischen, als auch innerhalb der einzelnen Gruppen zu extrahieren (ETA). Auch für Datensätze, deren Moleküle eine sehr hohe Flexibilität aufweisen, ist es möglich mit MaP gute Modelle zu erhalten (M2-Modulatoren, APZ). Hierbei ist es jedoch wichtig, zu beachten, dass MaP als 3D-QSAR-Technik gegenüber der Konformation der Moleküle nicht invariant ist. Bei der Anwendung der Methode zeigte sich jedoch, dass kleine konformelle Änderungen der Verbindungen oft einen sehr geringen Einfluss auf die Ergebnisse der Methode haben (M2-Modulatoren, APZ). Bei der Untersuchung der NIQ-Daten zeigte sich, dass unter Verwendung der MaP-Standardparameter bereits die relevanten Eigenschaften der Moleküle charakterisiert werden können. Allerdings führte eine Erweiterung dieser Parameter zu einer Vereinfachung der Interpretation der Ergebnisse. Hierbei ist jedoch darauf zu achten, dass die Modellvalidierung strikt eingehalten werden muss. Der Vorteil der mathematischen Transformation der Rohdaten (SDZS) gegenüber der von GRIND verwendeten MACC-2 Transformation konnte mittels der KCO-Daten aufgezeigt werden. Das erhaltene Modell spiegelte sehr schön die bereits bekannten Struktur-Wirkungs-Beziehungen wider. Leider ist die publizierte Datenlage in diesem Falle noch nicht ausreichend, um einen abschließenden Vergleich der beiden konkurrierenden Techniken zu ermöglichen. Beim CAR-Datensatz war MaP in der Lage, neben der bekannten, relevanten strukturellen Allylalkoholgruppe ein weiteres strukturelles Merkmal zu identifizieren. Abschließend konnte gezeigt werden, dass MaP in der Lage ist, die für die Wechselwirkung zwischen Acetylcholinesterase und Ligand wichtigen Interaktionsstellen und Charakteristika eindeutig zu identifizieren (APZ-Datensatz). Diese Eigenschaften wurden zur besseren Interpretation der Ergebnisse in die Bindetasche projiziert. Die Ergebnisse dieser Untersuchungen zeigen, dass die entwickelte Technik ein weites Anwendungsspektrum besitzt, leicht zu interpretieren ist und sich dabei durch ihre Robustheit auszeichnet. Vor allem aber liefert MaP aussagekräftige 3D-QSAR-Modelle. Bei der MaP-Methode handelt es sich jedoch nicht nur um einen neuen Moleküldeskriptor, sondern um eine Kombination aus Deskriptor, mathematischer Modellierung, Modellvalidierung und Modellvisualisierung. Obwohl MaP in Hinsicht auf Modellqualität und Modellinterpretierbarkeit Techniken wie zum Beispiel CoMFA in nichts nachsteht, sind aufgrund der einfachen und trotzdem hocheffizienten mathematischen Grundlagen folgende Erweiterungen denkbar: (1) als dreidimensionale Technik ist MaP von den Ausgangskonformationen der Moleküle abhängig. Findet sich im untersuchten Datensatz ein starres Molekül (M2-Modulatoren) oder aber sind Informationen über einen möglichen Bindungsmodus vorhanden, so können diese Konformationen relativ leicht erhalten werden. Da dies jedoch nicht immer der Fall ist, ist eine Erweiterung der Technik in die vierte Dimension (konformelle Flexibilität) wichtig. Dass dies prinzipiell möglich ist, konnte Hopfinger bereits zeigen. Da die mathematische Grundlage der MaP-Technik sehr einfach ist, sollte diese Art der Erweiterung in die vierte Dimension auch für MaP möglich sein. (2) Momentan ist der MaP-Deskriptor auf Verknüpfungen zwischen zwei Oberflächenpunkten beschränkt. Diese Einschränkung könnte dazu führen, dass Inkremente ein und derselben Variablen aus verschiedenen Teilen des Moleküls stammen. Wenn nur ein Teil davon Eigenschaften kodieren, die relevant für die Ligand-Rezeptor-Interaktion sind, könnte dies theoretisch zu Inkonsistenzen in dem resultierenden Modell führen. Bei den bislang untersuchten Datensätzen konnte dies noch nicht beobachtet werden. Eine mögliche Erklärung hierfür ist, dass die MaP-Variablen zu einem gewissen Grad redundant sind, d.h. das selbe Phänomen kann durch verschiedene Variablen beschrieben werden. Von diesen redundanten Variablen werden durch die strenge Validierung diejenigen vom Suchalgorithmus der Variablenselektion identifiziert, die am wenigsten mit anderen Eigenschaften vermengt sind. Prinzipiell ist eine solche Problematik jedoch denkbar. Um die Wahrscheinlichkeit eines derartigen Phänomens weiter zu reduzieren, sollten die bisher genutzten Zweipunktverknüpfungen auf drei Punkte erweitert werden.
Zur Bestimmung von geringen Wirkstoffkonzentrationen in biologischen, speziell human-biologischen Matrizes wie Blut, Urin oder Mikrodialysat bedarf es einer Analysentechnik, die den Wirkstoff mit einem Höchstmaß an Selektivität, Spezifität und Präzision bestimmen kann. Daneben muß die verwendetete Methode eine hohe Geschwindigkeit aufweisen und sehr robust sein, da bei der heutigen marktwirtschaftlichen Lage Analysensysteme eine optimale Auslastung erfahren müssen. Aus diesem Grund ist der Umbau oder die Umstellung der Methode von einem zum anderen Wirkstoff ohne nennenswerten Zeitverlust ein maßgeblicher Faktor. Als Technik, die diese Anforderungen optimal erfüllt, hat sich in den letzten Jahren die LC-MS/MS-Technik etabliert. Sie ist den bislang überwiegenden Methoden, wie GC-MS-Techniken oder HPLC-UV-Detektion bzw. Fluoreszenztechniken in Bezug auf die oben genannten Parameter deutlich überlegen. In der vorliegenden Arbeit wurden für die Wirkstoffe Cisaprid, SC-72393, Haloperidol, Linezolid, Methotrexat und Ketoprofen LC-MS/MS-Methoden entwickelt oder via unabhängiger Laborvalidierung auf die lokalen Gegebenheiten transferiert und zur Bestimmung pharmakokinetischer Parameter zur Anwendung gebracht. Ziel der Methodenentwicklung war es die hohe Selektivität und Empfindlichkeit des Detektors zu nutzten, um bei geringen Probenvolumina eine Bestimmungsgrenze zu erreichen, die es ermöglichte ausreichend viele Meßwerte zu bestimmen, um die pharmakokinetischen Parameter der Wirkstoffe zu berechnen. Zusätzlich wurde eine Maximierung des Probendurchsatzes und eine Minimierung des personellen und materiellen Aufwandes angestrebt ohne dabei einen Qualitätsverlust der Methode zu erleiden. Eine gelungene Methoden-entwicklung bedurfte daher der Optimierung der Probenaufarbeitung, die sich neben den chemisch-physikalischen Eigenschaften des Wirkstoffes hauptsächlich an der Menge der zur Verfügung stehenden Probe orientierte. Das chromato-graphische System hingegen hing weitestgehend von den chemischen Eigenschaften des Analyten und von den massenspektroskopischen Bedingungen ab, die verdampfbare Puffer im Fließmittel erforderten. Diese drei zu optimierenden Teilbereiche, die miteinander interagieren, wurden jeweils sorgsam aufeinander abgestimmt, um eine Methode zu entwickeln, die die zu erwartenden Wirkstoffkonzentrationen in der jeweiligen Matrix sicher und robust bis hin zum Quantifizierungslimit bestimmen konnte.