TY - THES A1 - Tiwarekar, Vishakha Rakesh T1 - The APOBEC3G-regulated host factors REDD1 and KDELR2 restrict measles virus replication T1 - Die durch APOBEC3G-regulierten Wirtsfaktoren REDD1 und KDELR2 restringieren die Masernvirus Replikation N2 - Measles is an extremely contagious vaccine-preventable disease responsible for more than 90000 deaths worldwide annually. The number of deaths has declined from 8 million in the pre-vaccination era to few thousands every year due to the highly efficacious vaccine. However, this effective vaccine is still unreachable in many developing countries due to lack of infrastructure, while in developed countries too many people refuse vaccination. Specific antiviral compounds are not yet available. In the current situation, only an extensive vaccination approach along with effective antivirals could help to have a measles-free future. To develop an effective antiviral, detailed knowledge of viral-host interaction is required. This study was undertaken to understand the interaction between MV and the innate host restriction factor APOBEC3G (A3G), which is well-known for its activity against human immunodeficiency virus (HIV). Restriction of MV replication was not attributed to the cytidine deaminase function of A3G, instead, we identified a novel role of A3G in regulating cellular gene functions. Among two of the A3G regulated host factors, we found that REDD1 reduced MV replication, whereas, KDELR2 hampered MV haemagglutinin (H) surface transport thereby affecting viral release. REDD1, a negative regulator of mTORC1 signalling impaired MV replication by inhibiting mTORC1. A3G regulated REDD1 expression was demonstrated to inversely correlate with MV replication. siRNA mediated silencing of A3G in primary human blood lymphocytes (PBL) reduced REDD1 levels and simultaneously increased MV titres. Also, direct depletion of REDD1 improved MV replication in PBL, indicating its role in A3G mediated restriction of MV. Based on these finding, a new role of rapamycin, a pharmacological inhibitor of mTORC1, was uncovered in successfully diminishing MV replication in Vero as well as in human PBL. The ER and Golgi resident receptor KDELR2 indirectly affected MV by competing with MV-H for cellular chaperones. Due to the sequestering of chaperones by KDELR2, they can no longer assist in MV-H folding and subsequent surface expression. Taken together, the two A3G-regulated host factors REDD1 and KDELR2 are mainly responsible for mediating its antiviral activity against MV. N2 - Masern ist eine extrem ansteckende, durch Impfung verhinderbare Infektionskrankheit, die für mehr als 90000 Todesfälle jährlich weltweit verantwortlich ist. Die Zahl der Todesfälle nahm von ca. 8 Millionen in der Prä- Impf-Ära auf wenige Tausend pro Jahr aufgrund dieses effizienten Impfstoffs ab. Dieser ist jedoch aufgrund mangelnder Infrastruktur in vielen Entwicklungsländern nicht ausreichend verfügbar, oder die Impfung wird – vor allem in entwickelten Ländern – verweigert. Spezifische antivirale Substanzen sind noch nicht verfügbar. So könnte nur eine extensive Impfkampagne zu einer Masern-freien Zukunft führen. Um antivirale Substanzen zu generieren wird detailiertes Wissen über Virus-Wirt-Interaktionen benötigt. Diese Studie wurde unternommen um Interaktionen zwischen Masernviren (MV) und dem zellulären Restriktionsfaktor APOBEC3G (A3G), der allgemein bekannt für seine antivirale Wirkung gegen das humane Immundefizienzvirus (HIV) ist, zu charakterisieren. A3G hemmt die MV-Replikation nicht aufgrund seiner Cytidin-Desaminase-Funktion, sondern wir entdeckten eine neue Funktion des A3G, nämlich dass es die Expression zellulärer Faktoren reguliert. Wir fanden, dass unter den A3G-regulierten Wirtszellfaktoren REDD1 die MV-Replikation reduzierte, während KDELR2 den Transport des MV-Hämagglutinins (H) zur Zelloberfläche, und somit die Virusfreisetzung, inhibierte. REDD1, ein negativer Regulator des mTORC1-Signalübertragungswegs, reduzierte die MV-Replikation indem es mTORC1 inhibiert. Die Expression des durch A3G regulierten REDD1 korrelierte umgekehrt mit der MV Replikation. SiRNA-vermittelte Reduktion des A3G in primären humanen Lymphozyten des Bluts (PBL) führte zu einer Abnahme des REDD1 und gleichzeitig zu einer Zunahme des MV-Titers. Ebenso führte direktes Silencing des REDD1 zu einer verstärkten MV-Replikation in PBL, was seine Rolle bei der A3G-vermittelten Restriktion der MV-Replikation unterstreicht. Aufgrund dieser Befunde wurde auch eine neue Funktion des mTORC1-Inhibitors Rapamycin als Inhibitor der MV-Replikation in Vero-Zellen und primären PBL aufgedeckt. Der ER- und Golgi-residente Rezeptor KDELR2 wirkte sich indirekt auf die MV-Replikation aus, indem er mit dem MV-H um die Interaktion mit Chaperonen kompetiert. KDELR2 bindet Chaperone und verhindert so deren Interaktion mit MV-H und den Transport zur Zelloberfläche. Zusammenfassend lässt sich sagen, dass die beiden A3G-regulierten Wirtszellfaktoren REDD1 und KDELR2 hauptsächlich für die antivirale Aktivität des A3G gegen MV verantwortlich sind. KW - measles virus KW - restriction factors KW - APOBEC3G KW - REDD1 KW - KDELR2 Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179526 ER - TY - THES A1 - Riad, Noura T1 - The Development of Dualsteric Ligands for the Elucidation of Mode of Activation of Muscarinic Receptors and their Selective Signaling T1 - Entwicklung dualsterischer Liganden zur Aufklärung des Aktivierungsmechanismus und der Selektivität von Muskarinrezeptoren N2 - GPCRs, particularly muscarinic receptors (mAChRs), are significant therapeutic targets in many physiological conditions. The significance of dualsteric hybrids selectively targeting mAChR subtypes is their great advantage in avoiding undesired side effects. This is attained by exploitation of the high affinity of ligand-binding to the orthosteric site and the structural diversity of the allosteric site to target an individual mAChR subtype, as well as offering signal bias to avoiding undesired transduction pathways. Furthermore, dualsteric targeting of mAChR subtypes helps in the elucidation of the physiological role of each individual mAChR subtype. The first project was the attempt of synthesis of the M2-preferring ligand AFDX-384. AFDX-384 is known to preferentially bind to the M2 receptor subtype as an orthosteric antagonist, with partial interaction with residues in the allosteric site. This project aimed to re-trace the synthesis route of AFDX-384, to open the door to its upscaling and the future synthesis of AFDX-type dualsteric ligands. The multi-step synthesis of AFDX-384 is achieved through the synthesis of its 2 precursors, the chloro acyl derivative VIII and the piperidinyl derivative IV. Upscaled synthesis of the piperidinyl derivative IV was attained. Synthesis of the chloro acyl compound VIII was attempted. Several trials to synthesize the benzopyridodiazepine nucleus as well as its chloro-acylation resulted in the production of the novel crystal structures V and VI. X-ray crystallography was also done for crystallized molecules of the closed-ring benzopyridodiazepine VII that was previously synthesized. Chloro-acylation reactions of compound VII using phosgene seem to be attainable when done using reflux overnight. However, the use of methanol to aid in elution during silica gel column chromatography converted the expected product to the carbamate analogue IX. Hence, further attempts in purification should refrain from the use of methanol. The use of triphosgene instead of phosgene demonstrates a cleaner route for further upscaled synthesis. The second project was the synthesis of dualsteric ligands involving variable orthosteric and allosteric moieties. Four different types of hybrids have been created over multiple steps. Dualsteric ligands have been synthesized using either a phthalimido- or 1,8-naphthalimidopropylamino moiety as the allosteric-binding group, coupled to either N-desmethyl pirenzepine or N-desmethyl clozapine using variable chain lengths. Furthermore, the synthesis of the dualsteric ligands involving N-desmethyl clozapine linked to either the super-agonist iperoxo or acetylcholine, and being connected using variable alkane chain lengths. Several reaction conditions have been investigated throughout the analysis of the optimal condition to conduct the critical final step of synthesis of these dualsteric hybrids, which involves the linking of the two segments of the hybrid together. The optimal method, which produced the least side products and highest yield, was to connect the two intermediates of the compound in absence of base, catalyst or microwaves while stirring at 35 °C for several days using acetonitrile as solvent (silica gel TLC monitoring, 0.2 M aqueous KNO3/MeOH 2:3). The ideal purification methods for the final compounds were found to be either crystallization from the reaction medium or using C18 reverse phase silica gel flash chromatography (using H2O/MeOH solvent system). All the hybrids will be subjected to pharmacological testing using the appropriate FRET assays. N2 - G-Protein-gekoppelte Rezeptoren (GPCRs), besonders die Familie der muscarinischen Rezeptoren, stellen wichtige therapeutische Zielstrukturen für die Behandlung einer Vielzahl an Erkrankungen dar. Die Besonderheit dualsterischer Hybridliganden, die selektiv an den muskarinischen Acetylcholinrezeptor (mAChR) binden liegt darin begründet, dass so ungewünschte Nebenwirkungen vermieden werden können. Dies wird durch die Ausnutzung der hohen Bindungsaffinität an die orthostere Stelle sowie die strukturelle Vielfältigkeit der allosteren Bindestelle erreicht, wodurch bestimmte mAChR-Subtypen adressiert und eine funktionelle Selektivität erreicht werden kann, die unerwünschte Signaltransduktionswege umgeht. Desweiteren kann die dualstere Adressierung der mAChR-Subtypen dazu beitragen, die physiologische Funktion eines jeden Rezeptors zu bestimmen und aufzuklären. Das Ziel des ersten Teilprojektes war die Synthese des bevorzugt an M2 bindenden Liganden AFDX-384. Von diesem ist bekannt, als orthosterer Agonist bevorzugt an den M2-Rezeptorsubtyp zu binden und zum Teil Interaktionen in der allosteren Bindestelle einzugehen. Hierbei sollte die Darstellungsroute von AFDX-384 nachvollzogen werden, um eine Synthese in größerem Maßstab zu entwickeln und die Herstellung weiterer dualsterer Liganden vom AFDX-Typ zu ermöglichen. Die mehrstufige Synthese von AFDX-384 geht von zwei Vorstufen aus, dem Chloracyl VIII sowie dem Piperidinylderivat IV. Zunächst wurde das Upscaling der Synthese von IV erreicht und die Darstellung von VIII versucht. Mehrere Versuche, den Benzopyridodiazepin-Kern sowie das entsprechende chloracetylierte Derivat zu erhalten, führten zur Bildung der neuen Strukturen V und VI. Das zuvor synthetisierte, ringgeschlossene Benzopyridodiazepin VII wurde mittels Röntgenkristallstrukturanalyse charakterisiert. Die Chloracylierung von VII schien mittels Phosgens und unter Rückfluss über Nacht möglich zu sein. Allerdings wurde das Reaktionsprodukt durch den Einfluss von Methanol, das während der chromatographischen Reinigung als Fließmittel verwendet wurde, in das Carbamat-Analogon IX überführt. Daher sollten künftige Reinigungsschritte ohne die Zuhilfenahme von Methanol erfolgen. Durch den Einsatz von Triphosgen anstelle von Phosgen wird eine eindeutigere, direktere Syntheseroute zum weiteren Upscaling erreicht. Im Rahmen des zweiten Teilprojektes wurden dualstere Liganden hergestellt, die variable orthostere und allostere Molekülteile besitzen. Durch mehrstufige Syntheseverfahren konnten vier verschiedene Typen von Hybriden hergestellt werden. Dualstere Liganden wurden dadurch erhalten, dass entweder Phthalimido- oder 1,8- Naphthalimidopropylamino-Gruppen als allostere Bindegruppe durch einen flexiblen und verschieden langen Linker mit N-Demethylpirenzepin oder N-Demethylclozapin verknüpft wurden. Außerdem wurden dualstere Liganden hergestellt, in denen N-Demethylclozapin durch einen variablen Linker entweder an den Superagonisten Iperoxo oder an Acetylcholin geknüpft ist. Der kritischste Schritt der Synthese ist die Verknüpfung der beiden Linkersegmente am Ende des Herstellungsweges. Hierfür wurden mehrere Reaktionsbedingungen untersucht, um die Kopplung optimal zu ermöglichen. Die beste Methode, bei der die wenigsten Nebenprodukte und die größten Ausbeuten erzielt wurden besteht darin, die beiden letzten Zwischenstufen in Abwesenheit einer Base, Katalysatoren oder Mikrowellenstrahlung in Acetonitril zu lösen und bei 35 °C mehrere Tage zu rühren (Reaktionskontrolle: Dünnschichtchromatographie an Kieselgel, Fließmittel: 0,2 M wässrige KNO3/MeOH 2:3). Als bestes Reinigungsverfahren stellten sich entweder die Kristallisation aus dem Reaktionsmedium oder die Verwendung einer Flash-Chromatographie-Apparatur an C18-Kieselgel dar (Eluent: H2O/MeOH). Alle synthetisierten Hybridmoleküle werden noch einer pharmakologischen Charakterisierung unter Anwendung geeigneter FRET-Testsysteme unterzogen. KW - muscarinic receptors KW - dualsteric KW - Muscarinrezeptor KW - Ligand Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179282 ER - TY - JOUR A1 - Suchotzki, Kristina A1 - Kakavand, Aileen A1 - Gamer, Matthias T1 - Validity of the reaction time concealed information test in a prison sample JF - Frontiers in Psychiatry N2 - Detecting whether a suspect possesses incriminating (e.g., crime-related) information can provide valuable decision aids in court. To this means, the Concealed Information Test (CIT) has been developed and is currently applied on a regular basis in Japan. But whereas research has revealed a high validity of the CIT in student and normal populations, research investigating its validity in forensic samples in scarce. This applies even more to the reaction time-based CIT (RT-CIT), where no such research is available so far. The current study tested the application of the RT-CIT for an imaginary mock crime scenario both in a sample of prisoners (n = 27) and a matched control group (n = 25). Results revealed a high validity of the RT-CIT for discriminating between crime-related and crime-unrelated information, visible in medium to very high effect sizes for error rates and reaction times. Interestingly, in accordance with theories that criminal offenders may have worse response inhibition capacities and that response inhibition plays a crucial role in the RT-CIT, CIT-effects in the error rates were even elevated in the prisoners compared to the control group. No support for this hypothesis could, however, be found in reaction time CIT-effects. Also, performance in a standard Stroop task, that was conducted to measure executive functioning, did not differ between both groups and no correlation was found between Stroop task performance and performance in the RT-CIT. Despite frequently raised concerns that the RT-CIT may not be applicable in non-student and forensic populations, our results thereby do suggest that such a use may be possible and that effects seem to be quite large. Future research should build up on these findings by increasing the realism of the crime and interrogation situation and by further investigating the replicability and the theoretical substantiation of increased effects in non-student and forensic samples. KW - concealed information test KW - deception KW - lying KW - reaction times KW - inmates KW - forensic sample Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177714 VL - 9 IS - 745 ER - TY - JOUR A1 - Goos, Carina A1 - Dejung, Mario A1 - Wehman, Ann M. A1 - M-Natus, Elisabeth A1 - Schmidt, Johannes A1 - Sunter, Jack A1 - Engstler, Markus A1 - Butter, Falk A1 - Kramer, Susanne T1 - Trypanosomes can initiate nuclear export co-transcriptionally JF - Nucleic Acids Research N2 - The nuclear envelope serves as important messenger RNA (mRNA) surveillance system. In yeast and human, several control systems act in parallel to prevent nuclear export of unprocessed mRNAs. Trypanosomes lack homologues to most of the involved proteins and their nuclear mRNA metabolism is non-conventional exemplified by polycistronic transcription and mRNA processing by trans-splicing. We here visualized nuclear export in trypanosomes by intra- and intermolecular multi-colour single molecule FISH. We found that, in striking contrast to other eukaryotes, the initiation of nuclear export requires neither the completion of transcription nor splicing. Nevertheless, we show that unspliced mRNAs are mostly prevented from reaching the nucleus-distant cytoplasm and instead accumulate at the nuclear periphery in cytoplasmic nuclear periphery granules (NPGs). Further characterization of NPGs by electron microscopy and proteomics revealed that the granules are located at the cytoplasmic site of the nuclear pores and contain most cytoplasmic RNA-binding proteins but none of the major translation initiation factors, consistent with a function in preventing faulty mRNAs from reaching translation. Our data indicate that trypanosomes regulate the completion of nuclear export, rather than the initiation. Nuclear export control remains poorly understood, in any organism, and the described way of control may not be restricted to trypanosomes. KW - molecular biology KW - nuclear export KW - trypanosomes KW - mRNA KW - nuclear envelope Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177709 VL - 47 IS - 1 ER - TY - RPRT A1 - Imgrund, Florian A1 - Janiesch, Christian A1 - Fischer, Marcus A1 - Winkelmann, Axel T1 - Success Factors for Process Modeling Projects: An Empirical Analysis N2 - Business process modeling is one of the most crucial activities of BPM and enables companies to realize various benefits in terms of communication, coordination, and distribution of organizational knowledge. While numerous techniques support process modeling, companies frequently face challenges when adopting BPM to their organization. Existing techniques are often modified or replaced by self-developed approaches so that companies cannot fully exploit the benefits of standardization. To explore the current state of the art in process modeling as well as emerging challenges and potential success factors, we conducted a large-scale quantitative study. We received feedback from 314 respondents who completed the survey between July 2 and September 6, 2017. Thus, our study provides in-depth insights into the status quo of process modeling and allows us to provide three major contributions. Our study suggests that the success of process modeling projects depends on four major factors, which we extracted using exploratory factor analysis. We found employee education, management involvement, usability of project results, and the companies’ degree of process orientation to be decisive for the success of a process modeling project. We conclude this report with a summary of results and present potential avenues for future research. We thereby emphasize the need of quantitative and qualitative insights to process modeling in practice is needed to strengthen the quality of process modeling in practice and to be able to react quickly to changing conditions, attitudes, and possible constraints that practitioners face. T3 - Working Paper Series of the Institute of Business Management - 6 KW - Business Process Modeling KW - Business Process Management KW - Success Factors KW - Empirical Analysis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179246 ER - TY - JOUR A1 - Petschke, Danny A1 - Helm, Ricardo A1 - Staab, Torsten E.M. T1 - Data on pure tin by Positron Annihilation Lifetime Spectroscopy (PALS) acquired with a semi-analog/digital setup using DDRS4PALS JF - Data in Brief N2 - Positron annihilation lifetime spectroscopy (PALS) provides a powerful technique for non-destructive microstructure investigations in a broad field of material classes such as metals, semiconductors, polymers or porous glasses. Even though this method is well established for more than five decades, no proper standardization for the used setup configuration and subsequent data processing exists. Eventually, this could lead to an insufficiency of data reproducibility and avoidable deviations. Here we present experimentally obtained and simulated data of positron lifetime spectra at various statistics measured on pure tin (4N-Sn) by using a semi-analog/digital setup, where the digital section consists of the DRS4 evaluation board, “Design and performance of the 6 GHz waveform digitizing chip DRS4” [1]. The analog section consists of nuclear instrument modules (NIM), which externally trigger the DRS4 evaluation board to reduce the digitization and, thus, increase the acquisition efficiency. For the experimentally obtained lifetime spectra, 22Na sealed in Kapton foil served as a positron source, whereas 60Co was used for the acquisition of the prompt spectrum, i.e. the quasi instrument response function. Both types of measurements were carried out under the same conditions. All necessary data and information regarding the data acquisition and data reduction are provided to allow reproducibility by other research groups. KW - positron KW - positron annihilation lifetime spectroscopy KW - PALS Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177698 VL - 22 ER - TY - JOUR A1 - Linsenmann, Thomas A1 - Monoranu, Camelia M. A1 - Alkonyi, Balint A1 - Westermaier, Thomas A1 - Hagemann, Carsten A1 - Kessler, Almuth F. A1 - Ernestus, Ralf-Ingo A1 - Löhr, Mario T1 - Cerebellar liponeurocytoma - molecular signature of a rare entity and the importance of an accurate diagnosis JF - Interdisciplinary Neurosurgery N2 - Background: Cerebellar liponeurocytoma is an extremely rare tumour entity of the central nervous system. It is histologically characterised by prominent neuronal/neurocytic differentiation with focal lipidisation and corresponding histologically to WHO grade II. It typically develops in adults, and usually shows a low proliferative potential. Recurrences have been reported in almost 50% of cases, and in some cases the recurrent tumour may display increased mitotic activity and proliferation index, vascular proliferations and necrosis. Thus pathological diagnosis of liponeurocytoma is challenging. This case presentation highlights the main clinical, radiographic and pathological features of a cerebellar liponeurocytoma. Case presentation: A 59-year-old, right-handed woman presented at our department with a short history of persistent headache, vertigo and gait disturbances. Examination at presentation revealed that the patient was awake, alert and fully oriented. The cranial nerve status was normal. Uncertainties were noted in the bilateral finger-to-nose testing with bradydiadochokinesis on both sides. Strength was full and no pronator drift was observed. Sensation was intact. No signs of pyramidal tract dysfunction were detected. Her gait appeared insecure. The patient underwent surgical resection. Afterward no further disturbances could be detected. Conclusions: To date >40 cases of liponeurocytoma have been reported, including cases with supratentorial location. A review of the 5 published cases of recurrent cerebellar. Liponeurocytoma revealed that the median interval between the first and second relapse was rather short, indicating uncertain malignant potential. The most recent WHO classification of brain tumours (2016) classifies the cerebellar liponeurocytoma as a separate entity and assigns the tumour to WHO grade II. Medulloblastoma is the most important differential diagnosis commonly seen in children and young adults. In contrast, cerebellar liponeurocytoma is typically diagnosed in adults. The importance of accurate diagnosis should not be underestimated especially in the view of possible further therapeutic interventions and for the determination of the patient's prognosis. KW - liponeurocytoma KW - neurocytoma KW - medulloblastoma KW - molecular signature Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177652 VL - 16 ER - TY - JOUR A1 - Bratengeier, Klaus A1 - Holubyev, Kostyantyn A1 - Wegener, Sonja T1 - Steeper dose gradients resulting from reduced source to target distance—a planning system independent study JF - Journal of Applied Clinical Medical Physics N2 - Purpose: To quantify the contribution of penumbra in the improvement of healthy tissue sparing at reduced source‐to‐axis distance (SAD) for simple spherical target and different prescription isodoses (PI). Method: A TPS‐independent method was used to estimate three‐dimensional (3D) dose distribution for stereotactic treatment of spherical targets of 0.5 cm radius based on single beam two‐dimensional (2D) film dosimetry measurements. 1 cm target constitutes the worst case for the conformation with standard Multi‐Leaf Collimator (MLC) with 0.5 cm leaf width. The measured 2D transverse dose cross‐sections and the profiles in leaf and jaw directions were used to calculate radial dose distribution from isotropic beam arrangement, for both quadratic and circular beam openings, respectively. The results were compared for standard (100 cm) and reduced SAD 70 and 55 cm for different PI. Results: For practical reduction of SAD using quadratic openings, the improvement of healthy tissue sparing (HTS) at distances up to 3 times the PTV radius was at least 6%–12%; gradient indices (GI) were reduced by 3–39% for PI between 40% and 90%. Except for PI of 80% and 90%, quadratic apertures at SAD 70 cm improved the HTS by up to 20% compared to circular openings at 100 cm or were at least equivalent; GI were 3%–33% lower for reduced SAD in the PI range 40%–70%. For PI = 80% and 90% the results depend on the circular collimator model. Conclusion: Stereotactic treatments of spherical targets delivered at reduced SAD of 70 or 55 cm using MLC spare healthy tissue around the target at least as good as treatments at SAD 100 cm using circular collimators. The steeper beam penumbra at reduced SAD seems to be as important as perfect target conformity. The authors argue therefore that the beam penumbra width should be addressed in the stereotactic studies. KW - radiotherapy KW - stereotactic irradiation KW - penumbra KW - leaf width KW - virtual isocenter Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177424 VL - 20 IS - 1 ER - TY - JOUR A1 - Beykan, Seval A1 - Fani, Melpomeni A1 - Jensen, Svend Borup A1 - Nicolas, Guillaume A1 - Wild, Damian A1 - Kaufmann, Jens A1 - Lassmann, Michael T1 - In vivo biokinetics of \(^{177}\)Lu-OPS201 in Mice and Pigs as a Model for Predicting Human Dosimetry JF - Contrast Media & Molecular Imaging N2 - Introduction. \(^{177}\)Lu-OPS201 is a high-affinity somatostatin receptor subtype 2 antagonist for PRRT in patients with neuroendocrine tumors. The aim is to find the optimal scaling for dosimetry and to compare the biokinetics of \(^{177}\)Lu-OPS201 in animals and humans. Methods. Data on biokinetics of \(^{177}\)Lu-OPS201 were analyzed in athymic nude Foxn1\(^{nu}\) mice (28 F, weight: 26 ± 1 g), Danish Landrace pigs (3 F-1 M, weight: 28 ± 2 kg), and patients (3 F-1 M, weight: 61 ± 17 kg) with administered activities of 0.19–0.27 MBq (mice), 97–113 MBq (pigs), and 850–1086 MBq (patients). After euthanizing mice (up to 168 h), the organ-specific activity contents (including blood) were measured. Multiple planar and SPECT/CT scans were performed until 250 h (pigs) and 72 h (patients) to quantify the uptake in the kidneys and liver. Blood samples were taken up to 23 h (patients) and 300 h (pigs). In pigs and patients, kidney protection was applied. Time-dependent uptake data sets were created for each species and organ/tissue. Biexponential fits were applied to compare the biokinetics in the kidneys, liver, and blood of each species. The time-integrated activity coefficients (TIACs) were calculated by using NUKFIT. To determine the optimal scaling, several methods (relative mass scaling, time scaling, combined mass and time scaling, and allometric scaling) were compared. Results. A fast blood clearance of the compound was observed in the first phase (<56 h) for all species. In comparison with patients, pigs showed higher liver retention. Based on the direct comparison of the TIACs, an underestimation in mice (liver and kidneys) and an overestimation in pigs’ kidneys compared to the patient data (kidney TIAC: mice = 1.4 h, pigs = 7.7 h, and patients = 5.8 h; liver TIAC: mice = 0.7 h, pigs = 4.1 h, and patients = 5.3 h) were observed. Most similar TIACs were obtained by applying time scaling (mice) and combined scaling (pigs) (kidney TIAC: mice = 3.9 h, pigs = 4.8 h, and patients = 5.8 h; liver TIAC: mice = 0.9 h, pigs = 4.7 h, and patients = 5.3 h). Conclusion. If the organ mass ratios between the species are high, the combined mass and time scaling method is optimal to minimize the interspecies differences. The analysis of the fit functions and the TIACs shows that pigs are better mimicking human biokinetics. KW - medicine KW - neuroendocrine tumors KW - biokinetics KW - \(^{177}\)Lu-OPS201 KW - dosimetry Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177382 VL - 2019 ER - TY - JOUR A1 - Magyar, Attila A1 - Wagner, Martin A1 - Thomas, Phillip A1 - Malsch, Carolin A1 - Schneider, Reinhard A1 - Störk, Stefan A1 - Heuschmann, Peter U A1 - Leyh, Rainer G A1 - Oezkur, Mehmet T1 - HO-1 concentrations 24 hours after cardiac surgery are associated with the incidence of acute kidney injury: a prospective cohort study JF - International Journal of Nephrology and Renovascular Disease N2 - Background: Acute kidney injury (AKI) is a serious complication after cardiac surgery that is associated with increased mortality and morbidity. Heme oxygenase-1 (HO-1) is an enzyme synthesized in renal tubular cells as one of the most intense responses to oxidant stress linked with protective, anti-inflammatory properties. Yet, it is unknown if serum HO-1 induction following cardiac surgical procedure involving cardiopulmonary bypass (CPB) is associated with incidence and severity of AKI. Patients and methods: In the present study, we used data from a prospective cohort study of 150 adult cardiac surgical patients. HO-1 measurements were performed before, immediately after and 24 hours post-CPB. In univariate and multivariate analyses, the association between HO-1 and AKI was investigated. Results: AKI with an incidence of 23.3% (35 patients) was not associated with an early elevation of HO-1 after CPB in all patients (P=0.88), whereas patients suffering from AKI developed a second burst of HO-1 24 hours after CBP. In patients without AKI, the HO-1 concentrations dropped to baseline values (P=0.031). Furthermore, early HO-1 induction was associated with CPB time (P=0.046), while the ones 24 hours later lost this association (P=0.219). Conclusion: The association of the second HO-1 burst 24 hours after CBP might help to distinguish between the causality of AKI in patients undergoing CBP, thus helping to adapt patient stratification and management. KW - acute kidney injury KW - cardiac surgery KW - heme oxygenase-1 KW - cardiopulmonary bypass Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177250 VL - 12 ER - TY - JOUR A1 - Jahn, Daniel A1 - Dorbath, Donata A1 - Kircher, Stefan A1 - Nier, Anika A1 - Bergheim, Ina A1 - Lenaerts, Kaatje A1 - Hermanns, Heike M. A1 - Geier, Andreas T1 - Beneficial effects of vitamin D treatment in an obese mouse model of non-alcoholic steatohepatitis JF - Nutrients N2 - Serum vitamin D levels negatively correlate with obesity and associated disorders such as non-alcoholic steatohepatitis (NASH). However, the mechanisms linking low vitamin D (VD) status to disease progression are not completely understood. In this study, we analyzed the effect of VD treatment on NASH in mice. C57BL6/J mice were fed a high-fat/high-sugar diet (HFSD) containing low amounts of VD for 16 weeks to induce obesity, NASH and liver fibrosis. The effects of preventive and interventional VD treatment were studied on the level of liver histology and hepatic/intestinal gene expression. Interestingly, preventive and to a lesser extent also interventional VD treatment resulted in improvements of liver histology. This included a significant decrease of steatosis, a trend towards lower non-alcoholic fatty liver disease (NAFLD) activity score and a slight non-significant decrease of fibrosis in the preventive treatment group. In line with these changes, preventive VD treatment reduced the hepatic expression of lipogenic, inflammatory and pro-fibrotic genes. Notably, these beneficial effects occurred in conjunction with a reduction of intestinal inflammation. Together, our observations suggest that timely initiation of VD supplementation (preventive vs. interventional) is a critical determinant of treatment outcome in NASH. In the applied animal model, the improvements of liver histology occurred in conjunction with reduced inflammation in the gut, suggesting a potential relevance of vitamin D as a therapeutic agent acting on the gut–liver axis. KW - vitamin D KW - obesity KW - NAFLD KW - NASH KW - inflammation KW - intestine KW - gut–liver axis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177222 VL - 11 IS - 1 ER - TY - THES A1 - Hecht [geb. Wagener], Reinhard Johannes T1 - Processing and Characterization of Bulk Heterojunction Solar Cells Based on New Organic n-Type Semiconductors T1 - Prozessierung und Charakterisierung von Bulk-Heterojucktion Solarzellen auf Basis von neuen organischen n-Halbleitern N2 - This thesis established the fabrication of organic solar cells of DA dye donors and fullerene acceptors under ambient conditions in our laboratory, however, with reduced power conversion efficiencies compared to inert conditions. It was shown that moisture had the strongest impact on the stability and reproducibility of the solar cells. Therefore, utilization of robust materials, inverted device architectures and fast fabrication/characterization are recommended if processing takes place in air. Furthermore, the dyad concept was successfully explored in merocyanine dye-fullerene dyads and power conversion efficiencies of up to 1.14 % and 1.59 % were measured under ambient and inert conditions, respectively. It was determined that the major drawback in comparison to comparable BHJ devices was the inability of the dyad molecules to undergo phase separation. Finally, two series of small molecules were designed in order to obtain electron transport materials, using the acceptor-core-acceptor motive. By variation of the acceptor units especially the LUMO levels could be lowered effectively. Investigation of the compounds in organic thin film transistors helped to identify promising molecules with electron transport properties. Electron transport mobilities of up to 7.3 × 10−2 cm2 V−1 s−1 (ADA2b) and 1.39 × 10−2 cm2 V−1 s−1 (AπA1b) were measured in air for the ADA and AπA dyes, respectively. Investigation of selected molecules in organic solar cells proved that these molecules work as active layer components, even though power conversion efficiencies cannot compete with fullerene based devices yet. Thus, this thesis shows new possibilities that might help to develop and design small molecules as substitutes for fullerene acceptors. N2 - In dieser Arbeit wurde gezeigt, dass die Herstellung und Charakterisierung von organischen Solarzellen auf Basis von kleinen DA-Farbstoffen in Kombination mit Fullerenakzeptoren unter Umgebungsbedingungen möglich ist. Außerdem konnte herausgefunden werden, dass die Luftfeuchtigkeit den größten Einfluss auf die Stabilität und die Reproduzierbarkeit der organischen Solarzellen hat. Aus diesem Grund sind der Austausch labiler Komponenten, die Verwendung von invertierten Bauteilarchitekturen sowie eine zügige Herstellung und Charakterisierung bei Prozessierung an Luft zu empfehlen. In weiteren Experimenten konnte das Dyadenkonzept erfolgreich angewendet werden, sodass sich Effizienzen von 1.14 und 1.59 % unter ambienten bzw. inerten Bedingungen messen ließen. Das Unvermögen der Dyaden, separate Phasen aus Donor- und Akzeptorverbindung zu bilden, konnte als größte Schwäche der Verbindungen ausgemacht werden. Schlussendlich wurden zwei Serien von Molekülen mit der Absicht Elektronentransportmaterialien zu generieren basierend auf einem Akzeptor-Kern-Akzeptor-Strukturmotiv entworfen. Die Variation der Akzeptoren ermöglichte in der Tat eine systematische Absenkung der Grenzorbitale und insbesondere der LUMO-Niveaus. Weiterhin wurden die Verbindungen in organischen Dünnfilmtransistoren untersucht, um mehr über ihre Ladungstransporteigenschaften zu erfahren. Dabei konnten Moleküle ausgemacht werden, die zum Elektronentransport an Luft in der Lage sind. Für die besten ADA- und AπA-Farbstoffe konnten so jeweils Elektronenmobilitäten von 7.3 × 10−2 cm2 V–1 s–1 (ADA2b) und 1.39 × 10−2 cm2 V–1 s–1 (AπA1b) gemessen werden. Weitere Untersuchungen von ausgewählten Verbindungen in organischen Solarzellen, konnten beweisen, dass diese neu kreierten Moleküle im Prinzip als Aktivmaterialien funktionieren können, wenn auch die erzielten Effizienzen noch nicht mit denen von Fulleren-basierten Solarzellen konkurrieren konnten. Damit zeigt diese Arbeit neue Möglichkeiten auf, die bei der Entwicklung und dem Design von kleinen Molekülen als Alternativen zu Fullereneakzeptoren hilfreich sein können. KW - organic solar cells KW - A-D-A dyes KW - dyads KW - merocyanines KW - n-type semiconductors KW - Heterosolarzelle KW - Halbleiter KW - Merocyanine Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-161385 ER - TY - THES A1 - Slotta, Anja Maria T1 - The Role of Protein Kinase D 1 in the regulation of murine adipose tissue function under physiological and pathophysiological conditions T1 - Die Bedeutung von Protein Kinase D 1 in der Funktion von murinem Fettgewebe unter physiologischen und pathophysiologischen Bedingungen N2 - Adipocytes are specialized cells found in vertebrates to ensure survival in terms of adaption to food deficit and abundance. However, their dysfunction accounts for the pathophysiology of metabolic diseases such as T2DM. Preliminary data generated by Mona Löffler suggested that PKD1 is involved in adipocyte function. Here, I show that PKD1 expression and activity is linked to lipid metabolism of murine adipocytes. PKD1 gene expression and activity was reduced in murine white adipose tissue upon fasting, a physiological condition which induces lipolysis. Isoproterenol-stimulated lipolysis in adipose tissue and 3T3-L1 adipocytes reduced PKD1 gene expression. Silencing ATGL in adipocytes inhibited isoproterenol-stimulated lipolysis, however, the β-adrenergic stimulation of ATGL-silenced adipocytes lowered PKD1 expression levels as well. Adipose tissue of obese mice exhibited high PKD1 RNA levels but paradoxically lower protein levels of phosphorylated PKD1-Ser916. However, HFD generated a second PKD1 protein product of low molecular weight in mouse adipose tissue. Furthermore, constitutively active PKD1 predominantly displayed nuclear localization in 3T3-L1 adipocytes containing many fat vacuoles. However, adipocytes overexpressing non-functional PKD1 contained fewer lipid droplets and PKD1-KD was distributed in cytoplasm. Most importantly, deficiency of PKD1 in mouse adipose tissue caused expression of genes involved in adaptive thermogenesis such as UCP-1 and thus generated brown-like phenotype adipocytes. Thus, PKD1 is implicated in adipose tissue function and presents an interesting target for therapeutic approaches in the prevention of obesity and associated diseases. N2 - Adipozyten sind spezialisierte Zellen der Wirbeltiere, die das Überleben durch Anpassung an Nahrungsmangel und Nahrungsüberfluss gewährleisten. Eine Dysfunktion von Adipozyten bedingt jedoch die Pathophysiologie von Stoffwechselerkrankungen wie dem T2DM. Vorläufige Ergebnisse von Mona Löfflers Versuchen zeigten, dass PKD1 in der Funktion von Adipozyten involviert ist. Innerhalb dieser Arbeit konnte dargestellt werden, dass die Expression und Aktivität von PKD1 in murinen Adipozyten an den Lipidmetabolismus gekoppelt ist. Beim Hungern von murinem weißen Fettgewebe, einem physiologischen Zustand, der Lipolyse induziert, war die Genexpression von PKD1 reduziert. Isoproterenol-stimulierte Lipolyse führte ebenfalls zu verminderter Expression von PKD1 in murinen weißen Fettgewebe und 3T3-L1 Adipozyten. In ATGL-silenced Adipozyten war die Isoproterenol-stimulierte Lipolyse zwar inhibiert, allerdings wurde die Genexpression von PKD1 durch die β-adrenerge Stimulation ebenfalls vermindert. Fettgewebe von adipösen Mäusen hingegen wiesen hohe PKD1 RNA Level sowie einen niedrigen Proteingehalt der phosphorylierten Form PKD1-Ser916 auf. Fettreiche Ernährung von Mäusen generierte in Fettgewebe jedoch ein weiteres Produkt von PKD1 mit niedrigem Molekulargewicht im Western Blot. Des Weiteren wurde dargestellt, dass konstitutiv aktives PKD1 in 3T3-L1 Adipozyten vorwiegend nuklear lokalisiert war und diese Adipozyten einen hohen Gehalt von Fettvakuolen aufwiesen. Adipozyten, die funktionsloses PKD1 exprimierten, enthielten wenige Lipidtropfen und PKD1-KD war im Cytoplasma verteilt. Vor allem zeigte diese Arbeit, dass die Deletion von PKD1 spezifisch in murinem Fettgewebe die Expression von Genen wie UCP-1 verursachte, die eine Rolle in adaptiver Thermogenese spielen, und dadurch einen brown-like Phänotypen generierte. Zusammenfassend ist PKD1 in die Funktionen von Adipozyten verwickelt und stellt ein attraktives Ziel für therapeutische Ansätze in der Prävention von Übergewicht und damit assoziierten Erkrankungen dar. KW - adipocyte KW - murine KW - pkd KW - Protein Kinase D KW - adipose KW - Protein Kinase D 1 KW - PKD1 Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-179112 ER - TY - THES A1 - Schaupp, Daniel Norbert T1 - Earnings Management in the Context of Earnings Quality, Corporate Governance and Corporate Social Responsibility T1 - Bilanzpolitik im Kontext von Rechnungslegungsqualität, Corporate Governance und Corporate Social Responsibility N2 - Steigende Geschwindigkeit und Komplexität von Geschäftsprozessen und –beziehungen verändern fundamental die Ansprüche an umfassende und werthaltige finanzielle und nicht-finanzielle Informationen über Unternehmen. Relevante Informationen in einem Geschäftsbericht müssen daher zunehmend Vorhersagecharakter besitzen, um ihre Daseinsberechtigung nicht zu verlieren. Die adäquate Lösung existenter Prinzipal-Agenten- Konflikte bedarf zugleich einer detaillierten und objektiven Einschätzung der Leistung des Agenten, was zusätzlich zur Wertrelevanz ein Mindestmaß an Verlässlichkeit der berichteten Informationen bedingt. In diesem Spannungsfeld kommt den Standardsettern die Aufgabe zu, Rahmenbedingungen zu schaffen, die es dem Management ermöglichen, Spielräume bei der Erstellung der Berichte zu nutzen, um diesen Qualitätsansprüchen an Informationen über die aktuelle und zukünftige Lage des Unternehmens gerecht zu werden. Diese bewusst gesetzten Möglichkeiten der Einflussnahme durch das Management begreifen jedoch auch signifikante Risiken der opportunistisch motivierten Beeinflussung der Adressaten, welche unter der Überschrift Bilanzpolitik subsumiert werden können. Die in der empirischen Forschung gängige Klassifizierung unterscheidet zwischen der buchmäßigen und realen Bilanzpolitik, wobei letztere im Vergleich eine gezielte Beeinflussung von Geschäftsvorfällen und nicht deren ex-post Abbildung begreift. Kapitel 2 der vorliegenden Dissertation propagiert eine umfassende Auseinandersetzung mit der empirischen Messung von Bilanzpolitik. Das Fehlen einer zufriedenstellenden Ermittlung des aggregierten Ausmaßes von Bilanzpolitik erfordert hierbei die Anwendung verschiedener Regressionsmodelle. Im speziellen Kontext der empirischen Analyse von Bilanzpolitik im Bankensektor besteht diesbezüglich eine ausgeprägte Heterogenität der verwendeten Modelle. Zugleich existiert nach wie vor keine systematische Analyse der Ansätze und Modellierungsarten von Loan Loss Provisions, welche als elementares Vehikel der diskretionären Einflussnahme im Fokus der einschlägigen Studien steht. Daher untersucht der Verfasser in Kapitel 2.1 prävalente Modellierungsansätze, erstellt einen Baukasten verschiedener Regressionsparameter und testet eine Vielzahl an Varianten im Hinblick auf die Validität der ermittelten bilanzpolitischen Größen. Eine derartige Analyse ist von elementarer Wichtigkeit für die Validität der Ergebnisse und der gezogenen Schlüsse aus empirischen Studien im Bankensektor und liefert daher einen wichtigen Beitrag zur Entwicklung und Einordnung vergangener und zukünftiger Analysen. Die Ergebnisse der zur Anwendung gebrachten Analysen und Tests zeigen, dass eine Vielzahl der existierenden Modelle eine ausreichende Passgenauigkeit aufweist. Jedoch sind gewisse Regressoren weniger wichtig als zunächst angenommen. So können die Regressoren der Non-Performing Loans die Modellierung stark verbessern, während Loan Loss Reserves und Net Charge-Offs nur einen kleinen Beitrag leisten können. Im weiteren Verlauf lässt sich zudem eine ausgeprägte Nichtlinearität einzelner Regressoren aufzeigen, sowie dass ein Wechsel auf ein Modell mit Berücksichtigung von Endogenität nicht zwangsläufig zu einer verbesserten Modellierung führt. Insgesamt kann die Studie als geeigneter Startpunkt für zukünftige Studien zu Bilanzpolitik im Bankensektor fungieren. Im anschließenden Kapitel 2.2 werden aus Gründen der Konsistenz Modellierung und Ergebnisse der Schätzung von Bilanzpolitik in nicht-finanziellen Industrien für die Studien in Kapitel 3 und 4 vorgestellt. Im Rahmen einer umfassenden Betrachtung der Qualität von Finanzinformationen sollte die bereits angesprochene Verlässlichkeit der Rechnungslegung sichergestellt werden können. Hierbei spielt neben den Rahmenbedingungen der Rechnungslegung die Qualität der Attribute und Prozesse der Abschlussprüfung eine gewichtige Rolle. Im Zuge dessen wird die Unabhängigkeit des externen Abschlussprüfers von seinem Mandanten als eines der Kernattribute proklamiert, da diese Neutralität verleiht und simultan die Qualität der vollzogenen Abschlussprüfungshandlungen erhöht. Ein unabhängiger Wirtschaftsprüfer ist demzufolge besser in der Lage, das Ausmaß an Bilanzpolitik zu verringern, was wiederum eine Erhöhung der Qualität der Finanzinformationen nach sich zieht. Kapitel 3 widmet sich daher der Analyse der Unabhängigkeit von kleinen und mittelgroßen Abschlussprüfern im deutschen Markt für Mandanten von öffentlichem Interesse zwischen 2007 und 2014. Das Setting der Studie zeichnet sich dadurch aus, dass kleine und mittelgroße Wirtschaftsprüfer traditionell im Verdacht stehen, aufgrund einer eingeschränkten Unabhängigkeit von kapitalmarktorientierten Mandanten diesen ein höheres Maß an Spielräumen zuzugestehen, c.p., es wird eine geringere Qualität der Prüfung und damit größerer Spielraum für Bilanzpolitik vermutet. Das europäische und insbesondere deutsche Umfeld qualifiziert sich durch divergente gesetzlich vorgeschriebene Schwellenwerte der Abhängigkeit des Wirtschaftsprüfers für eine differenzierte Analyse der Nichtlinearität der Zusammenhänge. Des Weiteren bilden die in Deutschland prävalenten Transparenzberichte eine profunde Datenbasis für die Ermittlung von Abhängigkeitsmaßen, die im speziellen Marktsegment eine überlegene Messung der Abhängigkeit der betrachteten Prüfer ermöglichen. Die vorliegende Arbeit in diesem Kapitel wählt auf Basis der prävalenten gesetzlichen Regelungen ein nicht-lineares Forschungsdesign und legt nahe, dass kleine und mittelgroße Wirtschaftsprüfers im speziellen Marktsegment der kapitalmarktorientierten Mandanten mit steigender Abhängigkeit eine erhöhte Prüfungsqualität liefern, bis sich die Effekte an einer hohen Schwelle der Abhängigkeit umkehren. Dieser Wendepunkt spiegelt zugleich formulierte gesetzliche Schwellenwerte wider. Kleinen und mittelgroße Abschlussprüfer scheinen trotz steigender Abhängigkeit eine höhere Prüfungsanstrengung zu wählen, welche buchmäßige Bilanzpolitik einschränkt und damit die Qualität der Finanzinformationen erhöht. Im Fokus steht hierbei vermutlich das Bestreben des Festigens und Ausbauens einer Reputation im Marktsegment der kapitalmarktorientierten Mandanten. Ab Überschreiten eines kritischen Schwellenwertes scheint hingegen die gestiegene Abhängigkeit die Reputationseffekte zu dominieren. Die Ergebnisse der Studie legen zudem den Schluss nahe, dass Mandanten bei einer Einschränkung der buchmäßigen Bilanzpolitik geneigt sind mehr reale Bilanzpolitik einzusetzen, deren Einschränkung nicht originärer Gegenstand der Prüfung durch den Abschlussprüfer ist. Die geschilderten Ergebnisse erweisen sich als sehr robust gegenüber zahlreichen Veränderungen und Tests wie etwa einer de-facto Office Level und Partner Level Analyse. Zudem kann gezeigt werden, dass die dominierenden Reputationseffekte wohl in der eingeschränkten Wichtigkeit der kapitalmarktorientierten Mandanten für den Gesamtumsatz begründet liegen, welche von bisherigen Studien systematisch überschätzt wird. Kapitel 4 richtet den Fokus auf originär nicht-finanzielle Nachhaltigkeitsstrategien und deren Einfluss auf bilanzpolitisches Verhalten. Bisherige Studien betrachten die heterogene Gruppe der Corporate Social Responsibility (CSR) Unternehmen dabei überwiegend in ihrer Gesamtheit. Die vorliegende Analyse in Kapitel 4 versucht demgegenüber die untersuchten Unternehmen in prävalente Anreizgruppen zu trennen, um vermutete diverse Anreize zur Investition in CSR mit den Anreizen zu Bilanzpolitik in Verbindung zu bringen. Hierfür wird ein europäisches Setting mit kapitalmarktorientierten Unternehmen der ASSET4 Datenbank zwischen 2005 und 2014 gewählt. Durch eine gezielte Verknüpfung der Anreize zur Investition mit der Entscheidung zur einschlägigen Berichterstattung werden Unternehmen mit prävalenten Reputationsanreizen von Unternehmen mit Tendenzen zur intrinsischen, philanthropischen Motivation abgegrenzt. Die Ergebnisse lassen vermuten, dass Unternehmen mit Reputationsanreizen bilanzpolitisch konform handeln und buchmäßige durch reale Bilanzpolitik zu ersetzen versuchen. Hierdurch lassen sich sowohl Risiken der medialen Bilanzschelte minimieren als auch hohe Gewinne als Teil einer Gesamtreputationsstrategie realisieren. Des Weiteren kann gezeigt werden, dass diese strategische Positionierung einen Einfluss auf die Wirkungsweise von Corporate Governance (CG) hat. Während Maße für gute CG mit einem geringeren Ausmaß an buchmäßiger Bilanzpolitik einhergehen, wählen Unternehmen mit Reputationsanreizen kohärent mit ihrer strategischen Tendenz erneut ein höheres Maß an realer Bilanzpolitik. Insgesamt deuten die Ergebnisse der Studie daraufhin, dass gewisse Unternehmen CSR als Reputationsinstrument nutzen und sich nicht konform einer nachhaltigen Strategie im Hinblick auf Bilanzpolitik verhalten. N2 - In an Arrow-Debreu world of unrestricted access to perfect and competitive financial markets, there is no need for accounting information about the financial situation of a firm. Because information is costless, share- and stakeholders are then indifferent in deposits and securities (e.g., Holthausen & Watts 2001; Freixas & Rochet 2008). How-ever, several reasons exist indicating a rejection of the assumptions for an Arrow-Debreu world, hence there is no perfect costless information. Moreover, the distribu-tion of information is asymmetric, causing follow-through multi-level agency prob-lems, which are the main reasoning for the variety of financial and non-financial ac-counting standards, regulatory and advisory entities and the auditing and rating agency profession. Likewise, these agency problems have been at the heart of the accounting literature and raised the question of whether and how accounting information can help resolve these problems. ... KW - Bilanzpolitik KW - Earnings Management KW - Earnings Quality KW - Audit Quality KW - Corporate Social Responsibility KW - Corporate Governance KW - Qualität der Rechnungslegung KW - Qualität der Abschlussprüfung KW - Unternehmensverfassung KW - Corporate Social Responsibility Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-159337 ER - TY - THES A1 - Rücker, Christoph T1 - Development of a prevascularized bone implant T1 - Entwicklung eines prävaskularisierten Knochenimplantats N2 - The skeletal system forms the mechanical structure of the body and consists of bone, which is hard connective tissue. The tasks the skeleton and bones take over are of mechanical, metabolic and synthetic nature. Lastly, bones enable the production of blood cells by housing the bone marrow. Bone has a scarless self-healing capacity to a certain degree. Injuries exceeding this capacity caused by trauma, surgical removal of infected or tumoral bone or as a result from treatment-related osteonecrosis, will not heal. Critical size bone defects that will not heal by themselves are still object of comprehensive clinical investigation. The conventional treatments often result in therapies including burdening methods as for example the harvesting of autologous bone material. The aim of this thesis was the creation of a prevascularized bone implant employing minimally invasive methods in order to minimize inconvenience for patients and surgical site morbidity. The basis for the implant was a decellularized, naturally derived vascular scaffold (BioVaSc-TERM®) providing functional vessel structures after reseeding with autologous endothelial cells. The bone compartment was built by the combination of the aforementioned scaffold with synthetic β-tricalcium phosphate. In vitro culture for tissue maturation was performed using bioreactor technology before the testing of the regenerative potential of the implant in large animal experiments in sheep. A tibia defect was treated without the anastomosis of the implant’s innate vasculature to the host’s circulatory system and in a second study, with anastomosis of the vessel system in a mandibular defect. While the non-anastomosed implant revealed a mostly osteoconductive effect, the implants that were anastomosed achieved formation of bony islands evenly distributed over the defect. In order to prepare preconditions for a rapid approval of an implant making use of this vascularization strategy, the manufacturing of the BioVaSc-TERM® as vascularizing scaffold was adjusted to GMP requirements. N2 - Das Skelett bildet die mechanische Struktur des Körpers und besteht aus Knochen, einem harten Bindegewebe. Knochen übernehmen mechanische, metabolische und synthetische Aufgaben. Schlussendlich ermöglichen Knochen die Synthese von Blutzellen durch die Beherbergung des Knochenmarks. Wird die Heilungskapazität von Knochen durch Trauma, operative Entfernung von infiziertem oder tumorösem Knochen oder als Ergebnis behandlungsbedingter Osteonekrose, überschritten, findet keine vollständige Heilung statt. Knochendefekte, die eine kritische Größe überschreiten, sind daher immer noch Gegenstand umfangreicher, klinischer Forschung. Bei herkömmlichen Behandlungsmethoden können Eingriffe notwendig werden, die den Patienten belasten, wie bei der Gewinnung von autologem Knochenmaterial. Das Ziel der vorliegenden Arbeit war die Herstellung eines prävaskularisierten Implantats unter Verwendung minimalinvasiver Methoden, um die Belastung von Patienten und die Morbidität an der Entnahmestelle, zu verringern. Zur Herstellung eines vaskularisierten Implantats bildete ein dezellularisiertes Darmsegment (Jejunum) porcinen Ursprungs die Grundlage (BioVasc-TERM®). Diese Trägerstruktur stellte ein funktionales Blutgefäßsystem nach Wiederbesiedelung mit autologen Endothelzellen bereit. Der Knochenanteil des Implantats wurde durch die Kombination der genannten Trägerstruktur mit dem synthetischen Knochenersatzmaterial β-Tricalciumphosphat gebildet. In-vitro-Kultivierung in einem Bioreaktor führte zur Reifung des Implantats vor der Testung seines Potenzials zur Knochenregeneration in Großtierversuchen bei Schafen. Ein Tibiadefekt wurde behandelt ohne die Anastomose des implantateigenen Gefäßsystems an den Blutkreislauf und ein Mandibeldefekt wurde mit Gefäßanschluss behandelt. Das Implantat ohne Gefäßanschluss hatte einen osteokonduktiven Effekt, während das anastomosierte Implantat zur Bildung zahlreicher Knocheninseln, gleichmäßig über den Defekt verteilt, führte. Um eine zügige Zulassung eines Implantats, das diese Strategie zur Vaskularisierung von Knochen nutzt, zu ermöglichen, wurde die Herstellung der BioVaSc-TERM® an die Vorgaben der Guten Herstellungspraxis angepasst. KW - Tissue Engineering KW - Knochenregeneration KW - Regenerative Medizin KW - Angiogenese KW - Implantat KW - bone KW - implant KW - Knochenimplantat KW - Vaskularisierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178869 ER - TY - THES A1 - Kirilmaz, Ozan Seyitali T1 - Thin Film Growth and Characterization of the Transition Metal Oxides Magnetite and Layered Perovskite Iridates T1 - Dünnschichtwachstum und Charakterisierung der Übergangsmetalloxide Magnetit und aus Perowskitlagen geschichtete Iridate N2 - This thesis describes the growth and characterization of both the all-oxide heterostructure Fe3O4/ZnO and the spin-orbit coupling driven layered perovskite iridates. As for Fe3O4/ZnO, the 100% spin-polarized Fe3O4 is a promising spin electrode candidate for spintronic devices. However, the single crystalline ZnO substrates exhibit different polar surface termination which, together with substrate preparation method, can drastically affect the physical properties of Fe3O4/ZnO heterostructures. In this thesis two different methods of substrate preparation were investigated: a previously used in situ method involving sputtering and annealing treatments and a recent ex situ method containing only the annealing procedure. For the latter, the annealing treatment was performed in dry and humid O2 gas flow for the O- and Zn-terminated substrates, respectively, to produce atomically at surfaces as verified by atomic force microscopy(AFM). With these methods, four different ZnO substrates were fabricated and used further for Fe3O4 film growth. Fe3O4 films of 20 nm thickness were successfully grown by reactive molecular beam epitaxy. AFM measurements reveal a higher film surface roughness for the samples with in situ prepared substrates. Moreover, X-ray photoelectron spectroscopy (XPS) measurements indicate significant Zn substitution within the Fe3O4 film for these samples, whereas the samples with ex situ prepared substrates show stoichiometric Fe3O4 films. X-ray diffraction measurements confirm the observations from XPS, revealing additional peaks due to Zn substitution in Fe3O4 films grown on in situ prepared ZnO substrates. Conductivity, as well as magnetometry, measurements show the presence of Zn-doped ferrites in films grown on in situ prepared substrates. Such unintentionally intercalated Zn-doped ferrites dramatically change the electrical and magnetic properties of the films and, therefore, are not preferred in a high-quality heterostructure. X-ray reflectivity (XRR) measurements show for the film grown on ex situ prepared Zn-terminated substrate a variation of film density close to the interface which is also confirmed by transmission electron microscopy (TEM). Using polarized neutron reflectometry, magnetic depth profiles of the films grown on ex situ prepared substrates clearly indicate Fe3O4 layers with reduced magnetization at the interfaces. This result is consistent with earlier observations made by resonant magnetic X-ray reflectometry (RMXR), but in contrast to the findings from XRR and TEM of this thesis. A detailed TEM study of all four samples shows that the sample with ex situ prepared O-terminated substrate has the sharpest interface, whereas those with ex situ prepared Zn-terminated as well as in situ prepared substrates indicate rougher interfaces. STEM-EELS composition profiles of the samples reveal the Zn substitution in the films with in situ prepared substrates and therefore confirm the presence of Zn-doped ferrites. Moreover, a change of the Fe oxidation state of the first Fe layer at the interface which was observed in previous studies done by RMXR, was not verified for the samples with in situ prepared substrates thus leaving the question of a possible presence of the magnetically dead layer open. Furthermore, density functional theory calculations were performed to determine the termination dependent layer sequences which are ...-Zn-O-(interface)-[Fe(octa)-O-Fe(tetra)-Fe(octa)-Fe(tetra)-O]-[...]-... and ...-O-Zn-(interface)-[O-Fe(octa)-O-Fe(tetra)-Fe(octa)-Fe(tetra)]-[...]-... for the samples with O- and Zn-terminated substrates, respectively. Spin density calculations show that in case of O-termination the topmost substrate layers imitate the spin polarization of film layers close to the interface. Here, the first O layer is affected much stronger than the first Zn layer. Due to the strong decrease of this effect toward deeper substrate layers, the substrate surface is supposed to be sensitive to the contiguous spin polarization of the film. Thus, the topmost O layer of the O-terminated substrate could play the most essential role for effective spin injection into ZnO. The 5d transition metal oxides Ba2IrO4 (BIO) and Sr2IrO4 (SIO) are associated with the Ruddlesden-Popper iridate series with phase type "214" (RP{214), and due to the strong spin-orbit coupling belong to the class of Mott insulators. Moreover, they show many similarities of the isostructural high Tc-cuprate superconductors, e.g. crystal structure, magnetism and electronic band structure. Therefore, it is of great interest to activate a potential superconducting phase in (RP{214) iridates. However, only a small number of publications on PLD grown (RP{214) iridates in the literature exists. Furthermore, published data of soft X-ray angle resolved photoemission spectroscopy (SX-ARPES) experiments mainly originate from measurements which were performed on single crystals or MBE grown films of SIO and BIO. In this thesis La-doped SIO films (La0:2Sr1:8IrO4, further referred as LSIO) were used to pursue a potential superconducting phase. A set of characterization methods was used to analyze the quality of the PLD grown BIO, SIO and LSIO films. AFM measurements demonstrate that thick PLD grown(RP{214) iridate films have rougher surfaces, indicating a transition from a 2D layer-bylayer growth (which is demonstrated by RHEED oscillations) to a 3D island-like growth mode. In addition, chemical depth profiling XPS measurements indicate an increase of the O and Ir relative concentrations in the topmost film layers. Constant energy k-space maps and energy distribution curves (EDCs) measured by SX-ARPES show for every grown film only weak energy band dispersions, which are in strong contrast to the results obtained on the MBE grown films and single crystals from the literature. In this thesis, a subsequent TEM study reveals missing SrO layers within the grown films which occur mainly in the topmost layers, confirming the results and suggestions from XPS and SX-ARPES data: the PLD grown films have defects and, therefore, incoherently scatter photoelectrons. Nevertheless, the LSIO film shows small additional spectral weight between the highsymmetry M points close to the Fermi level which can be attributed to quasiparticle states which, in turn, indicates the formation of a Fermi-arc. However, neither conductivity measurements nor valence band analysis via XPS confirm an activation of a superconducting phase or presence of spectral weight of quasiparticle states at the Fermi level in this LSIO film. It is possible that these discovered difficulties in growth are responsible for the low number of SX-ARPES publications on PLD grown (RP{214) iridate films. For further investigations of (RP{214) iridate films by SX-ARPES, their PLD growth recipes have to be improved to create high quality single crystalline films without imperfections. N2 - Diese Arbeit beschäftigt sich mit dem Wachstum und der Charakterisierung der oxidischen Heterostruktur Fe3O4/ZnO sowie der durch Spin-Bahn-Kopplung angetriebenen, aus Perowskitlagen geschichteten Iridate. In Bezug auf Fe3O4/ZnO, ist das zu 100% spinpolarisierte Magnetit ein vielversprechender Kandidat, um als Spinelektrode in Spintronikbauteilen eingesetzt zu werden. Die einkristallinen ZnO Substrate besitzen auf deren Oberflächen jedoch unterschiedlich polare Terminierungen, welche, zusammen mit dem verwendeten Verfahren für die Substratpraparation, die physikalischen Eigenschaften von Fe3O4/ZnO Heterostrukturen drastisch beeinflussen können. In dieser Arbeit wurden zwei unterschiedliche Verfahren für die Substratpräparation untersucht: zum einen ein bereits früher verwendetes in situ Verfahren, das eine Sputter- und Temperbehandlung beinhaltet, zum anderen ein neues ex situ Verfahren, das ausschließlich aus einer Temperbehandlung besteht. Im letzteren Fall wurde für O- und Zn-terminierte Substrate die Temperbehandlung entsprechend in trockener und feuchter O2 Atmosphäre durchgeführt, um atomar glatte Oberflächen zu erzielen. Dies wurde mithilfe der Rasterkraftmikroskopie (AFM) verifiziert. Mit diesen Verfahren wurden vier verschiedene ZnO Substrate hergestellt und anschließend für das Fe3O4 Filmwachstum verwendet. 20 nm dicke Fe3O4 Filme wurden mithilfe der reaktiven Molekularstrahlepitaxie erfolgreich gewachsen. AFM Messungen zeigen, dass die Proben mit in situ präparierten Substraten eine höhere Rauigkeit der Filmoberfläche besitzen. Des Weiteren zeigen Messungen mit Röntgenphotoelektronenspektroskopie (XPS) fü diese Proben eine signifikante Zn-Substitution innerhalb des Fe3O4 Films, wohingegen Proben mit ex situ präparierten Substraten stöchiometrisch gewachsene Filme vorweisen. Messungen mit Röntgenbeugung bestätigen die Beobachtungen aus XPS, indem sie zusätzliche Peaks aufdecken, welche aufgrund der Zn-Substitution in den Fe3O4 Filmen mit in situ präparierten Substraten entstehen. Sowohl Leitfähigkeits- als auch Magnetometriemessungen zeigen, dass Zn-dotierte Ferrite in den Filmen mit in situ präparierten Substraten vorhanden sind. Solche unabsichtlich eingelagerten Zn-dotierten Ferrite ändern die elektrischen und magnetischen Eigenschaften der Filme grundlegend und sind aus diesem Grund für die gewünschte Qualität der Heterostruktur schädlich. Für die Filme mit Zn-terminierten ex situ präparierten Substraten zeigen XRR Messun- gen eine Veränderung der Dichte des Films in Grenzschichtnähe an, die auch mithilfe der Transmissionselektronenmikroskopie (TEM) bestätigt wird. Unter Verwendung der polarisierten Neutronenreflektometrie zeigen die magnetischen Tiefenprofile der Filme mit ex situ präparierten Substraten eindeutig Fe3O4 Lagen mit reduzierter Magnetisierung an der Grenzschicht an. Dieses Resultat ist vereinbar mit früheren Beobachtungen aus der resonanten magnetischen Röntgenreflektometrie (RMXR), das jedoch im Gegensatz zu den Ergebnissen aus XRR und TEM aus dieser Arbeit steht. Eine detaillierte TEM Studie über alle vier Proben demonstriert, dass die Probe mit O-terminiertem ex situ präpariertem Substrat die schärfste Grenzschicht aufweist, während jene mit in situ präparierten sowie Zn-terminierten ex situ präparierten Substraten rauere Grenzschichten anzeigen. STEM-EELS Kompositionsprofile der Proben lassen die Zn-Substitution in den Filmen mit in situ präparierten Substraten erkennen und bestätigen somit die Präsenz von Zn-dotierten Ferriten. Außerdem wurde eine Ä nderung des Oxidationszustandes von Fe in den ersten Fe Lagen an der Grenzschicht, das in früheren Studien mithilfe RMXR beobachtet wurde, bei den Proben mit in situ präparierten Substraten nicht bestätigt. Dadurch bleibt die Frage nach der möglichen Präsenz einer magnetisch toten Schicht offen. Weiterhin wurden mithilfe der Dichtefunktionaltheorie Rechnungen durchgeführt, um die terminierungsabhängige Lagenabfolge zu bestimmen, welche ...-Zn-O-(interface)- [Fe(octa)-O-Fe(tetra)-Fe(octa)-Fe(tetra)-O]-[...]-... und ...-O-Zn-(interface)-[O-Fe(octa)- O-Fe(tetra)-Fe(octa)-Fe(tetra)]-[...]-... entsprechend für die Proben mit O- und Zn- terminierten Substraten sind. Rechnungen zur Spindichte zeigen, dass im Fall von O- Terminierung die obersten Substratlagen die Spinpolarisation der Filmlagen nahe an der Grenzschicht nachahmen. Hierbei ist die erste O Lage viel stärker beeinflusst als die erste Zn Lage. Aufgrund der starken Abnahme dieses Effekts Richtung tiefere Substratlagen wird die Substratoberfläche als besonders sensitiv auf die angrenzende Spinpolarisation des Films angenommen. Damit könnte die oberste O Lage des O-terminierten Substrates den entscheidensten Faktor für effektive Spininjektion ins ZnO spielen. Die 5d Übergangsmetalloxide Ba2IrO4 (BIO) und Sr2IrO4 (SIO) hängen mit der Ruddles- den-Popper Iridatserie mit Phasentyp ”214” (RP–214) zusammen und gehören aufgrund der starken Spin-Bahn-Kopplung zu der Klasse der Mott Isolatoren. Zudem haben sie viele Gemeinsamkeiten mit den isostrukturellen Kuprat-Hochtemperatursupraleitern, wie zum Beispiel Kristallstruktur, Magnetismus und elektronische Bandstruktur. Daher ist es von großem Interesse eine potentiell supraleitende Phase in (RP–214) Iridaten zu aktivieren. In der Literatur existiert jedoch nur eine kleine Anzahl an Ver¨offentlichungen über gepulste Laserdeposition (PLD) gewachsene (RP–214) Iridate. Außerdem stammen veröffentlichte Daten von Experimenten mit winkelaufgelöster Photoelektronen- spektroskopie mit weicher Röntgenstrahlung (SX-ARPES) hauptsächlich von Messungen, welche an Einkristallen oder MBE gewachsenen Filmen aus SIO und BIO durchgeführt wurden. In dieser Arbeit wurden La-dotierte SIO Filme (La0.2Sr1.8IrO4, im Weiteren bezeichnet als LSIO) verwendet, um eine potentiell supraleitende Phase anzustreben. Ein Satz von Charakterisierungsmethoden wurde verwendet, um die Qualität der PLD gewachsenen BIO, SIO und LSIO Filme zu untersuchen. AFM Messungen demonstrieren, dass dicke PLD gewachsene (RP–214) Iridatfilme rauere Oberfl¨achen aufweisen, welche durch einen Übergang vom 2D Lagenwachstum (der durch RHEED Oszillationen bekräftigt ist) zu einem 3D Inselwachstumsmodus erklärt werden. Zusätzlich zeigen chemische Tiefenprofilmessungen mittels XPS eine Zunahme der relativen Konzentrationen von O und Ir in den obersten Filmlagen. Die mit SX-ARPES erzeugten k-Raum Abbildungen mit konstanter Energie und Energieverteilungskurven (EDCs) zeigen für jeden gewachsenen Film nur schwache Energiebanddispersionen, die im starken Gegensatz zu den Resultaten aus der Literatur stehen, welche von MBE gewachsenen Filmen und Einkristallen erhalten wurden. Die darauf folgende TEM Studie in dieser Arbeit enthüllte fehlende SrO Lagen innerhalb der gewachsenen Filme, die vor allem in den obersten Lagen auftreten und bestätigte damit die Resultate und Vermutungen aus den XPS und SX-ARPES Daten: die PLD gewachsenen Filme besitzen Defekte und streuen somit die Photoelektronen inkohärent. Dennoch zeigt der LSIO Film kleines zusätzliches spektrales Gewicht zwischen den M Hochsymmetriepunkten nahe der Fermienergie, das einem Quasipartikelzustand zugeordnet werden kann, der wiederum die Ausbildung eines Fermibogens anzeigt. Aber weder Leitfähigkeitsmessungen noch Valenzbandanalysen mittels XPS bestätigen für diesen LSIO Film die Aktivierung einer supraleitenden Phase oder das Vorhandensein von spektralem Gewicht von Quasipartikelzuständen an der Fer- mienergie. Es kann sein, dass diese entdeckten Schwierigkeiten im Wachstum für die geringe An- zahl von SX-ARPES Publikationen über PLD gewachsene (RP–214) Iridatfilme verantwortlich sind. Für weitere Untersuchungen von (RP–214) Iridatfilmen mittels SX- ARPES müssen die Rezepte für deren PLD Wachstum verbessert werden, um hochqualitative einkristalline Iridatfilme ohne Fehlstellen zu erzeugen. KW - Magnetit KW - Iridate KW - Spektroskopie KW - Dünnschichten KW - Übergangsmetalloxide Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178917 ER - TY - INPR A1 - Muessig, Jonas H. A1 - Thaler, Melanie A1 - Dewhurst, Rian D. A1 - Paprocki, Valerie A1 - Seufert, Jens A1 - Mattock, James D. A1 - Vargas, Alfredo A1 - Braunschweig, Holger T1 - Phosphine-Stabilized Diiododiborenes: Isolable Diborenes with Six Labile Bonds T2 - Angewandte Chemie, International Edition N2 - The lability of B=B, B-P and B-halide bonds is combined in the syntheses of the first diiododiborenes. In a series of reactivity tests, these diiododiborenes demonstrate cleavage of all six of their central bonds in different ways, leading to products of B=B hydrogenation and dihalogenation as well as halide exchange. KW - boron KW - low-valent main-group species KW - iodine KW - multiple bonding KW - 1,2-additions Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178608 N1 - This is the pre-peer reviewed version of the following article: J. H. Muessig, M. Thaler, R. D. Dewhurst, V. Paprocki, J. Seufert, J. D. Mattock, A. Vargas, H. Braunschweig, Angew. Chem. Int. Ed. 2019, 58, 4405, which has been published in final form at https://doi.org/10.1002/anie.201814230. This article may be used for non-commercial purposes in accordance with Wiley Terms and Conditions for Use of Self-Archived Versions. ER - TY - THES A1 - Grotemeyer, Alexander T1 - Characterisation and application of new optogenetic tools in \(Drosophila\) \(melanogaster\) T1 - Charakterisierung und Anwendung neuer optogenetischer Werkzeuge in \(Drosophila\) \(melanogaster\) N2 - Since Channelrhodopsins has been described first and introduced successfully in freely moving animals (Nagel et al., 2003 and 2005), tremendous impact has been made in this interesting field of neuroscience. Subsequently, many different optogenetic tools have been described and used to address long-lasting scientific issues. Furthermore, beside the ‘classical’ Channelrhodopsin-2 (ChR2), basically a cation-selective ion channel, also altered ChR2 descendants, anion selective channels and light-sensitive metabotropic proteins have expanded the optogenetic toolbox. However, in spite of this variety of different tools most researches still pick Channelrhodopsin-2 for their optogenetic approaches due to its well-known kinetics. In this thesis, an improved Channelrhodopsin, Channelrhodopsin2-XXM (ChR2XXM), is described, which might become an useful tool to provide ambitious neuroscientific approaches by dint of its characteristics. Here, ChR2XXM was chosen to investigate the functional consequences of Drosophila larvae lacking latrophilin in their chordotonal organs. Finally, the functionality of GtACR, was checked at the Drosophila NMJ. For a in-depth characterisation, electrophysiology along with behavioural setups was employed. In detail, ChR2XXM was found to have a better cellular expression pattern, high spatiotemporal precision, substantial increased light sensitivity and improved affinity to its chromophore retinal, as compared to ChR2. Employing ChR2XXM, effects of latrophilin (dCIRL) on signal transmission in the chordotonal organ could be clarified with a minimum of side effects, e.g. possible heat response of the chordotonal organ, due to high light sensitivity. Moreover, optogenetic activation of the chordotonal organ, in vivo, led to behavioural changes. Additionally, GtACR1 was found to be effective to inhibit motoneuronal excitation but is accompanied by unexpected side effects. These results demonstrate that further improvement and research of optogenetic tools is highly valuable and required to enable researchers to choose the best fitting optogenetic tool to address their scientific questions. N2 - Seit dem Channelrhodopsine das erste Mal beschrieben und erfolgreich in lebende Tiere eingebracht wurden (Nagel et al., 2003 und 2005), kam es zu einem beträchtlichen Fortschritt in diesem interessanten Gebiet der Neurowissenschaften. In der nachfolgenden Zeit wurden viele verschiedene optogenetische Werkzeuge beschrieben und zur Bearbeitung neurowissenschaftlicher Fragestellungen angewandt. Des Weiteren haben neben dem „klassischen“ Channelrhodopsin-2 (ChR2), ein im Wesentlichen Kation selektiver Kanal, auch modifizierte ChR2 Abkömmlinge, Anion selektive Kanäle und Licht sensitive metabotrope Proteine, die opotogenetische Werkzeugkiste erweitert. Dennoch greifen die meisten Wissenschaftler trotz der Vielfalt an optogenetischen Werkzeugen meist noch zu Channelrhodopsin-2, da seine Wirkungseigenschaften sehr gut erforscht sind. In der nachfolgenden Arbeit wird ein weiterentwickeltes Channelrhodopsin, Channelrhodopsin2-XXM (ChR2XXM), beschrieben. Aufgrund seiner vielfältigen Eigenschaften stellt es ein vielversprechendes Werkzeug dar, vor allem für zukünftige neurowissenschaftliche Forschungsarbeiten. Hierbei wurde ChR2XXM eingesetzt, um zu untersuchen welche Auswirkungen das Fehlen von Latrophilin im Chordotonal Organ von Drosophilalarven hat. Schließlich wurde noch die Funktionalität von GtACR an der neuromuskulären Endplatte der Drosophila überprüft. Für die umfassende Charakterisierung wurden elektrophysiologische und verhaltensbasierte Experimente an Larven durchgeführt. Es konnte gezeigt werden, dass ChR2XXM aufgrund einer erhöhten Affinität zu dem Chromophore Retinal, im Vergleich zu ChR2 ein besseres zelluläres Expressionsmuster, eine bessere zeitliche Auflösung und eine erheblich höhere Lichtsensitiviät aufweist. Durch den Einsatz von ChR2XXM konnte, aufgrund der hohen Lichtsensitiviät, mit nur minimalen Nebeneffekten, wie z.B. mögliche Wärmeaktivierung des Chordotonalorgans, der Einfluss von Latrophilin (dCIRL) auf die Signaltransmission im Chordotonalorgan, aufgeklärt werden. Ferner führte eine optogenetische, in vivo, Aktivierung des Chordotonalorgans zu Verhaltensänderungen. Zusätzlich konnte gezeigt werden, dass GtACR1 zwar effektiv motoneuronale Erregung inhibieren kann, dies aber von unerwarteten Nebeneffekten begleitet wird. Diese Ergebnisse zeigen auf, dass weitere Forschung und Verbesserungen im Bereich der optogenetischen Werkzeuge sehr wertvoll und notwendig ist, um Wissenschaftlern zu erlauben das am besten geeignetste optogenetische Werkzeug für ihre wissenschaftlichen Fragestellungen auswählen zu können. KW - Optogenetik KW - Taufliege KW - Elektrophysiologie KW - Channelrhodopsin-2 KW - optogenetics KW - Drosophila melanogaster KW - Channelrhodopsin KW - Electrophysiology Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178793 ER - TY - THES A1 - Mehringer, Sarah T1 - Essays on Intergenerational Income Mobility in Germany and the United States T1 - Intergenerative Einkommensmobilität in Deutschland und den USA N2 - This dissertation consists of three contributions. Each addresses one specific aspect of intergenerational income mobility and is intended to be a stand-alone analysis. All chapters use comparable data for Germany and the United States to conduct country comparisons. As there are usually a large number of studies available for the United States, this approach is useful for comparing the empirical results to the existing literature. The first part conducts a direct country comparison of the structure and extent of intergenerational income mobility in Germany and the United States. In line with existing results, the estimated intergenerational income mobility of 0.49 in the United States is significantly higher than that of 0.31 in Germany. While the results for the intergenerational rank mobility are relatively similar, the level of intergenerational income share mobility is higher in the United States than in Germany. There are no significant indications of a nonlinear run of intergenerational income elasticity. A final decomposition of intergenerational income inequality shows both greater income mobility and stronger progressive income growth for Germany compared to the United States. Overall, no clear ranking of the two countries can be identified. To conclude, several economic policy recommendations to increase intergenerational income mobility in Germany are discussed. The second part examines the transmission channels of intergenerational income persistence in Germany and the United States. In principle, there are two ways in which well-off families may influence the adult incomes of their children: first through direct investments in their children's human capital (investment effect ), and second through the indirect transmission of human capital from parents to children (endowment effect ). In order to disentangle these two effects, a descriptive as well as a structural decomposition method are utilized. The results suggest that the investment effect and the endowment effect each account for approximately half of the estimated intergenerational income elasticity in Germany, while the investment effect is substantially more influential in the United States with a share of around 70 percent. With regard to economic policy, these results imply that equality of opportunity for children born to poor parents cannot be reached by the supply of financial means alone. Conversely, an efficient policy must additionally substitute for the missing direct transmission of human capital within socio-economically weak families. The third part explicitly focuses on the intergenerational income mobility among daughters. The restriction to men is commonly made in the empirical literature due to women‘s lower labor market participation. While most men work full-time, the majority of (married) women still work only part-time or not at all. Especially with the occurrence of assortative mating, daughters from well-off families are likely to marry rich men and might decide to reduce their labor supply as a result. Thus, the individual labor income of a daughter might not be a good indicator for her actual economic status. The baseline regression analysis shows a higher intergenerational income elasticity in Germany and a lower intergenerational income elasticity in the United States for women as compared to men. However, a separation by marital status reveals that in both countries unmarried women exhibit a higher intergenerational income elasticity than unmarried men, while married women feature a lower intergenerational income elasticity than married men. The reason for the lower mobility of unmarried women turns out to be a stronger human capital transmission from fathers to daughters than to sons. The higher mobility of married women is driven by a weaker human capital transmission and a higher labor supply elasticity with respect to spousal income for women as compared to men. In order to further study the effects of assortative mating, the subsample of married children is analyzed by different types of income. It shows that the estimated intergenerational income elasticity of children's household incomes is even higher than that of their individual incomes. This can be seen as an indication for strong assortative mating. If household income is interpreted as a measure of children‘s actual economic welfare, there are barely any differences between sons and daughters. The intergenerational income elasticity of spousal income with respect to parental income is again relatively high, which in turn supports the hypothesis of strong assortative mating. The elasticity of the sons-in-law with respect to their fathers-in-law in Germany is even higher than that of the sons with respect to their own fathers. N2 - Die vorliegende Dissertation beschäftigt sich mit der intergenerativen Einkommensmobilität in Deutschland im Vergleich zu den USA. Im Zentrum der Analyse steht demnach die Frage, inwiefern Einkommensunterschiede zwischen armen und reichen Familien an die nächste Generation weitergegeben werden. Die vorliegende Arbeit setzt an der vorhandenen Literatur an und gliedert sich in drei Hauptkapitel, die jeweils einen bestimmten Aspekt der intergenerativen Einkommensmobilität. Der erste Teil der Arbeit untersucht Struktur und Ausmaß der intergenerativen Einkommensmobilität in Deutschland und den USA. Dafür werden unterschiedliche Mobilitätsmaße berechnet und die Ergebnisse für beide Länder miteinander verglichen. Im Einklang mit der bestehenden Literatur fällt die intergenerative Einkommenselastizität in Deutschland geringer aus als in den USA, was für eine höhere Mobilität in Deutschland spricht. Vergleicht man jedoch die intergenerative Rangmobilität, sind die Ergebnisse für beide Länder relativ ähnlich. Bei der intergenerativen Einkommensanteilsmobilität bestehen dagegen stärkere Unterschiede zwischen Deutschland und den USA. Mit jedem höheren Perzentil sinkt die Einkommensanteilsmobilität der Söhne im Vergleich zu ihren Vätern in Deutschland weniger stark als in den USA. Die Regression zur Mitte findet demnach in Deutschland langsamer statt als in den USA, was für eine höhere Mobilität in den USA spricht. Die Ergebnisse der bedingten und unbedingten Quantilsregression liefern für keines der beiden Länder Hinweise auf Nichtlinearitäten. Eine abschließende Dekomposition der intergenerativen Einkommensungleichheit ergibt für Deutschland sowohl eine größere Einkommensmobilität als auch ein stärkeres progressives Einkommenswachstum als für die USA. Insgesamt kann keine klare Rangfolge hinsichtlich der intergenerativen Einkommensmobilität in Deutschland und den USA festgestellt werden. Der zweite Teil der Dissertation beschäftigt sich mit der Frage, über welche Transmissionskanäle das Einkommen der Eltern das Einkommen ihrer Kinder beeinflusst. Dabei sind im Wesentlichen zwei Mechanismen denkbar. Zum einen können wohlhabende Familien mehr Geld in das Humankapital ihrer Kinder investieren, wodurch diese später ein höheres Einkommen auf dem Arbeitsmarkt erzielen (Investitionseffekt). Zum anderen verfügen Eltern mit einem hohen Einkommen tendenziell auch über ein höheres Humankapital, das sie auch ohne den Einsatz finanzieller Mittel an ihre Kinder weitergeben können (Humankapitaleffekt). Die empirische Analyse mithilfe unterschiedlicher Dekompositionsmethoden zeigt, dass der Investitionseffekt und der Humankapitaleffekt in Deutschland zu etwa gleichen Teilen zur geschätzten intergenerativen Einkommenselastizität beitragen, während in den USA der Investitionseffekt vor allem in den oberen Perzentilen deutlich stärker ausgeprägt ist. Für die Politik in Deutschland bedeuten diese Ergebnisse, dass die bloße Bereitstellung finanzieller Mittel für Kinder aus armen Familien nicht ausreicht, um ihre Aufwärtsmobilität zu fördern. Zusätzlich muss die fehlende direkte Weitergabe von Humankapital innerhalb sozioökonomisch schwacher Familien durch staatliche Angebote substituiert werden. Ziel des dritten Teils der Dissertation eine Untersuchung der intergenerativen Einkommensmobilität der Töchter. Der Hauptgrund für diese in der Literatur übliche Restriktion sind Probleme bei der statistischen Analyse, die sich aufgrund der geringeren Arbeitsmarktpartizipation von Frauen im Vergleich zu Männern ergeben. Eine erste Basisregression zeigt, dass die intergenerative Einkommenselastizität der Töchter in Deutschland höher ausfällt als die der Söhne, während es in den USA gerade umgekehrt ist. Eine Trennung nach Familienstand macht jedoch deutlich, dass in beiden Ländern unverheiratete Frauen eine höhere Einkommenselastizität aufweisen als unverheiratete Männer, wohingegen für verheiratete Frauen eine niedrigere Einkommenselastizität geschätzt wird als für verheiratete Männer, was im Wesentlichen auf eine stärkere Arbeitsstundenelastizität der Töchter im Hinblick auf das Einkommen ihres Ehepartners zurückzuführen ist. Um den Effekt der assortativen Paarung genauer zu untersuchen, werden anschließend die verheirateten Individuen noch einmal nach unterschiedlichen Einkommensarten untersucht. Dabei zeigt sich, dass die intergenerative Elastizität der Haushaltseinkommen tendenziell sogar größer ausfällt als die der Individualeinkommen, was für eine starke assortative Paarung spricht. Betrachtet man die Höhe des Haushaltseinkommens als das eigentliche Wohlstandsniveau einer Person, existieren außerdem keine gravierenden Unterschiede zwischen der Einkommensmobilität von Töchtern und Söhnen. KW - Deutschland KW - Intergenerative Einkommensmobilität KW - Intergenerational income mobility KW - Intergenerationenmobilität KW - Einkommensverteilung KW - USA KW - Soziale Mobilität Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-160693 ER - TY - THES A1 - Schmithausen, Patrick Alexander Gerhard T1 - Three-dimensional fluorescence image analysis of megakaryocytes and vascular structures in intact bone T1 - Dreidimensionale Fluoreszenzbildanalyse von Megakaryozyten und Gefäßstrukturen in intaktem Knochen N2 - The thesis provides insights in reconstruction and analysis pipelines for processing of three-dimensional cell and vessel images of megakaryopoiesis in intact murine bone. The images were captured in a Light Sheet Fluorescence Microscope. The work presented here is part of Collaborative Research Centre (CRC) 688 (project B07) of the University of Würzburg, performed at the Rudolf-Virchow Center. Despite ongoing research within the field of megakaryopoiesis, its spatio-temporal pattern of megakaryopoiesis is largely unknown. Deeper insight to this field is highly desirable to promote development of new therapeutic strategies for conditions related to thrombocytopathy as well as thrombocytopenia. The current concept of megakaryopoiesis is largely based on data from cryosectioning or in vitro studies indicating the existence of spatial niches within the bone marrow where specific stages of megakaryopoiesis take place. Since classic imaging of bone sections is typically limited to selective two-dimensional views and prone to cutting artefacts, imaging of intact murine bone is highly desired. However, this has its own challenges to meet, particularly in image reconstruction. Here, I worked on processing pipelines to account for irregular specimen staining or attenuation as well as the extreme heterogeneity of megakaryocyte morphology. Specific challenges for imaging and image reconstruction are tackled and solution strategies as well as remaining limitations are presented and discussed. Fortunately, modern image processing and segmentation strongly benefits from continuous advances in hardware as well as software-development. This thesis exemplifies how a combined effort in biomedicine, computer vision, data processing and image technology leads to deeper understanding of megakaryopoiesis. Tailored imaging pipelines significantly helped elucidating that the large megakaryocytes are broadly distributed throughout the bone marrow facing a surprisingly dense vessel network. No evidence was found for spatial niches in the bone marrow, eventually resulting in a revised model of megakaryopoiesis. N2 - Im Rahmen dieses Dissertationsvorhabens wurden Segmentierungs- und Auswertepipelines dreidimensionaler Bilder von Zellen und Gefäßen im intakten Mausknochen erarbeitet. Die Bilder entstanden durch Fluoreszenzaufnahmen eines Lichtblattmikroskops. Das Dissertationsvorhaben war Teil des Sonderforschungsbereichs 688 (Teilprojekts B07) der Universität Würzburg und es wurde am Rudolf-Virchow-Zentrum durchgeführt. Trotz einer Vielzahl aktueller Forschungsprojekte auf dem Gebiet der Megakaryopoese sind Erkenntnisse über deren räumlich-zeitliche Zusammenhänge größtenteils unbekannt. Neuere wissenschaftliche Erkenntnisse auf diesem Gebiet wären insbesondere hilfreich für die Weiterentwicklung von Behandlungsstrategien für Patienten, die an Thrombozytopenien oder Thrombozytopathien leiden. Das aktuell vorherrschende Modell zur Erklärung der Megakaryopoese geht von der Existenz räumlicher Nischen im Knochenmark aus, in denen sich die einzelnen Schritte der Megakaryopoese vollziehen. Dieses Modell basiert hauptsächlich auf Auswertungen von Gefrierschnitten sowie in-vitro Experimenten. Da die klassische Bildgebung von Knochenschnitten nur auf eine bestimmte Anzahl zweidimensionaler Schnitte begrenzt ist und deren Qualität unter Schnittartefakten leidet, ist die Bildgebung des intakten Knochens von besonderem Interesse. Dennoch führt dies zu neuen Herausforderungen im Bereich der Bilddatenauswertung. Im vorliegenden Dissertationsvorhaben beschäftige ich mich in diesem Bereich mit der Erarbeitung von Auswerteprotokollen, welche beispielsweise den Einfluss unregelmäßiger Färbungen oder Signalabschwächungen sowie die extreme Heterogenität der Megakaryozytenmorphologie berücksichtigen. Spezifische Herausforderungen für die Bildgebung und Bildrekonstruktion werden in Angriff genommen und Lösungsstrategien sowie verbleibende Einschränkungen werden vorgestellt und diskutiert. Erfreulicherweise profitieren insbesondere die moderne Bildbearbeitung sowie die Objekterkennung in großem Ausmaß von fortlaufenden Entwicklungen aus dem Hard- sowie Softwarebereich. Dieses Dissertationsvorhaben zeigt auf exemplarische Art und Weise auf, wie gemeinsame Forschungsanstrengungen im Bereich der Biomedizin, des Maschinellen Sehens, der Datenverarbeitung sowie der Bildtechnologie zu einem tieferen Verständnis der Megakaryopoese führen. Die maßgeschneiderten Pipelines zur Bilddatenauswertung stützten letztlich die These, dass größere Megakaryozyten im Knochenmark breit verteilt sind und von einem überraschend dichten Gefäßnetz umgeben sind. Beweise für die Existenz räumlicher Nischen im Knochenmark konnten nicht gefunden warden. Dieses führte schließlich zur Vorstellung eines überarbeiteten Modells der Megakaryopoese. KW - Megakaryozytopoese KW - Fluoreszenzmikroskopie KW - Megakaryozyt KW - Lichtscheibenmikroskopie KW - Bildverarbeitung KW - lightsheet microscopy KW - megakaryopoiesis KW - fluorescence microscopy KW - intact bone imaging KW - object segmentation KW - Lichtblattmikroskopie KW - Bildbearbeitung KW - Megakaryopoese KW - Bildgebung intakten Knochens Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178541 ER - TY - THES A1 - Niebler, Thomas T1 - Extracting and Learning Semantics from Social Web Data T1 - Extraktion und Lernen von Semantik aus Social Web-Daten N2 - Making machines understand natural language is a dream of mankind that existed since a very long time. Early attempts at programming machines to converse with humans in a supposedly intelligent way with humans relied on phrase lists and simple keyword matching. However, such approaches cannot provide semantically adequate answers, as they do not consider the specific meaning of the conversation. Thus, if we want to enable machines to actually understand language, we need to be able to access semantically relevant background knowledge. For this, it is possible to query so-called ontologies, which are large networks containing knowledge about real-world entities and their semantic relations. However, creating such ontologies is a tedious task, as often extensive expert knowledge is required. Thus, we need to find ways to automatically construct and update ontologies that fit human intuition of semantics and semantic relations. More specifically, we need to determine semantic entities and find relations between them. While this is usually done on large corpora of unstructured text, previous work has shown that we can at least facilitate the first issue of extracting entities by considering special data such as tagging data or human navigational paths. Here, we do not need to detect the actual semantic entities, as they are already provided because of the way those data are collected. Thus we can mainly focus on the problem of assessing the degree of semantic relatedness between tags or web pages. However, there exist several issues which need to be overcome, if we want to approximate human intuition of semantic relatedness. For this, it is necessary to represent words and concepts in a way that allows easy and highly precise semantic characterization. This also largely depends on the quality of data from which these representations are constructed. In this thesis, we extract semantic information from both tagging data created by users of social tagging systems and human navigation data in different semantic-driven social web systems. Our main goal is to construct high quality and robust vector representations of words which can the be used to measure the relatedness of semantic concepts. First, we show that navigation in the social media systems Wikipedia and BibSonomy is driven by a semantic component. After this, we discuss and extend methods to model the semantic information in tagging data as low-dimensional vectors. Furthermore, we show that tagging pragmatics influences different facets of tagging semantics. We then investigate the usefulness of human navigational paths in several different settings on Wikipedia and BibSonomy for measuring semantic relatedness. Finally, we propose a metric-learning based algorithm in adapt pre-trained word embeddings to datasets containing human judgment of semantic relatedness. This work contributes to the field of studying semantic relatedness between words by proposing methods to extract semantic relatedness from web navigation, learn highquality and low-dimensional word representations from tagging data, and to learn semantic relatedness from any kind of vector representation by exploiting human feedback. Applications first and foremest lie in ontology learning for the Semantic Web, but also semantic search or query expansion. N2 - Einer der großen Träume der Menschheit ist es, Maschinen dazu zu bringen, natürliche Sprache zu verstehen. Frühe Versuche, Computer dahingehend zu programmieren, dass sie mit Menschen vermeintlich intelligente Konversationen führen können, basierten hauptsächlich auf Phrasensammlungen und einfachen Stichwortabgleichen. Solche Ansätze sind allerdings nicht in der Lage, inhaltlich adäquate Antworten zu liefern, da der tatsächliche Inhalt der Konversation nicht erfasst werden kann. Folgerichtig ist es notwendig, dass Maschinen auf semantisch relevantes Hintergrundwissen zugreifen können, um diesen Inhalt zu verstehen. Solches Wissen ist beispielsweise in Ontologien vorhanden. Ontologien sind große Datenbanken von vernetztem Wissen über Objekte und Gegenstände der echten Welt sowie über deren semantische Beziehungen. Das Erstellen solcher Ontologien ist eine sehr kostspielige und aufwändige Aufgabe, da oft tiefgreifendes Expertenwissen benötigt wird. Wir müssen also Wege finden, um Ontologien automatisch zu erstellen und aktuell zu halten, und zwar in einer Art und Weise, dass dies auch menschlichem Empfinden von Semantik und semantischer Ähnlichkeit entspricht. Genauer gesagt ist es notwendig, semantische Entitäten und deren Beziehungen zu bestimmen. Während solches Wissen üblicherweise aus Textkorpora extrahiert wird, ist es möglich, zumindest das erste Problem - semantische Entitäten zu bestimmen - durch Benutzung spezieller Datensätze zu umgehen, wie zum Beispiel Tagging- oder Navigationsdaten. In diesen Arten von Datensätzen ist es nicht notwendig, Entitäten zu extrahieren, da sie bereits aufgrund inhärenter Eigenschaften bei der Datenakquise vorhanden sind. Wir können uns also hauptsächlich auf die Bestimmung von semantischen Relationen und deren Intensität fokussieren. Trotzdem müssen hier noch einige Hindernisse überwunden werden. Beispielsweise ist es notwendig, Repräsentationen für semantische Entitäten zu finden, so dass es möglich ist, sie einfach und semantisch hochpräzise zu charakterisieren. Dies hängt allerdings auch erheblich von der Qualität der Daten ab, aus denen diese Repräsentationen konstruiert werden. In der vorliegenden Arbeit extrahieren wir semantische Informationen sowohl aus Taggingdaten, von Benutzern sozialer Taggingsysteme erzeugt, als auch aus Navigationsdaten von Benutzern semantikgetriebener Social Media-Systeme. Das Hauptziel dieser Arbeit ist es, hochqualitative und robuste Vektordarstellungen von Worten zu konstruieren, die dann dazu benutzt werden können, die semantische Ähnlichkeit von Konzepten zu bestimmen. Als erstes zeigen wir, dass Navigation in Social Media Systemen unter anderem durch eine semantische Komponente getrieben wird. Danach diskutieren und erweitern wir Methoden, um die semantische Information in Taggingdaten als niedrigdimensionale sogenannte “Embeddings” darzustellen. Darüberhinaus demonstrieren wir, dass die Taggingpragmatik verschiedene Facetten der Taggingsemantik beeinflusst. Anschließend untersuchen wir, inwieweit wir menschliche Navigationspfade zur Bestimmung semantischer Ähnlichkeit benutzen können. Hierzu betrachten wir mehrere Datensätze, die Navigationsdaten in verschiedenen Rahmenbedingungen beinhalten. Als letztes stellen wir einen neuartigen Algorithmus vor, um bereits trainierte Word Embeddings im Nachhinein an menschliche Intuition von Semantik anzupassen. Diese Arbeit steuert wertvolle Beiträge zum Gebiet der Bestimmung von semantischer Ähnlichkeit bei: Es werden Methoden vorgestellt werden, um hochqualitative semantische Information aus Web-Navigation und Taggingdaten zu extrahieren, diese mittels niedrigdimensionaler Vektordarstellungen zu modellieren und selbige schließlich besser an menschliches Empfinden von semantischer Ähnlichkeit anzupassen, indem aus genau diesem Empfinden gelernt wird. Anwendungen liegen in erster Linie darin, Ontologien für das Semantic Web zu lernen, allerdings auch in allen Bereichen, die Vektordarstellungen von semantischen Entitäten benutzen. KW - Semantik KW - Maschinelles Lernen KW - Soziale Software KW - Semantics KW - User Behavior KW - Social Web KW - Machine Learning Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178666 ER - TY - THES A1 - Kreß, Sebastian T1 - Development and proof of concept of a biological vascularized cell‐based drug delivery system T1 - Entwicklung und Proof of Concept eines biologischen, vaskularisierten, zellbasierten Drug‐Delivery‐Systems N2 - A major therapeutic challenge is the increasing incidence of chronic disorders. The persistent impairment or loss of tissue function requires constitutive on‐demand drug availability optimally achieved by a drug delivery system ideally directly connected to the blood circulation of the patient. However, despite the efforts and achievements in cell‐based therapies and the generation of complex and customized cell‐specific microenvironments, the generation of functional tissue is still unaccomplished. This study demonstrates the capability to generate a vascularized platform technology to potentially overcome the supply restraints for graft development and clinical application with immediate anastomosis to the blood circulation. The ability to decellularize segments of the rat intestine while preserving the ECM for subsequent reendothelialization was proven. The reestablishment of a functional arteriovenous perfusion circuit enabled the supply of co‐cultured cells capable to replace the function of damaged tissue or to serve as a drug delivery system. During in vitro studies, the applicability of the developed miniaturized biological vascularized scaffold (mBioVaSc‐TERM®) was demonstrated. While indicating promising results in short term in vivo studies, long term implantations revealed current limitations for the translation into clinical application. The gained insights will impact further improvements of quality and performance of this promising platform technology for future regenerative therapies. N2 - Eine kontinuierlich steigende Inzidenz chronischer Krankheiten stellt eine immer größer werdende therapeutische Herausforderung dar. Der anhaltende Funktionsverlust von Geweben erfordert die bedarfsgerechte Verfügbarkeit von Wirkstoffen, deren kontinuierliche Bereitstellung und Verteilung über die Blutzirkulation von implantierbaren Pharmakotherapie‐Produkten gelöst werden kann. Trotz der Fortschritte und Erfolge mit Zelltherapien sowie der Nachbildung der Zell‐eigenen Nischen konnten bisher noch keine funktionellen Gewebe für die medizinische Anwendbarkeit hergestellt werden. Diese Studie zeigt die Möglichkeit zur Herstellung einer vaskularisierten Plattform‐ Technologie um die Beschränkung der Nährstoff‐Versorgung zu überwinden für die Entwicklung von Transplantaten für die klinische Anwendung und deren sofortige Anastomose an die Blutzirkulation. Die Möglichkeit Rattendarmsegmente zu dezellularisieren, die Extrazellulärmatrix und das interne Gefäßsystem dabei jedoch zu erhalten um diese Strukturen wiederzubesiedeln wurde bewiesen. Das Wiederherstellen des funktionellen arteriovenösen Perfusionskreislaufs ermöglichte die Versorgung von Ko‐kultivierten Zellen um damit funktionalen Gewebeersatz bzw. ‐modelle aufzubauen oder als Medizin‐ Produkt Einsatz zu finden. In vitro‐Studien zeigten eindrucksvoll Reife und Anwendbarkeit des hier entwickelten miniaturisierten, biologischen, vaskularisierten Scaffold (mBioVaSc‐TERM®). Während in in vivo‐Studien zunächst vielversprechende Ergebnisse erzielt wurden, zeigten Langzeit Implantationen die aktuellen Grenzen zur Translation in die klinische Anwendung. Die gewonnenen Erkenntnisse werden dazu dienen Qualität und Funktionalität dieser vielversprechenden Plattform‐Technologie zu verbessern um zukünftige regenerative Therapien zu ermöglichen. KW - Vaskularisation KW - Dezellularisierung KW - Tissue Engineering KW - Therapeutisches System KW - Implantat KW - Vascularized KW - drug delivery Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178650 ER - TY - GEN A1 - Breitenbach, Tim T1 - Codes of examples for SQH method N2 - Code examples for the paper "On the SQH Scheme to Solve Nonsmooth PDE Optimal Control Problems" by Tim Breitenbach and Alfio Borzì published in the journal "Numerical Functional Analysis and Optimization", in 2019, DOI: 10.1080/01630563.2019.1599911 KW - SQH method KW - Code Examples Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178588 ER - TY - INPR A1 - Süß, Jasmin A1 - Wehner, Johannes G. A1 - Dostál, Jakub A1 - Engel, Volker A1 - Brixner, Tobias T1 - Mapping of exciton-exciton annihilation in a molecular dimer via fifth-order femtosecond two-dimensional spectroscopy T2 - Journal of Physical Chemistry Letters N2 - We present a theoretical study on exciton–exciton annihilation (EEA) in a molecular dimer. This process is monitored using a fifth-order coherent two-dimensional (2D) spectroscopy as was recently proposed by Dostál et al. [Nat. Commun. 9, 2466 (2018)]. Using an electronic three-level system for each monomer, we analyze the different paths which contribute to the 2D spectrum. The spectrum is determined by two entangled relaxation processes, namely, the EEA and the direct relaxation of higher lying excited states. It is shown that the change of the spectrum as a function of a pulse delay can be linked directly to the presence of the EEA process. KW - Exziton KW - Spektroskopie KW - Exciton KW - 2Dimensionale Spektroskopie KW - EEA KW - exciton-exciton Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178482 UR - https://aip.scitation.org/doi/full/10.1063/1.5086151 N1 - This article may be downloaded for personal use only. Any other use requires prior permission of the author and AIP Publishing. This article appeared in J. Süß et al.,J. Chem. Phys. 150, 104304 (2019); https://doi.org/10.1063/1.5086151 and may be found at https://doi.org/10.1063/1.5086151 ER - TY - THES A1 - Fleischmann, Pauline Nikola T1 - Starting foraging life: Early calibration and daily use of the navigational system in \(Cataglyphis\) ants T1 - Start in den Außendienst: Zur anfänglichen Kalibrierung und alltäglichen Nutzung des Navigationssystem in \(Cataglyphis\)-Ameisen N2 - Cataglyphis ants are famous for their navigational abilities. They live in hostile habitats where they forage as solitary scavengers covering distances of more than hundred thousand times their body lengths. To return to their nest with a prey item – mainly other dead insects that did not survive the heat – Cataglyphis ants constantly keep track of their directions and distances travelled. The navigational strategy is called path integration, and it enables an ant to return to the nest in a straight line using its home vector. Cataglyphis ants mainly rely on celestial compass cues, like the position of the sun or the UV polarization pattern, to determine directions, and they use an idiothetic step counter and optic flow to measure distances. In addition, they acquire information about visual, olfactory and tactile landmarks, and the wind direction to increase their chances of returning to the nest safe and sound. Cataglyphis’ navigational performance becomes even more impressive if one considers their life style. Most time of their lives, the ants stay underground and perform tasks within the colony. When they start their foraging careers outside the nest, they have to calibrate their compass systems and acquire all information necessary for navigation during subsequent foraging. This navigational toolkit is not instantaneously available, but has to be filled with experience. For that reason, Cataglyphis ants perform a striking behavior for up to three days before actually foraging. These so-called learning walks are crucial for the success as foragers later on. In the present thesis, both the ontogeny and the fine-structure of learning walks has been investigated. Here I show with displacement experiments that Cataglyphis ants need enough space and enough time to perform learning walks. Spatially restricted novices, i. e. naïve ants, could not find back to the nest when tested as foragers later on. Furthermore, ants have to perform several learning walks over 1-3 days to gain landmark information for successful homing as foragers. An increasing number of feeder visits also increases the importance of landmark information, whereas in the beginning ants fully rely on their path-integration vector. Learning walks are well-structured. High-speed video analysis revealed that Cataglyphis ants include species-specific rotational elements in their learning walks. Greek Cataglyphis ants (C. noda and C. aenescens) inhabiting a cluttered pine forest perform voltes, small walked circles, and pirouettes, tight turns about the body axis with frequent stopping phases. During the longest stopping phases, the ants gaze back to their nest entrance. The Tunisian Cataglyphis fortis ants inhabiting featureless saltpans only perform voltes without directed gazes. The function of voltes has not yet been revealed. In contrast, the fine structure of pirouettes suggests that the ants take snapshots of the panorama towards their homing direction to memorize the nest’s surroundings. The most likely hypothesis was that Cataglyphis ants align the gaze directions using their path integrator, which gets directional input from celestial cues during foraging. To test this hypothesis, a manipulation experiment was performed changing the celestial cues above the nest entrance (no sun, no natural polarization pattern, no UV light). The accurately directed gazes to the nest entrance offer an easily quantifiable readout suitable to ask the ants where they expect their nest entrance. Unexpectedly, all novices performing learning walks under artificial sky conditions looked back to the nest entrance. This was especially surprising, because neuronal changes in the mushroom bodies and the central complex receiving visual input could only be induced with the natural sky when comparing test animals with interior workers. The behavioral findings indicated that Cataglyphis ants use another directional reference system to align their gaze directions during the longest stopping phases of learning walk pirouettes. One possibility was the earth’s magnetic field. Indeed, already disarraying the geomagnetic field at the nest entrance with an electromagnetic flat coil indicated that the ants use magnetic information to align their looks back to the nest entrance. To investigate this finding further, ants were confronted with a controlled magnetic field using a Helmholtz coil. Elimination of the horizontal field component led to undirected gaze directions like the disarray did. Rotating the magnetic field about 90°, 180° or -90° shifted the ants’ gaze directions in a predictable manner. Therefore, the earth’s magnetic field is a necessary and sufficient reference system for aligning nest-centered gazes during learning-walk pirouettes. Whether it is additionally used for other navigational purposes, e. g. for calibrating the solar ephemeris, remains to be tested. Maybe the voltes performed by all Cataglyphis ant species investigated so far can help to answer this question.. N2 - Cataglyphis-Ameisen sind für ihre Navigationsfähigkeiten berühmt. Sie bewohnen lebens- feindliche Regionen in denen sie einzeln und über weite Strecken Futter suchen müssen. Um mit Beute (meist ein totes Insekt, das die große Hitze nicht überlebt hat) zu ihrem Nest zurückzukehren, bedienen sie sich einer Navigationsstrategie, die als Wegintegration beze- ichnet wird. Dabei müssen die Ameisen die zurückgelegten Distanzen messen und jeden Richtungswechsel registrieren, um schließlich in gerader Linie nachhause zurückkehren zu können. Als Kompass nutzen sie Himmelsinformationen, wie den Stand der Sonne oder das UV-Polarisationsmuster, und für die Distanzmessung verwenden sie einen inneren Schrittzäh- ler sowie optischen Fluss. Außerdem nutzen sie alle weiteren Informationen, die hilfreich sein könnten, um sicher zum Nest zurückzukehren. Dazu gehören visuelle, olfaktorische und taktile Landmarken sowie die Richtung des Windes. Die Navigationsleistungen von Cataglyphis-Ameisen sind insbesondere dann bemerkenswert, wenn man sich bewusst macht, dass sie die meiste Zeit ihres Lebens unter der Erde verbringen. Dort übernehmen sie Auf- gaben im Nest bis sie dann schließlich alt genug sind, um draußen Futter zu suchen. Dann müssen sie ihre Kompasssysteme kalibrieren und alle Informationen lernen, die sie für eine erfolgreiche Futtersuche brauchen. Dieses sogenannte Navigations-Toolkit steht den Ameisen nicht automatisch zur Verfügung, vielmehr müssen sie es mit eigener Erfahrung füllen. Dafür nutzen sie die ersten ein bis drei Tage außerhalb des Nestes. Während dieser Zeit suchen sie kein Futter, sondern vollführen sogenannte Lernläufe. Lernläufe sind unabdingbar, um später als Fourageur erfolgreich zu sein. In der vorliegenden Doktorarbeit wurde sowohl die zeitliche und räumliche Entwicklung der Lernläufe als auch deren Feinstruktur untersucht. Mit Versetzungsexperimenten konnte ich zeigen, dass Ameisen genügend Zeit und Raum brauchen, um Lernläufe durchzuführen. Wurden Neulinge während ihrer Lernläufe räumlich eingeschränkt, so konnten sie nicht zum Nest zurückfinden, wenn sie als erfahrene Fourageure getestet wurden. Außerdem brauchen die Ameisen ein bis drei Tage Zeit, um ein Landmarkenpanorama zu erlernen, das sie dann später erfolgreich zur Landmarkenorientierung nutzen können. Eine größere Anzahl an Besuchen am Futterplatz erhöht die Wichtigkeit von Landmarkeninformation für die Ameisen, die anfangs nur ihren Wegintegrator nutzen. Lernläufe weisen eine beeindruckende Struktur auf. Mit High-Speed-Videoaufnahmen konnte gezeigt werden, dass Cataglyphis-Ameisen artspezifische Drehungen während der Lernläufe vollführen. Die griechischen Cataglyphis-Ameisen (C. noda und C. aenescens) leben in einem Pinienwald, der ihnen ein vielfältiges und landmarkenreiches Panorama bietet. Ihre Lernläufe beinhalten zwei Drehungsformen, nämlich sogenannte Volten (kleine gelaufene Kreise) und Pirouetten (enge Drehungen um die eigene Körperachse mit häufigen Stoppphasen). Während der längsten Stoppphase einer Pirouette schauen die Ameisen zurück in die Richtung ihres Nesteingangs, obwohl sie ihn nicht direkt sehen können. Die tunesischen Cataglyphis-Ameisen (C. fortis ) leben auf einem landmarkenarmen Salzsee. Sie vollführen nur Volten und machen keine Pirouetten während ihrer Lernläufe. Die Funktion von Volten ist noch unbekannt, wohingegen die Feinstruktur der Pirouetten die Vermutung nahelegt, dass die Ameisen sogenannte Schnappschüsse von der Umgebung ihres Nestes machen, um dorthin zurückkehren zu können. Es schien wahrscheinlich, dass die Ameisen ihren Wegintegrator nutzen, um ihre Blickrich- tungen zum Nest auszurichten. Während der Futtersuche bekommt der Wegintegrator seine Richtungsinformationen vom Himmelskompass. Daher wurde ein Experiment geplant und durchgeführt bei dem die Himmelsinformationen über dem Nesteingang manipuliert wurden (keine Sicht auf die Sonne, kein natürliches Polarisationsmuster oder kein UV-Licht). Die nest- zentrierten Blickrichtungen der Ameisen ermöglichen es relativ einfach zu überprüfen, ob die Ameisen die Position des Nesteingangs kennen. Überraschenderweise schauten die Ameisen unter allen Bedingungen weiterhin zurück zum Nesteingang. Dies war insbesondere be- merkenswert, da die Himmelsmanipulation neuronale Veränderungen in den Pilzkörpern und dem Zentralkomplex (das sind Regionen im Gehirn der Ameisen, die visuelle Informationen verarbeiten) bewirkten bzw. diese verhinderten. Nur unter natürlichen Bedingungen, also bei freiem Blick auf die Sonne, gab es Unterschiede auf neuronaler Ebene zwischen den Testtieren und den Innendiensttieren, die als Kontrolle dienten. Die Ergebnisse des Verhaltensversuchs deuteten darauf hin, dass die Ameisen ein anderes direktionales Referenzsystem nutzen, um ihre Blickrichtungen zu kontrollieren. Eine Möglichkeit war das Erdmagnetfeld. Tatsächlich zeigte schon die experimentelle Streuung des Magnetfelds am Nesteingang mittels einer elektromagnetischen Flachspule, dass die Ameisen tatsächlich Magnetinformationen nutzen, um ihre Blicke auszurichten. Die Blickrichtungen während der längsten Stoppphasen waren nicht mehr zum Nesteingang gerichtet. Um dies genauer zu untersuchen wurden die Ameisen mit dem kontrollierten Magnetfeld einer Helmholtzspule konfrontiert. Die Eliminierung der Horizontalkomponente des Magnetfelds bewirkte wiederum, dass die Ameisen nicht zum Nesteingang zurückschauten. Wurde die Horizontalkomponente jedoch um 90◦, 180◦ oder -90◦ gedreht, so folgten die Blickrichtungen der Ameisen dieser Drehung voraussagbar im selben Winkel. Dies zeigt, dass das Erdmagnetfeld tatsächlich das Referenzsystem für die Ausrichtungen der Blicke während der Lernlaufpirouetten darstellt. Ob es auch noch an- deren Navigationszwecken, wie beispielsweise der Kalibrierung der solaren Ephemeris dient, muss zukünftig überprüft werden. Vielleicht können die Volten, die alle bisher untersuchten KW - Cataglyphis KW - Learning walk Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-159951 ER - TY - THES A1 - von Kistowski, Jóakim Gunnarsson T1 - Measuring, Rating, and Predicting the Energy Efficiency of Servers T1 - Messung, Bewertung und Vorhersage von Serverenergieeffizienz N2 - Energy efficiency of computing systems has become an increasingly important issue over the last decades. In 2015, data centers were responsible for 2% of the world's greenhouse gas emissions, which is roughly the same as the amount produced by air travel. In addition to these environmental concerns, power consumption of servers in data centers results in significant operating costs, which increase by at least 10% each year. To address this challenge, the U.S. EPA and other government agencies are considering the use of novel measurement methods in order to label the energy efficiency of servers. The energy efficiency and power consumption of a server is subject to a great number of factors, including, but not limited to, hardware, software stack, workload, and load level. This huge number of influencing factors makes measuring and rating of energy efficiency challenging. It also makes it difficult to find an energy-efficient server for a specific use-case. Among others, server provisioners, operators, and regulators would profit from information on the servers in question and on the factors that affect those servers' power consumption and efficiency. However, we see a lack of measurement methods and metrics for energy efficiency of the systems under consideration. Even assuming that a measurement methodology existed, making decisions based on its results would be challenging. Power prediction methods that make use of these results would aid in decision making. They would enable potential server customers to make better purchasing decisions and help operators predict the effects of potential reconfigurations. Existing energy efficiency benchmarks cannot fully address these challenges, as they only measure single applications at limited sets of load levels. In addition, existing efficiency metrics are not helpful in this context, as they are usually a variation of the simple performance per power ratio, which is only applicable to single workloads at a single load level. Existing data center efficiency metrics, on the other hand, express the efficiency of the data center space and power infrastructure, not focusing on the efficiency of the servers themselves. Power prediction methods for not-yet-available systems that could make use of the results provided by a comprehensive power rating methodology are also lacking. Existing power prediction models for hardware designers have a very fine level of granularity and detail that would not be useful for data center operators. This thesis presents a measurement and rating methodology for energy efficiency of servers and an energy efficiency metric to be applied to the results of this methodology. We also design workloads, load intensity and distribution models, and mechanisms that can be used for energy efficiency testing. Based on this, we present power prediction mechanisms and models that utilize our measurement methodology and its results for power prediction. Specifically, the six major contributions of this thesis are: We present a measurement methodology and metrics for energy efficiency rating of servers that use multiple, specifically chosen workloads at different load levels for a full system characterization. We evaluate the methodology and metric with regard to their reproducibility, fairness, and relevance. We investigate the power and performance variations of test results and show fairness of the metric through a mathematical proof and a correlation analysis on a set of 385 servers. We evaluate the metric's relevance by showing the relationships that can be established between metric results and third-party applications. We create models and extraction mechanisms for load profiles that vary over time, as well as load distribution mechanisms and policies. The models are designed to be used to define arbitrary dynamic load intensity profiles that can be leveraged for benchmarking purposes. The load distribution mechanisms place workloads on computing resources in a hierarchical manner. Our load intensity models can be extracted in less than 0.2 seconds and our resulting models feature a median modeling error of 12.7% on average. In addition, our new load distribution strategy can save up to 10.7% of power consumption on a single server node. We introduce an approach to create small-scale workloads that emulate the power consumption-relevant behavior of large-scale workloads by approximating their CPU performance counter profile, and we introduce TeaStore, a distributed, micro-service-based reference application. TeaStore can be used to evaluate power and performance model accuracy, elasticity of cloud auto-scalers, and the effectiveness of power saving mechanisms for distributed systems. We show that we are capable of emulating the power consumption behavior of realistic workloads with a mean deviation less than 10% and down to 0.2 watts (1%). We demonstrate the use of TeaStore in the context of performance model extraction and cloud auto-scaling also showing that it may generate workloads with different effects on the power consumption of the system under consideration. We present a method for automated selection of interpolation strategies for performance and power characterization. We also introduce a configuration approach for polynomial interpolation functions of varying degrees that improves prediction accuracy for system power consumption for a given system utilization. We show that, in comparison to regression, our automated interpolation method selection and configuration approach improves modeling accuracy by 43.6% if additional reference data is available and by 31.4% if it is not. We present an approach for explicit modeling of the impact a virtualized environment has on power consumption and a method to predict the power consumption of a software application. Both methods use results produced by our measurement methodology to predict the respective power consumption for servers that are otherwise not available to the person making the prediction. Our methods are able to predict power consumption reliably for multiple hypervisor configurations and for the target application workloads. Application workload power prediction features a mean average absolute percentage error of 9.5%. Finally, we propose an end-to-end modeling approach for predicting the power consumption of component placements at run-time. The model can also be used to predict the power consumption at load levels that have not yet been observed on the running system. We show that we can predict the power consumption of two different distributed web applications with a mean absolute percentage error of 2.2%. In addition, we can predict the power consumption of a system at a previously unobserved load level and component distribution with an error of 1.2%. The contributions of this thesis already show a significant impact in science and industry. The presented efficiency rating methodology, including its metric, have been adopted by the U.S. EPA in the latest version of the ENERGY STAR Computer Server program. They are also being considered by additional regulatory agencies, including the EU Commission and the China National Institute of Standardization. In addition, the methodology's implementation and the underlying methodology itself have already found use in several research publications. Regarding future work, we see a need for new workloads targeting specialized server hardware. At the moment, we are witnessing a shift in execution hardware to specialized machine learning chips, general purpose GPU computing, FPGAs being embedded into compute servers, etc. To ensure that our measurement methodology remains relevant, workloads covering these areas are required. Similarly, power prediction models must be extended to cover these new scenarios. N2 - In den vergangenen Jahrzehnten hat die Energieeffizienz von Computersystemen stark an Bedeutung gewonnen. Bereits 2015 waren Rechenzentren für 2% der weltweiten Treibhausgasemissionen verantwortlich, was mit der durch den Flugverkehr verursachten Treibhausgasmenge vergleichbar ist. Dabei wirkt sich der Stromverbrauch von Rechenzentren nicht nur auf die Umwelt aus, sondern verursacht auch erhebliche, jährlich um mindestens 10% steigende, Betriebskosten. Um sich diesen Herausforderungen zu stellen, erwägen die U.S. EPA und andere Behörden die Anwendung von neuartigen Messmethoden, um die Energieeffizienz von Servern zu bestimmen und zu zertifizieren. Die Energieeffizienz und der Stromverbrauch eines Servers wird von vielen verschiedenen Faktoren, u.a. der Hardware, der zugrundeliegenden Ausführungssoftware, der Arbeitslast und der Lastintensität, beeinflusst. Diese große Menge an Einflussfaktoren führt dazu, dass die Messung und Bewertung der Energieeffizienz herausfordernd ist, was die Auswahl von energieeffizienten Servern für konkrete Anwendungsfälle erheblich erschwert. Informationen über Server und ihre Energieeffizienz bzw. ihren Stromverbrauch beeinflussenden Faktoren wären für potentielle Kunden von Serverhardware, Serverbetreiber und Umweltbehörden von großem Nutzen. Im Allgemeinen mangelt es aber an Messmethoden und Metriken, welche die Energieeffizienz von Servern in befriedigendem Maße erfassen und bewerten können. Allerdings wäre es selbst unter der Annahme, dass es solche Messmethoden gäbe, dennoch schwierig Entscheidungen auf Basis ihrer Ergebnisse zu fällen. Um derartige Entscheidungen zu vereinfachen, wären Methoden zur Stromverbrauchsvorhersage hilfreich, um es potentiellen Serverkunden zu ermöglichen bessere Kaufentscheidungen zu treffen und Serverbetreibern zu helfen, die Auswirkungen möglicher Rekonfigurationen vorherzusagen. Existierende Energieeffizienzbenchmarks können diesen Herausforderungen nicht vollständig begegnen, da sie nur einzelne Anwendungen bei wenigen Lastintensitätsstufen ausmessen. Auch sind die vorhandenen Energieeffizienzmetriken in diesem Kontext nicht hilfreich, da sie normalerweise nur eine Variation des einfachen Verhältnisses von Performanz zu Stromverbrauch darstellen, welches nur auf einzelne Arbeitslasten bei einer einzigen gemessenen Lastintensität angewandt werden kann. Im Gegensatz dazu beschreiben die existierenden Rechenzentrumseffizienzmetriken lediglich die Platz- und Strominfrastruktureffizienz von Rechenzentren und bewerten nicht die Effizienz der Server als solche. Methoden zur Stromverbrauchsvorhersage noch nicht für Kunden verfügbarer Server, welche die Ergebnisse einer ausführlichen Stromverbrauchsmessungs- und Bewertungsmethodologie verwenden, gibt es ebenfalls nicht. Stattdessen existieren Stromverbrauchsvorhersagemethoden und Modelle für Hardwaredesigner und Hersteller. Diese Methoden sind jedoch sehr feingranular und erfordern Details, welche für Rechenzentrumsbetreiber nicht verfügbar sind, sodass diese keine Vorhersage durchführen können. In dieser Arbeit werden eine Energieeffizienzmess- und Bewertungsmethodologie für Server und Energieeffizienzmetriken für diese Methodologie vorgestellt. Es werden Arbeitslasten, Lastintensitäten und Lastverteilungsmodelle und -mechanismen, die für Energieeffizienzmessungen und Tests verwendet werden können, entworfen. Darauf aufbauend werden Mechanismen und Modelle zur Stromverbrauchsvorhersage präsentiert, welche diese Messmethodologie und die damit produzierten Ergebnisse verwenden. Die sechs Hauptbeiträge dieser Arbeit sind: Eine Messmethodologie und Metriken zur Energieeffizienzbewertung von Servern, die mehrere, verschiedene Arbeitslasten unter verschiedenen Lastintensitäten ausführt, um die beobachteten Systeme vollständig zu charakterisieren. Diese Methodologie wird im Bezug auf ihre Wiederholbarkeit, Fairness und Relevanz evaluiert. Es werden die Stromverbrauchs- und Performanzvariationen von wiederholten Methodologieausführungen untersucht und die Fairness der Methodologie wird durch mathematische Beweise und durch eine Korrelationsanalyse anhand von Messungen auf 385 Servern bewertet. Die Relevanz der Methodologie und der Metrik wird gezeigt, indem Beziehungen zwischen Metrikergebnissen und der Energieeffizienz von anderen Serverapplikationen untersucht werden. Modelle und Extraktionsverfahren für sich mit der Zeit verändernde Lastprofile, sowie Lastverteilungsmechanismen und -regeln. Die Modelle können dazu verwendet werden, beliebige Lastintensitätsprofile, die zum Benchmarking verwendet werden können, zu entwerfen. Die Lastverteilungsmechanismen, hingegen, platzieren Arbeitslasten in hierarchischer Weise auf Rechenressourcen. Die Lastintensitätsmodelle können in weniger als 0,2 Sekunden extrahiert werden, wobei die jeweils resultierenden Modelle einen durchschnittlichen Medianmodellierungsfehler von 12,7% aufweisen. Zusätzlich dazu kann die neue Lastverteilungsstrategie auf einzelnen Servern zu Stromverbrauchseinsparungen von bis zu 10,7% führen. Ein Ansatz um kleine Arbeitslasten zu erzeugen, welche das Stromverbrauchsverhalten von größeren, komplexeren Lasten emulieren, indem sie ihre CPU Performance Counter-Profile approximieren sowie den TeaStore: Eine verteilte, auf dem Micro-Service-Paradigma basierende Referenzapplikation. Der TeaStore kann verwendet werden, um Strom- und Performanzmodellgenauigkeit, Elastizität von Cloud Autoscalern und die Effektivität von Stromsparmechanismen in verteilten Systemen zu untersuchen. Das Arbeitslasterstellungsverfahren kann das Stromverbrauchsverhalten von realistischen Lasten mit einer mittleren Abweichung von weniger als 10% und bis zu einem minimalen Fehler von 0,2 Watt (1%) nachahmen. Die Anwendung des TeaStores wird durch die Extraktion von Performanzmodellen, die Anwendung in einer automatisch skalierenden Cloudumgebung und durch eine Demonstration der verschiedenen möglichen Stromverbräuche, die er auf Servern verursachen kann, gezeigt. Eine Methode zur automatisierten Auswahl von Interpolationsstrategien im Bezug auf Performanz und Stromverbrauchscharakterisierung. Diese Methode wird durch einen Konfigurationsansatz, der die Genauigkeit der auslastungsabhängigen Stromvorhersagen von polynomiellen Interpolationsfunktionen verbessert, erweitert. Im Gegensatz zur Regression kann der automatisierte Interpolationsmethodenauswahl- und Konfigurationsansatz die Modellierungsgenauigkeit mit Hilfe eines Referenzdatensatzes um 43,6% verbessern und kann selbst ohne diesen Referenzdatensatz eine Verbesserung von 31,4% erreichen. Einen Ansatz, der explizit den Einfluss von Virtualisierungsumgebungen auf den Stromverbrauch modelliert und eine Methode zur Vorhersage des Stromverbrauches von Softwareapplikationen. Beide Verfahren nutzen die von der in dieser Arbeit vorgegestellten Stromverbrauchsmessmethologie erzeugten Ergebnisse, um den jeweiligen Stromverbrauch von Servern, die den Vorhersagenden sonst nicht zur Verfügung stehen, zu ermöglichen. Die vorgestellten Verfahren können den Stromverbrauch für verschiedene Hypervisorkonfigurationen und für Applikationslasten zuverlässig vorhersagen. Die Vorhersage des Stromverbrauchs von Serverapplikationen erreicht einen mittleren absoluten Prozentfehler von 9,5%. Ein Modellierungsansatz zur Stromverbrauchsvorhersage für Laufzeitplatzierungsentscheidungen von Softwarekomponenten, welcher auch dazu verwendet werden kann den Stromverbrauch für bisher nicht beobachtete Lastintensitäten auf dem laufenden System vorherzusagen. Der Modellierungsansatz kann den Stromverbrauch von zwei verschiedenen, verteilten Webanwendungen mit einem mittleren absoluten Prozentfehler von 2,2% vorhersagen. Zusätzlich kann er den Stromverbrauch von einem System bei einer in der Vergangenheit nicht beobachteten Lastintensität und Komponentenverteilung mit einem Fehler von 1,2% vorhersagen. Die Beiträge in dieser Arbeit haben sich bereits signifikant auf Wissenschaft und Industrie ausgewirkt. Die präsentierte Energieeffizienzbewertungsmethodologie, inklusive ihrer Metriken, ist von der U.S. EPA in die neueste Version des ENERGY STAR Computer Server-Programms aufgenommen worden und wird zurzeit außerdem von weiteren Behörden, darunter die EU Kommission und die Nationale Chinesische Standardisierungsbehörde, in Erwägung gezogen. Zusätzlich haben die Implementierung der Methodologie und die zugrundeliegende Methodologie bereits Anwendung in mehreren wissenschaftlichen Arbeiten gefunden. In Zukunft werden im Rahmen von weiterführenden Arbeiten neue Arbeitslasten erstellt werden müssen, um die Energieeffizienz von spezialisierter Hardware zu untersuchen. Zurzeit verändert sich die Server-Rechenlandschaft in der Hinsicht, dass spezialisierte Ausführungseinheiten, wie Chips zum maschinellen Lernen, GPGPU Rechenchips und FPGAs in Servern verbaut werden. Um sicherzustellen, dass die Messmethodologie aus dieser Arbeit weiterhin relevant bleibt, wird es nötig sein, Arbeitslasten zu erstellen, welche diese Fälle abdecken, sowie Stromverbrauchsmodelle zu entwerfen, die in der Lage sind, derartige spezialisierte Hardware zu betrachten. KW - Benchmarking KW - Elektrizitätsverbrauch KW - Server KW - Energy Efficiency KW - Metrics KW - Energieeffizienz Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178478 ER - TY - THES A1 - Bangert, Philip T1 - Magnetic Attitude Control of Miniature Satellites and its Extension towards Orbit Control using an Electric Propulsion System T1 - Magnetische Lageregelung von Kleinstsatelliten und ihre Erweiterung zur Orbitregelung durch die Integration eines Elektrischen Antriebssystems N2 - The attitude and orbit control system of pico- and nano-satellites to date is one of the bottle necks for future scientific and commercial applications. A performance increase while keeping with the satellites’ restrictions will enable new space missions especially for the smallest of the CubeSat classes. This work addresses methods to measure and improve the satellite’s attitude pointing and orbit control performance based on advanced sensor data analysis and optimized on-board software concepts. These methods are applied to spaceborne satellites and future CubeSat missions to demonstrate their validity. An in-orbit calibration procedure for a typical CubeSat attitude sensor suite is developed and applied to the UWE-3 satellite in space. Subsequently, a method to estimate the attitude determination accuracy without the help of an external reference sensor is developed. Using this method, it is shown that the UWE-3 satellite achieves an in-orbit attitude determination accuracy of about 2°. An advanced data analysis of the attitude motion of a miniature satellite is used in order to estimate the main attitude disturbance torque in orbit. It is shown, that the magnetic disturbance is by far the most significant contribution for miniature satellites and a method to estimate the residual magnetic dipole moment of a satellite is developed. Its application to three CubeSats currently in orbit reveals that magnetic disturbances are a common issue for this class of satellites. The dipole moments measured are between 23.1mAm² and 137.2mAm². In order to autonomously estimate and counteract this disturbance in future missions an on-board magnetic dipole estimation algorithm is developed. The autonomous neutralization of such disturbance torques together with the simplification of attitude control for the satellite operator is the focus of a novel on-board attitude control software architecture. It incorporates disturbance torques acting on the satellite and automatically optimizes the control output. Its application is demonstrated in space on board of the UWE-3 satellite through various attitude control experiments of which the results are presented here. The integration of a miniaturized electric propulsion system will enable CubeSats to perform orbit control and, thus, open up new application scenarios. The in-orbit characterization, however, poses the problem of precisely measuring very low thrust levels in the order of µN. A method to measure this thrust based on the attitude dynamics of the satellite is developed and evaluated in simulation. It is shown, that the demonstrator mission UWE-4 will be able to measure these thrust levels with a high accuracy of 1% for thrust levels higher than 1µN. The orbit control capabilities of UWE-4 using its electric propulsion system are evaluated and a hybrid attitude control system making use of the satellite’s magnetorquers and the electric propulsion system is developed. It is based on the flexible attitude control architecture mentioned before and thrust vector pointing accuracies of better than 2° can be achieved. This results in a thrust delivery of more than 99% of the desired acceleration in the target direction. N2 - Eine präzise Lage- und Orbitregelung stellt derzeit eine der größten Limitierungen der Einsatzmöglichkeiten von Kleinstsatelliten dar. Um zukünftige wissenschaftliche und kommerzielle Missionen auch mit dieser Klasse von Satelliten erfolgreich durchführen zu können, ist eine Leistungssteigerung bei gleichbleibender Größe und Masse nötig. Die vorliegende Arbeit beschäftigt sich mit der Verbesserung des Lageregelungssystems, der Vermessung der Ausrichtgenauigkeit im Orbit und der Herstellung von Orbitregelungskapazitäten mithilfe von fortschrittlicher Sensordatenanalyse und optimierter on-board Software. Die hier entwickelten Methoden wurden an im Orbit befindlichen Satelliten demonstriert und deren Gültigkeit gezeigt. Neben einer Methode um die typische CubeSat Lageerkennungssensorik im Orbit zu kalibrieren wurde ein Verfahren entwickelt, um die Ausrichtgenauigkeit ohne die Zuhilfenahme eines externen Referenzsensors zu bestimmen. Beide Verfahren wurden mithilfe des UWE-3 Satelliten im Orbit demonstriert. Die genaue Analyse der Dynamik eines Satelliten gibt Aufschluss über die vorwiegend herrschenden Störmomente. Für Kleinstsatelliten im erdnahen Orbit kann gezeigt werden, dass Störungen aufgrund von statischen magnetischen Verunreinigungen bei Weitem am meisten Einfluss auf die Dynamik des Satelliten haben. In dieser Arbeit wird eine Methode präsentiert, die Daten der Lageerkennung nutzt um das magnetische Dipolmoment eines Kleinstsatelliten zu bestimmen. Mithilfe dieses Verfahrens konnte das Dipolmoment von drei unterschiedlichen CubeSats im Bereicht von 23.1mAm² bis 137.2mAm² präzise bestimmt werden. Um die Lageregelungsgenauigkeit zu steigern wird ein Software Konzept präsentiert, welches die bekannten Störungen der Satellitendynamik inherent und energieoptimiert kompensiert. Die Anwendung dieser on-board Software wurde mit UWE-3 in einer Vielzahl von Lageregelungsexperimenten im Orbit demonstriert. Die Integration von elektrischen Antrieben wird zukünftigen Kleinstsatelliten die Möglichkeit zur Orbitkontrolle geben und damit viele neue Anwendungsszenarien eröffnen. Die Qualifizierung und Vermessung der Triebwerke im Orbit stellt jedoch eine technische Schwierigkeit dar, da Schübe im Bereich von µN gemessen werden müssen. Ein Verfahren zur genauen Bestimmung des Schubs eines solchen Triebwerks basierend auf dessen Auswirkung auf die Satellitendynamik wurde entwickelt und wird hier mit Hilfe von Simulationen für die UWE-4 Mission demonstriert. Es wird gezeigt, dass mit Hilfe von UWE-4 der Schub der Triebwerke mit einer hohen Genauigkeit von 1% Fehler für Schübe größer 1µN gemessen werden können. Eine magnetische Lageregelung unter Zuhilfenahme der elektischen Antriebe stellt das Konzept der hybriden Lage- und Orbitregelung für UWE-4 dar. Die damit erzielbare Leistung hinsichtlich der Ausrichtgenauigkeit sowie Orbitregelung wurde untersucht und ist hier für verschiedene Szenarien gezeigt. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 19 KW - Satellit KW - Lageregelung KW - Plasmaantrieb KW - Attitude Determination and Control KW - Attitude Dynamics KW - Thrust Vector Control KW - Kleinsatellit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177020 SN - 978-3-945459-28-7 (online) SN - 1868-7474 ER - TY - THES A1 - Wistlich, Laura T1 - NCO-sP(EO-stat-PO) as functional additive for biomaterials’ development T1 - NCO-sP(EO-stat-PO) als funktionale Additive für die Entwicklung von Biomaterialien N2 - The aim of this thesis was the application of the functional prepolymer NCO-sP(EO-stat-PO) for the development of new biomaterials. First, the influence of the star-shaped polymers on the mechanical properties of biocements and bone adhesives was investigated. 3-armed star-shaped macromers were used as an additive for a mineral bone cement, and the influence on the mechanical properties was studied. Additionally, a previously developed bone adhesive was examined regarding cytocompatibility. The second topic was the examination of novel functionalization steps which were performed on the surface of electrospun fibers modified with NCO-sP(EO-stat-PO). This established method of functionalizing electrospun meshes was advanced regarding the modification with proteins which was then demonstrated in a biological application. Two different kinds of antibodies were immobilized on the fiber surface in a consecutive manner and the influence of these proteins on the cell behavior was investigated. The final topic involved the quantification of surface-bound peptide sequences. By functionalization of the peptides with the UV-reactive molecule 2-mercaptopyridine it was possible to quantify this compound via UV measurements by cleavage of disulfide bridges and indirectly draw conclusions about the number of immobilized peptides. In the field of mineral biocements and bone adhesives, NCO-sP(EO-stat-PO) was able to influence the setting behavior and mechanical performance of mineral bone cements based on calcium phosphate chemistry. The addition of NCO-sP(EO-stat-PO) resulted in a pseudo-ductile fracture behavior due to the formation of a hydrogel network in the cement, which was then mineralized by nanosized hydroxyapatite crystals following cement setting. Accordingly, a commercially available aluminum silicate cement from civil engineering could be modified. In addition, it could be shown that the use of NCO-sP(EO-stat-PO) is beneficial for adjusting specific material properties of bone adhesives. Here, the crosslinking behavior of the prepolymer in an aqueous medium was exploited to form an interpenetrating network (IPN) together with a photochemically curing poly(ethylene glycol) dimethacrylate (PEGDMA) matrix. This could be used for the development of a bone adhesive with an improved adhesion to bone in a wet environment. The developed bone adhesive was further investigated in terms of possible influences of the initiator systems. In addition, the material system was tested for cytocompatibility by using different cell lines. Moreover, the preparation of electrospun fiber meshes via solution electrospinning consisting of poly(lactide-co-glycolide) (PLGA) as a backbone polymer and NCO-sP(EO-stat-PO) as functional additive is an established method for the application of the meshes as a replacement of the native extracellular matrix (ECM). In general, these fibers reveal diameters in the nanometer range, are protein and cell repellent due to the hydrophilic properties of the prepolymer and show a specific biofunctionalization by immobilization of peptide sequences. Here, the isocyanate groups presented on the fiber surface after electrospinning were used to carry out various functionalization steps, while retaining the properties of protein and cell repellency. The modification of the electrospun fibers involved the immobilization of analogs or antagonists of tumor necrosis factor (TNF) and the indirect detection of these by interaction with a light-producing enzyme. Here, a multimodal modification of the fiber surface with RGD to mediate cell adhesion and two different antibodies could be achieved. After culturing the cell line HT1080, the pro- or anti-inflammatory response of cells could be detected by IL-8 specific ELISA measurements. Furthermore, the quantification of molecules on the surface of electrospun fibers was investigated. It was tested whether the detection by means of super-resolution microscopy would be possible. Therefore, experiments were performed with short amino acid sequences such as RGD for quantification by fluorescence microscopy. Based on earlier results, in which a UV-spectrometrically active molecule was used to detect the quantification of RGD, it was shown that short peptides can also be quantified in a small scale on flat functional substrates (2D) such as NCO-sP(EO-stat-PO) hydrogel coatings, and modified electrospun fibers produced from PLGA and NCO-sP(EO-stat-PO) (3D). In addition, a collagen sequence was used to prove that a successful quantification can be carried out as well for longer peptide chains. These studies have revealed that NCO-sP(EO-stat-PO) can serve as a functional additive for many applications and should be considered for further studies on the development of novel biomaterials. The rapid crosslinking reaction, the resulting hydrogel formation and the biocompatibility are to be mentioned as positive properties, which makes the prepolymer interesting for future applications. N2 - Ziel der Arbeit war die Anwendung der funktionalen Präpolymere NCO-sP(EO-stat-PO) für die Entwicklung von neuen Biomaterialien. Als erstes wurde untersucht, welchen Einfluss die sternförmigen Polymere auf die mechanischen Eigenschaften von Biozementen und Knochenadhäsiven haben. Beispielsweise wurden 3-armige Macromere als Additive für einen mineralischen Knochenzement verwendet und dessen mechanische Eigenschaften untersucht. Außerdem wurde ein kürzlich entwickelter NCO-sP(EO-stat-PO) haltiger Knochenklebers auf Zytokompatibilität getestet. Ein zweites Kapitel beinhaltete die Modifikation von elektrogesponnenen Polymerfasern mit NCO-sP(EO-stat-PO) basierend auf einer etablierten Methode. Es wurde untersucht, welche weiteren Funktionalisierungen auf solchen Oberflächen vorgenommen werden können. Diese Modifizierungsschritte wurden in einer biologischen Anwendung demonstriert, indem verschiedene Antikörper aufeinanderfolgend auf der Faseroberfläche gebunden wurden. Der Einfluss dieser Proteine auf das Verhalten von Zellen auf diesen Oberflächen wurde untersucht. Als letztes wurde die Quantifizierung von oberflächengebundenen Peptidsequenzen demonstriert. Mittels Funktionalisierung der Peptide mit dem UV-reaktiven Molekül 2-Mercaptopyridin konnte durch Spaltung von Disulfidbrücken diese Verbindung UV-metrisch quantifiziert und indirekt Rückschlüsse auf die Anzahl der immobilisierten Peptide gezogen werden. Durch den Zusatz von NCO-sP(EO-stat-PO) konnten das Abbindeverhalten und die mechanischen Eigenschaften von mineralischen Calciumphosphat-Knochenzementen moduliert werden. Der Zusatz von 3-armigem, sternförmigem NCO-sP(EO-stat-PO) führte dabei zu einem pseudoduktilen Bruchverhalten durch Bildung eines Hydrogelnetzwerks im Zement, das anschließend durch die Zementreaktion mit nanoskaligem Hydroxylapatit mineralisiert wurde. Im Bereich mineralischer Knochenzemente und Adhäsive konnte gezeigt werden, dass NCO-sP(EO-stat-PO) zur Einstellung der Eigenschaften verwendet werden kann. Hierbei wurde dessen Quervernetzungsverhalten im wässrigen Medium ausgenutzt, um mit einer photochemisch härtenden Polyethylenglykoldimethakrylat (PEGDMA) Matrix interpenetrierende Netzwerke (IPNs) zu bilden. Diese konnten für die Entwicklung eines Knochenklebers mit verbesserter Haftung auf Knochen im feuchten Milieu genutzt werden. Das kürzlich entwickelte Knochenadhäsiv wurde im Hinblick auf den Einfluss des Initiatorsystems untersucht. Außerdem wurde die Zytokompatibilität des Materials anhand verschiedener Zelltypen getestet. Die Herstellung von elektrogesponnenen Faservliesen mittels Solution Electrospinning aus Polylactid-co-Glycolid (PLGA) als Gerüst-bildendem Polymer und NCO-sP(EO-stat-PO) als funktionalem Additiv ist eine etablierte Methode, um diese Vliese zur Nachbildung nativer Extrazellulär-Matrix anzuwenden. Die Fasern weisen einen Durchmesser im Nanometer-Bereich auf, sind proteinabweisend durch die hydrophilen Eigenschaften des Präpolymers und können durch Immobilisierung von Peptidsequenzen spezifisch biofunktionalisiert werden. Hierbei wurden die Isocyanate auf der Faseroberfläche genutzt, um verschiedenste Funktionalisierungsschritte unter Beibehaltung der protein- und zellabweisenden Eigenschaften auszuführen. Die Modifizierung der elektrogesponnenen Fasern beinhaltete die Immobilisierung von Analoga oder Antagonisten des Tumornekrosefaktors (TNF) sowie den indirekten Nachweis über eine Lichtreaktion. Hierbei konnte eine multimodale Modifizierung der Faseroberfläche mit RGD-Sequenzen zur Vermittlung der Zelladhäsion und zwei verschiedenen Antikörpern erreicht werden. Nach Kultivierung der Zelllinie HT1080 konnte die pro- oder antiinflammatorische Antwort der Zellen mittels IL-8 spezifischem ELISA nachgewiesen werden. Eine weitere Fragestellung war der Quantifizierung von Molekülen auf der Oberfläche von elektrogesponnen Fasern gewidmet. Es wurde getestet, ob ein Nachweis mittels hochauflösender Mikroskopie möglich ist. Hierzu wurden RGD-Sequenzen zur fluoreszenzmikroskopischen Quantifizierung verwendet. Basierend auf früheren Ergebnissen, bei denen für die Quantifizierung von RGD ein UV-aktives Molekül genutzt wurde, konnte gezeigt werden, dass sich kurze Peptide auch im kleinen Maßstab auf flachen Substraten (2D) wie Hydrogel-Beschichtungen aus NCO-sP(EO-stat-PO) als auch auf elektrogesponnenen Fasern aus PLGA und NCO-sP(EO-stat-PO) (3D) quantifizieren lassen. Außerdem wurde eine Kollagen-Sequenz als längere Peptidkette herangezogen, um auch hier eine erfolgreiche Quantifizierung zu beweisen. Es konnte gezeigt werden, dass NCO-sP(EO-stat-PO) als funktionales Additiv für viele Anwendungen dienen kann und für weitere Untersuchungen zur Entwicklung von Biomaterialien berücksichtigt werden sollte. Die schnelle Quervernetzungsreaktion, die resultierende Hydrogelbildung und die Biokompatibilität sind als positive Eigenschaften zu nennen, die das Präpolymer für zukünftige Anwendungen interessant macht. KW - Sternpolymere KW - Funktionalisierung KW - Isocyanate KW - surface functionalization KW - biomaterials KW - chemical crosslinking KW - bioceramics KW - electrospun fibers KW - Oberflächenfunktionalisierung KW - funktionale Präpolymere KW - Modifikation von Biokeramiken KW - Funktionalisierung von elektrogesponnenen Fasern Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178365 ER - TY - THES A1 - Kirchner, Eva T1 - Discrete Supramolecular Stacks by Self-Assembly and Folding of Bis(merocyanine) Dyes T1 - Definierte supramolekulare Stapel durch Selbstassemblierung und Faltung von Bis(merocyanin)-Farbstoffen N2 - The present thesis describes the development of a strategy to create discrete finite-sized supramolecular stacks of merocyanine dyes. Thus, bichromophoric stacks of two identical or different chromophores could be realized by folding of bis(merocyanine) dyes and their optical properties were discussed in terms of exciton theory. Quantum chemical calculations revealed strong exciton coupling between the chromophores within the homo- and hetero-π-stacks and the increase of the J-band of the hetero-dimers with increasing energy difference between the excited states of the chromophores could be attributed not only to the different magnitudes of transition dipole moments of the chromophores but also to the increased localization of the excitation in the respective exciton state. Furthermore, careful selection of the length of the spacer unit that defines the interplanar distance between the tethered chromophores directed the self-assembly of the respective bis(merocyanines) into dimers, trimers and tetramers comprising large, structurally precise π-stacks of four, six or eight merocyanine chromophores. It could be demonstrated that the structure of such large supramolecular architectures can be adequately elucidated by commonly accessible analysis tools, in particular NMR techniques in combination with UV/vis measurements and mass spectrometry. Supported by TDDFT calculations, the absorption spectra of the herein investigated aggregates could be explained and a relationship between the absorption properties and the number of stacking chromophores could be established based on exciton theory. N2 - Die vorliegende Arbeit beschreibt die Entwicklung einer Strategie zur Herstellung definierter supramolekularer Stapel aus Merocyaninfarbstoffen. So konnten Dimere bestehend aus zwei identischen oder unterschiedlichen Chromophoren durch Faltung von Bis(merocyanin)-Farbstoffen realisiert und ihre optischen Eigenschaften anhand von Exzitonentheorie diskutiert werden. Quantenchemische Rechnungen ergaben eine starke Exzitonenkopplung sowohl zwischen gleichartigen, als auch zwischen energetisch unterschiedlichen Merocyaninfarbstoffen und der Anstieg der J-Bande der Heterodimere mit zunehmender Energiedifferenz zwischen den angeregten Zuständen der Chromophore konnte nicht nur der unterschiedlichen Größe der Übergangsdipolmomente der Chromophore, sondern auch der zunehmenden Lokalisation der Anregung im jeweiligen Exzitonenzustand zugeschrieben werden. Darüber hinaus führte die sorgfältige Auswahl der Länge der Linkereinheit, welche den interplanaren Abstand zwischen den beiden Chromophoren im Bis(merocyanin) definiert, zur Selbstassemblierung zu Dimeren, Trimeren und Tetrameren, welche definierte π-Stapel bestehend aus vier, sechs oder acht Merocyaninchromophoren umfassen. Es konnte gezeigt werden, dass die Struktur solch großer supramolekularer Architekturen mittels allgemein zugänglicher Analyseverfahren, insbesondere der NMR-Technik in Kombination mit UV/vis-Messungen und Massenspektrometrie, aufgeklärt werden kann. Anhand der so etablierten Modellsysteme konnten schließlich die Absorptionseigenschaften definierter π-Stapel diskutiert und ein Zusammenhang mit der Anzahl der gestapelten Chromophore hergestellt werden. KW - Merocyanine KW - Exziton KW - Supramolekulare Struktur KW - Selbstorganisation KW - Merocyanine dyes KW - Exciton coupling KW - Supramolecular aggregates KW - Self-assembly KW - Exzitonenkopplung KW - Supramolekulare Aggregate KW - Selbstassemblierung Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-159419 ER - TY - THES A1 - Heilos, Anna T1 - Mechanistic Insights into the Inhibition of Cathepsin B and Rhodesain with Low-Molecular Inhibitors T1 - Mechanistische Untersuchungen zur Inhibition von Cathepsin B und Rhodesain mit niedermolekularen Inhibitoren N2 - Cysteine proteases play a crucial role in medical chemistry concerning various fields reaching from more common ailments like cancer and hepatitis to less noted tropical diseases, namely the so-called African Sleeping Sickness (Human Arfican Trypanosomiasis). Detailed knowledge about the catalytic function of these systems is highly desirable for drug research in the respective areas. In this work, the inhibition mechanisms of the two cysteine proteases cathepsin B and rhodesain with respectively one low-molecular inhibitor class were investigated in detail, using computational methods. In order to sufficiently describe macromolecular systems, molecular mechanics based methods (MM) and quantum mechanical based method (QM), as well as hybrid methods (QM/MM) combining those two approaches, were applied. For Cathespin B, carbamate-based molecules were investigated as potential inhibitors for the cysteine protease. The results indicate, that water-bridged proton-transfer reactions play a crucial role for the inhibition. The energetically most favoured pathway (according to the calculations) includes an elimination reaction following an E1cB mechanism with a subsequent carbamylation of the active site amino acid cysteine. Nitroalkene derivatives were investigated as inhibitors for rhodesain. The investigation of structurally similar inhibitors showed, that even small steric differences can crucially influence the inhibition potential of the components. Furthermore, the impact of a fluorination of the nitroalkene inhibitors on the inhibition mechanism was investigated. According to experimental data measured from the working group of professor Schirmeister in Mainz, fluorinated nitroalkenes show – in contrast to the unfluorinated compounds – a time dependent inhibition efficiency. The calculations of the systems indicate, that the fluorination impacts the non-covalent interactions of the inhibitors with the enzymatic environment of the enzyme which results in a different inhibition behaviour. N2 - Cysteinproteasen spielen eine wichtige Rolle in der medizinischen Chemie. Nicht nur im Bereich bekannterer Krankheiten wie Krebs oder Hepatitis, sondern auch bezüglich weniger verbreiteter, tropischer Krankheiten wie der sogenannten afrikanischen Schlafkrankheit (Afrikanische Trypanosomiasis) haben diese Enzyme eine große Bedeutung. Im Bereich der Wirkstofffindung ist ein detailliertes Wissen über die katalytische Funktion der an einer Krankheit beteiligten Enzyme unabdingbar .In der vorliegenden Arbeit wurden die Inhibitionsmechanismen der beiden Cysteinproteasen Cathepsin B und Rhodesain in Verbindung mit zwei niedermolekularen Inhibitorklassen anhand theoretischer Berechnungen untersucht. Um die makromolekularen Systeme ausreichend genau beschreiben zu können, wurden neben molekularmechanischen (MM) und quantenmechanischen (QM) Ansätzen auch Hybridmethoden verwendet, welche beide Ansätze (QM/MM) verbinden. Für Cathepsin B wurden Carbamat-basierte Moleküle als potenzielle Inhibitoren der Cysteinprotease untersucht. Die Ergebnisse weisen darauf hin, dass wasser-verbrückte Protonentransferreaktionen eine entscheidende Rolle für die Inhibition spielen. Der laut den Rechnungen energetisch günstigste Mechanismus beinhaltet eine Eliminierungsreaktion nach einem E1cB Mechanismus gefolgt von der Carbamylierung der Aminosäure Cystein in der aktiven Tasche des Enzyms. Nitroalken-Derivate wurden als potenzielle Rhodesain Inhibitoren untersucht. Der Vergleich strukturell ähnlicher Verbindungen weist darauf hin, dass schon kleine sterische Veränderungen einen großen Einfluss auf das Inhibitionspotenzial der Nitroalkene haben können. Außerdem wurde der Einfluss einer Fluorierung der Inhibitoren anhand von Berechnungen untersucht. Messungen der Arbeitsgruppe von Prof. Schirmeister in Mainz zu fluorierten und unfluorierten Nitroalkenen zeigen, dass die fluorierten Verbindungen ein zeitabhängiges Inhibitionspotenzial in Rhodesain aufweisen. Die Berechnungen der Systeme deuten darauf hin, dass die Fluorierung die nicht-kovalenten Wechselwirkungen der Inhibitoren mit der enzymatischen Umgebung des Systems beeinflussen, was zu einem unterschiedlichen Inhibitionsverhalten führt. KW - Cysteinproteasen KW - Inhibitor KW - Mechanismus KW - Berechnung KW - Inhibition Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178228 ER - TY - THES A1 - Herget, Verena T1 - A novel approach for the calibration of the hadronic recoil for the measurement of the mass of the W boson with the ATLAS Experiment T1 - Eine neuartige Methode zur Kalibrierung des hadronischen Rückstoßes für die Messung der Masse des W-Bosons mit dem ATLAS Experiment N2 - The measurement of the mass of the $W$ boson is currently one of the most promising precision analyses of the Standard Model, that could ultimately reveal a hint for new physics. The mass of the $W$ boson is determined by comparing the $W$ boson, which cannot be reconstructed directly, to the $Z$ boson, where the full decay signature is available. With the help of Monte Carlo simulations one can extrapolate from the $Z$ boson to the $W$ boson. Technically speaking, the measurement of the $W$ boson mass is performed by comparing data taken by the ATLAS experiment to a set of calibrated Monte Carlo simulations, which reflect different mass hypotheses.\ A dedicated calibration of the reconstructed objects in the simulations is crucial for a high precision of the measured value. The comparison of simulated $Z$ boson events to reconstructed $Z$ boson candidates in data allows to derive event weights and scale factors for the calibration. This thesis presents a new approach to reweight the hadronic recoil in the simulations. The focus of the calibration is on the average hadronic activity visible in the mean of the scalar sum of the hadronic recoil $\Sigma E_T$ as a function of pileup. In contrast to the standard method, which directly reweights the scalar sum, the dependency to the transverse boson momentum is less strongly affected here. The $\Sigma E_T$ distribution is modeled first by means of its pileup dependency. Then, the remaining differences in the resolution of the vector sum of the hadronic recoil are scaled. This is done separately for the parallel and the pterpendicular component of the hadronic recoil with respect to the reconstructed boson. This calibration was developed for the dataset taken by the ATLAS experiment at a center of mass energy of $8\,\textrm{TeV}$ in 2012. In addition, the same reweighting procedure is applied to the recent dataset with a low pileup contribution, the \textit{lowMu} runs at $5\,\textrm{TeV}$ and at $13\,\textrm{TeV}$, taken by ATLAS in November 2017. The dedicated aspects of the reweighting procedure are presented in this thesis. It can be shown that this reweighting approach improves the agreement between data and the simulations effectively for all datasets. The uncertainties of this reweighting approach as well as the statistical errors are evaluated for a $W$ mass measurement by a template fit to pseudodata for the \textit{lowMu} dataset. A first estimate of these uncertainties is given here. For the pfoEM algorithm a statistical uncertainty of $17\,\text{MeV}$ for the $5\,\textrm{TeV}$ dataset and of $18\,\text{MeV}$ for the $13\,\textrm{TeV}$ are found for the $W \rightarrow \mu \nu$ analysis. The systematic uncertainty introduced by the resolution scaling has the largest effect, a value of $15\,\text{MeV}$ is estimated for the $13\,\textrm{TeV}$ dataset in the muon channel. N2 - Die Messung der Masse des $W$-Bosons ist im Augenblick eine der vielversprechendsten Präzisionsanalysen des Standard Modells, welche letztendlich einen Hinweis auf neue Physik geben kann. Die Masse des $W$ Bosons wird bestimmt, indem das $W$-Boson, welches nicht direkt rekonstruiert werden kann, mit dem $Z$-Boson verglichen wird, bei dem die vollständige Zerfallssignatur verfügbar ist. Mit Hilfe von Monte Carlo Simulationen kann vom $Z$-Boson auf das $W$-Boson extrapoliert werden. Genau genommen wird die Messung der Masse des $W$-Bosons durchgeführt, indem die Daten, die mit dem ATLAS Experiment aufgenommen wurden, mit einem Satz von kalibrierten Monte Carlo Simulationen verglichen wird. Die Simulationen spiegeln dabei verschiedene Massenhypothesen wider. Eine dezidierte Kalibrierung der rekonstruierten Objekte in den Simulationen ist entscheidend für eine hohe Präzision des gemessenen Werts der Masse des $W$-Bosons. Aus dem Vergleich von simulierten $Z$-Boson Ereignissen und $Z$-Bosonen, die aus den Daten rekonstruiert werden, können Ereignisgewichte und Skalierungsfaktoren für die Kalibrierung erzeugt werden. %Für die Kalibrierung werden Ereignisgewichte und Skalierungsfaktoren erzeugt, indem Simulationen von $Z$ Boson Ereignissen mit $Z$ Bosonen verglichen werden, welche aus den Daten rekonstruiert werden. In dieser Arbeit wird ein neuer Ansatz für die Umgewichtung des hadronischen Rückstoßes in den Simulationen vorgestellt. Der Fokus der Kalibrierung liegt auf der mittleren hadronischen Aktivität, die in der mittleren skalaren Summe des hadronischen Rückstoßes $\Sigma E_T$ als Funktion des Pileups sichtbar ist. Im Gegensatz zur Standardmethode, welche die Skalarsumme direkt umgewichtet, wird hierbei die Abhängigkeit zum transversalen Impuls des Bosons weniger stark beeinflusst. Die $\Sigma E_T$-Verteilung wird zunächst mittels ihrer Abhängigkeit zum Pileup modelliert. Danach werden die verbleibenden Unterschiede in der Auflösung der vektoriellen Summe des hadronischen Rückstoßes skaliert. Dies geschieht separat für die parallele und senkrechte Komponente des hadronischen Rückstoßes, welche in Bezug auf die Richtung des rekonstruierten Bosons gemessen werden. Die Kalibrierung wurde zunächst für den Datensatz entwickelt, der im Jahr 2012 bei einer Schwerpunktsenergie von $8\,\textrm{TeV}$ mit dem ATLAS Experiment aufgenommen wurde. Zusätzlich wird die Umgewichtungsmethodik auf die neuen Datensätze angewendet, welche von ATLAS im November 2017 bei niedrigem Pileup aufgenommen wurden, den \textit{lowMu} Datensätzen bei Schwerpunktsenergien von $5\,\textrm{TeV}$ und $13\,\textrm{TeV}$. In dieser Arbeit werden die verschiedenen Aspekte der Kalibrierung präsentiert. Es kann gezeigt werden, dass diese Herangehensweise für die Umgewichtung des hadronischen Rückstoßes zu einer effektiven Verbesserung der Übereinstimmung zwischen Daten und Simulationen in allen verwendeten Datensätzen führt. Die zugehörigen Unsicherheiten dieser Kalibrierungsmethode sowie die statistischen Fehler für eine Messung der Masse des $W$-Bosons werden anhand der Template-Fit-Methode mit Pseudodaten für die \textit{lowMu} Datensätze ausgewertet. Es wird eine erste Abschätzung dieser Unsicherheiten gegeben. Für den pfoEM Algorithmus wird ein statistischer Fehler von $17\,\text{MeV}$ für den $5\,\textrm{TeV}$ Datensatz und von $18\,\text{MeV}$ für den $13\,\textrm{TeV}$ Datensatz in der $W \rightarrow \mu \nu$ Analyse ermittelt. Die systematische Unsicherheit, welche durch die Auflösungsskalierung erzeugt wird, hat den größten Effekt. Für den $13\,\textrm{TeV}$ Datensatz wird ein Fehler von $15\,\text{MeV}$ im Myonkanal abgeschätzt. KW - Standardmodell KW - European Organization for Nuclear Research. ATLAS Collaboration KW - Präzisionsmessung KW - W-Boson KW - hadronischer Rückstoß KW - hadronic Recoil Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177828 ER - TY - THES A1 - Weinhard, Alexander T1 - Managing RFID Implementations - Implications for Managerial Decision Making T1 - Management von RFID-Implementierungen - Implikationen für die Management Entscheidungsfindung N2 - The present dissertation investigates the management of RFID implementations in retail trade. Our work contributes to this by investigating important aspects that have so far received little attention in scientific literature. We therefore perform three studies about three important aspects of managing RFID implementations. We evaluate in our first study customer acceptance of pervasive retail systems using privacy calculus theory. The results of our study reveal the most important aspects a retailer has to consider when implementing pervasive retail systems. In our second study we analyze RFID-enabled robotic inventory taking with the help of a simulation model. The results show that retailers should implement robotic inventory taking if the accuracy rates of the robots are as high as the robots’ manufacturers claim. In our third and last study we evaluate the potentials of RFID data for supporting managerial decision making. We propose three novel methods in order to extract useful information from RFID data and propose a generic information extraction process. Our work is geared towards practitioners who want to improve their RFID-enabled processes and towards scientists conducting RFID-based research. N2 - Die vorliegende Arbeit beschäftigt sich mit dem Management von RFID Implementierungen im Einzelhandel. Dabei leistet die Arbeit einen Beitrag, indem wichtige aber bisher in der wissenschaftlichen Fachliteratur nur wenig beachtete Aspekte beleuchtet werden. Hierfür werden drei Studien zu drei relevanten Managementaspekten durchgeführt. Zunächst wird die Kundenakzeptanz im Bezug auf pervasive Retail Applikationen betrachtet und mithilfe der Privacy Calculus Theorie ermittelt, welche Aspekte für die Kundenakzeptanz pervasiver Systeme besonders relevant sind. In Studie zwei wird eine RFID-gestützte Roboterinvnetur anhand einer Simulationsstudie evaluiert. Die Studie zeigt, dass eine durch Roboter durchgeführte Inventur für einen Einzelhändler zu empfehlen ist, falls die Roboter tatsächlich mit den von den Herstellern beworbenen Erkennungsraten arbeiten. In der dritten und letzten Studie werden die Potenziale von RFID-Daten zur Entscheidungsunterstützung des Managements evaluiert. Es werden drei Methoden vorgestellt um aus RFID-Daten nützliche Informationen zu gewinnen. Abschließend wird ein generisches Vorgehensmodell zur Informationsextraktion entwickelt. Die Arbeit ist sowohl an Praktiker gerichtet, die ihre RFID-basierten Prozesse verbessern möchten, als auch an Wissenschaftler die RFID-basierte Forschung betreiben. KW - RFID KW - Simulation KW - Management KW - Privatsphäre KW - Roboter KW - Data Analytics Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-178161 ER - TY - THES A1 - Rieger, Max T1 - Preconcentration with Metal-Organic Frameworks as adsorbents for airborne Explosives and Hazardous Materials - A study using inverse gas chromatography T1 - Anreicherung mit Metal-Organic Frameworks als „Adsorbentien für luftgetragene Explosiv- und Gefahrstoffe - Eine Studie mit inverser Gaschromatographie" N2 - Sensitivity and selectivity remain the central technical requirement for analytical devices, detectors and sensors. Especially in the gas phase, concentrations of threat substances can be very low (e.g. explosives) or have severe effects on health even at low concentrations (e.g. benzene) while it contains many potential interferents. Preconcentration, facilitated by active or passive sampling of air by an adsorbent, followed by thermal desorption, results in these substances being released in a smaller volume, effectively increasing their concentration. Traditionally, a wide range of adsorbents, such as active carbons or porous polymers, are used for preconcentration. However, many adsorbents either show chemical reactions due to active surfaces, serious water retention or high background emission due to thermal instability. Metal-organic frameworks (MOFs) are a hybrid substance class, composed inorganic and organic building blocks, being a special case of coordination polymers containing pores. They can be tailored for specific applications such as gas storage, separation, catalysis, sensors or drug delivery. This thesis is focused on investigating MOFs for their use in thermal preconcentration for airborne detection systems. A pre-screening method for MOF-adsorbate interactions was developed and applied, namely inverse gas chromatography (iGC). Using this pulse chromatographic method, the interaction of MOFs and molecules from the class of explosives and volatile organic compounds was studied at different temperatures and compared to thermal desorption results. In the first part, it is shown that archetype MOFs (HKUST-1, MIL-53 and Fe-BTC) outperformed the state-of-the-art polymeric adsorbent Tenax® TA in nitromethane preconcentration for a 1000 (later 1) ppm nitromethane source. For HKUST-1, a factor of more than 2000 per g of adsorbent was achieved, about 100 times higher than for Tenax. Thereby, a nitromethane concentration of 1 ppb could be increased to 2 ppm. High enrichment is addressed to the specific interaction of the nitro group as by iGC, which was determined by comparing nitromethane’s free enthalpy of adsorption with the respective saturated alkane. Also, HKUST-1 shows a similar mode of sorption (enthalpy-entropy compensation) for nitro and saturated alkanes. In the second part, benzene of 1 ppm of concentration was enriched with a similar setup, using 2nd generation MOFs, primarily UiO-66 and UiO-67, under dry and humid (50 %rH) conditions using constant sampling times. Not any MOF within the study did surpass the polymeric Tenax in benzene preconcentration. This is most certainly due to low sampling times – while Tenax may be highly saturated after 600 s, MOFs are not. For regular UiO-66, four differently synthesized samples showed a strongly varying behavior for dry and humid enrichment which cannot be completely explained. iGC investigations with regular alkanes and BTEX compounds revealed that confinement factors and dispersive surface energy were different for all UiO-66 samples. Using physicochemical parameters from iGC, no unified hypothesis explaining all variances could be developed. Altogether, it was shown that MOFs can replace or add to state-of-the-art adsorbents for the enrichment of specific analytes with preconcentration being a universal sensitivity-boosting concept for detectors and sensors. Especially with iGC as a powerful screening tool, most suitable MOFs for the respective target analyte can be evaluated. iGC can be used for determining “single point” retention volumes, which translate into partition coefficients for a specific MOF × analyte × temperature combination. N2 - Empfindlichkeit und Selektivität bleiben die zentralen technischen Anforderungen an analytische Geräte, Detektoren und Sensoren. Speziell in der Gasphase können die Konzentrationen von Gefahrstoffen sehr niedrig sein (z. B. Explosivstoffe) oder bereits bei niedrigen Konzentrationen schädigende Auswirkungen auf die Gesundheit aufweisen (z. B. Benzol) während sie viele potenzielle Interferenzien enthält. Präkonzentration, die durch aktives oder passives Sampling von Luft durch ein Adsorbens, gefolgt von einer Thermodesorption realisiert wird, setzt diese Substanzen effektiv in einem kleineren Volumen frei, was zu einer Erhöhung der Konzentration führt. Üblicherweise wird hierfür eine breite Auswahl an Adsorbentien wie Aktivkohlen oder poröse Polymere verwendet. Jedoch weisen viele Adsorbentien entweder chemische Reaktionen wegen aktiver Oberflächen, starke Wasserretention oder hohe Hintergrundemission wegen thermischer Instabilität auf. Metal-organic frameworks (MOFs) sind eine hybride Substanzklasse, ein Spezialfall der porösen Koordinationspolymere, die aus anorganischen und organischen Baugruppen aufgebaut sind. Sie können für spezifische Anwendungen wie Gasspeicherung, Trennung, Katalyse, Sensorik oder Wirkstofftransport maßgeschneidert werden. Diese Arbeit befasst sich hauptsächlich mit der Untersuchung von MOFs bei der thermischen Anreicherung für luftgetragene Detektionssysteme. Eine Methode zur schnellen Untersuchung von MOF-Analyt Interaktionen wurde entwickelt und angewendet, die inverse Gaschromatographie (iGC). Mit dieser pulschromatographischen Methode wurde die Interaktion von MOFs und Molekülen aus der Klasse der Explosivstoffe sowie Klasse der flüchtigen organischen Verbindungen (VOCs) in der Gasphase bei verschiedenen Temperaturen untersucht und mit Thermodesorptionsmessungen verglichen. Im ersten Teil der Arbeit würde gezeigt das Modell-MOFs (HKUST-1, MIL-53 und Fe-BTC) den polymeren Standard Tenax® TA beim Anreichern von Nitromethan an einer 1000 (später 1) ppm Nitromethan Quelle übertrafen. Im Fall von HKUST-1 konnte ein Faktor von 2000 pro Gramm erreicht werden, etwa 100-fach höher als für Tenax. Auf diese Weise könnte eine Nitromethan Konzentration von 1 ppb auf 2 ppm erhöht werden. Diese hohen Anreicherungsfaktoren entstammen vermutlich der hohen spezifischen Wechselwirkung der Nitrogruppe mit den MOFs. Diese wurden durch iGC beim Vergleich von Nitromethans freier Adsorptionsenthalpie mit dem entsprechenden gesättigten Alkan ermittelt. HKUST-1 weist auch einen ähnlichen Adsorptionsmodus (Enthalpie-Entropie Kompensation) für Nitro- und gesättigte Alkane auf. Im zweiten Teil der Arbeit wurde die Anreicherung von 1 ppm Benzol, mit einem ähnlichen Aufbau und anderen MOFs, hauptsächlich UiO-66 und UiO-67, unter trockenen und feuchten (50 %rF) Bedingungen bei konstanten Samplingzeiten, untersucht. Hierbei konnte kein MOF das polymere Tenax beim Anreichern von Benzol übertreffen. Dies liegt vermutlich an den niedrigen Samplingzeiten – während Tenax nach 600 s bereits stark gesättigt ist, gilt dies nicht für MOFs. Im Fall von UiO-66 zeigten vier Proben unterschiedlicher Herkunft ein stark unterschiedliches Verhalten bei trockener und feuchter Anreicherung welches nicht vollständig erklärt werden kann. iGC Untersuchungen mit gesättigten Alkanen und BTEX-Verbindungen konnten aufzeigen, dass räumliche Beschränktheitsfaktoren und dispersive Oberflächenenergien für alle vier Proben unterschiedlich waren. Mit physikochemischen Parametern aus iGC-Messungen konnte jedoch keine einheitliche Hypothese zum Unterscheiden der Proben entwickelt werden. Insgesamt konnte gezeigt werden, dass MOFs bestehende Adsorbens-Standards zum Anreichern von bestimmten Analyten ersetzen oder erweitern können, wobei Präkonzentration ein Konzept ist, welches universell die Empfindlichkeit eines Detektors oder Sensors steigern kann. Insbesondere mit iGC als mächtiges Werkzeug zur Vorselektion können passende MOFs für die entsprechenden Zielanalyten evaluiert werden. Ebenso kann iGC auch zur Bestimmung von Einzelpunkt Retentionsvolumen, welche Verteilungskoeffizienten für eine bestimmte MOF × Analyt × Temperatur Kombination entsprechen, genutzt werden. KW - Metallorganisches Netzwerk KW - MOF KW - Gas chromatography KW - iGC KW - Explosives KW - Preconcentration KW - Explosivstoff KW - Inverse Gaschromatographie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177750 ER - TY - CHAP A1 - Middelhoff, Frederike A1 - Schönbeck, Sebastian T1 - Coming to Terms: The Poetics of More-than-human Worlds T2 - Texts, Animals, Environments: Zoopoetics and Ecopoetics N2 - No abstract available. KW - Animal Studies KW - Cultural Animal Studies KW - Cultural Studies KW - Ecocriticism KW - Environmental Humanities KW - Human-Animal Studies KW - Literary Studies Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177783 UR - https://www.rombach-verlag.de/buecher/suchergebnis/rombach/buch/details/texts-animals-environments.html PB - Rombach Druck- und Verlagshaus CY - Freiburg i. Br. ER - TY - THES A1 - Pohl, Daniel T1 - Universal Locally Univalent Functions and Universal Conformal Metrics T1 - Universelle Lokal Schlichte Funktionen und Universelle Konforme Metriken N2 - The work at hand discusses various universality results for locally univalent and conformal metrics. In Chapter 2 several interesting approximation results are discussed. Runge-type Theorems for holomorphic and meromorphic locally univalent functions are shown. A well-known local approximation theorem for harmonic functions due to Keldysh is generalized to solutions of the curvature equation. In Chapter 3 and 4 these approximation theorems are used to establish universality results for locally univalent functions and conformal metrics. In particular locally univalent analogues for well-known universality results due Birkhoff, Seidel & Walsh and Heins are shown. N2 - In Kapitel 2 werden Runge-Sätze für holomorphe und meromorphe lokal schlichte Funktionen und ein lokaler Approximationsstaz für konforme Metriken mit negativer Krümmung bewiesen. Mithilfe dieser Sätze werden In Kapitel 3 und 4 Universalitätsresultate für lokal schlichte Funktionen und konforme Metriken gezeigt. KW - Schlichte Funktion KW - Konforme Metrik KW - Universal Functions KW - Conformal Metrics KW - Curvature Equation KW - Runge-type Theorems Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177174 ER - TY - THES A1 - Dindas, Julian T1 - Cytosolic Ca\(^2\)\(^+\), a master regulator of vacuolar ion conductance and fast auxin signaling in \(Arabidopsis\) \(thaliana\) T1 - Zytosolisches Ca\(^2\)\(^+\), ein zentraler Regulator der vakuolären Ionenleitfähigkeit und der schnellen Auxin-Signaltransduktion in \(Arabidopsis\) \(thaliana\) N2 - Das Phytohormon Auxin erfüllt wichtige Funktionen bei der Initiierung von pflanzlichen Geweben und Organen, wie auch in der Steuerung des Wurzelwachstums im Zusammenspiel mit äußeren Reizen wie Schwerkraft, Wasser- und Nähstoffverfügbarkeit. Diese Funktionen basieren dabei vor allem auf der Auxin-abhängigen Regulation von Zellteilung und -streckung. Wichtig für letzteres ist dabei die Kontrolle des Zellturgors durch die Vakuole. Als Speicher für Nährstoffe, Metabolite und Toxine sind Vakuolen von essentieller Bedeutung. Vakuolär gespeicherte Metabolite und Ionen werden sowohl über aktive Transportprozesse, als auch passiv durch Ionenkanäle, über die vakuoläre Membran mit dem Zytoplasma ausgetauscht. In ihrer Funktion als second messenger sind Kalziumionen wichtige Regulatoren, aber auch Gegenstand vakuolärer Transportprozesse. Änderungen der zytosolischen Kalziumkonzentration wirken nicht nur lokal, sie werden auch mit einer Signalweiterleitung über längere Distanzen in Verbindung gebracht. Im Rahmen dieser Arbeit wurden elektrophysiologische Methoden mit bildgebenden Methoden kombiniert um Einblicke in das Zusammenspiel zwischen zytosolischen Kalziumsignalen, vakuolärer Transportprozesse und der Auxin-Physiologie im intakten pflanzlichen Organismus zu gewinnen. Kalziumsignale sind an der Regulierung vakuolärer Ionenkanäle und Transporter beteiligt. Um dies im intakten Organismus zu untersuchen wurden im Modellsystem junger Wurzelhaare von Arabidopsis thaliana Messungen mit intrazellulären Mikroelektroden durchgeführt. Mittels der Zwei-Elektroden-Spannungsklemm-Technik konnte bestätigt werden, dass die vakuoläre Membran der limitierende elektrische Wiederstand während intravakuolärer Messungen ist und so gemessene Ionenströme in der Tat nur die Ströme über die vakuoläre Membran repräsentieren. Die bereits bekannte zeitabhängige Abnahme der vakuolären Leitfähigkeit in Einstichexperimenten konnte weiterhin mit einer einstichbedingten, transienten Erhöhung der zytosolischen Kalziumkonzentration korreliert werden. Durch intravakuoläre Spannungsklemmexperimente in Wurzelhaarzellen von Kalziumreporterpflanzen konnte dieser Zusammenhang zwischen vakuolärer Leitfähigkeit und der zytosolischen Kalziumkonzentration bestätigt werden. Die Vakuole ist jedoch nicht nur ein Empfänger zytosolischer Kalziumsignale. Da die Vakuole den größten intrazellulären Kalziumspeicher darstellt, wird seit Langem diskutiert, ob sie auch an der Erzeugung solcher Signale beteiligt ist. Dies konnte in intakten Wurzelhaarzellen bestätigt werden. Änderungen des vakuolären Membranpotentials wirkten sich auf die zytosolische Kalziumkonzentration in diesen Zellen aus. Während depolarisierende Potentiale zu einer Erhöhung der zytosolischen Kalziumkonzentration führten, bewirkte eine Hyperpolarisierung der vakuolären Membran das Gegenteil. Thermodynamische Überlegungen zum passiven und aktiven Kalziumtransport über die vakuoläre Membran legten dabei den Schluss nahe, dass die hierin beschriebenen Ergebnisse das Verhalten von vakuolären H+/Ca2+ Austauschern wiederspiegeln, deren Aktivität durch die protonenmotorische Kraft bestimmt wird. Im Rahmen dieser Arbeit stellte sich weiterhin heraus, dass zytosolisches Kalzium ebenso ein zentraler Regulator eines schnellen Auxin-induzierten Signalweges ist, über den der polare Transport des Hormons reguliert wird. Im gleichen Modellsystem junger Wurzelhaare konnte gezeigt werden, dass die externe Applikation von Auxin eine sehr schnelle, Auxinkonzentrations- und pH-abhängige Depolarisation des Plasmamembranpotentials zur Folge hat. Synchron zur Depolarisation des Plasmamembranpotentials wurden im Zytosol transiente Kalziumsignale registriert. Diese wurden durch einen von Auxin aktivierten Einstrom von Kalziumionen durch den Ionenkanal CNGC14 hervorgerufen. Experimente an Verlustmutanten als auch pharmakologische Experimente zeigten, dass zur Auxin-induzierten Aktivierung des Kalziumkanals die Auxin-Perzeption durch die F-box Proteine der TIR1/AFB Familie erforderlich ist. Durch Untersuchungen der Auxin-abhängigen Depolarisation wie auch des Auxin-induzierten Einstroms von Protonen in epidermale Wurzelzellen von Verlustmutanten konnte gezeigt werden, dass die sekundär aktive Aufnahme von Auxin durch das hochaffine Transportprotein AUX1 für die schnelle Depolarisation verantwortlich ist. Nicht nur die zytosolischen Kalziumsignale korrelierten mit der CNGC14 Funktion, sondern ebenso die AUX1-vermittelte Depolarisation von Wurzelhaaren. Eine unveränderte Expression von AUX1 in der cngc14 Verlustmutante legte dabei den Schluss nahe, dass die Aktivität von AUX1 posttranslational reguliert werden muss. Diese Hypothese erfuhr Unterstützung durch Experimente, in denen die Behandlung mit dem Kalziumkanalblocker Lanthan zu einer Inaktivierung von AUX1 im Wildtyp führte. Die zytosolische Beladung einzelner epidermaler Wurzelzellen mit Auxin hatte die Ausbreitung lateraler und acropetaler Kalziumwellen zur Folge. Diese korrelierten mit einer Verschiebung des Auxin-Gradienten an der Wurzelspitze und unterstützten somit eine hypothetische Kalziumabhängige Regulation des polaren Auxin Transports. Ein Model für einen schnellen, Auxin induzierten und kalziumabhängigen Signalweg wird präsentiert und dessen Bedeutung für das gravitrope Wurzelwachstum diskutiert. Da die AUX1-vermittelte Depolarisation in Abhängigkeit von der externen Phosphatkonzentration variierte, wird die Bedeutung dieses schnellen Signalwegs ebenso für die Anpassung des Wurzelhaarwachstums an eine nicht ausreichende Verfügbarkeit von Phosphat diskutiert. N2 - The phytohormone auxin performs important functions in the initiation of plant tissues and organs, as well as in the control of root growth in conjunction with external stimuli such as gravity, water and nutrient availability. These functions are based primarily on the auxin-dependent regulation of cell division and elongation. Important for the latter is the control of the cell turgor by the vacuole. As storage for nutrients, metabolites and toxins, vacuoles are of vital importance. Vacuolar stored metabolites and ions are exchanged across the vacuolar membrane with the cytoplasm via active transport processes as well as passively through ion channels. In their function as second messenger, calcium ions are important regulators but also subject to vacuolar transport processes. Changes in the cytosolic calcium concentration not only act locally, but are also associated with signal transduction over longer distances. In this work, electrophysiological methods were combined with imaging techniques to gain insights into the interaction between cytosolic calcium signals, vacuolar transport processes and auxin physiology in the intact plant organism. Calcium signals are involved in the regulation of vacuolar ion channels and transporters. In order to investigate this in the intact organism, intracellular microelectrode measurements were performed in the model system of bulging Arabidopsis thaliana root hairs. By means of the two-electrode voltage-clamp technique, it could be confirmed that the vacuolar membrane is the limiting electrical resistance during intravacuolar measurements and thus measured ion currents actually represent only the currents across the vacuolar membrane. The already known time-dependent decrease of vacuolar conductivity during intravacuolar experiments could be further correlated with an impalement-related, transient increase of the cytosolic calcium concentration. Intravacuolar voltage-clamp experiments in root hair cells of calcium reporter plants confirmed this relationship between vacuolar conductivity and the cytosolic calcium concentration. However, the vacuole is not just a recipient of cytosolic calcium signals. Since the vacuole represents the largest intracellular calcium reservoir, it has long been argued that it is also involved in the generation of such signals. This could be confirmed in intact root hair cells. Changes in the vacuolar membrane potential affected the cytosolic calcium concentration in these cells. While depolarizing potentials led to an increase of the cytosolic calcium concentration, hyperpolarization of the vacuolar membrane caused the opposite. Thermodynamic considerations of passive and active calcium transport across the vacuolar membrane suggested that the results described herein reflect the behaviour of vacuolar H+/Ca2+ exchangers whose activity is determined by the proton motive force. In addition, cytosolic calcium has been shown to be a key regulator of a rapid auxin-induced signaling pathway that regulates polar transport of the hormone. In the same model system of bulging root hairs it could be shown that the external application of auxin results in a very fast, auxin concentration- and pH-dependent depolarization of the plasma membrane potential. Synchronous with the depolarization of the plasma membrane potential, transient calcium signals were recorded in the cytosol. These were caused by an auxin-activated influx of calcium ions through the ion channel CNGC14. Experiments on loss-of-function mutants as well as pharmacological experiments showed that the auxin-induced activation of the calcium channel requires auxin-perception by the F-box proteins of the TIR1/AFB family. Investigations of auxin-dependent depolarization as well as the auxin-induced influx of protons into epidermal root cells of loss-of-function mutants showed that the secondary active uptake of auxin by the high-affinity transport protein AUX1 is responsible for the rapid depolarization Not only the cytosolic calcium signals correlated with CNGC14 function, but also the AUX1-mediated depolarization of root hairs. An unchanged expression of AUX1 in the cngc14 loss-of-function mutant suggested that the activity of AUX1 must be post-translationally regulated. This hypothesis was supported by experiments in which treatment with the calcium channel blocker lanthanum led to inactivation of AUX1 in the wild type. The cytosolic loading of individual epidermal root cells with auxin resulted in the spread of lateral and acropetal calcium waves. These correlated with a shift of the auxin gradient at the root apex and thus supported a hypothetical calcium-dependent regulation of polar auxin transport. A model for a rapid, auxin-induced and calcium-dependent signaling pathway is presented and its importance for gravitropic root growth is discussed. Since AUX1-mediated depolarization varied with external phosphate concentration, the importance of this rapid signaling pathway is also discussed for the adaptation of root hair growth to an inadequate availability of phosphate. KW - Ackerschmalwand KW - Auxine KW - Vakuole KW - Calcium KW - Elektrophysiologie KW - Pflanzenhormone KW - Hormontransport KW - Ionenleitfähigkeit KW - Signaltransduktion KW - Arabidopsis thaliana Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-158638 ER - TY - THES A1 - Pfitzner, Christian T1 - Visual Human Body Weight Estimation with Focus on Clinical Applications T1 - Optische Körpergewichtsschätzung für medizinische Anwendungen N2 - It is the aim of this thesis to present a visual body weight estimation, which is suitable for medical applications. A typical scenario where the estimation of the body weight is essential, is the emergency treatment of stroke patients: In case of an ischemic stroke, the patient has to receive a body weight adapted drug, to solve a blood clot in a vessel. The accuracy of the estimated weight influences the outcome of the therapy directly. However, the treatment has to start as early as possible after the arrival at a trauma room, to provide sufficient treatment. Weighing a patient takes time, and the patient has to be moved. Furthermore, patients are often not able to communicate a value for their body weight due to their stroke symptoms. Therefore, it is state of the art that physicians guess the body weight. A patient receiving a too low dose has an increased risk that the blood clot does not dissolve and brain tissue is permanently damaged. Today, about one-third gets an insufficient dosage. In contrast to that, an overdose can cause bleedings and further complications. Physicians are aware of this issue, but a reliable alternative is missing. The thesis presents state-of-the-art principles and devices for the measurement and estimation of body weight in the context of medical applications. While scales are common and available at a hospital, the process of weighing takes too long and can hardly be integrated into the process of stroke treatment. Sensor systems and algorithms are presented in the section for related work and provide an overview of different approaches. The here presented system -- called Libra3D -- consists of a computer installed in a real trauma room, as well as visual sensors integrated into the ceiling. For the estimation of the body weight, the patient is on a stretcher which is placed in the field of view of the sensors. The three sensors -- two RGB-D and a thermal camera -- are calibrated intrinsically and extrinsically. Also, algorithms for sensor fusion are presented to align the data from all sensors which is the base for a reliable segmentation of the patient. A combination of state-of-the-art image and point cloud algorithms is used to localize the patient on the stretcher. The challenges in the scenario with the patient on the bed is the dynamic environment, including other people or medical devices in the field of view. After the successful segmentation, a set of hand-crafted features is extracted from the patient's point cloud. These features rely on geometric and statistical values and provide a robust input to a subsequent machine learning approach. The final estimation is done with a previously trained artificial neural network. The experiment section offers different configurations of the previously extracted feature vector. Additionally, the here presented approach is compared to state-of-the-art methods; the patient's own assessment, the physician's guess, and an anthropometric estimation. Besides the patient's own estimation, Libra3D outperforms all state-of-the-art estimation methods: 95 percent of all patients are estimated with a relative error of less than 10 percent to ground truth body weight. It takes only a minimal amount of time for the measurement, and the approach can easily be integrated into the treatment of stroke patients, while physicians are not hindered. Furthermore, the section for experiments demonstrates two additional applications: The extracted features can also be used to estimate the body weight of people standing, or even walking in front of a 3D camera. Also, it is possible to determine or classify the BMI of a subject on a stretcher. A potential application for this approach is the reduction of the radiation dose of patients being exposed to X-rays during a CT examination. During the time of this thesis, several data sets were recorded. These data sets contain the ground truth body weight, as well as the data from the sensors. They are available for the collaboration in the field of body weight estimation for medical applications. N2 - Diese Arbeit zeigt eine optische Körpergewichtsschätzung, welche für medizinische Anwendungen geeignet ist. Ein gängiges Szenario, in dem eine Gewichtsschätzung benötigt wird, ist die Notfallbehandlung von Schlaganfallpatienten: Falls ein ischämischer Schlaganfall vorliegt, erhält der Patient ein auf das Körpergewicht abgestimmtes Medikament, um einen Thrombus in einem Gefäß aufzulösen. Die Genauigkeit der Gewichtsschätzung hat direkten Einfluss auf den Erfolg der Behandlung. Hinzu kommt, dass die Behandlung so schnell wie möglich nach der Ankunft im Krankenhaus erfolgen muss, um eine erfolgreiche Behandlung zu garantieren. Das Wiegen eines Patienten ist zeitaufwändig und der Patient müsste hierfür bewegt werden. Des Weiteren können viele Patienten aufgrund des Schlaganfalls nicht ihr eigenes Gewicht mitteilen. Daher ist es heutzutage üblich, dass Ärzte das Gewicht schätzen. Erhält ein Patient eine zu geringe Dosis, steigt das Risiko, dass sich der Thrombus nicht auflöst und das Gehirngewebe dauerhaft geschädigt bleibt. Eine Überdosis kann dagegen zu Blutungen und weiteren Komplikationen führen. Ein Drittel der Patienten erhält heutzutage eine unzureichende Dosis. Ärzte sind sich dessen bewusst, aber derzeit gibt es kein alternatives Vorgehen. Diese Arbeit präsentiert Elemente und Geräte zur Messung und Schätzung des Körpergewichts, die im medizinischen Umfeld verwendet werden. Zwar sind Waagen im Krankenhaus üblich, aufgrund des engen Zeitfensters für die Behandlung können sie aber nur schlecht in den Behandlungsablauf von Schlaganfallpatienten integriert werden. Der Abschnitt zum Stand der Technik zeigt verschiedene Sensorsysteme und Algorithmen. Das hier gezeigte System -- genannt Libra3D -- besteht aus einem Computer im Behandlungsraum, sowie den in der Decke integrierten optischen Sensoren. Für die Gewichtsschätzung befindet sich der Patient auf einer Liege im Blickfeld der Sensoren. Die drei Sensoren -- zwei RGB-D- und einer Wärmebildkamera -- sind intrinsisch und extrinsisch kalibriert. Des Weiteren werden Algorithmen zur Sensorfusion vorgestellt, welche die Daten für eine erfolgreiche Segmentierung des Patienten zusammenführen. Eine Kombination aus verschiedenen gängigen Bildverarbeitungs- und Punktwolken-Algorithmen lokalisiert den Patienten auf der Liege. Die Herausforderung in diesem Szenario mit dem Patienten auf dem Bett sind ständige Veränderungen, darunter auch andere Personen oder medizinische Geräte im Sichtfeld. Nach der erfolgreichen Segmentierung werden Merkmale von der Punktwolke des Patienten extrahiert. Diese Merkmale beruhen auf geometrischen und statistischen Eigenschaften und bieten robuste Werte für das nachfolgende maschinelle Lernverfahren. Die Schätzung des Gewichts basiert letztlich auf einem zuvor trainierten künstlichen neuronalen Netz. Das Kapitel zu den Experimenten zeigt verschiedene Kombinationen von Werten aus dem Merkmalsvektor. Zusätzlich wird der Ansatz mit Methoden aus dem Stand der Technik verglichen: der Schätzung des Patienten, des Arztes, und einer anthropometrischen Schätzung. Bis auf die eigene Schätzung des Patienten übertrifft Libra3D hierbei alle anderen Methoden: 95 Prozent aller Schätzungen weisen einen relativen Fehler von weniger als 10 Prozent zum realen Körpergewicht auf. Dabei benötigt das System wenig Zeit für eine Messung und kann einfach in den Behandlungsablauf von Schlaganfallpatienten integriert werden, ohne Ärzte zu behindern. Des Weiteren zeigt der Abschnitt für Experimente zwei weitere Anwendungen: Die extrahierten Merkmale können dazu verwendet werden das Gewicht von stehenden und auch laufenden Personen zu schätzen, die sich vor einer 3D-Kamera befinden. Darüber hinaus ist es auch möglich den BMI von Patienten auf einer Liege zu bestimmen. Diese kann die Strahlenexposition bei CT-Untersuchungen beispielsweise verringern. Während dieser Dissertation sind einige Datensätze entstanden. Sie enthalten das reale Gewicht, sowie die dazugehörigen Sensordaten. Die Datensätze sind für die Zusammenarbeit im Bereich der Körpergewichtsschätzung für medizinische Anwendungen verfügbar. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 18 KW - Punktwolke KW - Maschinelles Lernen KW - Schlaganfall KW - Körpergewicht KW - Bildverarbeitung KW - 3D Point Cloud Processing KW - Image Processing KW - Stroke KW - Human Body Weight KW - Kinect KW - Machine Learning KW - Sensor Fusion KW - Segmentation KW - Perception Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174842 SN - 978-3-945459-27-0 (online) ER - TY - THES A1 - Tscharn, Robert T1 - Innovative And Age-Inclusive Interaction Design with Image-Schematic Metaphors T1 - Innovatives und Alters-Inklusives Interaktionsdesign mit Image-Schematischen Metaphern N2 - The field of human-computer interaction (HCI) strives for innovative user interfaces. Innovative and novel user interfaces are a challenge for a growing population of older users and endanger older adults to be excluded from an increasingly digital world. This is because older adults often have lower cognitive abilities and little prior experiences with technology. This thesis aims at resolving the tension between innovation and age-inclusiveness by developing user interfaces that can be used regardless of cognitive abilities and technology-dependent prior knowledge. The method of image-schematic metaphors holds promises for innovative and age-inclusive interaction design. Image-schematic metaphors represent a form of technology-independent prior knowledge. They reveal basic mental models and can be gathered in language (e.g. bank account is container from "I put money into my bank account"). Based on a discussion of previous applications of image-schematic metaphors in HCI, the present work derives three empirical research questions regarding image-schematic metaphors for innovative and age-inclusive interaction design. The first research question addresses the yet untested assumption that younger and older adults overlap in their technology-independent prior knowledge and, therefore, their usage of image-schematic metaphors. In study 1, a total of 41 participants described abstract concepts from the domains of online banking and everyday life. In study 2, ten contextual interviews were conducted. In both studies, younger and older adults showed a substantial overlap of 70% to 75%, indicating that also their mental models overlap substantially. The second research question addresses the applicability and potential of image-schematic metaphors for innovative design from the perspective of designers. In study 3, 18 student design teams completed an ideation process with either an affinity diagram as the industry standard, image-schematic metaphors or both methods in combination and created paper prototypes. The image-schematic metaphor method alone, but not the combination of both methods, was readily adopted and applied just as a well as the more familiar standard method. In study 4, professional interaction designers created prototypes either with or without image-schematic metaphors. In both studies, the method of image-schematic metaphors was perceived as applicable and creativity stimulating. The third research question addresses whether designs that explicitly follow image-schematic metaphors are more innovative and age-inclusive regarding differences in cognitive abilities and prior technological knowledge. In two experimental studies (study 5 and 6) involving a total of 54 younger and 53 older adults, prototypes that were designed with image-schematic metaphors were perceived as more innovative compared to those who were designed without image-schematic metaphors. Moreover, the impact of prior technological knowledge on interaction was reduced for prototypes that had been designed with image-schematic metaphors. However, participants' cognitive abilities and age still influenced the interaction significantly. The present work provides empirical as well as methodological findings that can help to promote the method of image-schematic metaphors in interaction design. As a result of these studies it can be concluded that the image-schematic metaphors are an applicable and effective method for innovative user interfaces that can be used regardless of prior technological knowledge. N2 - Innovative Benutzungsoberflächen sind eines der Hauptziele der Mensch-Computer Interaktion. Diese neuartigen Benutzungsoberflächen sind eine Herausforderung gerade für ältere Benutzer und drohen diese aus der immer digitaleren Welt auszuschließen. Hierbei spielen abnehmende kognitive Fähigkeiten und eine geringere Vorerfahrung mit Technologie eine wichtige Rolle. Diese Arbeit zielt darauf ab, die Spannung zwischen Innovation und Alters-Inklusivität zu verringern und Benutzungsoberflächen zu entwickeln, die unabhängig von kognitiven Fähigkeiten und technologieabhängigem Vorwissen benutzt werden können. Die Methode der image-schematischen Metaphern verspricht innovative und zugleich alters-inklusives Interaktionsdesign. Image-schematische Metaphern stellen eine technologieunabhängige Form von Vorwissen dar. Sie offenbaren grundlegende mentale Modelle und können aus metaphorischer Sprache extrahiert werden (z.B. Bankkonto ist Container ausgehend von "Geld ein}zahlen). Die vorliegende Arbeit leitet aus vorangegangen Anwendung von image-schematischen Metaphern im Bereich der Mensch-Computer Interaktion drei empirische Forschungsfragen mit dem Fokus auf innovatives und alters-inklusives Interaktionsdesign ab. Die erste Forschungsfrage behandelt die bisher ungetestete Annahme, dass junge und ältere Menschen in ihrem technologieunabhängigem Vorwissen und damit auch im Gebrauch image-schematischer Metaphern übereinstimmen. In Studie 1 beschrieben 41 Probanden abstrakte Konzepte in den Bereichen Online Banking und Alltag. In Studie 2 wurden zehn kontextuelle Interviews durchgeführt. In beiden Studien wurde eine Übereinstimmung zwischen 70% und 75% gefunden, was auf eine substantielle Übereinstimmung der mentalen Modelle hinweist. Die zweite Forschungsfrage zielte auf die Anwendbarkeit und das Potential image-schematischer Metaphern für innovatives Design aus der Perspektive von Designern ab. In Studie 3 durchliefen 18 studentische Designteams einen Ideenfindungsprozess mit Prototypenerstellung, der entweder auf einem Affinity Diagramm als Industriestandard, image-schematischen Metaphern oder beiden Ansätzen in Kombination basierte. Die Methode der image-schematischen Metaphern, aber nicht die Kombination beider Methoden, war ebenso leicht anwendbar wie die bekanntere Standardmethode. In Studie 4 erstellten professionelle Interaktionsdesigner Prototypen mit oder ohne image-schematische Metaphern. In beiden Studien wurde die neue Methode als leicht anwendbar und die Kreativität stimulierend wahrgenommen. Die dritte Forschungsfrage ging der Frage nach, ob Prototypen, die explizit auf image-schematischen Metaphern basieren, tatsächlich innovativer wahrgenommen werden und alters-inklusiver bezüglich kognitiver Fähigkeiten und Technologievorwissen sind. In zwei experimentellen Studien (Studie 5 und 6) mit insgesamt 54 jüngeren und 53 älteren Menschen wurden Prototypen, die mit image-schematischen Metaphern entwickelt worden waren, als innovativer wahrgenommen als solche, die nicht explizit mit der neuen Methode entwickelt worden waren. Zudem war der Einfluss von Technologievorwissen auf die Interaktion geringer für Prototypen, die mit image-schematischen Metaphern erstellt worden waren. Der Einfluss von kognitiven Fähigkeiten und Alter auf die Interaktion blieb jedoch signifikant. Die vorliegende Arbeit liefert sowohl in empirischer als auch methodischer Hinsicht einen Beitrag zur Weiterentwicklung der Methode der image-schematischen Metaphern im Interaktionsdesign. Als Ergebnis dieser Arbeit lässt sich festhalten, dass image-schematische Metaphern eine leicht anwendbare und effektive Methode darstellen, um innovative Benutzungsoberflächen zu entwickeln, die unabhängig von Technologievorwissen benutzt werden können. KW - Mensch-Maschine-Kommunikation KW - Innovation KW - Human-Computer Interaction KW - Innovation KW - Experimental Studies KW - Interaction Design KW - Methodology KW - Benutzeroberfläche Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-175762 ER - TY - CHAP ED - Middelhoff, Frederike ED - Schönbeck, Sebastian ED - Borgards, Roland ED - Gersdorf, Catrin T1 - Texts, Animals, Environments: Zoopoetics and Ecopoetics N2 - Texts, Animals, Environments. Zoopoetics and Ecopoetics probes the multiple links between ecocriticism and animal studies, assessing the relations between animals, environments and poetics. While ecocriticism usually relies on a relational approach to explore phenomena related to the environment or ecology more broadly, animal studies tends to examine individual or species-specific aspects. As a consequence, ecocriticism concentrates on ecopoetical, animal studies on zoopoetical elements and modes of representation in literature (and the arts more generally). Bringing key concepts of ecocriticism and animal studies into dialogue, the volume explores new ways of thinking about and reading texts, animals, and environments – not as separate entities but as part of the same collective. KW - Ecocriticism KW - Animal Studies KW - Cultural Animal Studies KW - Human-Animal Studies KW - Environmental Humanities KW - Literary Studies KW - Cultural Studies Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177209 UR - https://www.rombach-verlag.de/buecher/suchergebnis/rombach/buch/details/texts-animals-environments.html SN - 978-3-7930-9928-4 PB - Rombach Druck- und Verlagshaus CY - Freiburg i. Br. ET - 1. Auflage ER - TY - THES A1 - Rasheed, Huma T1 - Development of simple and cost-effective High Performance Liquid Chromatography methods for quality control of essential beta-lactam antibiotics in low- and middle-income countries T1 - Entwicklung einfacher und kosteneffektiver Hochleistungs-Flüssigchromatographie(HPLC)-Methoden für die Qualitätskontrolle für Betalaktam-Antibiotika in Entwicklungs- und Schwellenländern N2 - Assay and impurity profiling of the pharmaceuticals are the key routine quality control methods employed worldwide for which High Performance Liquid Chromatography (HPLC) is the most widely used technique. The ability to carry out these routine laboratory procedures in low- and middle- income countries (LMICs) need the methods to be based upon simple instruments manageable with moderate levels of personnel skill and costs involved. Simple, convenient, and cost effective reverse phase HPLC methods were developed using phosphate buffer and methanol as mobile phase with C18 column as stationary phase for the impurity profiling and assay of beta lactam antibiotics. Isocratic elution and UV detection was employed in these methods. Impurity profiling method was developed for coamoxiclav tablets and ceftriaxone bulk drug. The method for ceftriaxone included a supplementary method to quantify one of its known impurity (Impurity D of ceftriaxone). This method involved use of acetonitrile where as the two main methods were achieved on the targeted method design, described above. With the exception of impurity A of ceftriaxone, the methods developed can successfully quantify impurities to the concentration as low as ≤0.05%, which is in accordance with the current guidelines for the impurity profiling of antibiotics issued by European Medicines Agency. As ensuring cost reduction was one of the key objectives of carrying out the method development exercise, in situ methods for the preparation of impurities were also identified and some new methods were introduced. The stability of beta lactam antibiotics and the choice of solvent were given due attention during the process of method development revealing information on the presence of new impurities. Deacetyl cefotaxime and 2-mercaptobenzathiazole were identified in this process as new impurities of ceftriaxone currently not listed under known impurities by United States Pharmacopoeia and European Pharmacopoeia. However, deacetyl cefotaxime is a known impurity of cefotaxime whereas the latter molecule is a degradation product of one of the synthesis impurities of ceftriaxone. This substance is reported to be carcinogenic and is resolved using the supplementary method developed for ceftriaxone, hence making its detection and quantification possible. A known inactive impurity of ceftriaxone (Impurity A, E-isomer of ceftriaxone) was` also shown to be produced by exposure to day light, thus warranting the light protection of the ceftriaxone solution, an information that is of critical importance in the clinical settings. A series of experimentation was carried out on the finished products of beta lactam antibiotics sampled from Pakistan and few other countries, to identify key quality issues in the samples. Though the limited sample size and convenient sampling did not provide results that could yield a decisive figure for the country status for prevalence of substandard and falsified medical products, but the experiments have clearly indicated that the problems in drug quality do exist and beta lactam antibiotics form a class of high-risk medicine with respect to surveillance for poor-quality medicines. Isolation of unknown impurities was also carried out along with the introduction of new and modified methods for preparation of impurities of beta-lactam antibiotics. In addition, detailed literature survey was carried out for understanding the complex problem of the poor-quality medicine, impact of poor quality antimicrobials on health care system and the magnitude of the problem at the global level. The country status of Pakistan regarding quality of medicines was recorded based upon the available documentary evidence. The current technologies and strategic options available for low- and middle-income countries in aiding fight for combating poor quality medicines was also laid down to design recommendations for Pakistan. A comprehensive review of the information technology tools used for identification and control of substandard and falsified medicines was also conducted. N2 - Für die Bestimmung der Reinheit und des Gehaltes von Arzneistoffen wird weltweit maßgeblich die Hochleistungs-Flüssigchromatographie (HPLC) eingesetzt. Damit die entsprechenden Methoden auch in Entwicklungs- und Schwellenländern angewendet werden können, müssen sie zur Verwendung mit sehr einfachen Messgeräten geeignet sein und von auch weniger gut ausgebildetem Personal durchgeführt werden können. Zudem sollten die Kosten möglichst niedrig sein. Für die Reinheitsanalytik sowie die Bestimmung des Gehaltes von Betalaktam-Antibiotika wurden einfache, praktische und kostengünstige chromatographische Methoden unter Verwendung von Umkehrphasen entwickelt, die als mobile Phase Gemische aus Phosphatpuffern und Methanol sowie als stationäre Phase C18-Säulen verwenden. Die Methoden sind isokratisch, die Detektion erfolgt mittels UV/Vis-Spektrometer. Für Coamoxiclav-Tabletten sowie den Arzneistoff Ceftiaxon wurden Methoden zur Reinheitsprüfung entwickelt. Für die Reinheitsprüfung von Ceftriaxon wurde eine zweite Methode benötigt, um eine der bekannten Verunreinigungen (Ceftriaxon-Verunreinigung D) zu quantifizieren. Hierbei musste Acetonitril als Bestandteil der mobilen Phase gewählt werden, wohingegen die beiden Hauptmethoden dem beschriebenen Methodendesign folgten. Außer im Falle der Ceftriaxon-Verunreinigung A können mit den Methoden Verunreinigungen bis zu einem Konzentrationslevel ≤ 0,05 % bestimmt werden, was den Vorgaben aktueller Richtlinien für die Reinheitsanalytik der Europäischen Arzneimittelbehörde entspricht. Da es ein Kernziel während der Methodenentwicklung war, die Kosten für die Analytik möglichst gering zu halten, wurden in situ-Methoden für die Gewinnung von Verunreinigungen entwickelt und einige neue eingeführt. Während des Entwicklungsprozesses wurde besonders auf die Stabilität der Antibiotika und auf die Wahl des Lösungsmittels geachtet, wobei Erkenntnisse über die Anwesenheit neuer Verunreinigungen erlangt werden konnten. Desacetylcefotaxime und 2-Mercaptobenzathiazol wurden als neue Verwandte Substanzen von Ceftriaxon identifiziert und sind derzeit nicht als bekannte Verunreinigen in der United States Pharmacopoeia sowie dem Europäischen Arzneibuch aufgeführt. Desacetylcefotaxime ist eine bekannte Verunreinigung von Cefotaxime, wohingegen das zweite Molekül ein Abbauprodukt einer der Verunreinigungen ist, die während der Synthese von Ceftriaxon entstehen können. Es ist bekannt, dass diese Substanz karzinogen ist, und sie kann mit der erweiterten zweiten Methode für Ceftriaxon erfasst und quantifiziert werden. Unter Lichteinfluss bildete sich zudem eine weitere bekannte, inaktive Verunreinigung von Ceftriaxon (Verunreinigung A, E-Isomeres von Ceftriaxon), weshalb Ceftriaxon-haltige Lösungen vor Licht geschützt aufbewahrt werden sollten. Dieses Wissen ist besonders für den klinischen Bereich relevant. An einer Reihe von Betalaktam-haltigen Fertigarzneimitteln aus Pakistan und einigen anderen Ländern wurden mehrere Qualitätsuntersuchungen angestellt. Obwohl der geringe Probenumfang und die Methoden der Probensammlung kein eindeutiges Bild darüber zeichnen konnte, ob in einem bestimmten Land Arzneimittelfälschungen besonders häufig auftreten, konnte durch die Versuche dennoch festgestellt werden, dass es Probleme bei der Arzneimittelqualität gibt und dass Betalaktam-Antibiotika eine Hochrisikogruppe darstellen, die besonders gut hinsichtlich des Vorkommens minderwertiger Arzneimittel untersucht werden muss. Zudem wurden unbekannte Verunreinigungen aus den Proben isoliert und neue sowie modifizierte Methoden entwickelt, um Verunreinigungen der untersuchten Substanzen zu gewinnen. Zudem wurde eine ausführliche Literaturrecherche durchgeführt, um das komplexe Problem minderwertiger Arzneimittel, den Einfluss minderwertiger Antibiotika auf das Gesundheitssystem sowie das globale Ausmaß des Problems zu verstehen. Für Pakistan wurde der status quo der Arzneimittelqualität aufgrund vorhandener Dokumentation ermittelt. Außerdem wurde dargelegt, inwiefern die heutigen modernen Technologien und Strategien, die für Entwicklungs- und Schwellenländern zur Verfügung stehen, zur Bekämpfung von qualitativ minderwertigen Arzneimitteln in Pakistan beitragen können. Hierzu wurde eine Übersicht aktueller, moderner digitaler Techniken angefertigt, die für die Aufdeckung und Bekämpfung von minderwertigen und gefälschten Arzneimitteln verwendet werden können. KW - Quality ccontrol KW - antibiotics KW - HPLC KW - LMICS KW - simple KW - HPLC KW - Low-income Countries KW - Qualitätskontrolle KW - Antibiotikum Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-177214 ER - TY - THES A1 - Metter, Christopher Valentin T1 - Resilience, Availabilty, and Serviceability Evaluation in Software-defined Networks T1 - Auswertung der Ausfallsicherheit, Verfügbarkeit und Gebrauchstauglichkeit in Software-definierten Netzwerken N2 - With the introduction of Software-defined Networking (SDN) in the late 2000s, not only a new research field has been created, but a paradigm shift was initiated in the broad field of networking. The programmable network control by SDN is a big step, but also a stumbling block for many of the established network operators and vendors. As with any new technology the question about the maturity and the productionreadiness of it arises. Therefore, this thesis picks specific features of SDN and analyzes its performance, reliability, and availability in scenarios that can be expected in production deployments. The first SDN topic is the performance impact of application traffic in the data plane on the control plane. Second, reliability and availability concerns of SDN deployments are exemplary analyzed by evaluating the detection performance of a common SDN controller. Thirdly, the performance of P4, a technology that enhances SDN, or better its impact of certain control operations on the processing performance is evaluated. N2 - Mit der Einführung von Software-definierten Netzwerken (SDN) in den späten 2000ern wurde nicht nur ein neues Forschungsfeld begründet sondern auch ein Paradigmenwechsel im breiten Feld der Netzwerktechnik eingeleitet. Die programmierbare Kontrolle über das Netzwerk durch SDN ist eine großer Schritt, aber auch ein Stolperstein für viele der etablierten Netzwerk Operatoren und Hersteller. Wie mit jeder neuen Technologie stellt sich die Frage über die Reife und die Eignung für den Produktionseinsatz. Diese Arbeit wählt deswegen drei spezifische Eigenschaften von SDN und untersucht sie auf ihre Performanz, Ausfallsicherheit und Verfügbarkeit in Szenarien die so in Produktionsumgebungen zu erwarten sind. Das erste SDN Thema ist der Einfluss von Applikationsverkehr in der Data Plane auf die Performanz in der Control Plane. Als zweites Thema werden die Zuverlässigkeits- und Verfügbarkeitsbedenken von SDN Installationen exemplarisch durch die Evaluation der Erkennungsperformanz eines gängigen SDN Controllers analyisiert.Schließlich wird die Verarbeitungsperformanz von P4, einer Technolgie die SDN erweitert, anhand eines Beispiels evaluiert. T3 - Würzburger Beiträge zur Leistungsbewertung Verteilter Systeme - 04/18 KW - Leistungsbewertung KW - Telekommunikationsnetz KW - Netzwerk KW - Software-defined Networking KW - RAS Evaluation KW - Software Defined Networking Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176788 SN - 1432-8801 ER - TY - THES A1 - Weller, Lisa T1 - How to not act? Cognitive foundations of intentional nonactions T1 - Wie handelt man nicht? - Kognitive Grundlagen von intentionalen Nichthandlungen N2 - Human actions are generally not determined by external stimuli, but by internal goals and by the urge to evoke desired effects in the environment. To reach these effects, humans typically have to act. But at times, deciding not to act can be better suited or even the only way to reach a desired effect. What mental processes are involved when people decide not to act to reach certain effects? From the outside it may seem that nothing remarkable is happening, because no action can be observed. However, I present three studies which disclose the cognitive processes that control nonactions. The present experiments address situations where people intentionally decide to omit certain actions in order to produce a predictable effect in the environment. These experiments are based on the ideomotor hypothesis, which suggests that bidirectional associations can be formed between actions and the resulting effects. Because of these associations, anticipating the effects can in turn activate the respective action. The results of the present experiments show that associations can be formed between nonactions (i.e., the intentional decision not to act) and the resulting effects. Due to these associations, perceiving the nonaction effects encourages not acting (Exp. 1–3). What is more, planning a nonaction seems to come with an activation of the effects that inevitably follow the nonaction (Exp. 4–5). These results suggest that the ideomotor hypothesis can be expanded to nonactions and that nonactions are cognitively represented in terms of their sensory effects. Furthermore, nonaction effects can elicit a sense of agency (Exp. 6–8). That is, even though people refrain from acting, the resulting nonaction effects are perceived as self-produced effects. In a nutshell, these findings demonstrate that intentional nonactions include specific mechanisms and processes, which are involved, for instance, in effect anticipation and the sense of agency. This means that, while it may seem that nothing remarkable is happening when people decide not to act, complex processes run on the inside, which are also involved in intentional actions. N2 - Menschliches Verhalten ist im Allgemeinen nicht reizbestimmt, sondern zielgerichtet und hat die Absicht gewünschte Effekte in der Umwelt hervorzurufen. Häufig müssen Menschen eine Handlung ausführen, um diese Effekte zu erreichen. Manche Effekte können allerdings besser oder sogar nur dann erreicht werden, wenn man sich entscheidet nicht zu handeln. Welche mentalen Prozesse finden aber statt, wenn Menschen sich entscheiden nicht zu handeln? Oberflächlich betrachtet scheint es als würde nichts weiter Bemerkenswertes ablaufen, da keine Handlung zu beobachten ist. In drei Experimentalreihen zeige ich aber die kognitiven Prozesse auf, die das Nichthandeln kontrollieren. In den vorliegenden Experimenten werden Situationen untersucht, in denen sich Menschen entscheiden nicht zu handeln, um vorhersehbare Effekte zu erzeugen. Die Experimente basieren auf der ideomotorischen Hypothese, die annimmt, dass bidirektionale Assoziationen zwischen Handlungen und den resultierenden Effekten gebildet werden können. Dadurch kann eine Vorstellung der Effekte wiederum die verbundene Handlung hervorrufen. Die Ergebnisse zeigen, dass Assoziationen auch zwischen Nichthandlungen und den daraus resultierenden Effekten gebildet werden können. Diese Assoziationen führen dazu, dass die Wahrnehmung der Effekte selbst die Nichthandlung hervorrufen kann (Exp. 1–3). Außerdem scheint die Planung einer Nichthandlung automatisch eine Vorstellung der assoziierten Effekte zu aktivieren (Exp. 4–5). Diese Befunde legen nahe, dass die ideomotorische Hypothese auch auf Nichthandlungen übertragen werden kann und dass Nichthandlungen kognitiv durch die Effekte, die sie hervorrufen, repräsentiert sind. Darüber hinaus scheinen Menschen ein Verursachungsgefühl (“Sense of Agency”) für die Effekte ihrer Nichthandlungen zu haben (Exp. 6–8). Das bedeutet, dass die resultierenden Effekte (obwohl nicht gehandelt wurde) wie selbsterzeugte Effekte wahrgenommen werden können. Zusammenfassend zeigen die Experimente, dass intentionale Nichthandlungen von spezifischen Mechanismen und Prozessen begleitet werden, die z.B. bei der Effektantizipation und dem Sense of Agency involviert sind. Obwohl es also von außen so scheint, als würde nichts Bemerkenswertes passieren, wenn Menschen intentional nicht handeln, laufen im Inneren komplexe Prozesse ab wie beim intentionalen Handeln. KW - Intention KW - Kognition KW - Ideomotor Theory KW - Sense of Agency KW - Intentional Nonaction KW - Ideomotorik KW - Intentionale Nichthandlung KW - Aktionsforschung KW - Experimentelle Psychologie Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176678 ER - TY - THES A1 - Harbrecht, Isabelle T1 - Entering Society – The Adolescence, Identity and Development of Vocational Education Students in Shanghai T1 - Eintritt in die Gesellschaft – Jugend, Identität und Entwicklung von Berufsschülern in Shanghai N2 - With the late twentieth-century reform of the labour market and the abolition of the ‘iron rice bowl’ in China, jobs were no longer guaranteed by the government and higher education became more and more a requirement for even low-level positions. A surplus of academics and a lack of skilled workers became the long-term consequences. Since the early 2000s, the government has tried to mitigate this situation by promoting and developing vocational education. However, it is still considered to be a second class education, suitable only for weak students whose results are too low for an academic middle school. Based on the qualitative and quantitative data of a three-year panel study conducted in vocational schools in Shanghai, the present publication analyses the social environments, personalities, values and perceptions of students in vocational education – adolescents stigmatized by society. The results show how their attitudes change throughout their education, and which kinds of identities they form. Drawing on Ulrich Beck’s thesis of individualization, this publication finds that adolescents in vocational education still hold on to the belief that good study results enable them to seize chances and avoid risks. Freedom of choice, feelings of success and a good relationship with parents support these positive attitudes towards learning. Family in particular turned out to not only be an important motivational factor but also the dominant value of the students. Vocational education is still, however, stigmatized and the adolescents try to bring that in line with their self-worth. N2 - Die Reform des Arbeitsmarktes und die Abschaffung der „eisernen Reisschüssel“ führten in China dazu, dass Arbeitsplätze nicht länger garantiert waren und ein höherer Bildungsabschluss zunehmend eine Voraussetzung auch für niedrigere Positionen wurde. Die längerfristigen Folgen waren eine Akademikerschwemme und ein akuter Facharbeitermangel. Die Regierung versucht dem zu begegnen, indem sie die Berufsbildung fördert und entwickelt. Doch nach wie vor gilt dieser Bildungszweig als Bildung zweiter Klasse für Schüler/innen, deren Leistungen zu schwach für eine akademische Mittelschule sind. Basierend auf den quantitativen und qualitativen Daten einer dreijährigen Panelstudie an Berufsschulen in Shanghai, analysiert die vorliegende Arbeit das soziale Umfeld, die Persönlichkeit, Werte und Wahrnehmungen der gesellschaftlich stigmatisierten Berufsschüler und zeigt, wie sich ihre Einstellungen im Verlauf der Ausbildung verändern und welche Identitäten sie bilden. Unter Anwendung von Ulrich Becks Theorie der Individualisierung, zeigt diese Arbeit wie die Jugendlichen auch in der Berufsschule an der Überzeugung festhalten, durch gute schulische Leistungen künftige Chancen ergreifen und Risiken vermeiden zu können. Diese positive Lerneinstellung wird von wahrgenommenen Wahlfreiheiten, Erfolgserlebnissen und einem guten Verhältnis zu den Eltern positiv beeinflusst. Insbesondere die Familie stellt sich nicht nur als ein Motivationsfaktor, sondern auch als der dominierende Wert der Schüler/innen heraus. Dennoch wird die Berufsbildung von den Jugendlichen als Stigma wahrgenommen und sie versuchen dieses mit ihrem Selbstwert in Einklang zu bringen. N2 - With the late twentieth-century reform of the labour market in China, jobs ceased to be guaranteed by the government, and higher education became more and more a requirement for even low-level positions. A surplus of academics and a lack of skilled workers are consequences of these developments - yet vocational education, a clear solution to this problem, has had a persistently negative reputation as a second-class education, suitable only for weak students whose results are too low for an academic middle school. Against this background, Entering Society analyses the social environments, personalities, values and perceptions of vocational education students over three years in Shanghai. The results show how adolescents stigmatized by society view themselves, their education, their identities and their futures. KW - risk society KW - individualization KW - personality development KW - self-determination theory KW - labour market KW - vocational education KW - education system KW - stigma KW - Berufsbildung KW - Bildungswesen KW - China KW - Stigmatisierung KW - Motivation Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-168626 SN - 978-3-95826-096-2 SN - 978-3-95826-097-9 N1 - Parallel erschienen als Druckausgabe in Würzburg University Press, 978-3-95826-096-2, 29,80 EUR. PB - Würzburg University Press CY - Würzburg ET - 1. Auflage ER - TY - THES A1 - Wahl, Joachim T1 - The Use of Ionic Liquids in Capillary Electrophoresis Enantioseparation T1 - Die Nutzung Ionischer Flüssigkeiten in der kapillarelektrophoretischen Enantiomerentrennung N2 - Two chiral chemical molecules being mirror images of each other, also referred to as enantiomers, may have different pharmacokinetic, pharmacodynamic, and toxicological effects. Thus, pharmaceutical manufacturers and authorities are increasingly interested in the approval of enantiopure drugs. However, the isomeric purity and the limits for isomeric impurities have to be specified applying enantioselective analytical methods, such as capillary electrophoresis. The separation of enantiomers in capillary electrophoresis may be improved by the addition of ionic liquids to the background electrolyte. The aim of this work was to investigate the influence of different separation conditions on the enantioseparation of phenethylamines in background electrolytes containing ionic liquids based on tetrabutylammonium cations. Best chiral separations were achieved at acidic pH values using phosphate buffers containing 125 mmol/L tetrabutylammonium based salts. Different reasons explaining enhanced enantioseparations in buffers containing ionic liquids were found. First, due to an improvement of the cyclodextrin solubility, the addition of ionic liquids to the background electrolyte enables the use of higher concentrations of these chiral selector. Furthermore, the adsorption of tetrabutylammonium cations to the negatively charged capillary surface results in a reduction of the electroosmotic flow. Hence, the resulting prolongation of migration times leads to a longer period of time for the separation of temporarily formed diastereomeric analyte cyclodextrin complexes, which yields improved enantioseparation. Additionally, due to a decrease of the adsorption of positively charged phenethylamine analyte molecules to capillary surface silanol groups, the adsorption of ionic liquid cations inhibits peak broadening. A further reason explaining an enhanced enantioseparation by the addition of ionic liquids to the background electrolyte is a competition between tetrabutylammonium cations and analyte enantiomers for the inclusion into cyclodextrin cavities. Furthermore, the influence of different chiral counterions, combined with tetrabutylammonium cations, on the enantioseparation of phenethylamines was investigated. Solely anions based on the basic proteinogenic amino acids L lysine and L arginine yielded chiral separation results superior to those achieved using achiral tetrabutylammonium chloride as background electrolyte additive. Especially the application of tetrabutylammonium L argininate gave very good enantioseparations of all investigated ephedrine derivatives, which might be explained by the ability of L arginine to affect the formation of complexes between analytes and cyclodextrins. Besides the investigation of the influence of ionic liquids on the enantioseparation, complexes between phenethylamine enantiomers and β cyclodextrin derivatives were characterized by affinity capillary electrophoresis. The binding constants between analyte enantiomers and cyclodextrins and the electrophoretic mobilities of the temporarily formed complexes were determined and compared to the observed chiral resolution values. While neither the calculated binding constants nor their differences correlated with the quality of the enantioseparation, a strong correlation between the differences of the electrophoretic mobilities of the complexes and the chiral resolution values was found. N2 - Chemische Moleküle, die sich zueinander wie Bild und Spiegelbild verhalten, so genannte Enantiomere, können im menschlichen Organismus unterschiedliche pharmakodynamische und toxikologische Wirkungen zeigen. Aus diesem Grund legen pharmazeutische Unternehmen und Arzneimittelbehörden vermehrten Wert auf die Zulassung enantiomerenreiner Arzneistoffe. Da sowohl die Reinheit eines Enantiomers als auch der Gehalt an isomeren Verunreinigungen spezifiziert werden müssen, besteht ein zunehmender Bedarf an analytischen Methoden zur Enantiomerentrennung, wie zum Beispiel der Kapillarelektrophorese. Das Ziel dieser Arbeit war die Verbesserung der kapillarelektrophoretischen Enantiomerentrennung von Ephedrin Derivaten unter Zuhilfenahme von auf Tetrabutylammonium basierenden Ionische Flüssigkeiten. Der Einfluss diverser Parameter auf die Trennung von Phenethylamin-Enantiomeren in Puffern, die Ionische Flüssigkeiten enthalten, wurde systematisch untersucht. Dabei konnten die besten Trennergebnisse unter stark sauren Bedingungen in Phosphatpuffern, die 125 mmol/L Tetrabutylammonium Salze enthielten, erreicht werden. Verschiedene Faktoren, die zu einer Verbesserung der Enantiomerentrennung führten, konnten festgestellt werden. Erstens wurde eine Verbesserung der Cyclodextrin-Löslichkeit durch die Zugabe von Ionischen Flüssigkeiten zum Trennpuffer festgestellt. Dies ermöglicht eine Verwendung höherer Konzentrationen dieser chiralen Selektoren. Des Weiteren führt eine Anlagerung von Tetrabutylammonium-Kationen an die negativ geladene Oberfläche der Kapillare zu einer Reduktion des elektroosmotischen Flusses. Daraus resultiert einerseits eine Verlängerung der Migrationszeiten, die bewirkt, dass eine längere Zeit zur Trennung der temporär gebildeten diastereomeren Cyclodextrin-Einlagerungskomplexe zur Verfügung steht. Andererseits wird durch die Adsorption von Tetrabutylammonium-Kationen an die Kapillarwand die Anlagerung von positiv geladenen Phenethylamin-Analyten an die Silanoloberfläche verhindert. Dies führt durch eine Reduktion der Peakbreite zu einer Verbesserung der Trennergebnisse. Als dritter Grund für verbesserte Trennungen nach Zugabe von Ionischer Flüssigkeit zum Trennpuffer kann ein kompetitiver Mechanismus zwischen Analyt Enantiomeren und Tetrabutylammonium-Kationen um den Einschluss in Cyclodextrine aufgeführt werden. Zusätzlich wurde der Einfluss verschiedener chiraler Gegenionen, die mit Tetrabutylammonium-Kationen kombiniert wurden, auf die Trennung von Phenethylamin-Enantiomeren untersucht. Dabei konnte ausschließlich unter Verwendung von Anionen der basischen proteinogenen Aminosäuren L Lysin und L Arginin eine Verbesserung der Trennung beobachtet werden. Vor allem die Verwendung von L Arginin, für welches eine Beeinflussung der Komplexbildung zwischen Analyten und Cyclodextrin vermutet wird, ergab eine starke Verbesserung der Trennung aller Ephedrin Derivate. Neben der Untersuchung des Einflusses von Ionischen Flüssigkeiten auf die kapillarelektrophoretische Trennung wurde auch die Komplexbildung zwischen Phenethylamin-Enantiomeren und verschiedenen β Cyclodextrin Derivaten mittels Affinitätskapillarelektro-phorese untersucht. Die Bindungskonstanten zwischen Analyt-Enantiomeren und Cyclodextrinen und die elektrophoretische Mobilität der gebildeten Komplexe wurden bestimmt und mit den dabei beobachteten chiralen Trennungen verglichen. Dabei konnte eine starke Korrelation zwischen den Unterschieden in den elektrophoretischen Mobilitäten der Komplexe und der Güte der Enantiomerentrennung festgestellt werden, während kein Zusammenhang zwischen den Bindungskonstanten, beziehungsweise deren Differenzen, und der chiralen Auflösung zwischen Phenethylamin Enantiomeren zu beobachten war. KW - Capillary Electrophoresis KW - Ionic Liquid KW - Kapillarelektrophorese KW - Enantiomerentrennung KW - Ionische Flüssigkeit Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176397 ER - TY - THES A1 - Mekala, SubbaRao T1 - Generation of cardiomyocytes from vessel wall-resident stem cells T1 - Erzeugung von Kardiomyozyten aus Gefäßwand-residenten Stammzellen N2 - Myocardial infarction (MI) is a major cause of health problems and is among the leading deadly ending diseases. Accordingly, regenerating functional myocardial tissue and/or cardiac repair by stem cells is one of the most desired aims worldwide. Indeed, the human heart serves as an ideal target for regenerative intervention, because the capacity of the adult myocardium to restore itself after injury or infarct is limited. Thus, identifying new sources of tissue resident adult stem or progenitor cells with cardiovascular potential would help to establish more sophisticated therapies in order to either prevent cardiac failure or to achieve a functional repair. Ongoing research worldwide in this field is focusing on a) induced pluripotent stem (iPS) cells, b) embryonic stem (ES) cells and c) adult stem cells (e. g. mesenchymal stem cells) as well as cardiac fibroblasts or myofibroblasts. However, thus far, these efforts did not result in therapeutic strategies that were transferable into the clinical management of MI and heart failure. Hence, identifying endogenous and more cardiac-related sources of stem cells capable of differentiating into mature cardiomyocytes would open promising new therapeutic opportunities. The working hypothesis of this thesis is that the vascular wall serves as a niche for cardiogenic stem cells. In recent years, various groups have identified different types of progenitors or mesenchymal stem cell-like cells in the adventitia and sub-endothelial zone of the adult vessel wall, the so called vessel wall-resident stem cells (VW-SCs). Considering the fact that heart muscle tissue contains blood vessels in very high density, the physiological relevance of VW-SCs for the myocardium can as yet only be assumed. The aim of the present work is to study whether a subset of VW-SCs might have the capacity to differentiate into cardiomyocyte-like cells. This assumption was challenged using adult mouse aorta-derived cells cultivated in different media and treated with selected factors. The presented results reveal the generation of spontaneously beating cardiomyocyte-like cells using specific media conditions without any genetic manipulation. The cells reproducibly started beating at culture days 8-10. Further analyses revealed that in contrast to several publications reporting the Sca-1+ cells as cardiac progenitors the Sca-1- fraction of aortic wall-derived VW-SCs reproducibly delivered beating cells in culture. Similar to mature cardiomyocytes the beating cells developed sarcomeric structures indicated by the typical cross striated staining pattern upon immunofluorescence analysis detecting α-sarcomeric actinin (α-SRA) and electron microscopic analysis. These analyses also showed the formation of sarcoplasmic reticulum which serves as calcium store. Correspondingly, the aortic wall-derived beating cardiomyocyte-like cells (Ao-bCMs) exhibited calcium oscillations. This differentiation seems to be dependent on an inflammatory microenvironment since depletion of VW-SC-derived macrophages by treatment with clodronate liposomes in vitro stopped the generation of Ao bCMs. These locally generated F4/80+ macrophages exhibit high levels of VEGF (vascular endothelial growth factor). To a great majority, VW-SCs were found to be positive for VEGFR-2 and blocking this receptor also stopped the generation VW-SC-derived beating cells in vitro. Furthermore, the treatment of aortic wall-derived cells with the ß-receptor agonist isoproterenol or the antagonist propranolol resulted in a significant increase or decrease of beating frequency. Finally, fluorescently labeled aortic wall-derived cells were implanted into the developing chick embryo heart field where they became positive for α-SRA two days after implantation. The current data strongly suggest that VW-SCs resident in the vascular adventitia deliver both progenitors for an inflammatory microenvironment and beating cells. The present study identifies that the Sca-1- rather than Sca-1+ fraction of mouse aortic wall-derived cells harbors VW-SCs differentiating into cardiomyocyte-like cells and reveals an essential role of VW-SCs-derived inflammatory macrophages and VEGF-signaling in this process. Furthermore, this study demonstrates the cardiogenic capacity of aortic VW-SCs in vivo using a chimeric chick embryonic model. N2 - Der Myokardinfarkt (MI) ist einer der Hauptgründe für gesundheitliche Probleme und zählt zu einer der am häufigsten tödlich verlaufenden Krankheiten weltweit. Daher ist es nicht verwunderlich, dass die Regeneration von funktionellem Myokardgewebe und/oder die kardiale Reparatur durch Stammzellen eines der weltweit am meisten angestrebten Ziele darstellt. Das adulte menschliche Herz stellt aufgrund seiner äußerst eingeschränkten endogenen Regenerationskapazität, die bei weitem nicht ausreicht, das geschädigte Gewebe zu erneuern, ein ideales Zielorgan für regenerative Therapieverfahren dar. Folglich könnte die Identifizierung neuer Quellen adulter Stamm- oder Vorläuferzellen mit kardiovaskulärem Differenzierungspotential dabei helfen, verfeinerte Therapien zu entwickeln, um entweder kardiale Fehlfunktionen zu verhindern oder eine deutlich verbesserte myokardiale Reparatur zu erreichen. Die aktuelle weltweite Forschung auf diesem Gebiet fokussiert sich auf: a) induzierte pluripotente Stammzellen (iPS), b) embryonale Stammzellen (ES) und c) adulte Stammzellen, wie z. B. mesenchymale Stammzellen, kardiale Fibroblasten und Mesangioblasten sowie Myofibroblasten. Bisher haben jedoch alle Bemühungen noch zu keinem Durchbruch geführt, so dass die teilweise vielversprechenden experimentellen Ergebnisse nicht in die klinische Therapie des MI und der kardialen Defekte mittels Stammzellen transferiert werden können. Abgesehen davon, ob und wie stark so ein endogenes herzeigenes Potential wäre, würde die Identifizierung neuer endogener Stammzellen mit kardiogenem Potential, die genaue Charakterisierung ihrer Nischen und der Mechanismen ihrer Differenzierung einen Meilenstein in der kardioregenerativen Stammzelltherapie darstellen. Die Arbeitshypothese der hier vorgelegten Dissertation besagt, dass die Gefäßwand als Nische solcher Zellen dienen könnte. Innerhalb der letzten Jahre konnte die Adventitia und die subendotheliale Zone der adulten Gefäßwand als Nische für unterschiedliche Typen von Vorläuferzellen und multipotenten Stammzellen, die sogenannten Gefäßwand-residenten Stammzellen (VW-SCs) identifiziert werden. In Anbetracht der Tatsache, dass die Blutgefäße aufgrund ihrer hohen Dichte im Herzen eine essentielle stromale Komponente des Herzgewebes darstellen, kann die mögliche klinische Relevanz von VW-SCs für das Myokardium im Moment nur erahnt werden. Ausgehend von der Annahme, dass eine Subpopulation dieser VW-SCs die Fähigkeit besitzt, sich in Kardiomyozyten-ähnliche Zellen zu differenzieren, sollte im Rahmen dieser Dissertationsarbeit das myokardiale Potential der Gefäßwand-residenten Stammzellen aus der Aorta adulter Mäuse studiert werden, indem die Zellen unter unterschiedlichen definierten Bedingungen kultiviert und dann sowohl morphologisch als auch funktionell charakterisiert werden. Erstaunlicherweise zeigten die ersten Ergebnisse die Generierung spontan schlagender Kardiomyozyten-ähnlicher Zellen, nur durch Verwendung eines speziellen Nährmediums und ohne jegliche genetische Manipulation. Die im Rahmen dieser Arbeit durchgeführten Analysen belegen zudem, dass die Kardiomyozyten-ähnlichen Zellen reproduzierbar nach ca. 9-11 Tagen in der Kultur anfangen, spontan zu schlagen. In immunzytochemischen Analysen zeigten die schlagenden Zellen ein quergestreiftes Färbemuster für α sarkomeres Actinin. Passend dazu wiesen diese spontan schlagenden Zellen, wie reife Kardiomyozyten, Sarkomerstrukturen mit Komponenten des sarkoplasmatischen Retikulums in elektronenmikroskopischen Analysen auf. Sie zeigten dementsprechend eine mit dem spontanen Schlag assoziierte Kalzium-Oszillation. Erstaunlicherweise zeigten die hier vorgelegten Befunde erstmalig, dass es nicht die Sca-1+ (stem cell antigen-1) Zellen waren, denen seit Jahren eine kardiomyozytäre Kapazität zugeschrieben wird, sondern es waren die Sca-1- Zellen der Mausaorta, die sich zu den spontan schlagenden Zellen differenzierten. Des Weiteren scheint diese Differenzierung von einer endogen generierten inflammatorischen Mikroumgebung abhängig zu sein. Die hier vorgelegten Ergebnisse legen daher den Schluss nahe, dass die VW-SCs in der vaskulären Adventitia sowohl die inflammatorische Mikroumgebung als auch die spontan schlagenden Kardiomyozyten-ähnlichen Zellen bereitstellten. So entstanden in der Kultur aortaler Zellen unter anderem auch Makrophagen, die hohe Mengen des Gefäßwachstumsfaktors VEGF (Vascular Endothelial Growth Factor) aufweisen. Wurden die Makrophagen in der Zellkultur durch Zugabe von Clodtronat-Liposomen depletiert, so wurde damit auch die Generierung spontan schlagender Zellen aus den aortalen VW-SCs unterbunden. Um zu testen, ob und inwieweit dieser Einfluss der Makrophagen auf die Entstehung spontan schlagender Zellen aus den VW-SCs auf den VEGF zurückzuführen ist, wurden kultivierte Zellen der Mausaorta mit dem VEGF-Rezeptor-2-Blocker (E7080) behandelt. Auch diese Behandlung resultierte wie bei der Depletion von Makrophagen darin, dass keine spontan schlagenden Zellen entstanden. Um die von VW-SCs generierten spontan schlagenden Zellen funktionell zu charakterisieren, wurden die kultivierten Zellen der Mausaorta mit Isoproterenol (ß-Sympathomimetikum) und Propranolol (ß-Blocker) behandelt. Eine signifikante Steigerung der Schlagfrequenz unter Isoproterenol und eine Reduzierung bei Zugabe von Propranolol unterstreichen ebenfalls die Kardiomyozyten-ähnliche Eigenschaft der spontan schlagenden Zellen. Schließlich wurden die aus der Mausaorta isolierten Zellen Fluoreszenz-markiert und dann in das kardiale Feld des sich entwickelnden Hühnerembryos (am fünften Tag der Entwicklung) implantiert. Zwei Tage später wurden die Herzen entnommen. Immunfärbungen zeigten, dass ein Teil der implantierten Zellen auch unter diesen in vivo-Bedingungen für α-sarkomeres Actinin positiv wurde und somit einen kardiomyozytären Phänotyp aufwies. KW - vessel wall resident stem cells KW - cardiomyocytes KW - Herzmuskelzelle KW - Stammzelle Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-146046 N1 - My PhD research work has been published in Circ Res. 2018 Aug 31;123(6):686-699. ER - TY - THES A1 - Yu, Sung-Huan T1 - Development and application of computational tools for RNA-Seq based transcriptome annotations T1 - Entwicklung und Anwendung bioinformatischer Werkzeuge für RNA-Seq-basierte Transkriptom-Annotationen N2 - In order to understand the regulation of gene expression in organisms, precise genome annotation is essential. In recent years, RNA-Seq has become a potent method for generating and improving genome annotations. However, this Approach is time consuming and often inconsistently performed when done manually. In particular, the discovery of non-coding RNAs benefits strongly from the application of RNA-Seq data but requires significant amounts of expert knowledge and is labor-intensive. As a part of my doctoral study, I developed a modular tool called ANNOgesic that can detect numerous transcribed genomic features, including non-coding RNAs, based on RNA-Seq data in a precise and automatic fashion with a focus on bacterial and achaeal species. The software performs numerous analyses and generates several visualizations. It can generate annotations of high-Resolution that are hard to produce using traditional annotation tools that are based only on genome sequences. ANNOgesic can detect numerous novel genomic Features like UTR-derived small non-coding RNAs for which no other tool has been developed before. ANNOgesic is available under an open source license (ISCL) at https://github.com/Sung-Huan/ANNOgesic. My doctoral work not only includes the development of ANNOgesic but also its application to annotate the transcriptome of Staphylococcus aureus HG003 - a strain which has been a insightful model in infection biology. Despite its potential as a model, a complete genome sequence and annotations have been lacking for HG003. In order to fill this gap, the annotations of this strain, including sRNAs and their functions, were generated using ANNOgesic by analyzing differential RNA-Seq data from 14 different samples (two media conditions with seven time points), as well as RNA-Seq data generated after transcript fragmentation. ANNOgesic was also applied to annotate several bacterial and archaeal genomes, and as part of this its high performance was demonstrated. In summary, ANNOgesic is a powerful computational tool for RNA-Seq based annotations and has been successfully applied to several species. N2 - Exakte Genomannotationen sind essentiell für das Verständnis Genexpressionsregulation in verschiedenen Organismen. In den letzten Jahren entwickelte sich RNA-Seq zu einer äußerst wirksamen Methode, um solche Genomannotationen zu erstellen und zu verbessern. Allerdings ist das Erstellen von Genomannotationen bei manueller Durchführung noch immer ein zeitaufwändiger und inkonsistenter Prozess. Die Verwendung von RNA-Seq-Daten begünstigt besonders die Identifizierung von nichtkodierenden RNAs, was allerdings arbeitsintensiv ist und fundiertes Expertenwissen erfordert. Ein Teil meiner Promotion bestand aus der Entwicklung eines modularen Tools namens ANNOgesic, das basierend auf RNA-Seq-Daten in der Lage ist, eine Vielzahl von Genombestandteilen, einschließlich nicht-kodierender RNAs, automatisch und präzise zu ermitteln. Das Hauptaugenmerk lag dabei auf der Anwendbarkeit für bakterielle und archaeale Genome. Die Software führt eine Vielzahl von Analysen durch und stellt die verschiedenen Ergebnisse grafisch dar. Sie generiert hochpräzise Annotationen, die nicht unter Verwendung herkömmlicher Annotations-Tools auf Basis von Genomsequenzen erzeugt werden könnten. Es kann eine Vielzahl neuer Genombestandteile, wie kleine nicht-kodierende RNAs in UTRs, ermitteln, welche von bisherigen Programme nicht vorhergesagt werden können. ANNOgesic ist unter einer Open-Source-Lizenz (ISCL) auf https://github.com/Sung-Huan/ANNOgesic verfügbar. Meine Forschungsarbeit beinhaltet nicht nur die Entwicklung von ANNOgesic, sondern auch dessen Anwendung um das Transkriptom des Staphylococcus aureus-Stamms HG003 zu annotieren. Dieser ist einem Derivat von S. aureus NCTC8325 - ein Stamm, Dear ein bedeutendes Modell in der Infektionsbiologie darstellt. Zum Beispiel wurde er für die Untersuchung von Antibiotikaresistenzen genutzt, da er anfällig für alle bekannten Antibiotika ist. Der Elternstamm NCTC8325 besitzt zwei Mutationen im regulatorischen Genen (rsbU und tcaR), die Veränderungen der Virulenz zur Folge haben und die in Stamm HG003 auf die Wildtypsequenz zurückmutiert wurden. Dadurch besitzt S. aureus HG003 das vollständige, ursprüngliche Regulationsnetzwerk und stellt deshalb ein besseres Modell zur Untersuchung von sowohl Virulenz als auch Antibiotikaresistenz dar. Trotz seines Modellcharakters fehlten für HG003 bisher eine vollständige Genomsequenz und deren Annotationen. Um diese Lücke zu schließen habe ich als Teil meiner Promotion mit Hilfe von ANNOgesic Annotationen für diesen Stamm, einschließlich sRNAs und ihrer Funktionen, generiert. Dafür habe ich Differential RNA-Seq-Daten von 14 verschiedenen Proben (zwei Mediumsbedingungen mit sieben Zeitpunkten) sowie RNA-Seq-Daten, die von fragmentierten Transkripten generiert wurden, analysiert. Neben S. aureus HG003 wurde ANNOgesic auf eine Vielzahl von Bakterien- und Archaeengenome angewendet und dabei wurde eine hohe Performanz demonstriert. Zusammenfassend kann gesagt werden, dass ANNOgesic ein mächtiges bioinformatisches Werkzeug für die RNA-Seq-basierte Annotationen ist und für verschiedene Spezies erfolgreich angewandt wurde. KW - RNA-Seq KW - Genome Annotation KW - small RNA KW - Genom KW - Annotation KW - Small RNA KW - Bioinformatik Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176468 ER - TY - THES A1 - Berninger, Michael T1 - Development of Novel Quinolone Amides Against the African Sleeping Sickness - A Fluorine Walk T1 - Entwicklung von neuen Chinolonamiden gegen die Afrikanische Schlafkrankheit - Ein "Flourine Walk" N2 - In recent years the transmission of the Human African Trypanosomiasis could be significantly reduced. The reported cases in 2016 reached a historic low level of 2184 cases and these achievements can be ascribed to intense control and surveillance programmes.118 However, most of the reported cases (>1000 in 2015) occurred in the Democratic Republic of the Congo and thus, need to be treated adequately. In particular, when the parasites have traversed the blood-brain barrier (BBB), treatment proved to be even more difficult. In addition, the number of cases always came in waves due to many reasons, e.g., development of resistances. Thus, it can be expected from experiences of the past that the number of cases will increase again. Hence, novel chemical entities are desperately needed in order to overcome the drawbacks which are associated with the current treatment options. Our drug discovery approach included an initial drug repurposing strategy combined with a phenotypic screening. S. Niedermeier found novel active compounds derived from commercial fluoroquinolones. The most promising hit compound was further developed by G. Hiltensperger resulting in the lead quinolone amide GHQ168 (IC50 = 0.047 µM). This doctoral thesis is about new insights into the SAR of the quinolone amides and the enhancement of the lead compound. Special consideration was given to the fluorine atom in the quinolone amides and how certain fluorine substitution patterns influence the antitrypanosomal activity, physicochemical properties and pharmacokinetics (i.e. ‘fluorine walk’). Moreover, the ability of the compound class crossing the BBB should be investigated. This feature is inevitable necessary in order to potentially treat African sleeping sickness stage II. The Gould-Jacobs protocol was predominantly used for the synthesis of the quinolone core. Since former SAR studies mainly concentrated on the variation in positions 1, 3 and 7, quinolone scaffolds (2a-i) with diverse substitution patterns regarding positions 5, 6, 7 and 8 were synthesised in this thesis. The resulting quinolone amides were evaluated for their antitrypanosomal activity. Voluminous residues in position C-5 resulted in diminished activities (compounds 13, 16 and 18) and solely small-sized moieties were tolerated. In particular the fluorine atom in position 5 revealed beneficial trypanocidal effects as shown for compounds 6 (IC50 = 0.05 µM), 8 (IC50 = 0.04 µM), and 24 (IC50 = 0.02 µM). Furthermore, having fluorine only in position 5 of the quinolone core could considerably reduce the cytotoxic effects (CC50 >100 µM, SI = >2000 for 6). Hence, the 5-fluoro-substituted quinolone amides were considered superior to GHQ168. Regarding the C-6 position all other moieties (e.g., H in 9, OCH3 in 10, CF3 in 12) except of a fluorine atom decreased the activity against Trypanosoma brucei brucei. A double fluorination in C-6 and C-8 was not beneficial (IC50 = 0.06 µM for 7) and a single fluorine atom in C-8 even showed a negative effect (IC50 = 0.79 µM for 5). The logP value is considered a surrogate parameter for lipophlicity and thus, affecting permeability and solubility processes. In particular the fluorine atom influences the lipophilicity due to versatile effects: Lipophilicity is increased by additional fluorine atoms on aromatic rings (7, 23) and reduced by fluorine atoms at an alkyl chain (49), respectively. Additionally, the 5-fluoro-substituted quinolone amides (6, 8, and 24) could prove the contrary effect of decreasing lipophilicity when the aromatic fluorine substituent is in vicinity to a carbonyl group. For the most promising drug candidates 6, 23, and 24 the respective metabolites and the metabolic turnover were investigated by C. Erk. In comparison to GHQ168 the hydroxylation of the benzylamide was prevented by the para-fluorine atom. Hence, half-life was extended for compound 23 (t1/2 = 6.4 h) and N-desalkylation was the predominant pathway. Moreover, the respective fluorine substitution pattern of the quinolone core affected the metabolism of compound 6. The 5-fluoro-substituted quinolone amide was less prone for biotransformation (t1/2 = 7.2 h) and half-life could even be further prolonged for compound 24 (t1/2 = 7.7 h). Due to the most appropriate safety profile of compound 6, this particular drug candidate was considered for in vivo study. Its poor solubility made a direct intraperitoneal administration unfeasible. Thus, an amorphous solid dispersion of 6 was generated using the spray-drying method according to the previous protocol. Unfortunately, the required solubility for the predicted in vivo study was not achieved. Furthermore, the compound class of the quinolone amide was evaluated for its ability for brain penetration. The methanesulfonyl precursor 48 was synthesised and subsequently radiofluorinated in the group of Prof. Dr. Samnick (Department of Nuclear Medicine, University Hospital of Würzburg). The labelled compound [18F]49 was administered to mice, and its distribution throughout the body was analysed using positron emission tomography and autoradiography, respectively. The autoradiography of the murine brains revealed medium to high concentrations of [18F]49. Therefore, the quinolone amides are generally suitable for treating Human African Trypanosomiasis stage II. A scaffold hopping approach was performed starting from the quinolone amides and concluding with the compound class of pyrazoloquinolin-3-ones. The intramolecular hydrogen bond between the sec. amide and the C-4 carbonyl moiety was replaced by a covalent bond. The two compound classes were comparable regarding the antitrypanosomal activity to some degree (IC50 = 7.9 µM (EK02) vs. 6.37 µM (53a)). However, a final evaluation of 59 was not possible due to poor solubility. N2 - Die Verbreitung der Afrikanischen Schlafkrankheit konnte in den vergangenen Jahren deutlich verringert werden. Die dokumentierten Fallzahlen aus 2016 erreichten ein historisch niedriges Niveau, was auf eine engmaschige Kontrolle und Überwachung zurückzuführen ist. Dennoch gibt es nach wie vor zahlreiche Krankheitsfälle (>1000 Fälle im Jahr 2015 für die Demokratische Republik Kongo), die entsprechend behandelt werden müssen. Die Therapie wird insbesondere dann erschwert, wenn die Parasiten die Blut-Hirn-Schranke überwunden haben. Außerdem treten die Krankheitsfälle aus mehreren Gründen, wie beispielsweise durch Resistenzentwicklung immer wieder schubweise auf. Die Erfahrungen aus der Vergangenheit zeigen, dass die Fallzahlen jederzeit wieder ansteigen können. Deshalb sind neue Arzneistoffe dringend notwendig, um die Nachteile der aktuellen Behandlungmöglichkeiten umgehen zu können. Unsere Suche nach neuen Wirkstoffen beinhaltete eine anfängliche Umwidmung eines zugelassenen Arzneistoffes in Verbindung mit einem Phänotyp-basierten Screening. S. Niedermeier entdeckte neue aktive Verbindungen, die sich von handelsüblichen Fluorchinolonen ableiteteten. Die vielversprechenste Substanz wurde von G. Hiltensperger zum Chinolonamid GHQ168 (IC50 = 0.047 µM) weiter optimiert. Diese Arbeit befasst sich mit neuen Erkenntnissen zur Struktur-Wirkungs Beziehung der Chinolonamiden und mit der Verbesserung der Leitsubstanz. Besondere Berücksichtigung fanden dabei die Fluor-Substitutionen an den Chinolonamiden. Es sollte untersucht werden, inwiefern gewisse Fluorsubstitutionsmuster die antitrypanosomale Wirkung, physiko-chemische Eigenschaften und Pharmakokinetik beeinflussen („Fluor Walk“). Außerdem sollte ermittelt werden, ob diese Substanzklasse die Blut-Hirn-Schranke überwinden kann. Dieses Merkmal muss unabdingbar vorhanden sein, um die Afrikanische Schlafkrankheit in Stufe II potentiell behandeln zu können. Das Gould-Jacobs-Verfahren wurde hauptsächlich für die Synthese des Chinolongrundgerüstes angewandt. Da sich die vorausgegangene Analyse der Struktur-Wirkungs Beziehungen vornehmlich auf das Variieren der Substitutenten in den Positionen 1, 3 und 7 konzentrierte, wurden in dieser Arbeit Chinolone (2a-i) mit diversen Substitutionsmustern in den Positionen 5, 6, 7 und 8 synthetisiert. Die erhaltenen Chinolonamide wurden auf ihre antitrypanosomale Aktivität untersucht. Voluminöse Reste in der Position C-5 verursachten verringerte Aktivitäten (Verbindungen 13, 16 and 18), d.h. nur kleine Reste waren hinnehmbar. Vor allem ein Fluor-Atom in Position 5 wirkte sich günstig auf die antitrypanosomale Wirkung aus, was mit Verbindungen 6 (IC50 = 0.05 µM), 8 (IC50 = 0.04 µM), und 24 (IC50 = 0.02 µM) gezeigt werden konnte. Des Weiteren reduzierte sich die zytotoxische Wirkung (CC50 >100 µM, SI = >2000 für 6), wenn sich das Fluor-Atom nur in Position 5 des Chinolongrundgerüsts befindet. Deshalb wurden die Chinolonamide mit Fluor in Position 5 gegenüber GHQ168 als überlegen erachtet. In Bezug auf Position 6 zeigen die Reste (z. B. H in 9, OCH3 in 10, CF3 in 12), mit Ausnahme des Fluor-Atoms, eine verringerte Aktivität gegenüber Trypanosoma brucei brucei. Eine zweifache Fluorsubstitution in C-6 und C-8 war nicht vorteilhaft (IC50 = 0.06 µM für 7) und ein einfaches Fluor-Atom in C-8 zeigte einen negativen Effekt (IC50 = 0.79 µM für 5). Der logP Wert wird als Surrogatparameter der Lipophilie betrachtet und wirkt sich somit auf Permeabilität- und Löslichkeitsprozesse aus. Insbesondere das Fluor-Atom beeinflusst die Lipophilie durch vielfältige Effekte: die Lipophilie wird durch zusätzliche Fluor-Atome am Aromaten erhöht (7, 23), beziehungsweise durch Fluor-Atome an einer Alkylkette verringert (49). Zusätzlich konnte für die 5-fluoro-substituierten Chinolonamide (6, 8, 24) der paradoxe Effekt gezeigt werden, dass die Lipophilie verringert wird, sobald ein aromatischer Fluorsubstituent in unmittelbarer Nähe zu einer Carbonylgruppe steht. Für die vielversprechensten Wirkstoffkandidaten 6, 23 und 24 wurden die jeweiligen Metabolite und der metabolische Umsatz von C. Erk untersucht. Im Vergleich zu GHQ168 wurde einer Hydroxylierung des Benzylamid-Restes durch eine para-Fluor-Substitution vorgebeugt. Dadurch wurde die Halbwertszeit der Verbindung 23 verlängert (t1/2 = 6.4 h) und eine N-Desalkylierung war der vorrangige Abbauweg. Außerdem wirkte sich das entsprechende Fluorsubstitutionsmuster auf den Metabolismus von Substanz 6 aus. Das 5-fluoro-substitutierte Chinolonamid war weniger anfällig für Biotransformationen (t1/2 = 7.2 h) und die Halbwertszeit konnte für die Substanz 24 sogar noch weiter verlängert werden (t1/2 = 7.7 h). Aufgrund des geeigneten Sicherheitsprofils der Verbindung 6, wurde für diesen Wirkstoffkandidaten eine In-vivo-Studie in Betracht gezogen. Die schlechte Wasserlöslichkeit machte jedoch eine direkte intraperitoneale Gabe unpraktikabel. Deshalb wurde durch Sprühtrocknung der Verbindung 6, gemäß der früheren Vorgehensweise, eine „amorphous solid dispersion“ erzeugt. Die benötigte Löslichkeit für die vorausberechnete In-vivo-Studie wurde dabei leider nicht erreicht. Darüber hinaus wurde die Substanzklasse der Chinolonamide hinsichtlich ihrer Fähigkeit, ins Gehirn zu gelangen, untersucht. Dazu wurde die Methansulfonyl-Vorstufe 48 in der Gruppe von Prof. Dr. Samnick (Institut für Nuklearmedizin, Universitätsklink Würzburg) synthetisiert und mit [18F]Fluor markiert. Die markierte Verbindung [18F]49 wurde anschließend in Mäuse injiziert und dessen Verteilung im Körper mittels Positronen-Emissions-Tomographie, beziehungsweise mittels Autoradiographie analysiert. Die Autoradiographie der Mäusegehirne zeigte mittlere bis hohe Konzentrationen von [18F]49. Demnach sind die Chinolonamide generell dafür geeignet, die Afrikanische Schlafkrankheit in Stufe II zu behandeln. Ein “Scaffold Hopping”-Ansatz wurde für die Chinolonamide angestrebt und ergab schließlich die Substanzklasse der Pyrazolochinolin-3-one. Die intramolekulare Wasserstoffbrückenbindung zwischen dem sek. Amid und der Carbonylgruppe in C-4 wurde durch eine kovalente Bindung ersetzt. Die beiden Substanzklassen waren im Ansatz, bezogen auf ihre antitrypanosomale Wirkung, miteinander vergleichbar (IC50 = 7.9 µM (EK02) vs. 6.37 µM (53a)). Dennoch konnte eine abschließende Bewertung aufgrund mangelnder Löslichkeit nicht stattfinden. KW - Trypanosomiase KW - Gyrasehemmer KW - Fluorverbindungen KW - Quinolone amides KW - African Trypanosomiasis KW - Fluorine Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-176428 ER - TY - THES A1 - Hieke, Marie T1 - Synaptic arrangements and potential communication partners of \(Drosophila’s\) PDF-containing clock neurons within the accessory medulla T1 - Synaptische Konstellationen und potentielle Kommunikationspartner von \(Drosophila’s\) PDF-enthaltenden Uhrneuronen innerhalb der akzessorischen Medulla N2 - Endogenous clocks regulate physiological as well as behavioral rhythms within all organisms. They are well investigated in D. melanogaster on a molecular as well as anatomical level. The neuronal clock network within the brain represents the center for rhythmic activity control. One neuronal clock subgroup, the pigment dispersing factor (PDF) neurons, stands out for its importance in regulating rhythmic behavior. These neurons express the neuropeptide PDF (pigment dispersing factor). A small neuropil at the medulla’s edge, the accessory medulla (AME), is of special interest, as it has been determined as the main center for clock control. It is not only highly innervated by the PDF neurons but also by terminals of all other clock neuron subgroups. Furthermore, terminals of the photoreceptors provide light information to the AME. Many different types of neurons converge within the AME and afterward spread to their next target. Thereby the AME is supplied with information from a variety of brain regions. Among these neurons are the aminergic ones whose receptors’ are expressed in the PDF neurons. The present study sheds light onto putative synaptic partners and anatomical arrangements within the neuronal clock network, especially within the AME, as such knowledge is a prerequisite to understand circadian behavior. The aminergic neurons’ conspicuous vicinity to the PDF neurons suggests synaptic communication among them. Thus, based on former anatomical studies regarding this issue detailed light microscopic studies have been performed. Double immunolabellings, analyses of the spatial relation of pre- and postsynaptic sites of the individual neuron populations with respect to each other and the identification of putative synaptic partners using GRASP reenforce the hypothesis of synaptic interactions within the AME between dopaminergic/ serotonergic neurons and the PDF neurons. To shed light on the synaptic partners I performed first steps in array tomography, as it allows terrific informative analyses of fluorescent signals on an ultrastructural level. Therefore, I tested different ways of sample preparation in order to achieve and optimize fluorescent signals on 100 nm thin tissue sections and I made overlays with electron microscopic images. Furthermore, I made assumptions about synaptic modulations within the neuronal clock network via glial cells. I detected their cell bodies in close vicinity to the AME and PDFcontaining clock neurons. It has already been shown that glial cells modulate the release of PDF from s-LNvs’ terminals within the dorsal brain. On an anatomical level this modulation appears to exist also within the AME, as synaptic contacts that involve PDF-positive dendritic terminals are embedded into glial fibers. Intriguingly, these postsynaptic PDF fibers are often VIIAbstract part of dyadic or even multiple-contact sites in opposite to prolonged presynaptic active zonesimplicating complex neuronal interactions within the AME. To unravel possible mechanisms of such synaptic arrangements, I tried to localize the ABC transporter White. Its presence within glial cells would indicate a recycling mechanism of transmitted amines which allows their fast re-provision. Taken together, synapses accompanied by glial cells appear to be a common arrangement within the AME to regulate circadian behavior. The complexity of mechanisms that contribute in modulation of circadian information is reflected by the complex diversity of synaptic arrangements that involves obviously several types of neuron populations N2 - Endogene Uhren steuern sowohl physiologische als auch verhaltensbedingte Rhythmen bei allen Organismen. In D. melanogaster sind sie nicht nur auf molekularer sondern auch auf anatomischer Ebene bereits gut erforscht. Das neuronale Uhrnetzwerk im Gehirn stellt das Zentrum der Steuerung der rhythmischen Aktivität dar. Eine Uhrneuronengruppe sticht allein schon durch ihre besonderen anatomischen Eigenschaften hervor. Diese Neurone exprimieren das Neuropeptid PDF (pigment dispersing factor), welches zudem besonderen Einfluss auf die Lokomotionsaktivität der Fliege hat. Ein kleines Neuropil am Rande der Medulla, die akzessorische Medulla (AME) ist von besonderem Interesse, da neben seiner intensiven Innervation durch die PDF-Neurone auch Terminale aller anderen Uhrneuronengruppen zu finden sind. Zudem wird sie durch Terminale der Photorezeptoren mit Informatonen über die Lichtverhätnisse versorgt. Die AME erreichen des Weiteren Informationen aus vielen anderen Hirnregionen. Eine Vielzahl von Neuronentypen laufen in ihr zusammen, um sich anschließend wieder in verschiedenste Hirnareale zu verteilen. So wird die AME auch durchzogen von Fasern mit aminergem Inhalt, dessen Rezeptoren wiederum auf den PDF-Neuronen zu finden sind. Die vorliegende Arbeit gibt Aufschluss über vermutliche synaptische Partner und anatomische Anordnungen innerhalb des neuronalen Uhrnetzwerkes, insbesondere innerhalb der AME. Solch Wissen stellt eine Grundvoraussetzung dar, um zirkadianes Verhalten verstehen zu können. Die auffällige Nähe der aminergen Neurone zu den PDF Neuronen lässt eine synaptische Interaktion zwischen ihnen vermuten. Deshalb wurden basierend auf vorangegangen Studien detailiertere Untersuchungen dieser Thematik durchgeführt. So wird die Hypothese über synaptische Interaktionen innerhalb der AME zwischen dopaminergen/ serotonergen Neuronen und den PDF Neuronen bestärkt mittels Doppelimmunofärbungen, gegenüberstellende Analysen über die räumlichen Nähe von prä- und postsynaptischen Stellen der jeweiligen Neuronenpopulationen und durch die Identifikation vermutlicher synaptischer Partner unter Verwendung von GRASP. Zur möglichen Identifikation der synaptischen Partner unternahm ich erste Schritte in der Array Tomographie, welche hochinformative Analysen von fluoreszierenden Signalen auf einem ultrastrukturellen Level ermöglicht. Dazu testete ich verschieden Wege der Gewebepräparation, um Flureszenzsignale zu erhalten bzw. zu optimieren und bildete erste Überlagerungen der Fluoreszenz- und Elektronenmikrskopbilder. Die Auswertung der elektronenmikroskopischen Bilder erlaubten Mutmaßungen über mö- gliche synaptische Modulationen innerhalb des neuronalen Uhrnetzwerkes durch Gliazellen. Ihre Zellkörper fand ich in unmittelbarer Nähe zu den PDF Neuronen. Im dorsalen Hirn wurden neuronale Modulationen an den kleinen PDF Neuronen durch Gliazellen bereits festgestellt. Auf anatomischer Ebene scheint diese Modulation auch innerhalb der AME zu erfolgen, da synaptische Kontakte, welche PDF-positive Dendriten involvieren, von Gliafasern umgeben sind. Interessanterweise sind diese postsynaptischen PDF Fasern dabei oftmals Teil dyadischer oder sogar multipler Kontakte, die sich gegenüber einer ausgedehnten aktiven Zone befinden. Um mögliche Mechanismen solcher synaptischer Anordnungen zu erklären, versuchte ich den ABC Transporter White im Hirn von Drosophila zu lokalisieren. Seine Präsenz in Gliazellen würde auf einen Recyclingmechanismus hindeuten, welcher eine schnelle Wiederbereitstellung des Transmiters ermöglichen würde. Zusammengefasst scheinen Synapsen mit postsynaptischen PDF-Neuronen in Begleitung von Gliazellen, ein gebräuchliches synaptisches Arrangement innerhalb der AME dazustellen. Diese komplexe Diversität der synaptischen Anordnung reflektiert die komplexen Mechanismen, welche der Verarbeitung der zirkadianen Informationen zugrunde liegen KW - Taufliege KW - Chronobiologie KW - Endogene Rhythmik KW - PDF neurons KW - glia cells KW - circadian clock KW - accessory medulla KW - sleep KW - aminergic neurons KW - synapses KW - Gliazelle KW - Aminerge Nervenzelle KW - Pigmentdispergierender Faktor KW - Drosophila melanogaster Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-175988 ER - TY - THES A1 - Weber, Manuel T1 - Action-based quantum Monte Carlo approach to fermion-boson models T1 - Wirkungsbasierte Quanten-Monte-Carlo-Methoden für Fermion-Boson-Modelle N2 - This work deals with the development and application of novel quantum Monte Carlo methods to simulate fermion-boson models. Our developments are based on the path-integral formalism, where the bosonic degrees of freedom are integrated out exactly to obtain a retarded fermionic interaction. We give an overview of three methods that can be used to simulate retarded interactions. In particular, we develop a novel quantum Monte Carlo method with global directed-loop updates that solves the autocorrelation problem of previous approaches and scales linearly with system size. We demonstrate its efficiency for the Peierls transition in the Holstein model and discuss extensions to other fermion-boson models as well as spin-boson models. Furthermore, we show how with the help of generating functionals bosonic observables can be recovered directly from the Monte Carlo configurations. This includes estimators for the boson propagator, the fidelity susceptibility, and the specific heat of the Holstein model. The algorithmic developments of this work allow us to study the specific heat of the spinless Holstein model covering its entire parameter range. Its key features are explained from the single-particle spectral functions of electrons and phonons. In the adiabatic limit, the spectral properties are calculated exactly as a function of temperature using a classical Monte Carlo method and compared to results for the Su-Schrieffer-Heeger model. N2 - Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und Anwendung neuer Quanten-Monte-Carlo-Methoden zur Simulation von Fermion-Boson-Modellen. Grundlage für unsere Entwicklungen ist der Pfadintegralformalismus, in dem das exakte Ausintegrieren der bosonischen Freiheitsgrade zu einer retardierten fermionischen Wechselwirkung führt. Wir geben einen Überblick über drei Methoden, die für die Simulation retardierter Wechselwirkungen geeignet sind. Insbesondere entwickeln wir eine neue Quanten-Monte-Carlo-Methode mit globalen Updates, die das Autokorrelationsproblem früherer Ansätze löst und linear in der Systemgröße skaliert. Wir demonstrieren die Effizienz dieser Methode am Beispiel des Peierls-Übergangs im Holstein-Modell und diskutieren Erweiterungen auf andere Fermion-Boson-Modelle sowie Spin-Boson-Modelle. Des Weiteren zeigen wir, wie mithilfe erzeugender Funktionale bosonische Observablen direkt aus den Monte-Carlo-Konfigurationen berechnet werden können. Dies beinhaltet unter anderem den Boson-Propagator und die spezifische Wärme des Holstein-Modells. Die methodischen Entwicklungen dieser Arbeit erlauben es uns, die spezifische Wärme des spinlosen Holstein-Modells in seinem gesamten Parameterbereich zu untersuchen. Ihre wesentlichen Merkmale werden mithilfe der Einteilchenspektralfunktionen von Elektronen und Phononen erklärt. Im adiabatischen Grenzfall verwenden wir eine klassische Monte-Carlo-Methode, um die Temperaturabhängigkeit der Spektralfunktionen exakt zu berechnen, und vergleichen unsere Ergebnisse für das Holstein-Modell mit Resultaten für das Su-Schrieffer-Heeger-Modell. KW - Monte-Carlo-Simulation KW - Elektron-Phonon-Wechselwirkung KW - Peierls-Übergang KW - Thermodynamik KW - Pfadintegral KW - quantum Monte Carlo KW - Holstein model KW - specific heat KW - one-dimensional systems KW - Quanten-Monte-Carlo KW - Holstein-Modell KW - Spezifische Wärme KW - eindimensionale Systeme Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-157643 ER - TY - THES A1 - Albert, Michael T1 - Intelligent analysis of medical data in a generic telemedicine infrastructure T1 - Intelligente Datenanalyse in einer generischen Telemedizinumgebung N2 - Telemedicine uses telecommunication and information technology to provide health care services over spatial distances. In the upcoming demographic changes towards an older average population age, especially rural areas suffer from a decreasing doctor to patient ratio as well as a limited amount of available medical specialists in acceptable distance. These areas could benefit the most from telemedicine applications as they are known to improve access to medical services, medical expertise and can also help to mitigate critical or emergency situations. Although the possibilities of telemedicine applications exist in the entire range of healthcare, current systems focus on one specific disease while using dedicated hardware to connect the patient with the supervising telemedicine center. This thesis describes the development of a telemedical system which follows a new generic design approach. This bridges the gap of existing approaches that only tackle one specific application. The proposed system on the contrary aims at supporting as many diseases and use cases as possible by taking all the stakeholders into account at the same time. To address the usability and acceptance of the system it is designed to use standardized hardware like commercial medical sensors and smartphones for collecting medical data of the patients and transmitting them to the telemedical center. The smartphone can also act as interface to the patient for health questionnaires or feedback. The system can handle the collection and transport of medical data, analysis and visualization of the data as well as providing a real time communication with video and audio between the users. On top of the generic telemedical framework the issue of scalability is addressed by integrating a rule-based analysis tool for the medical data. Rules can be easily created by medical personnel via a visual editor and can be personalized for each patient. The rule-based analysis tool is extended by multiple options for visualization of the data, mechanisms to handle complex rules and options for performing actions like raising alarms or sending automated messages. It is sometimes hard for the medical experts to formulate their knowledge into rules and there may be information in the medical data that is not yet known. This is why a machine learning module was integrated into the system. It uses the incoming medical data of the patients to learn new rules that are then presented to the medical personnel for inspection. This is in line with European legislation where the human still needs to be in charge of such decisions. Overall, we were able to show the benefit of the generic approach by evaluating it in three completely different medical use cases derived from specific application needs: monitoring of COPD (chronic obstructive pulmonary disease) patients, support of patients performing dialysis at home and councils of intensive-care experts. In addition the system was used for a non-medical use case: monitoring and optimization of industrial machines and robots. In all of the mentioned cases, we were able to prove the robustness of the generic approach with real users of the corresponding domain. This is why we can propose this approach for future development of telemedical systems. N2 - Telemedizin nutzt Telekommunikation und Informationstechnologie, um medizinische Dienstleistungen über räumliche Distanzen hinweg zu ermöglichen. Durch den demographischen Wandel hin zu einer älteren Bevölkerung, verschlechtert sich vor allem im ländlichen Raum der Betreuungsschlüssel zwischen (Fach-)ärzten und Patienten, während Experten in den jeweiligen medizinischen Spezialgebieten sehr weit verteilt sind und Anfahrtswege immer weiter werden. Gerade der ländliche Raum profitiert von der Telemedizin. Anfahrtswege entfallen, wenn Untersuchungen oder ärztliche Konzile über Telemedizinsysteme abgewickelt werden. Kritische Situationen können entschärft oder vermieden werden, wenn Spezialisten durch Telemedizin frühzeitig eingebunden werden. Aktuelle Telemedizinsysteme sind allerdings generell auf ein bestimmtes Krankheitsbild beschränkt und verwenden dedizierte Hardware, um den Patienten mit dem telemedizinischen Zentrum zu verbinden, obwohl ein breiteres Anwendungsspektrum in der gesamten Gesundheitsversorgung denkbar ist. Diese Arbeit beschreibt die Entwicklung eines Telemedizinsystems, das darauf ausgelegt ist das System so generisch zu planen und zu entwickeln, dass möglichst viele Krankheitsbilder und Anwendungsfälle abgebildet werden können. Dafür werden alle möglichen Beteiligten des Systems mit berücksichtigt und einbezogen. Um das Telemedizinsystem bedienerfreundlich zu gestalten und die Akzeptanz zu erhöhen, wurde auf den Einsatz von Standardhardware, wie kommerzielle medizinische Sensorik oder Smartphones, hoher Wert gelegt. Das Smartphone dient dabei unter anderem als Patientengerät, das die Daten verschiedenster Sensorik auslesen, aggregieren und an das zentrale System weiterleiten kann. Es kann interaktive Fragebögen anzeigen und verwendet werden, um dem Patienten Feedback zu den Daten zu geben. Das Telemedizinsystem unterstützt die komplette Kette der telemedizinischen Datenverarbeitung, von der Aufnahme der Daten über den abgesicherten Transport bis hin zur Analyse und Visualisierung der Daten. Zusätzlich wird eine Kommunikationsmöglichkeit der Beteiligten über Audio- oder Videotelefonie zur Verfügung gestellt. Um die Skalierbarkeit des Systems zu erhöhen, wurde ein regelbasiertes Auswertesystem für die Patientendaten implementiert. Das medizinische Personal kann über ein einfach zu bedienendes grafisches Interface patientenindividuelle Regeln anlegen. Das Regelsystem ist in der Lage die Daten anhand komplexer Regeln zu analysieren, Visualisierungen zu erzeugen oder Aktionen auszulösen, wie beispielsweise einen Alarm zu geben, wenn die Werte des Patienten sich verschlechtern. Es kommt vor, dass die Experten ihr Wissen nicht in konkrete Regeln formulieren können oder dass Wissen in den Daten steckt, das den Experten selbst nicht bekannt ist. Deshalb kommt ein weiteres Modul zum Einsatz, das anhand der eingehenden Daten mittels maschinellem Lernen neue Regeln erzeugt und dem Fachpersonal zur Überprüfung vorschlägt. Die letzte Entscheidung liegt immer bei dem jeweiligen Fachpersonal, so dass das System konform zu aktuellem europäischem Recht arbeitet. Der generische Ansatz des Telemedizinsystems wurde in drei verschiedenen medizinischen Anwendungsszenarien mit den entsprechenden Anwendern getestet: Langzeitmonitoring von COPD (chronisch obstruktive Lungenerkrankung) Patienten, Unterstützung von Heimdialyse Patienten und intensivmedizinische Konsile. Zusätzlich wurde das System im industriellen Anwendungskontext zum Überwachen und Optimieren von Industrieanlagen und Industrierobotern eingesetzt. In allen Anwendungsfällen konnten wir die Machbarkeit des Systems zeigen und mit Anwendern aus dem jeweiligen Fachbereich evaluieren. Das System kann somit als robuste Grundlage für die Entwicklung weiterer Telemedizinsysteme und Anwendungen dienen. T3 - Forschungsberichte in der Robotik = Research Notes in Robotics - 17 KW - Telemedizin KW - Regelbasiertes Modell KW - telemedicine KW - rulebased analysis Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:20-opus-174213 SN - 978-3-945459-26-3 (Online) ER -