Refine
Year of publication
- 2017 (742) (remove)
Document Type
- Journal article (395)
- Doctoral Thesis (242)
- Complete part of issue (52)
- Preprint (12)
- Review (12)
- Book (8)
- Conference Proceeding (7)
- Jahresbericht (4)
- Book article / Book chapter (4)
- Master Thesis (2)
Language
- English (505)
- German (232)
- French (3)
- Multiple languages (2)
Keywords
- Würzburg (51)
- Wuerzburg (50)
- Wurzburg (50)
- Universität (48)
- University (45)
- Hadron-Hadron scattering (experiments) (28)
- High energy physics (26)
- medicine (14)
- physics (12)
- Medicine (11)
Institute
- Theodor-Boveri-Institut für Biowissenschaften (79)
- Universität - Fakultätsübergreifend (47)
- Physikalisches Institut (46)
- Graduate School of Life Sciences (35)
- Medizinische Klinik und Poliklinik I (25)
- Institut für Psychologie (24)
- Institut für Theoretische Physik und Astrophysik (24)
- Neurologische Klinik und Poliklinik (24)
- Medizinische Klinik und Poliklinik II (21)
- Fakultät für Physik und Astronomie (20)
Schriftenreihe
Sonstige beteiligte Institutionen
- Johns Hopkins School of Medicine, Baltimore, MD, U.S. (4)
- Institut für Optik und Atomare Physik, Technische Universität Berlin, 10623 Berlin, Germany (2)
- Laboratory for Chemistry and Life Science, Institute of Innovative Research, Tokyo Institute of Technology, Yokohama 226-8503, Japan (2)
- CERN (Geneva, Switzerland) (1)
- Deutsches Zentrum für Herzinsuffizienz (1)
- Didaktik der Chemie (1)
- Endokrinologie (1)
- Fraunhofer Institut für Silicatforschung ISC (1)
- Fraunhofer-Institut für Silicatforschung (1)
- Fraunhofer-Institut für Silicatforschung ISC (1)
ResearcherID
- D-3057-2014 (1)
- M-1240-2017 (1)
- N-8985-2015 (1)
Antikörper, die Oberflächenantigene erkennen, sind sowohl in der Diagnostik als auch in der Therapie verschiedener Erkrankungen von enormer Bedeutung. Damit Antikörper in diesen Bereichen eingesetzt werden können, ist es sehr wichtig, dass die Interaktion eines Antikörpers oder auch eines Antikörperkonjugats mit seinem Antigen oder Fc-Rezeptoren ausreichend charakterisiert wird. Hierfür werden meist zellfreie Verfahren angewandt, wie die isotherme Titrationskalorimetrie oder die Oberflächenplasmonenresonanzspektroskopie. Diese unterliegen verschiedenen Limitationen, beispielsweise der Verfügbarkeit von rekombinantem Antigen. Vor allem aber werden zelluläre Einflüsse, die die Bindungseigenschaften der Antikörper beeinflussen, nicht berücksichtigt. Aber auch die derzeit angewandten Verfahren für zelluläre Bindungsstudien können problematisch sein, da sie meist auf Antikörpern basieren, die biochemisch markiert worden sind, was zu funktionellen Beeinträchtigungen führen kann. Außerdem zeigen solche Antikörper häufig keine einheitliche Stöchiometrie der jeweiligen Reporterstoffe und die Reproduzierbarkeit des Markierungsverfahrens ist in den meisten Fällen nicht gewährleistet. Positionsspezifische Markierungen sind jedoch vergleichsweise sehr aufwendig.
Um die genannten Probleme zu umgehen, wurden in der vorliegenden Arbeit am Beispiel des Fn14-spezifischen Antikörpers 18D1 Antikörper-Fusionsproteine hergestellt und charakterisiert, die an verschiedenen Positionen genetisch mit der Gaussia princeps Luziferase (GpL) fusioniert worden sind. Dabei zeigte sich, dass die Positionierung der Luziferase am C-Terminus der leichten Kette des Antikörpers (GpL(CT-LC)) die Bindungseigenschaften der GpL-18D1-IgG1-Fusionsproteine an Fn14 und an die verschiedenen Fcγ-Rezeptoren (FcγR) nicht oder nur in geringem Umfang beeinflusst. Auch die agonistische Aktivität der GpL-18D1-IgG1-Fusionsproteine, welche abhängig ist von der Oligomerisierung über Protein G oder der FcγR-Bindung, wurde durch die GpL-Markierung nicht wesentlich beeinflusst. Diese Ergebnisse ließen sich am Bespiel von 18D1 ebenfalls auf die dimeren Antikörper-Isotypen IgG2, mIgG1 und mIgG2A übertragen. GpL-Fusionsproteine der Antikörper E09-IgG1 (CD95-spezifisch), G28.5-IgG1 (CD40-spezifisch) und BHA10-IgG1 (LTβR-spezifisch) zeigten gleichfalls keine gravierenden Veränderungen der Bindungseigenschaften oder den funktionellen Eigenschaften, was für eine breite Anwendbarkeit von GpL-Antikörper-Fusionsproteinen spricht.
Zusammenfassend betrachtet zeigen die hier präsentierten Ergebnisse, dass die genetische Fusion der Gaussia princeps Luziferase an das C-terminale Ende der leichten Antikörperkette eine sehr gute Möglichkeit darstellt, Antigen-Antikörper-Interaktionen zu charakterisieren ohne dabei mit den Eigenschaften des Antikörpers zu interferieren. Dabei besticht dieser Ansatz im Vergleich zu anderen gängigen Verfahren durch seine Reproduzierbarkeit, eine einfache Handhabung, geringe Kosten und eine extrem hohe Sensitivität. Außerdem könnte dieses Antikörper-Fusionsproteinformat zukünftig auch in vielen Bereichen als Tracer eingesetzt werden mit dem Vorteil, dass keinerlei Radioaktivität benötigt werden würde.
"China im Wandel" ist das Schlagwort, wenn es um das "Reich der Mitte" geht. Primär war damit das rapide wirtschaftliche Wachstum über die letzten Jahrzehnte gemeint, aber auch zunehmend die Veränderungen in politischen und sozialen Bereichen. Der ökonomische Transformationsprozess hat auch einen anhaltenden institutionellen Wandel in Wirtschaft und Gesellschaft hervorgerufen. Für diese wirtschaftliche Transformation werden in China vor allem mehr qualifizierte Fachkräfte benötigt, nach denen die ausländischen wie inländischen Unternehmen auf dem chinesischen Arbeitsmarkt oft vergeblich suchen. Rekrutierung und Mitarbeiterbindung sowie die steigenden Lohnkosten stellen seit Jahren die größten Herausforderungen auf dem chinesischen Arbeitsmarkt dar. Das Mismatch-Problem ist augenscheinlich. Um die Gründe für diese Verzerrungen zu eruieren, setzt die vorliegende Studie dort an, wo Bildungsmarkt und Arbeitsmarkt aufeinandertreffen, und zwar dem Human Resource Management (HRM) von Unternehmen in China. Ziel dieser Studie ist es, einen Beitrag zur Diskussion über das Voranschreiten meritokratischer Verteilungsprozesse im Übergang von einer Plan- zur Marktwirtschaft in China zu leisten. Die Neue Institutionenökonomik (NIÖ) liefert mit der Signal- und Screeningtheorie (SST) Erklärungsansätze für solche personalökonomischen Probleme zwischen AG und AN. Mit Hilfe dieses auf China angewandten Ansatzes konnten die relevanten "Signale" beider Parteien im Rekrutierungsprozess sowie die Problemfelder Chinas Hotellerie identifiziert und analysiert werden. Somit richtet sich diese Studie nicht nur an Sinologen, sondern ebenso an Wirtschaftswissenschaftler und Praktiker mit Chinabezug.
Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks.
The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack.
Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time.
The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy.
The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include:
• Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies.
• Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads.
• Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model.
• A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles.
• A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability.
• An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique.
In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits:
• It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment.
• DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios.
• The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving.
• The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms.
The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well.
Recent years have seen rapid advances in the chemistry of small molecules containing electron-precise boron-boron bonds. This review provides an overview of the latest methods for the controlled synthesis of B–B single and multiple bonds as well as the ever-expanding range of reactivity displayed by the latter.
The obligate human pathogen Neisseria gonorrhoeae is responsible for the widespread sexually transmitted disease gonorrhoea, which in rare cases also leads to the development of disseminated gonococcal infection (DGI). DGI is mediated by PorBIA-expressing bacteria that invade host cells under low phosphate condition by interaction with the scavenger receptor-1 (SREC-I) expressed on the surface of endothelial cells. The interaction of PorBIA and SREC-I was analysed using different in vitro approaches, including surface plasmon resonance experiments that revealed a direct phosphate-independent high affinity interaction of SREC-I to PorBIA. However, the same binding affinity was also found for the other allele PorBIB, which indicates unspecific binding and suggests that the applied methods were unsuitable for this interaction analysis.
Since N. gonorrhoeae was recently classified as a “super-bug” due to a rising number of antibiotic-resistant strains, this study aimed to discover inhibitors against the PorBIA-mediated invasion of N. gonorrhoeae. Additionally, inhibitors were searched against the human pathogen Chlamydia trachomatis, which causes sexually transmitted infections as well as infections of the upper inner eyelid. 68 compounds, including plant-derived small molecules, extracts or pure compounds of marine sponges or sponge-associated bacteria and pipecolic acid derivatives, were screened using an automated microscopy based approach. No active substances against N. gonorrhoeae could be identified, while seven highly antichlamydial compounds were detected.
The pipecolic acid derivatives were synthesized as potential inhibitors of the virulence-associated “macrophage infectivity potentiator” (MIP), which exhibits a peptidyl prolyl cis-trans isomerase (PPIase) enzyme activity. This study investigated the role of C. trachomatis and N. gonorrhoeae MIP during infection. The two inhibitors PipN3 and PipN4 decreased the PPIase activity of recombinant chlamydial and neisserial MIP in a dose-dependent manner. Both compounds affected the chlamydial growth and development in epithelial cells. Furthermore, this work demonstrated the contribution of MIP to a prolonged survival of N. gonorrhoeae in the presence of neutrophils, which was significantly reduced in the presence of PipN3 and PipN4.
SF2446A2 was one of the compounds that had a severe effect on the growth and development of C. trachomatis. The analysis of the mode of action of SF2446A2 revealed an inhibitory effect of the compound on the mitochondrial respiration and mitochondrial ATP
production of the host cell. However, the chlamydial development was independent of proper functional mitochondria, which excluded the connection of the antichlamydial properties of SF2446A2 with its inhibition of the respiratory chain. Only the depletion of cellular ATP by blocking glycolysis and mitochondrial respiratory chain inhibited the chlamydial growth. A direct effect of SF2446A2 on C. trachomatis was assumed, since the growth of the bacteria N. gonorrhoeae and Staphylococcus aureus was also affected by the compound.
In summary, this study identified the severe antichlamydial activity of plant-derived naphthoquinones and the compounds derived from marine sponges or sponge-associated bacteria SF2446A2, ageloline A and gelliusterol E. Furthermore, the work points out the importance of the MIP proteins during infection and presents pipecolic acid derivatives as novel antimicrobials against N. gonorrhoeae and C. trachomatis.
Elektromagnetische Felder (EMF) sind in der Umwelt des Menschen allgegenwärtig. Unter Verwendung unterschiedlicher Frequenzen bilden sie die Grundlage zahlreicher Technologien und begegnen uns im Alltag in einer Vielzahl von Anwendungen. Eine sehr wichtige Anwendung von EMF ist die mobile Kommunikation. Die hierfür verwendeten Frequenzen liegen im hochfrequenten Bereich und variieren mit dem Mobilfunkstandard. Weit verbreitet ist die GSM- und UMTS-Modulation der zweiten (2G) und dritten Generation (3G). Zum neuesten Mobilfunkstandard zählt LTE (4G).
Aus statistischen Daten geht hervor, dass derzeit weltweit mehr als sieben Milliarden Mobilfunk-Endgeräte existieren. Die weitverbreitete und stetig ansteigende Verwendung dieser Technologien verdeutlicht, dass viele Menschen, darunter auch zunehmend Kinder und Jugendliche, regelmäßig einer Exposition gegenüber EMF ausgesetzt sind. Die wichtigste Expositionsquelle stellt dabei das Mobiltelefon dar, da sich in diesem Szenario die Quelle sehr nah am menschlichen Körper befindet. In der Vergangenheit wurden zahlreiche in-vitro- und in-vivo-Untersuchungen sowie epidemiologische Studien durchgeführt, um potentielle, nicht-thermische Effekte von Mobilfunkstrahlung auf biologische Systeme beurteilen zu können. Ein vollständiger Konsens konnte auf der Basis der erhaltenen Ergebnisse jedoch nicht erzielt werden, sodass weiterhin Bedenken zum schädlichen Potential dieser nichtionisierenden Strahlung bestehen. Insbesondere wurden Fragestellungen zu Langzeiteffekten sowie zu Effekten, die speziell bei Kindern eine besondere Rolle spielen, bisher nicht ausreichend adressiert. Kinder können empfindlicher auf Umwelteinflüsse reagieren und sind im Vergleich zu Erwachsenen teilweise höher gegenüber EMF exponiert. Dies gilt vor allem für Kopfregionen, in denen sich das aktive, für die Hämatopoese verantwortliche Knochenmark befindet.
Vor diesem Hintergrund war es das Ziel der vorliegenden Arbeit, den Einfluss von Mobilfunkstrahlung auf das humane blutbildende System zu untersuchen. Im Fokus standen dabei humane hämatopoetische Stammzellen, die mit Frequenzen der Mobilfunkstandards GSM (900 MHz), UMTS (1.950 MHz) und LTE (2.535 MHz) jeweils über einen kurzen (4 h) und einen langen (20 h) Zeitraum und mit unterschiedlichen Intensitäten (0 W/kg, 0,5 W/kg, 1 W/kg, 2 W/kg und 4 W/kg) exponiert wurden. Vergleichende Experimente erfolgten mit Zellen der Promyelozyten-Zelllinie HL-60. Mögliche Effekte wurden mit den Endpunkten Apoptose, oxidativer Stress, Zellzyklus, DNA-Schaden und –Reparatur sowie Differenzierung und Epigenetik in Form von Histonacetylierung bewertet. In keinem der genannten Endpunkte konnten klare Effekte durch Mobilfunkstrahlung ausgemacht werden, weder für die hämatopoetischen Stammzellen, noch für die Zelllinie HL-60. Die einzige Veränderung wurde bei der Quantifizierung von DNA-Schäden beobachtet. Hier zeigte sich nach der Kurzzeitexposition der Stammzellen mit der Modulation GSM eine kleine, aber statistisch signifikante Abnahme der DNA-Schäden verglichen mit der Scheinexposition. Diese Beobachtung ließ sich in weiteren Replikaten jedoch nicht reproduzieren und wurde daher als nicht biologisch relevant eingestuft.
Insgesamt konnte mit dieser Arbeit gezeigt werden, dass durch Mobilfunkstrahlung mit Frequenzen der verbreiteten Modulationen GSM, UMTS und LTE sowie SAR-Werten, die unterhalb und oberhalb des empfohlenen Sicherheitsstandards liegen und typischerweise bei Handytelefonaten auftreten, keine Effekte in Zellen des blutbildenden Systems unter den gegebenen Versuchsbedingungen induziert wurden. Ein besonderer Fokus lag hierbei auf der Reproduzierbarkeit der Ergebnisse. Weiterhin wurden zum ersten Mal humane hämatopoetische Stammzellen für derartige Untersuchungen eingesetzt. Dies hat insofern eine besondere Bedeutung, als hämatopoetische Stammzellen aufgrund ihrer multipotenten Eigenschaften eine breitere Analyse mit Hinblick auf die Kanzerogenese und auf das Immunsystem ermöglichen.
Um über die Mobilfunk-Untersuchungen hinaus die hämatopoetischen Stammzellen besser charakterisieren zu können, sowie die Sensitivität von Blutzellen mit unterschiedlichem Differenzierungsstatus zu analysieren, wurden sie anderen Zellen des blutbildenden Systems (undifferenzierte und differenzierte HL-60-Zellen und TK6-Zellen) gegenübergestellt. Eine Behandlung der verschiedenen Zelltypen mit mutagenen Substanzen zeigte, dass sich die hämatopoetischen Stammzellen in den meisten der untersuchten Endpunkte von den Zelllinien unterschieden. Deutliche Abweichungen zeigten sich beim oxidativen Stress, der DNA-Reparatur und der Histonacetylierung; kein Unterschied konnte dagegen bei den DNA-Schäden beobachtet werden. Eine erste Interpretation der erhaltenen Ergebnisse ist auf der Grundlage der unterschiedlichen Eigenschaften von Zellen mit abweichendem Differenzierungsstatus möglich. Um jedoch eine eindeutige Aussage treffen zu können, müssten noch weitere Untersuchungen durchgeführt werden.
The topic of this thesis is the theoretical and numerical analysis of optimal control problems, whose differential constraints are given by Fokker-Planck models related to jump-diffusion processes. We tackle the issue of controlling a stochastic process by formulating a deterministic optimization problem. The
key idea of our approach is to focus on the probability density function of the process,
whose time evolution is modeled by the Fokker-Planck equation. Our control framework is advantageous since it allows to model the action of the control over the entire range of the process, whose statistics are characterized by the shape of its probability density function.
We first investigate jump-diffusion processes, illustrating their main properties. We define stochastic initial-value problems and present results on the existence and uniqueness of their solutions. We then discuss how numerical solutions of stochastic problems are computed, focusing on the Euler-Maruyama method.
We put our attention to jump-diffusion models with time- and space-dependent coefficients and jumps given by a compound Poisson process. We derive the related Fokker-Planck equations, which take the form of partial integro-differential equations. Their differential term is governed by a parabolic operator, while the nonlocal integral operator is due to the presence of the jumps. The derivation is carried out in two cases. On the one hand, we consider a process with unbounded range. On the other hand, we confine the dynamic of the sample paths to a bounded domain, and thus the behavior of the process in proximity of the boundaries has to be specified. Throughout this thesis, we set the barriers of the domain to be reflecting.
The Fokker-Planck equation, endowed with initial and boundary conditions, gives rise to Fokker-Planck problems. Their solvability is discussed in suitable functional spaces. The properties of their solutions are examined, namely their regularity, positivity and probability mass conservation. Since closed-form solutions to Fokker-Planck problems are usually not available, one has to resort to numerical methods.
The first main achievement of this thesis is the definition and analysis of conservative and positive-preserving numerical methods for Fokker-Planck problems. Our SIMEX1 and SIMEX2 (Splitting-Implicit-Explicit) schemes are defined within the framework given by the method of lines. The differential operator is discretized by a finite volume scheme given by the Chang-Cooper method, while the integral operator is approximated by a mid-point rule. This leads to a large system of ordinary differential equations, that we approximate with the Strang-Marchuk splitting method. This technique decomposes the original problem in a
sequence of different subproblems with simpler structure, which are separately solved and linked to each other through initial conditions and final solutions. After performing the splitting step, we carry out the time integration with first- and second-order time-differencing methods. These steps give rise to the SIMEX1 and SIMEX2 methods, respectively.
A full convergence and stability analysis of our schemes is included. Moreover, we are able to prove that the positivity and the mass conservation of the solution to Fokker-Planck problems are satisfied at the discrete level by the numerical solutions computed with the SIMEX schemes.
The second main achievement of this thesis is the theoretical analysis and the numerical solution of optimal control problems governed by Fokker-Planck models. The field of optimal control deals with finding control functions in such a way that given cost functionals are minimized. Our framework aims at the minimization of the difference between a known sequence of values and the first moment of a jump-diffusion process; therefore, this formulation can also be considered as a parameter estimation problem for stochastic processes. Two cases are discussed, in which the form of the cost functional is continuous-in-time and discrete-in-time, respectively.
The control variable enters the state equation as a coefficient of the Fokker-Planck partial integro-differential operator. We also include in the cost functional a $L^1$-penalization term, which enhances the sparsity of the solution. Therefore, the resulting optimization problem is nonconvex and nonsmooth. We derive the first-order optimality systems satisfied by the optimal solution. The computation of the optimal solution is carried out by means of proximal iterative schemes in an infinite-dimensional framework.
Endogenous clocks help animals to anticipate the daily environmental changes. These
internal clocks rely on environmental cues, called Zeitgeber, for synchronization. The
molecular clock consists of transcription-translation feedback loops and is located in
about 150 neurons (Helfrich-Förster and Homberg, 1993; Helfrich-Förster, 2005). The
core clock has the proteins Clock (CLK) and Cycle (CYC) that together act as a
transcription activator for period (per) and timeless (tim) which then, via PER and TIM
block their own transcription by inhibiting CLK/CYC activity (Darlington et al., 1998;
Hardin, 2005; Dubruille and Emery, 2008). Light signals trigger the degradation of TIM
through a blue-light sensing protein Cryptochrome (CRY) and thus, allows CLK/CYC to
resume per and tim transcription (Emery et al., 1998; Stanewsky et al., 1998).
Therefore, light acts as an important Zeitgeber for the clock entrainment. The
mammalian clock consists of similarly intertwined feedback loops.
Endogenous clocks facilitate appropriate alterations in a variety of behaviors
according to the time of day. Also, these clocks can provide the phase information to the
memory centers of the brain to form the time of day related associations (TOD). TOD
memories promote appropriate usage of resources and concurrently better the survival
success of an animal. For instance, animals can form time-place associations related to
the availability of a biologically significant stimulus like food or mate. Such memories will
help the animal to obtain resources at different locations at the appropriate time of day.
The significance of these memories is supported by the fact that many organisms
including bees, ants, rats and mice demonstrate time-place learning (Biebach et al.
1991; Mistlberger et al. 1997; Van der Zee et al. 2008; Wenger et al. 1991). Previous
studies have shown that TOD related memories rely on an internal clock, but the identity
of the clock and the underlying mechanism remain less well understood. The present
study demonstrates that flies can also form TOD associated odor memories and further
seeks to identify the appropriate mechanism.
Hungry flies were trained in the morning to associate odor A with the sucrose
reward and subsequently were exposed to odor B without reward. The same flies were
exposed in the afternoon to odor B with and odor A without reward. Two cycles of the
65
reversal training on two subsequent days resulted in the significant retrieval of specific
odor memories in the morning and afternoon tests. Therefore, flies were able to
modulate their odor preference according to the time of day. In contrast, flies trained in
a non-reversal manner were unable to form TOD related memories. The study also
demonstrates that flies are only able to form time-odor memories when the two
reciprocal training cycles occur at a minimum 6 h interval.
This work also highlights the role of the internal state of flies in establishing timeodor
memories. Prolonged starvation motivates flies to appropriate their search for the
food. It increases the cost associated with a wrong choice in the T-maze test as it
precludes the food discovery. Accordingly, an extended starvation promotes the TOD
related changes in the odor preference in flies already with a single cycle of reversal
training. Intriguingly, prolonged starvation is required for the time-odor memory
acquisition but is dispensable during the memory retrieval.
Endogenous oscillators promote time-odor associations in flies. Flies in constant
darkness have functional rhythms and can form time-odor memories. In contrast, flies
kept in constant light become arrhythmic and demonstrated no change in their odor
preference through the day. Also, clock mutant flies per01 and clkAR, show compromised
performance compared to CS flies when trained in the time-odor conditioning assay.
These results suggest that flies need a per and clk dependent oscillator for establishing
TOD related memories. Also, the clock governed rhythms are necessary for the timeodor
memory acquisition but not for the retrieval.
Pigment-Dispersing Factor (PDF) neuropeptide is a clock output factor (Park and
Hall, 1998; Park et al., 2000; Helfrich-Förster, 2009). pdf01 mutant flies are unable to
form significant time-odor memories. PDF is released by 8 neurons per hemisphere in
the fly brain. This cluster includes the small (s-LNvs) and large (l-LNvs) ventral lateral
neurons. Restoring PDF in these 16 neurons in the pdf01 mutant background rescues
the time-odor learning defect. The PDF neuropeptide activates a seven transmembrane
G-protein coupled receptor (PDFR) which is broadly expressed in the fly brain (Hyun et
al., 2005). The present study shows that the expression of PDFR in about 10 dorsal
neurons (DN1p) is sufficient for robust time-odor associations in flies.
66
In conclusion, flies use distinct endogenous oscillators to acquire and retrieve
time-odor memories. The first oscillator is light dependent and likely signals through the
PDF neuropeptide to promote the usage of the time as an associative cue during
appetitive conditioning. In contrast, the second clock is light independent and
specifically signals the time information for the memory retrieval. The identity of this
clock and the underlying mechanism are open to investigation.
„Joseph Willibald Michl – Ein Komponist von vielem Kopfe“, so schrieb einst Christian Friedrich Daniel Schubart über den wohl bedeutendsten Spross einer Musikerfamilie, die über mindestens vier Generationen das Musikgeschehen der Oberpfalz, Bayerns und darüber hinaus mitgestaltete. Neben dem deutschen Dichter, Organisten, Komponisten und Journalisten Schubart, sprechen sich auch andere Zeitgenossen wie der englische Musikforscher Charles Burney oder der Historiker und Schriftsteller Lorenz von Westenrieder sprechen sich lobend über den „Churfürstlichen Kammer-Compositeur“ von Maximilian III. Joseph aus. Diese Studie untersucht die Genealogie, die Biographie und das Werk von Joseph Willibald Michl anhand neuer Quellen und schließt darüber hinaus Lücken in seinem Curriculum Vitae. Erstmals wird ein systematisch-thematisches Werkverzeichnis des Komponisten vorgelegt, um das heute noch greifbare musikalische Œuvre zu erfassen bzw. zur Klärung fraglicher oder offensichtlicher Falschzuweisungen beizutragen. In einer Analyse repräsentativ ausgewählter Werke der von Michl verwenden musikalischen Gattungen wird die Kompositionsart und Musiksprache Michls näher betrachtet
3D point clouds are a de facto standard for 3D documentation and modelling. The advances in laser scanning technology broadens the usability and access to 3D measurement systems. 3D point clouds are used in many disciplines such as robotics, 3D modelling, archeology and surveying. Scanners are able to acquire up to a million of points per second to represent the environment with a dense point cloud. This represents the captured environment with a very high degree of detail. The combination of laser scanning technology with photography adds color information to the point clouds. Thus the environment is represented more realistically. Full 3D models of environments, without any occlusion, require multiple scans. Merging point clouds is a challenging process. This thesis presents methods for point cloud registration based on the panorama images generated from the scans. Image representation of point clouds introduces 2D image processing methods to 3D point clouds. Several projection methods for the generation of panorama maps of point clouds are presented in this thesis. Additionally, methods for point cloud reduction and compression based on the panorama maps are proposed. Due to the large amounts of data generated from the 3D measurement systems these methods are necessary to improve the point cloud processing, transmission and archiving. This thesis introduces point cloud processing methods as a novel framework for the digitisation of archeological excavations. The framework replaces the conventional documentation methods for excavation sites. It employs point clouds for the generation of the digital documentation of an excavation with the help of an archeologist on-site. The 3D point cloud is used not only for data representation but also for analysis and knowledge generation. Finally, this thesis presents an autonomous indoor mobile mapping system. The mapping system focuses on the sensor placement planning method. Capturing a complete environment requires several scans. The sensor placement planning method solves for the minimum required scans to digitise large environments. Combining this method with a navigation system on a mobile robot platform enables it to acquire data fully autonomously. This thesis introduces a novel hole detection method for point clouds to detect obscured parts of a captured environment. The sensor placement planning method selects the next scan position with the most coverage of the obscured environment. This reduces the required number of scans. The navigation system on the robot platform consist of path planning, path following and obstacle avoidance. This guarantees the safe navigation of the mobile robot platform between the scan positions. The sensor placement planning method is designed as a stand alone process that could be used with a mobile robot platform for autonomous mapping of an environment or as an assistant tool for the surveyor on scanning projects.
Schutzgebiete und insbesondere Nationalparke haben nach den Richtlinien der IUCN ein Doppelmandat bzw. eine doppelte Funktion: Sie sollen zum einen Räume für Natur- und Artenschutz und zum anderen für Erholung, Umweltbildung und Tourismus bieten und durch letztgenanntes zur Stärkung der Regionalökonomie beitragen. Um diesen Spagat zu meistern, sollten sich Schutzgebiete bzw. deren Verwaltungen und kooperierende Destinationsmarketingorganisationen darüber im Klaren sein, welche Besuchersegmente bzw. Tourismusprodukte im Schutzgebiet anzutreffen sind, bzw. angeboten werden und welchen Einfluss diese auf die Erfüllung des Doppelmandates haben. Die deduktiv entworfene Product-based Typology for Nature-based Tourism von ARNEGGER et al. (2010) bietet hierfür einen zweidimensionalen Analyserahmen, der die Angebots- und Nachfrageperspektive auf den Tourismus und dessen Produkte vereint und bisher noch nicht empirisch angewendet wurde, was das vorrangige Ziel dieser Studie ist.
Hierfür wurde von Theorien und empirischen Studien aus dem Kontext von Natur- und Ökotourismus eine Operationalisierung der Typologie abgeleitet, die am Beispiel des Nationalparks Berchtesgaden eingesetzt wurde. Dabei wurden zwei Ansätze verfolgt, eine angebotsseitige und eine nachfrageseitige Abgrenzung von Tourismusprodukten. Zur empirischen Erfassung von Tourismusprodukten wurde eine umfassende Besucherbefragung in der Sommersaison 2014 durchgeführt, bei der Informationen von rund 1.400 Besuchern des Nationalparks gesammelt werden konnten.
Aus Sicht der Nachfrager wurden sechs Produkt-Cluster identifiziert, die sich bezüglich Reiseaktivitäten und Motiven unterscheiden. Das mit der höchsten Naturaffinität ist das Produkt-Cluster der „Naturbildungsurlauber“ bzw. der „Ökotouristen“. Auf der anderen Seite des Spektrums stehen die „Passiven Erholungsurlauber“ mit einer geringen Nationalparkaffinität. Des Weiteren wurden spezifische Tourismusprodukte aus der Angebotsperspektive, wie Exkursionen der Nationalparkverwaltung oder mehrtägige geführte Wanderungen von spezialisierten Nischenreiseveranstaltern, identifiziert.
Nach der empirischen Abgrenzung der Produkte wurden diese dahingehend überprüft, ob sie sich bezüglich ökonomischer und ökologischer Indikatoren unterscheiden, um zu eruieren, inwieweit die Segmente aus Sicht einer nachhaltigen Regionalentwicklung bzw. aus Sicht des Doppelmandats zu beurteilen sind. Auch hier schneiden etwa die Naturbildungsurlauber relativ gut ab, da sie Muster von structured ecotourism aufweisen und sich durch eine hohe Naturaffinität, positive Einstellungen zu nachhaltigem Tourismus und relativ hohe Reiseausgaben auszeichnen. Bei drei Clustern zeigt sich ein gewisser trade-off: Während die Bergsteiger aus ökologischer jedoch nicht aus ökonomischer Perspektive interessant sind, ist dies bei den allgemeinen Vergnügungs- und Naturerlebnisurlaubern und den passiven Erholungsurlaubern genau umgekehrt.
Basierend auf den Ergebnissen werden mögliche Adaptionen der Typologie diskutiert und darauf aufbauend ein Analyserahmen für eine „Typologie für Nachhaltige Park-Tourismus Produkte“ erarbeitet. Zudem werden theoretische und erste praktische Implikationen für das Management von Schutzgebiets-Destinationen diskutiert, um unter Berücksichtigung der trade-offs das Produktportfolio weiterzuentwickeln, das eine Destination auf den Pfad des sogenannten enlightened mass tourism bringen kann.
In dieser wissenschaftlichen Begleitstudie treffen drei Themenbereiche aufeinander, die eine große öffentliche und wissenschaftliche Aktualität besitzen. Bereits seit Längerem gilt ein besonderes Augenmerk dem Fachkräftemangel in den sog. MINT-Berufen, also jenen Tätigkeitsbereichen, die naturwissenschaftlicher, mathematischer oder informationstechnologischer Kompetenzen bedürfen. Intensiv sind bereits die Anstrengungen, hier für die Zukunft Abhilfe zu schaffen. Auch die Vermittlung von Werten in pluralisierten Gesellschaften steht wieder weit oben auf der gesellschaftlichen Agenda.
Schließlich erfährt das Lehr-Lern-Konzept des Service Learning in der letzten Dekade einen erheblichen Aufwind in Deutschland (Reinders, 2016a; Seifert, Zentner & Nagy, 2012). Das ursprünglich in den USA entwickelte Modell der Vermittlung von Werten und Fachwissen durch die Verknüpfung von akademischer Theorie und sozialer Praxis hat sich an Universitäten etabliert und ist an deutschen Schulen unter dem Begriff „Lernen durch Engagement“ zum gängigen didaktischen Repertoire geworden.
An der Schnittstelle dieser drei Themen bewegt sich die in diesem Band vorgestellte empirische Studie, die durch die Begleitung eines von der Siemens und Freudenberg Stiftung initiierten Praxisprojekts möglich wurde. In diesem Praxisprojekt wurde Schulen in Bayern, Berlin und Sachsen-Anhalt die Gelegenheit gegeben, Service Learning als Methode einzusetzen, um SchülerInnen Werte mittels naturwissenschaftlicher Inhalte zu vermitteln. Das Ziel des Pilotprojekts ist es, die drei Aspekte MINT, Wertevermittlung und Service Learning zusammenzubringen.
Durch die wissenschaftliche Begleitstudie werden grundlagenwissenschaftliche Erkenntnisse darüber erwartet, ob und unter welchen Bedingungen das gewählte didaktische Modell in der Lage ist, dieses Ziel der Verknüpfung zu realisieren.
Dieser Band berichtet die Ergebnisse einer Recherche zu rechtlichen Bedingungen für den Mädchenfußball in Deutschland. Konkret wird untersucht, ob und in welcher Form Juniorinnen berechtigt sind, jahrgangsälter am Spielbetrieb der Junioren teilzunehmen.
Anlass für diese Übersicht ist zum einen der Umstand eines nachweislichen, körperlich-motorischen Vorsprungs von Jungen gegenüber Mädchen ab der Grundschulzeit. Zum anderen bietet der Deutsche Fußball-Bund durch seine Jugendordnung den Landesverbänden die Möglichkeit, Juniorinnen altersversetzt im Spielbetrieb der Junioren einzusetzen.
Insgesamt zeigen die untersuchten Jugend- und Spielordnungen der Landesverbände eine deutliche Hinwendung zu den Grundsätzen des Deutschen Fußball-Bundes.
Tourism in Würzburg: Suggestions on how to enhance the travel experience for Chinese tourists
(2017)
This report provides suggestions on how to enhance the travel experience for Chinese tourists in the German city of Würzburg. Based on a user experience survey and a market research, this work includes a quantitative and competitive analysis. It further provides concrete and hands-on measurements for the city council to improve the experience of Chinese visitors coming to Würzburg.
Um die Natur der Transportdynamik von Ladungsträgern auch auf mikroskopischen Längenskalen nicht-invasiv untersuchen zu können, wurde im ersten Schwerpunkt dieser Arbeit das PL- (Photolumineszenz-) Quenching (engl.: to quench: löschen; hier: strahlungslose Rekombination von Exzitonen) in einer organischen Dünnschicht durch die injizierten und akkumulierten Löcher in einer Transistorgeometrie analysiert. Diese Zusammenführung zweier Methoden - der elektrischen Charakterisierung von Dünnschichttransistoren und der Photolumineszenzspektroskopie - erfasst die Änderung des strahlenden Zerfalls von Exzitonen infolge der Wechselwirkung mit Ladungsträgern. Dadurch werden räumlich aufgelöste Informationen über die Ladungsverteilung und deren Spannungsabhängigkeit im Transistorkanal zugänglich. Durch den Vergleich mit den makroskopischen elektrischen Kenngrößen wie der Schwell- oder der Turn-On-Spannung kann die Funktionsweise der Transistoren damit detaillierter beschrieben werden, als es die Kenngrößen alleine ermöglichen. Außerdem wird die Quantifizierung dieser mikroskopischen Interaktionen möglich, welche beispielsweise als Verlustkanal in organischen Photovoltaikzellen und organicshen Leuchtdioden auftreten können. Die Abgrenzung zu anderen dissipativen Prozessen, wie beispielsweise der Exziton-Exziton Annihilation, Ladungsträgerrekombination, Triplett-Übergänge oder Rekombination an Störstellen oder metallischen Grenzflächen, erlaubt die detaillierte Analyse der Wechselwirkung von optisch angeregten Zuständen mit Elektronen und Löchern.
Im zweiten Schwerpunkt dieser Arbeit werden die Transporteigenschaften des Naphthalindiimids Cl2-NDI betrachtet, bei dem der molekulare Überlapp sowie die Reorganisationsenergie in derselben Größenordnung von etwa 0,1 eV liegen. Um experimentell auf den mikroskopischen Transport zu schließen, werden nach der Optimierung des Kristallwachstums Einkristalltransistoren hergestellt, mit Hilfe derer die Beweglichkeit entlang verschiedener kristallographischer Richtungen als Funktion der Temperatur gemessen werden kann. Die einkristalline Natur der Proben und die spezielle Transistorgeometrie ermöglichen die Analyse der räumlichen Anisotropie des Stromflusses. Der gemessene Beweglichkeitstensor wird daraufhin mit simulierten Tensoren auf der Basis von Levich-Jortner Raten verglichen, um auf den zentralen Ladungstransfermechanismus zu schließen.
Chapter 2 concerns the audit market for German credit institutions (excluding savings banks and cooperative banks), and the presented study allows conclusions to be drawn regarding recent concentration levels of this particular audit market. The last reliable (statistical) studies concerning the audit market for German credit institutions were published several years ago (Grothe 2005; Lenz 1996b; Lenz 1997; Lenz 1998). This is surprising because parts of the new regulations concerning the audit market for public-interest entities—which should also apply to credit institutions (European Commission 2006c)—in Europe would require analyses of the audit market concentration to be performed on a regular basis. Therefore, this study begins to fill this research gap, and it reveals that the audit market for German credit institutions was highly concentrated (market leadership: KPMG AG WPG and PricewaterhouseCoopers AG WPG) in 2006 and 2010. Moreover, the findings also highlight that between these years, neither a notable trend toward higher levels of concentration nor a deconcentration process was evident. Finally, it is illustrated that the regulatory requirements for publishing audit fees and the corresponding right to claim exemption (§§ 285 Sentence 1 No. 17, 314 (1) No. 9 Commercial Code) do not allow the calculation of concentration figures that cover the entire audit market for credit institutions. Thus, it will continue to be necessary to use surrogates for audit fees, and analyses reveal that the arithmetic mean of the total business volume (or total assets) of a credit institution and its square root is a very good surrogate for calculating concentration measures based on audit fees.
Chapter 3 seeks to determine whether public oversight of public-interest entities (PIEs) increases audit fees specifically in the financial industry, which is already a highly regulated industry characterized by intense supervision. To answer this question, a sample of 573 German credit institutions is examined over the 2009–2011 period, as not all credit institutions were considered PIEs in Germany (until very recently). First, the results show that a credit institution’s business risk is related to audit fees. In addition, the findings reveal not only that PIE credit institutions pay statistically significantly higher audit fees but also that this effect is economically substantial (representing an audit fee increase of 31.38%). Finally, there are several indications that the relationship between (other) credit institutions’ business risks and audit fees is greater for PIE credit institutions.
Chapter 4 examines the association between the results of auditor ratification votes and perceived external financial reporting quality. As has been recently remarked by Wei et al. (2015), far too little is known about shareholders’ interests in and perceptions of the election, approval or ratification of auditors. Although auditor ratification by shareholders is normally a routine, non-binding action and the voting ratios are in the range of 95% or higher, the SEC emphasized the importance of this process by amending the disclosure requirements for such voting results in 2010 (SEC 2009; SEC 2010). This study demonstrates that the results of auditor ratification votes are associated with market reactions to earnings surprises (SEC registrants; 2010 to 2013). Moreover, there are moderate indications that this effect may be positively related to higher levels of information asymmetry between managers and shareholders, that such voting results contain incremental informational content beyond that of other publicly available audit-related information, and that the time lag between the ratification of an auditor and the earnings announcement influences the vote’s importance. Finally, the study sheds additional light on an overlooked audit-related topic (e.g., Dao et al. 2012; Hermanson et al. 2009; Krishnan and Ye 2005; Sainty et al. 2002), and illustrates its relation to accounting. More importantly, the provided evidence indicates that disclosure of the results of auditor ratification votes might benefit (prospective) shareholders.
Chapter 5 addresses the question of whether and when shareholders may have a negative perception of an auditor’s economic dependence on the client. The results for a Big 4 client sample in the U.S. (2010 to 2014) show that the economic importance of the client—measured at the audit office-level—is negatively associated with shareholders’ perceptions of external financial reporting quality—measured in terms of the earnings response coefficient and the ex ante cost of equity capital—and, therefore, is perceived as a threat to auditor independence. Moreover, the study reveals that shareholders primarily regard independence due to client dependence as a problem for firms that are more likely to be in financially distressed conditions.
Die chronische Niereninsuffizienz (CKD) ist ein weltweites Gesundheitsproblem. Insbesondere in den Industrienationen stellt es aufgrund des demographischen Wandels eine große gesundheitliche und finanzielle Herausforderung dar, da besonders ältere Menschen an einer eingeschränkten Nierenfunktion leiden. Hypertonie und Diabetes mellitus sind wichtige Risikofaktoren sowohl für die Entstehung der CKD, als auch für die koronare Herzerkrankung (KHK). Die Wahrnehmung der CKD in der Bevölkerung ist niedrig, wodurch eine frühzeitige Diagnose erschwert wird.
Die EUROASPIRE IV Studie hat es ermöglicht, die Prävalenz der CKD in einer Studienpopulation von KHK-Patienten im Raum Würzburg zu beschreiben. Nach den KDIGO-Leitlinien wurden die Patienten mit einer eGFRCKD-EPI<60ml/min als CKD-Patienten eingestuft. Zusätzlich wurde der Albumin/Kreatinin-Quotient (ACR) bestimmt. Zusammenhänge zwischen der Nierenfunktion und möglichen Determinanten wurden untersucht. Mit Hilfe eines Fragebogens wurde die Patienten-Awareness beschrieben. Retrospektiv erfolgte die Recherche, ob die Diagnose der CKD bei Aufnahme und/oder Entlassung des Indexaufenthalts im Arztbrief vermerkt wurde, dies wurde als Awareness der CKD seitens des behandelnden Arztes im Krankenhaus gewertet.
25% der 536-Teilnehmer wiesen am Tag der Untersuchung eine CKD auf. Das mediane Alter betrug 69 Jahre und die mediane eGFR lag bei 74 ml/min. Der ACR war mit 8,3 mg/g in der CKD-Gruppe deutlich erhöht (p<0,01). Das mediane Alter (p<0,01) und auch der prozentuale Anteil an Diabetikern (<0,01) waren in der CKD-Gruppe signifikant höher. 42,7% der Patienten mit CKD wussten von ihrer Nierenfunktionseinschränkung Bescheid. Bei 34 der 79 Patienten, die zum Zeitpunkt der Entlassung eine eGFR <60ml/min aufwiesen, wurde eine CKD im Arztbrief erwähnt.
Die vorliegende Studie zeigt eine hohe Prävalenz von CKD und klassischen kardiovaskulären Risikofaktoren wie beispielsweise Diabetes Mellitus. Trotz dieses hohen CKD-Anteils war sich nur ein geringer Teil der Patienten ihrer Nierenfunktionseinschränkung bewusst und wurde nur in geringem Maße von Ärzten im Entlassungsbrief erwähnt. Insgesamt war sowohl eine vermehrte Wahrnehmung der CKD seitens der Patienten als auch eine häufigere Erwähnung von CKD im Arztbrief mit zunehmendem Schweregrad der CKD assoziiert.
Die Arthrose des Kniegelenkes stellt heutzutage die häufigste Gelenkerkrankung des Menschen dar. Nachdem die konservativen Therapiemöglichkeiten ausgeschöpft sind, wird dem Patienten meist die Implantation einer Knietotalendoprothese empfohlen. Aufgrund von Schmerzen, einer Infektion, oder einer Lockerung der Prothese kann jedoch ein Wechsel des Gelenkersatzes notwendig werden. Das Femoropatellargelenk stellt bei solchen Revisionsoperationen das häufigste und bedeutendste Problem dar.
Diese Studie vergleicht 5 operative Verfahren der Patella-rückflächenbearbeitung bei Revisionsoperationen. Hierzu wurden 118 Patienten anhand von 6 etablierten Scores sowie klinisch und radiologisch nach durchschnittlich ca. 2 Jahren nachuntersucht.
Die Gruppe der Patienten, welche vor der Revisionsoperation eine ersetzte Patellarückfläche aufwiesen und bei welchen dieser Ersatz entnommen und somit ein knöcherner Rest hinterlassen wurde, zeigte in fast allen Scores deutliche, wenn auch nicht signifikant schlechtere Ergebnisse. Diese gliedern sich gut in die Arbeiten anderer Autoren zu diesem Thema ein.
Weiterhin zeigte sich, dass der Kniescore nach Turba et al. für die Evaluation des Femoropatellargelenkes bei Knieprothesenrevisionen ungeeignet ist.
Bei der Patellarückflächenbearbeitung während Revisionsoperationen sollte beim Hinweis auf eine Beschädigung der Patellakomponente diese gewechselt werden, ansonsten kann der bestehende Ersatz belassen werden.
Das Entfernen eines bestehenden Ersatzes mit Hinterlassen eines knöchernen Restes sollte vermieden werden.
Bei weiteren Studien zu diesem Thema wäre es wünschenswert, zusätzlich zur postoperativen Untersuchung eine präoperative Untersuchung durchzuführen.
Die Ergebnisse dieser Arbeit wurden auf dem SICOT-Weltkongress der Orthopäden 2013 vorgestellt.
In der wissenschaftlichen Diskussion wie auch auf betrieblicher Ebene werden Fehlmengenkosten bei mangelhafter Lieferfähigkeit mit Hinweis auf einen enormen und damit unwirtschaftlichen Erhebungsaufwand meist ignoriert. Stattdessen werden oft Sicherheitsbestände definiert, die ohne ausreichende Berücksichtigung der Kundenbedürfnisse und integrierte Modellansätze mögliche Bedarfs-spitzen auf Herstellerseite abfedern sollen. Findet doch eine Modellierung in quantitativen Ansätzen stochastischer Lagerhaltungsmodelle statt, so fehlen aus Sicht eines Investitionsgüterherstellers oft wichtige Parameter oder sind unzureichend modelliert. Die vorliegende Arbeit verfolgt das Ziel, Fehlmengenkosten auf der einen und Bestandskosten auf der anderen Seite inhaltlich genauer zu beleuchten und in eine grundsätzliche Beziehung zueinander zu setzen. Beide Kostenblöcke werden in der größtmöglichen Granularität in ein distributionslogistisches Modell überführt, sodass Determinanten, Hierarchien und Wechselwirkungen in einen nachvollziehbaren Gesamtzusammenhang gebracht werden. Zu diesem Zweck werden relevante Distributionsmodelle bei stochastischer Nachfrage geprüft und auf ihre Relevanz für die Problemstellung dieser Arbeit hin analysiert. Dabei konnte festgestellt werden, dass weder die verschiedenen Kostenarten von Fertigwarenbeständen ausreichend identifiziert, noch die unterschiedlichen Ausprägungen von Fehlmengenkosten umfänglich abgebildet wurden. Vor diesem Hintergrund kristallisiert sich heraus, dass existierende Modelle und Rechenbeispiele bei deren Umsetzung auf eine Problemstellung in der betrieblichen Praxis als weitestgehend untauglich eingestuft werden müssen. Im Sinne eines wertorientierten Bestandsmanagements wird in besonderer Weise darauf geachtet, dass kundenorientierte Strategien hinsichtlich eines festzulegenden Lieferservicegrades so festgelegt werden, dass keine isolierte Betrachtung von Bestandskosten einerseits und Fehlmengenkosten andererseits vorgenommen wird. Dadurch konnte ein klareres Bild geschaffen werden, dass einseitige Bestandssenkungen zwangsläufig erhöhte Fehlmengenkosten in definiertem Umfang nach sich ziehen. Diese können die Lieferfähigkeit über einen längeren Betrachtungszeitraum so negativ beeinflussen, dass das Nachfrageverhalten nachhaltig geschädigt wird und im Extremfall zu einem Abwanderungsverhalten der Kunden führt. Durch die Modifizierungen einiger wichtiger Prämissen und Modellparameter, welche die Merkmale der Investitionsgüterindustrie in besonderer Weise berücksichtigt, wurde ein dynamisches Entscheidungsmodell entwickelt, in dem nachvollziehbar eine nützliche Symbiose zwischen theoretischer Erkenntnis und praktischer Problemstellung geschaffen werden konnte. Diese Arbeit leistet damit einen wichtigen Beitrag, die oftmals auf reine Bestandssenkungen fokussierte Diskussion ohne adäquaten Modellansatz weitestgehend zu versachlichen und auf eine faktenbasierte, quantitative Grundlage zu stellen.
Der Atlantische Wildkohl (Brassica oleracea L. subsp. oleracea) wächst auf den Küstenfelsen des Atlantiks und der Nordsee zwischen Nord-Spanien, Schottland und der Nordseeinsel Helgoland. 2001 wurde auch ein Vorkommen des Wildkohls an den Kreidefelsen der Ostseeinsel Rügen nachgewiesen, das aus ungefähr 50 Individuen besteht. Die Pflanzen unterscheiden sich phänotypisch nicht von Wildpflanzen der Atlantikküsten. Da alle verbreiteten Kultursorten des Gemüsekohls genetisch sehr eng mit dem Atlantischen Kohl verwandt sind, vom dem sie höchstwahrscheinlich abstammen, wird die Frage erörtert, ob eine spontane Rückverwandlung (Rückkreuzung) von in die Natur entwichenen Kultursorten in den Wildkohl-Phänotyp möglich ist. Dieses wird als wenig wahrscheinlich angesehen. Dagegen ist Introgression zwischen Kultursorten und Wildsorten gut belegt. Die Frage nach einer möglichen Hybridisierung von Grünkohl mit Pflanzen vom Wildkohlphänotyp oder mit anderen Kultursorten an der Kreideküste der dänischen Ostseeinsel Seeland wird anhand eigener Beobachtungen erörtert. Die dortige Population besteht offensichtlich aus verwilderten Kulturkohlhybriden, die sich deutlich von den Wildpflanzen Rügens unterscheiden. Das neue Vorkommen des Atlantischen Wildkohls in der westlichen Ostsee kann im Zusammenhang mit der Ostausbreitung anderer atlantischer Sippen im Rahmen des Klimawandels gesehen werden.