00.00.00 GENERAL
Refine
Has Fulltext
- yes (9)
Is part of the Bibliography
- yes (9)
Document Type
- Doctoral Thesis (6)
- Master Thesis (1)
- Preprint (1)
- Working Paper (1)
Keywords
- cosmology (2)
- Aktivierung (1)
- Bilharziose (1)
- Dreidimensionales Bild (1)
- E-Learning (1)
- Echtzeitsystem (1)
- Fernerkundung (1)
- Framework <Informatik> (1)
- Geschichte 1949-2008 (1)
- Gesundheitsgefährdung (1)
Institute
Sonstige beteiligte Institutionen
The phase space for the standard model of the basic four forces for n quanta includes all possible ensemble combinations of their quantum states m, a total of n**m states. Neighbor states reach according to transition possibilities (S-matrix) with emergent time from entropic ensemble gradients.
We replace the “big bang” by a condensation event (interacting qubits become decoherent) and inflation by a crystallization event – the crystal unit cell guarantees same symmetries everywhere. Interacting qubits solidify and form a rapidly growing domain where the n**m states become separated ensemble states, rising long-range forces stop ultimately further growth. After that very early events, standard cosmology with the hot fireball model takes over. Our theory agrees well with lack of inflation traces in cosmic background measurements, large-scale structure of voids and filaments, supercluster formation, galaxy formation, dominance of matter and life-friendliness.
We prove qubit interactions to be 1,2,4 or 8 dimensional (agrees with E8 symmetry of our universe). Repulsive forces at ultrashort distances result from quantization, long-range forces limit crystal growth. Crystals come and go in the qubit ocean. This selects for the ability to lay seeds for new crystals, for self-organization and life-friendliness.
We give energy estimates for free qubits vs bound qubits, misplacements in the qubit crystal and entropy increase during qubit decoherence / crystal formation. Scalar fields for color interaction and gravity derive from the permeating qubit-interaction field. Hence, vacuum energy gets low only inside the qubit crystal. Condensed mathematics may advantageously model free / bound qubits in phase space.
We explore a cosmology where the Big Bang singularity is replaced by a condensation event of interacting strings. We study the transition from an uncontrolled, chaotic soup (“before”) to a clearly interacting “real world”. Cosmological inflation scenarios do not fit current observations and are avoided. Instead, long-range interactions inside this crystallization event limit growth and crystal symmetries ensure the same laws of nature and basic symmetries over our domain. Tiny mis-arrangements present nuclei of superclusters and galaxies and crystal structure leads to the arrangement of dark (halo regions) and normal matter (galaxy nuclei) so convenient for galaxy formation. Crystals come and go, allowing an evolutionary cosmology where entropic forces from the quantum soup “outside” of the crystal try to dissolve it. These would correspond to dark energy and leads to a big rip scenario in 70 Gy. Preference of crystals with optimal growth and most condensation nuclei for the next generation of crystals may select for multiple self-organizing processes within the crystal, explaining “fine-tuning” of the local “laws of nature” (the symmetry relations formed within the crystal, its “unit cell”) to be particular favorable for self-organizing processes including life or even conscious observers in our universe.
Independent of cosmology, a crystallization event may explain quantum-decoherence in general: The fact, that in our macroscopic everyday world we only see one reality. This contrasts strongly with the quantum world where you have coherence, a superposition of all quantum states. We suggest that a “real world” (so our everyday macroscopic world) happens only in our domain, i.e. inside a crystal. “Outside” of our domain and our observable universe there is the quantum soup of boiling quantum foam and superposition of all possibilities. In our crystallized world the vacuum no longer boils but is cooled down by the crystallization event and hence is 10**20 smaller, exactly as observed in our everyday world. As we live in a “solid” state, within a crystal, the different quanta which build our world have all their different states nicely separated. This theory postulates there are only n quanta and m states available for them (there is no Everett-like ever splitting multiverse after each decision). In the solid state we live in, there is decoherence, the states are nicely separated. The arrow of entropy for each edge of the crystal forms one fate, one worldline or clear development of a world, while the layers of the crystal are different system states.
Some mathematical leads from loop quantum gravity point to required interactions and potentials. A complete mathematical treatment of this unified theory is far too demanding currently. Interaction potentials for strings or membranes of any dimension allow a solid state of quanta, so allowing decoherence in our observed world are challenging to calculate. However, if we introduce here the heuristic that any type of physical interaction of strings corresponds just to a type of calculation, there is already since 1898 the Hurwitz theorem showing that then only 1D, 2D, 4D and 8D (octonions) allow complex or hypercomplex number calculations. No other hypercomplex numbers and hence dimensions or symmetries are possible to allow calculations without yielding divisions by zero. However, the richest solution allowed by the Hurwitz theorem, octonions, is actually the observed symmetry of our universe, E8.
Der Übergang vom der ersten Phase der Lehramtsausbildung ins Referendariat wird häufig mit dem Begriff „Praxisschock“ verbunden. Viele Studierende und Referendare fühlen sich unzureichend auf den Unterricht in der Schule vorbereitet. Sie fordern deshalb eine stärkere Verzahnung von Theorie und Praxis, also eine Anwendung der erlernten Theorien in „echten“ Praxisphasen auch schon in der ersten Phase der Lehramtsausbildung.
Das Lehr-Lern-Labor Seminar der Universität Würzburg kann dazu beitragen, diese Verbindung von Theorie und Praxis herzustellen. Grundlegend sollen die Studierenden in diesem Seminar ihr fachliches, didaktisches und pädagogisches (Vor-)Wissen aufgreifen und in komplexitätsreduzierten Handlungsumgebungen anwenden. Dabei sollen sie im Rahmen des Lehr-Lern-Labor Seminars zunächst Experimentierstationen zu vorgegebenen Themengebieten aus dem bayerischen Lehrplan konzipieren, um anschließend mehrmals Schülerinnen und Schüler an diesen Stationen zu betreuen. Im Sinne einer iterativen Praxis werden die Betreuungen mehrmals von den Studierenden zusammen mit zwei Dozenten reflektiert. Letztlich wiederholen sich die Betreuungen, die Reflexionsphasen und mögliche Verbesserungen der Stationen viermal in einem zyklischen Prozess.
Für die Verknüpfung von theoretischem Wissen in konkreten Handlungssituationen sind Wahrnehmungsprozesse von Bedeutung. Die sogenannte Professionelle Unterrichts-wahrnehmung beschreibt die Fähigkeit, relevante Unterrichtssituationen zu erkennen und theoriebezogen zu bewerten. Sie verknüpft das zugrunde liegende Wissen mit konkreten Handlungssituationen und dient somit als Bindeglied zwischen dem Wissen und dem Handeln, welches speziell in Reflexionsphasen gefördert werden kann.
Durch die mehrmaligen Reflexionsprozesse der eigenen Betreuungen und die der Kommilitonen im Lehr-Lern-Labor Seminar könnte es eine vielversprechende Grundlage zur Förderung der Professionellen Unterrichtswahrnehmung darstellen. Die grundlegende Fragestellung der vorliegenden Arbeit ist es daher zu untersuchen, ob sich die Professionelle Unterrichtswahrnehmung im Rahmen des Lehr-Lern-Labor Seminars fördern lässt und inwieweit neu integrierte Videoanalysen der eigenen Betreuungen und die der Kommilitonen die Professionelle Unterrichtswahrnehmung der Studierenden zusätzlich fördern. Weiterhin interessiert, ob personenspezifische Merkmale einen zusätzlichen Einfluss auf die Entwicklung der Professionellen Unterrichtswahrnehmung ausüben.
Ergänzend wird untersucht, ob zwischen dem Fachwissen, dem didaktischen Wissen und der Professionellen Unterrichtswahrnehmung Zusammenhänge bestehen. Dies könnte Aufschluss darauf geben, inwieweit Fachwissen und didaktisches Wissen die Entwicklung der Professionellen Unterrichtswahrnehmung im Seminar bedingen.
Diese Arbeit leistet somit einen wichtigen Beitrag zur Untersuchung der Wirksamkeit eines Lehr-Lern-Labor Seminars, welches in die Ausbildung von Physiklehrkräften integriert wurde und zeigt auf, wie das Seminar bezüglich der Förderung der Professionellen Unterrichtswahrnehmung effektiver gestaltet werden kann.
In der Unterrichtsmethode Flipped Classroom sind schulische und häusliche Aktivitäten vertauscht. Instruktionale Elemente werden in online verfügbare Lernvideos ausgelagert, welche die Schüler als häusliche Vorbereitung ansehen. Im Unterricht stehen dann schülerzentrierte Tätigkeiten im Vordergrund, in denen die Schüler ihr Wissen anwenden und vertiefen können. Durch die Auslagerung von Inputphasen wandelt sich die Rolle des Lehrers vom Instructor zum Lernbegleiter.
Die vorliegende quasi-experimentelle Studie im Pre-/Postdesign mit Kontrollgruppe untersuchte die Wirkungen des Flipped Classroom in Physikkursen der Oberstufe (Grundkursniveau) an zwei deutschen Gymnasien mit N = 151 Schülerinnen und Schülern. Acht Physikkurse der 11. Jahrgangsstufe nahmen an der Studie teil, die sich über einen Zeitraum von zwei Schuljahren erstreckte (2015/16 und 2016/17). Vier der fünf teilnehmenden Lehrkräfte unterrichteten sowohl einen Kontroll- als auch einen Treatmentkurs. Sämtliche Lernvideos wurden von den Lehrkräften selbst erstellt. Dabei integrierten sie reale Experimente, um dem Anspruch physikauthentischen Unterrichts gerecht zu werden. Die Forschungsfragen richteten sich sowohl auf die Leistung in einem Fachwissenstest als auch auf affektive Lernmerkmale wie die Motivation, das Interesse und das Selbstkonzept. Zusätzlich wurden die wahrgenommene Lehrerunterstützung und das Hausaufgabenverhalten untersucht.
Die Anwendung von Flipped Classroom im Physikunterricht zeigte größtenteils positive Effekte. Die Schülerinnen und Schüler im Flipped Classroom hatten einen höheren kognitiven Lernzuwachs und ein besseres Selbstkonzept als ihre Mitschüler, die traditionell unterrichtet wurden. Das Leistungsniveau und das Geschlecht der Schülerinnen und Schüler hatten dabei keinen Einfluss auf diese Effekte. Während die Motivation, sich mit Physik zu beschäftigen, in der Kontrollgruppe sank, blieb sie in der Treatmentgruppe auf konstantem Niveau. Bei genauerem Blick zeigte sich, dass die Motivation bei Schülerinnen im Flipped Classroom anstieg, bei Schülerinnen im traditionellen Unterricht jedoch abnahm. Das Interesse am Unterrichtsfach Physik wurde in beiden Gruppen geringer. Sowohl die wahrgenommene Lehrerunterstützung als auch die Hausaufgabendauer blieben in beiden Gruppen zwischen Pre- und Posttest unverändert. Die Hausaufgabendisziplin war im Flipped Classroom jedoch deutlich höher, was zeigt, dass die Schülerinnen und Schüler eher bereit waren, sich instruktionale Lernvideos anzusehen als klassische Hausaufgaben zu bearbeiten.
Multimodal interfaces (MMIs) are a promising human-computer interaction paradigm.
They are feasible for a wide rang of environments, yet they are especially suited if interactions are spatially and temporally grounded with an environment in which the user is (physically) situated.
Real-time interactive systems (RISs) are technical realizations for situated interaction environments, originating from application areas like virtual reality, mixed reality, human-robot interaction, and computer games.
RISs include various dedicated processing-, simulation-, and rendering subsystems which collectively maintain a real-time simulation of a coherent application state.
They thus fulfil the complex functional requirements of their application areas. Two contradicting principles determine the architecture of RISs: coupling and cohesion.
On the one hand, RIS subsystems commonly use specific data structures for multiple purposes to guarantee performance and rely on close semantic and temporal coupling between each other to maintain consistency.
This coupling is exacerbated if the integration of artificial intelligence (AI) methods is necessary, such as for realizing MMIs.
On the other hand, software qualities like reusability and modifiability call for a decoupling of subsystems and architectural elements with single well-defined purposes, i.e., high cohesion.
Systems predominantly favour performance and consistency over reusability and modifiability to handle this contradiction.
They thus accept low maintainability in general and hindered scientific progress in the long-term.
This thesis presents six semantics-based techniques that extend the established entity-component system (ECS) pattern and pose a solution to this contradiction without sacrificing maintainability: semantic grounding, a semantic entity-component state, grounded actions, semantic queries, code from semantics, and decoupling by semantics.
The extension solves the ECS pattern's runtime type deficit, improves component granularity, facilitates access to entity properties outside a subsystem's component association, incorporates a concept to semantically describe behavior as complement to the state representation, and enables compatibility even between RISs.
The presented reference implementation Simulator X validates the feasibility of the six techniques and may be (re)used by other researchers due to its availability under an open-source licence.
It includes a repertoire of common multimodal input processing steps that showcase the particular adequacy of the six techniques for such processing.
The repertoire adds up to the integrated multimodal processing framework miPro, making Simulator X a RIS platform with explicit MMI support.
The six semantics-based techniques as well as the reference implementation are validated by four expert reviews, multiple proof of concept prototypes, and two explorative studies.
Informal insights gathered throughout the design and development supplement this assessment in the form of lessons learned meant to aid future development in the area.
Remote sensing for disease risk profiling: a spatial analysis of schistosomiasis in West Africa
(2014)
Global environmental change leads to the emergence of new human health risks. As a consequence, transmission opportunities of environment-related diseases are transformed and human infection with new emerging pathogens increase. The main motivation for this study is the considerable demand for disease surveillance and monitoring in relation to dynamic environmental drivers. Remote sensing (RS) data belong to the key data sources for environmental modelling due to their capabilities to deliver spatially continuous information repeatedly for large areas with an ecologically adequate spatial resolution.
A major research gap as identified by this study is the disregard of the spatial mismatch inherent in current modelling approaches of profiling disease risk using remote sensing data. Typically, epidemiological data are aggregated at school or village level. However, these point data do neither represent the spatial distribution of habitats, where disease-related species find their suitable environmental conditions, nor the place, where infection has occurred. As a consequence, the prevalence data and remotely sensed environmental variables, which aim to characterise the habitat of disease-related species, are spatially disjunct.
The main objective of this study is to improve RS-based disease risk models by incorporating the ecological and spatial context of disease transmission. Exemplified by the analysis of the human schistosomiasis disease in West Africa, this objective includes the quantification of the impact of scales and ecological regions on model performance.
In this study, the conditions that modify the transmission of schistosomiasis are reviewed in detail. A conceptual underpinning of the linkages between geographical RS measures, disease transmission ecology, and epidemiological survey data is developed. During a field-based analysis, environmental suitability for schistosomiasis transmission was assessed on the ground, which is then quantified by a habitat suitability index (HSI) and applied to RS data. This conceptual model of environmental suitability is refined by the development of a hierarchical model approach that statistically links school-based disease prevalence with the ecologically relevant measurements of RS data. The statistical models of schistosomiasis risk are derived from two different algorithms; the Random Forest and the partial least squares regression (PLSR). Scale impact is analysed based on different spatial resolutions of RS data. Furthermore, varying buffer extents are analysed around school-based measurements. Three distinctive sites of Burkina Faso and Côte d’Ivoire are specifically modelled to represent a gradient of ecozones from dry savannah to tropical rainforest including flat and mountainous regions.
The model results reveal the applicability of RS data to spatially delineate and quantitatively evaluate environmental suitability for the transmission of schistosomiasis. In specific, the multi-temporal derivation of water bodies and the assessment of their riparian vegetation coverage based on high-resolution RapidEye and Landsat data proofed relevant. In contrast, elevation data and water surface temperature are constraint in their ability to characterise habitat conditions for disease-related parasites and freshwater snail species. With increasing buffer extent observed around the school location, the performance of statistical models increases, improving the prediction of transmission risk. The most important RS variables identified to model schistosomiasis risk are the measure of distance to water bodies, topographic variables, and land surface temperature (LST). However, each ecological region requires a different set of RS variables to optimise the modelling of schistosomiasis risk. A key result of the hierarchical model approach is its superior performance to explain the spatial risk of schistosomiasis.
Overall, this study stresses the key importance of considering the ecological and spatial context for disease risk profiling and demonstrates the potential of RS data. The methodological approach of this study contributes substantially to provide more accurate and relevant geoinformation, which supports an efficient planning and decision-making within the public health sector.
Diese Arbeit befasst sich mit der Konzeption, Umsetzung und Charakterisierung eines Rönt- genmikroskops für harte Röntgenstrahlung mit der Möglichkeit zur dreidimensionalen Bild- gebung. Der vorgestellte Aufbau basiert auf geometrischer Vergrößerung und verzichtet im Gegensatz zu anderen Röntgenmikroskopiemethoden auf den Einsatz optischer Elemente. Dreidimensionale Bildgebung wird durch einen linearlaminographischen Aufnahmemodus realisiert, bei dem unterschiedliche Durchstrahlungsrichtungen durch das Objekt durch eine relative Verschiebung von Quelle und Detektor zustande kommen. Die Röntgenquelle des Mikroskops besteht aus einer zu einer Nanofokusröntgenröhre um- gebauten Elektronenmikrosonde mit 30 kV Beschleunigungsspannung (dies entspricht einer Wellenlänge von bis zu 0,041 nm). Durch die Elektronenoptik kann ein intensiver Elektronen- strahl anstelle eine Probe auf ein Transmissionstarget fokussiert werden. In dieser Arbeit wird eine Möglichkeit evaluiert, die Schichtdicke der röntgenaktiven Schicht des Transmissionstar- gets für die gegebene Beschleunigungsspannung zu optimieren. Dabei werden eine Schichtdi- cke für maximale Röntgenleistung (700 nm Wolfram) und eine für maximale Röntgenleistung bezogen auf die entstehende Quellfleckgröße (100 nm Wolfram) identifiziert. Dadurch erreicht dieses System eine laterale Ortsauflösung von 197 nm, gemessen an einem Siemensstern. Diese ist eine Größenordnung besser als bei modernen SubμCT-Anlagen, die zur zerstörungsfrei- en Prüfung eingesetzt werden, und einen Faktor 2 besser als bei Laborröntgenmikroskopen basierend auf Fresnel’schen Zonenplatten. Abgesehen von der lateralen Auflösung bei hochkontrastigen Objekten werden auch die Abbil- dungseigenschaften für schwach absorbierende Proben mit Inline-Phasenkontrastbildgebung untersucht. Dazu wird eine Methode entwickelt mit der anhand der gegebenen Anlagenpara- meter der optimale Quell-Objekt-Abstand zur Maximierung des Fringe-Kontrasts gefunden werden kann. Dabei wird die Ausprägung des Fringe-Kontrasts auf die Phase −iα zurück geführt. Das vorgeschlagene Modell wird durch Messungen am Röntgenmikroskop und an einer weiteren Röngtenanlage verifiziert. Zur Beurteilung der dreidimensionalen Bildgebung mit dem vorgeschlagenen linearlaminogra- phischen Aufnahmemodus kann dieser auf eine konventionelle Computertomographie mit ein- geschränktem Winkelbereich zurückgeführt werden und so die maximal erreichbare Winkel- information bestimmt werden. Des Weiteren werden numerische Berechnungen durchgeführt, um die Einflüsse von Rauschen und geometrischen Vorgaben einschätzen zu können. Ein experimenteller Test des Laminographiesystems wird anhand eines hochkontrastigen (Fres- nel’sche Zonenplatte) und eines niederkontrastigen Objekts (Kohlefasergewebe) durchgeführt. Es zeigte sich, dass die laterale Auflösung während der dreidimensionalen Rekonstruktion gut erhalten bleibt, die Tiefenauflösung aber nicht die gleiche Qualität erreicht. Außerdem konnte festgestellt werden, dass die Tiefenauflösung sehr stark von der Geometrie und Zusammen- setzung des untersuchten Objekts abhängt.
The glaciers in Norway exert a strong influence on Norwegian economy and society. Unlike many glaciers elsewhere and despite ongoing climate change and warming, many of them showed renewed advances and positive net mass changes in the 1980's and 1990's, followed by rapid retreats and mass losses since 2000. This difference in behaviour may be attributed to differences and shifts in the glaciological regime - the differences in the magnitude of impacts of climatic and non-climatic geographical factors on the glacier mass.
This study investigates the influence of various atmospheric variables on mass balance changes of a selection of glaciers in Norway by means of Pearson correlation analyses and cross-validated stepwise multiple regression analyses. The analyses are carried out for three time periods (1949-2008, 1949-1988, 1989-2008) separately in order to take into consideration the possible shift in the glaciological regime in the 1980's. The atmospheric variables are constructed from ERA40 and NCEP/NCAR re-analysis datasets and include regional means of seasonal air temperature and precipitation rates and atmospheric circulation indices. The multiple regression models trained in these time periods are then applied to predictors reconstructed from the CMIP3 climate model dataset to generate an estimate for mass changes from the year 1950 to 2100. The temporal overlap of estimates and observations is used for calibration. Finally, observed atmospheric states in seasons that are characterised by a particularly positive or negative mass balance are categorised into time periods of modelled climate by the application of a Bayesian classification procedure.
The strongest influence on winter mass balance is exerted by different indices of the North Atlantic Oscillation (NAO), Northern Annular Mode (NAM) and precipitation. The correlation coefficients and explained variances determined from the multiple regression analyses reveal an East-West gradient, suggesting a weaker influence of the NAO and NAM on glaciers underlying a more continental regime. The highest correlation coefficients and explained variances were obtained for the 1989-2008 time period, which might be due to a strong and predominantly positive phase of the NAO. Multi-model ensemble means of the estimates show a mass loss for all three eastern glaciers, while the estimates for the more maritime glaciers are ambivalent. In general, the estimates show a greater sensitivity to the training time period than to the greenhouse gas emission scenarios according to which the climates were simulated. The average net mass change by the end of 2100 is negative for all glaciers except for the northern Engabreen. For many glaciers, the Bayesian classification of observed atmospheric states into time periods of modelled climate reveals a decrease in probability of atmospheric states favouring extremes in winter, and an increase in probability of atmospheric states favouring extreme mass loss in summer for the distant future (2071-2100). This pattern of probabilities for the ablation season is most pronounced for glaciers underlying a continental and intermediate regime.
The capabilities of a new approach towards the foundations of Statistical Mechanics are explored. The approach is genuine quantum in the sense that statistical behavior is a consequence of objective quantum uncertainties due to entanglement and uncertainty relations. No additional randomness is added by hand and no assumptions about a priori probabilities are made, instead measure concentration results are used to justify the methods of Statistical Physics. The approach explains the applicability of the microcanonical and canonical ensemble and the tendency to equilibrate in a natural way. This work contains a pedagogical review of the existing literature and some new results. The most important of which are: i) A measure theoretic justification for the microcanonical ensemble. ii) Bounds on the subsystem equilibration time. iii) A proof that a generic weak interaction causes decoherence in the energy eigenbasis. iv) A proof of a quantum H-Theorem. v) New estimates of the average effective dimension for initial product states and states from the mean energy ensemble. vi) A proof that time and ensemble averages of observables are typically close to each other. vii) A bound on the fluctuations of the purity of a system coupled to a bath.