Refine
Has Fulltext
- yes (9)
Is part of the Bibliography
- yes (9)
Year of publication
- 2009 (9) (remove)
Document Type
- Master Thesis (9) (remove)
Keywords
- Konversationsanalyse (2)
- conversation analysis (2)
- AFM (1)
- Angewandte Linguistik (1)
- Antonym (1)
- Business Intelligence (1)
- DNS-Reparatur (1)
- Data Mining (1)
- Deskriptive Statistik (1)
- Deutschland (1)
Institute
- Institut für deutsche Philologie (2)
- Institut für Anglistik und Amerikanistik (1)
- Institut für Geographie und Geologie (1)
- Institut für Informatik (1)
- Institut für Mathematik (1)
- Institut für Politikwissenschaft und Soziologie (1)
- Institut für Sonderpädagogik (1)
- Physikalisches Institut (1)
- Rudolf-Virchow-Zentrum (1)
Nach der durchgeführten Datenauswertung können die aufgestellten Hypothesen verifiziert werden. Im Folgenden wird auf jede einzelne Hypothese eingegangen. Die Hypothese zur Kinderzahl konnte verifiziert werden. In der untersuchten Kohorte hat die Kinderzahl tatsächlich einen starken negativen Einfluss auf die Summe der Entgeltpunkte, die für die Rentenhöhe steht. Das bedeutet, dass die heutigen Rentnerinnen mit Kindern trotz der rentenrechtlichen Regelungen finanzielle Nachteile gegenüber kinderlosen Rentnerinnen hinnehmen müssen. Mit jedem weiteren Kind wächst das Risiko einer niedrigen Rente, d. h. unter Umständen der Altersarmut. Trotz aller Bemühungen des Gesetzgebers ist die Kindererziehung oft für ein niedriges Einkommen der Frauen im Alter verantwortlich. Die Hypothese zum Ost-West-Unterschied hat sich ebenfalls bestätigt. Frauen in den alten Bundesländern beziehen im Durchschnitt eine niedrigere Rente als Frauen in den neuen Bundesländern. Als Grund dafür kann der institutionelle Unterschied zwischen der DDR und der BRD angesehen werden. Die Hypothese zur Geringfügigkeit der Beschäftigung konnte verifiziert werden. Frauen, die geringfügig tätig waren, beziehen weniger Rente als Frauen, die nicht geringfügig beschäftigt waren. Da Frauen bei einer geringfügigen Beschäftigung normalerweise weniger verdienen als bei einer Vollzeitbeschäftigung, erscheint dieser Befund als logisch. ...
The scope of this work is to develop a novel single-molecule imaging technique by combining atomic force microscopy (AFM) and optical fluorescence microscopy. The technique is used for characterizing the structural properties of multi-protein complexes. The high-resolution fluorescence microscopy and AFM are combined (FIONA-AFM) to allow for the identification of individual proteins in such complexes. This is achieved by labeling single proteins with fluorescent dyes and determining the positions of these fluorophores with high precision in an optical image. The same area of the sample is subsequently scanned by AFM. Finally, the two images are aligned and the positions of the fluorophores are displayed on top of the topographical data. Using quantum dots as fiducial markers in addition to fluorescently labeled proteins, fluorescence and AFM information can be aligned with an accuracy better than 10 nm, which is sufficient to identify single fluorescently labeled proteins in most multi-protein complexes. The limitations of localization precision and accuracy in fluorescence and AFM images are investigated, including their effects on the overall registration accuracy of FIONA-AFM hybrid images. This combination of the two complementary techniques opens a wide spectrum of possible applications to the study of protein interactions, because AFM can yield high resolution (5–10 nm) information about the conformational properties of multi-protein complexes while the fluorescence can indicate spatial relationships of the proteins within the complexes. Additionally, computer simulations are performed in order to validate the accuracy of the registration algorithm.
Bei vielen Fragestellungen, in denen sich eine Grundgesamtheit in verschiedene Klassen unterteilt, ist weniger die relative Klassengröße als vielmehr die Anzahl der Klassen von Bedeutung. So interessiert sich beispielsweise der Biologe dafür, wie viele Spezien einer Gattung es gibt, der Numismatiker dafür, wie viele Münzen oder Münzprägestätten es in einer Epoche gab, der Informatiker dafür, wie viele unterschiedlichen Einträge es in einer sehr großen Datenbank gibt, der Programmierer dafür, wie viele Fehler eine Software enthält oder der Germanist dafür, wie groß der Wortschatz eines Autors war oder ist. Dieser Artenreichtum ist die einfachste und intuitivste Art und Weise eine Population oder Grundgesamtheit zu charakterisieren. Jedoch kann nur in Kollektiven, in denen die Gesamtanzahl der Bestandteile bekannt und relativ klein ist, die Anzahl der verschiedenen Spezien durch Erfassung aller bestimmt werden. In allen anderen Fällen ist es notwendig die Spezienanzahl durch Schätzungen zu bestimmen.
Die vorliegende Arbeit stellt einen Beitrag zur gesprächslinguistischen Analyse literarischer Dialoge dar. Da Theodor Fontane in der Forschung als Schriftsteller gilt, der dem Gespräch und seiner sprachlichen Gestaltung einen besonders hohen Stellenwert zuschreibt, ist sein letzter großer Roman Der Stechlin aus linguistischer Sicht besonders reizvoll. In ihm wird die Gesellschaft des 19. Jahrhunderts durch das Mittel des Gesprächs eindrucksvoll charakterisiert. In einem theoretischen Teil dieser Arbeit werden zunächst die Besonderheiten des literarischen Dialogs in Abgrenzung zum Alltagsgespräch geklärt sowie der historische Kontext, also die Höflichkeits- und Gesprächskultur in adeligen Kreisen des 19. Jahrhunderts, beleuchtet. Auf dieser Basis steht die detaillierte Analyse von drei Dialogausschnitten aus dem Roman im Mittelpunkt: ein offizieller Besuch, ein Tischge-spräch, ein Klatschgespräch unter Bekannten.
Ziel der vorliegenden Arbeit war es, anhand von aktuellen Hochwasserschadensdaten aus Telefonbefragungen in Privathaushalten in Deutschland und Österreich die Minderung von Hochwasserschäden durch Frühwarnung und privater Eigenvorsorge zu quantifizieren. Im ersten Schritt wurden die Datensätze aus den vier zugrunde liegenden Befragungen zu den Hochwasserereignissen der Jahre 2002, 2005 und 2006 zusammengeführt und die Hochwasserschäden auf das Referenzjahr 2007 angepasst. Um das Schadensminderungspotenzial von Frühwarnung und diversen Vorsorge-/ Notmaßnahmen beurteilen zu können, wurde der konsistente Datensatz nach verschiedenen schadensbestimmenden Faktoren (Wasserstand, Hochwassertyp, Kontaminationsart und Hochwassererfahrung) aufgeteilt. Dabei stellte sich heraus, dass eine Hochwasserwarnung z.B. durch Behörden den Schaden am Gebäude und Hausrat nur dann reduzieren kann, wenn der Frühwarnungsinhalt klar verständlich oder das Wissen der Betroffenen ausreichend ist, wie man sich und seinen Haushalt vor dem Hochwasser schützen kann (durch das Ergreifen von Notmaßnahmen). Der Nutzen einer langfristigen Vorsorge, insbesondere von baulichen Maßnahmen, wurde in dieser Studie sehr deutlich. Vor allem die geringwertige Nutzung der hochwassergefährdeten Stockwerke und die hochwasserangepasste Inneneinrichtung konnten die Schäden am Gebäude und Inventar erheblich reduzieren.
Das Potenzial der Wissensentdeckung in Daten wird häufig nicht ausgenutzt, was hauptsächlich auf Barrieren zwischen dem Entwicklerteam und dem Endnutzer des Data-Mining zurückzuführen ist. In dieser Arbeit wird ein transparenter Ansatz zum Beschreiben und Erklären von Daten für Entscheidungsträger vorgestellt. In Entscheidungsträger-zentrierten Aufgaben werden die Projektanforderungen definiert und die Ergebnisse zu einer Geschichte zusammengestellt. Eine Anforderung besteht dabei aus einem tabellarischen Bericht und ggf. Mustern in seinem Inhalt, jeweils verständlich für einen Entscheidungsträger. Die technischen Aufgaben bestehen aus einer Datenprüfung, der Integration der Daten in einem Data-Warehouse sowie dem Generieren von Berichten und dem Entdecken von Mustern wie in den Anforderungen beschrieben. Mehrere Data-Mining-Projekte können durch Wissensmanagement sowie eine geeignete Infrastruktur voneinander profitieren. Der Ansatz wurde in zwei Projekten unter Verwendung von ausschließlich Open-Source-Software angewendet.
From the introduction: It is not always easy to define what a word means. We can choose between a variety of possibilities, from simply pointing at the correct object as we say its name to lengthy definitions in encyclopaedias, which can sometimes fill multiple pages. Although the former approach is pretty straightforward and is also very important for first language acquisition, it is obviously not a practical solution for defining the semantics of the whole lexicon. The latter approach is more widely accepted in this context, but it turns out that defining dictionary and encyclopaedia entries is not an easy task. In order to simplify the challenge of defining the meaning of words, it is of great advantage to organize the lexicon in a way that the structure in which the words are integrated gives us information about the meaning of the words by showing their relation to other words. These semantic relations are the focal point of this paper. In the first chapter, different ways to describe meaning will be discussed. It will become obvious why semantic relations are a very good instrument to organizing the lexicon. The second chapter deals with WordNet, an electronic lexical database which follows precisely this approach. We will examine the semantic relations which are used in WordNet and we will study the distinct characteristics of each of them. Furthermore, we will see which contribution is made by which relation to the organization of the lexicon. Finally, we will look at the downside of the fact that WordNet is a manually engineered network by examining the shortcomings of WordNet. In the third chapter, an alternative approach to linguistics is introduced. We will discuss the principles of corpus linguistics and, using the example of the British National Corpus, we will consider possibilities to extract semantic relations from language corpora which could help to overcome the deficiencies of the knowledge based approach. In the fourth chapter, I will describe a project the goal of which is to extend WordNet by findings from cognitive linguistics. Therefore, I will discuss the development process of a piece of software that has been programmed in the course of this thesis. Furthermore, the results from a small‐scale study using this software will be analysed and evaluated in order to check for the success of the project.
Bis heute gibt es kaum eine wissenschaftliche Veröffentlichung, die "Geschichtsunterricht für Schüler mit geistiger Behinderung" aufgreift. Demgegenüber steht die Tatsache, dass sowohl im Lehrplan für den Förderschwerpunkt geistige Entwicklung in Bayern, als auch im Lehrplan für die entsprechende Berufsschulstufe, einzelne Inhalte bzw. fachspezifische Methoden historischen Lernens aufgenommen wurden. Man muss sich also die Frage stellen, auf welchen theoretischen Hintergrund bzw. welches fachdidaktische Wissen Sonderschullehrkräfte zurückgreifen können, die Schülern mit geistiger Behinderung geschichtliche Inhalte und Themen nicht vorenthalten möchten? Genau an diesem Punkte setzt die vorliegende Arbeit an: Im Bezug auf die Fachdidaktik Geschichte, die sich als wissenschaftliche Disziplin mit den Fragen und Ansprüchen des Geschichtsunterrichts auseinander setzt, und der Geistigbehindertenpädagogik, die sich aus wissenschaftlicher Perspektive mit der Theorie und Praxis von Erziehung und Bildung bei Schülern mit geistiger Behinderung auseinandersetzt, wurden einige, für den Geschichtsunterricht relevante Aspekte ausgewählt und der Frage nachgegangen, inwieweit die grundlegenden Positionen der Fachdidaktik Geschichte auch im Geschichtsunterricht an der Förderschule mit dem Förderschwerpunkt geistige Entwicklung Relevanz haben. Die Schwerpunkte dieser Arbeit liegen in der Legitimation von schulischem Geschichtsunterricht an der Schule mit dem Förderschwerpunkt geistige Entwicklung, in möglichen Aufgaben und Zielen, geeigneten Inhalten und Themen, sowie dem Einsatz fachspezifischer Methoden im Unterricht mit Schülern mit geistiger Behinderung.
Diese Arbeit befasst sich mit den Gesprächen im 2004 erschienenen Roman "Jessica, 30." von Marlene Streeruwitz. Der Hauptdialog und die vorhergehenden Telefongespräche zwischen der Hauptfigur Jessica und ihrem Liebhaber Gerhard werden eingehend auf verschiedene Aspekte hin linguistisch analysiert. Einen Schwerpunkt bilden die Gesprächsstrategien beider Aktanten, Passagen des Streits, der innere Monolog, aber auch Merkmale der gesprochenen Sprache und des mimetischen Sprechens. Die Arbeit schließt mit einem Überblick, was die Künstlichkeit des literarischen Dialogs trotz seiner realistischen Nachahmung von Alltagsgesprächen ausmacht.