Institut für deutsche Philologie
Refine
Has Fulltext
- yes (240)
Year of publication
Document Type
- Book article / Book chapter (97)
- Journal article (28)
- Doctoral Thesis (23)
- Master Thesis (22)
- Book (20)
- Preprint (20)
- Review (12)
- Conference Proceeding (9)
- Bachelor Thesis (4)
- Working Paper (3)
Keywords
- Human-Animal Studies (25)
- Literary Studies (25)
- Animal Studies (24)
- Cultural Animal Studies (24)
- Cultural Studies (24)
- Ecocriticism (24)
- Environmental Humanities (24)
- Deutsch (15)
- Kulturanthropologie (13)
- Rezension (10)
Institute
- Institut für deutsche Philologie (240)
- Neuphilologisches Institut - Moderne Fremdsprachen (23)
- Institut für Altertumswissenschaften (1)
- Institut für Altertumswissenschaften (bis Sept. 2007) (1)
- Institut für Geschichte (1)
- Institut für Informatik (1)
- Institut für Kunstgeschichte (1)
- Institut für Slavistik (1)
- Theodor-Boveri-Institut für Biowissenschaften (1)
Schriftenreihe
- Cultural Animal Studies, Band 3 (24)
- Aesthetische Eigenzeiten, 17 (1)
- Akten des ... Symposiums des Mediävistenverbandes; 13,2 (1)
- Aventiuren; 13 (1)
- Epistemata. Reihe Literaturwissenschaft ; 483 (1)
- GenderCodes - Transkriptionen zwischen Wissen und Geschlecht; 17 (1)
- Image ; 185 (1)
- Jahrbuch der Oswald-von-Wolkenstein-Gesellschaft; 17 (1)
- Kaleidogramme ; 183 (1)
- Macht und Herrschaft; 15 (1)
Sonstige beteiligte Institutionen
- VolkswagenStiftung (24)
- Professur für Museologie (3)
- Zentrum für Lehrerbildung und Bildungsforschung (2)
- Badisches Landesmuseum Karlsruhe (1)
- Bayerische Museumsakademie (1)
- Bezirk Unterfranken (1)
- Brown University (1)
- DFG (1)
- Heimatmuseum Ebern (1)
- Lehrstuhl für Europäische Ethnologie/Volkskunde der Julius-Maximilians-Universität Würzburg (1)
Obgleich das erzählerische Syntagma der Tristansage sich ohne weitere Zugaben zu entfalten vermag, ist die Liebesgeschichte von Tristan und Isolde schon in der Mitte des 12. Jahrhunderts eng mit den Legenden von König Artus und seinen Rittern verwoben. Die Frage, wie sich der keltische Tristanstoff zum Artusroman verhält, ist in der mediävistischen Forschung bislang jedoch nur in Ansätzen und zumeist wenig kontrovers diskutiert worden. Dabei bietet gerade die kontingente Verbindung beider literarischer Welten bei Eilhart und Béroul zu einem arthurisierten Tristanroman die Möglichkeit, die zentralen Scharnierstellen zweier Erzähltradition zu untersuchen und nach den Möglichkeiten und Grenzen des Erzählens von der Liebe um 1200 zu fragen.
Inhalt der vorliegenden Arbeit ist eine Studie der englisch-deutschen und deutsch-englischen Wörterbücher von Johannes Ebers, die gegen Ende des 18. Jahrhunderts erschienen. Die Arbeit versucht in einem ersten Schritt zu bestimmen, wie und in welchem Ausmaß die zeitgenössischen englischen Orthoepisten und Lexikografen, die Ebers als Quellen benutzt hat, Konzept und Realisierung seines englisch-deutschen Wörterbuches beeinflusst haben. Der zweite Schwerpunkt dieser Arbeit ist die Darstellung einer Methodologie zur Erstellung einer digitalen Edition der Wörterbücher auf der Grundlage der TEI-Guidelines for Electronic Text Encoding and Interchange (Version P5).
Der Einsatz von Geographischen Informationssystemen (GIS) bietet auch für die Geisteswissenschaften zahlreiche Ansätze zur Generierung von neuem Wissen. Die GIS-Software ist jedoch unterschiedlich geeignet für geisteswissenschaftliche Fragestellungen. Getestet wurden daher zwei kommerzielle und vier Open Source GIS-Programme: MapInfo, ArcGIS, Quantum GIS, gvSIG, DIVA-GIS und SAGA. MapInfo zeichnet sich besonders für GIS-Anfänger durch seine große Benutzerfreundlichkeit aus. Jedoch sind die Anschaffungskosten recht hoch. ArcGIS weist den größten Nutzungsumfang auf, wobei jedoch keine oder kaum eine „intuitive“ Nutzung möglich ist. Zudem sind die laufenden Kosten durch aufwändige Abo-Lizenzverträge besonders hoch. Quantum GIS ist eine freie Software, die benutzerfreundlich ist und auch Anfängern einen leichten Einstieg ermöglicht. Hunderte Erweiterungen machen Quantum GIS sehr leistungsstark und universal einsetzbar. gvSIG ist nicht ganz leicht zu bedienen, da zudem die Dokumentation nur fragmentarisch vorliegt. Der große Funktionsumfang macht es jedoch zu einem vollwertigen GIS, wenn auch manch ergänzende Funktion fehlt. DIVA-GIS ermöglicht einen schnellen Einstieg durch seine gute Dokumentation. Man gelangt jedoch recht bald an die Grenzen des Nutzungsumfangs durch die eingeschränkte Funktionalität. SAGA hingegen erfüllte alle hier gestellten Anforderungen, sodass es, trotz der geringeren Anzahl von Erweiterungen, zusammen mit Quantum GIS als Open Source eine echte Alternative zu kommerziellen GIS-Programmen darstellt.
Durch die systematische Sichtung des Fundmaterials des frühmittelalterlichen Burgwalls von Kopchin in der Oberlausitz konnten einige Keramikscherben identifiziert werden, die wohl älter als bisher angenommen sind und in die Völkerwanderungszeit datieren. Dies ist von besonderer Relevanz, da für Nordostdeutschland traditionell eine Besiedlungslücke im 5.–7. Jh. AD postuliert wird. Dieser Hiatus ist offenbar teils auch der schwierigen sicheren Datierung der oft recht unspezifischen Keramiktypen geschuldet. So konnten mit wachsendem Kenntnisstand dieser Keramiken in den letzten Jahren auch einige völkerwanderungszeitliche Fundstellen, besonders in Nordbrandenburg und im deutsch-polnischen Pommern lokalisiert werden. In Nordost-Sachsen sind die vorgestellten singulären Funde des 5.–6. Jhs. AD jedoch bisher ohne sichere Parallelen, auch wenn mittlerweile einige Fundstellen der Völkerwanderungszeit in der Region erkannt worden sind.
Eisenproduktionswerkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) im inneren Barbaricum
(2012)
Durch systematische Prospektionen in Südbrandenburg wurden auch bei den devastierten Ortschaften Klein Görigk und Kausche zahlreiche bisher unbekannte Fundplatze entdeckt (vgl. Abb. 1). Diese verdeutlichen den Fundreichtum dieser kargen Landschaft als „archäologisches Fenster“ einer fallbeispielhaft intensiv erforschten Region. Die sehr zahlreichen Werkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) belegen eine massenhafte Eisenproduktion, die über den Eigenbedarf weit hinausging und die Grundlage für Handel darstellte. Interessanterweise sind im Eisenverhüttungszentrum des Niederlausitzer Grenzwalls keine zeitgleichen Siedlungen und Gräberfelder entdeckt worden. Diese liegen etwas weiter entfernt in den fruchtbareren Niederungs- und Beckenlandschaften der Umgebung. Die Werkplätze sind also nur temporär zur Eisenverhüttung aufgesucht worden. Die stereotyp errichteten Eisenproduktionsstätten wurden in unmittelbarer Nähe zum lokal vorkommenden „Raseneisenerz“ im waldreichen Gebiet errichtet. Durch die massenhafte Eisenproduktion, die äußerst viel Holzkohle benötigte, ist auch von negativen Folgen auf die prähistorische Umwelt auszugehen. Indizien einer mutmaßlichen „ökologischen Krise“ zum Ende der spätgermanischen Kultur (Mitte 5. Jh. AD) konnten jedoch bisher nicht sicher belegt werden.
Jean Pauls Registerbände
(2011)
Die Dissertation befasst sich mit den Registerbänden Jean Pauls. Diese stellen eine komprimierte Fassung der umfangreichen Exzerptbände dar, die auf mehr als 12.000 Seiten vorliegen. Jean Paul ordnet seine Exzerpte unter zuvor ausgewählten Oberbegriffen, und fasst diese in den Registerbänden zusammen.
In this research, an attempt to create a knowledge-based learning system for the Quranic text has been performed. The knowledge base is made up of the Quranic text along with detailed information about each chapter and verse, and some rules. The system offers the possibility to study the Quran through web-based interfaces, implementing novel visualization techniques for browsing, querying, consulting, and testing the acquired knowledge. Additionally the system possesses knowledge acquisition facilities for maintaining the knowledge base.
Hauptgegenstand dieser Arbeit ist die Untersuchung des Phänomens der mündlichen Ver-wendung von im Chat gebräuchlichen akronymischen Kurzformen wie lol und omg im Deut-schen. Da die Chatkommunikation trotz ihrer schriftlichen Realisierung einige Merkmale mündlicher Kommunikation aufweist, scheint eine Integration der zunächst rein graphischen Kürzungen in die gesprochene Sprache außerhalb des Chats nicht abwegig. Darüber hinaus lassen sich in jüngster Zeit sowohl eine Flexibilisierung der Verwendungsweise der Kürzel als auch Wortbildungsprozesse mithilfe der entsprechenden Formen konstatieren. Es handelt sich dabei um ein jugendsprachliches Phänomen; dies gilt vor allem für den Bereich der Wortbildung. In dieser Arbeit werden die Ergebnisse einer empirischen Erhebung der Relevanz sechs gängiger Kürzel und abgeleiteter Formen vorgestellt und interpretiert. Darüber hinaus erfolgt eine Bestandsaufnahme aller analysierten Formen in Standardnachschlagewerken und diversen Wörterbüchern zu den Soziolekten der Jugend- und Internetsprache.
Der Begriff Germanen ist eine Fremdbezeichnung griechisch-römischer Autoren der Antike. Die so bezeichneten Gruppen hatten aber keine gemeinsame germanische Identität. Die Germanen wurden schon in der Antike als mächtige Gegner stilisiert, was wiederum im Mittelalter im Zuge der Staatenbildungen gerne in den schriftlichen Quellen aufgegriffen wurde. Retrospektiv kann keine "Ursprache" oder "Urheimat" der Germanen rekonstruiert werden. In der Archäologie gibt es jedoch aufgrund des Fundmaterials Kulturräume einer materiellen Kultur, die als germanisch interpretiert werden. Diese sind jedoch nicht mit einer "germanischen Ethnie" zu verwechseln.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a bar diagram. Additionally this study includes a recursive algorithm for automatically reconstructing the original text from the identified base text and ranked witnesses.
Diese Veröffentlichung ist eine Einführung in die syntaktischen Strukturen der deutschen Gegenwartssprache und deckt folgende Gebiete ab: Satzdefinition, Wortarten, Topologie deutscher Sätze, valenzabhängige und -unabhängige Satzglieder (Ergänzungen und Angaben), Funktion und Semantik von Dativ- und Genitivkonstruktionen, Hilfs-, Modal- und Modalitätsverben, Funktionsverbgefüge und verbale Wendungen, reflexive Konstruktionen, komplexe Sätze und Satzglieder, Passivkonstruktionen, Temporalität sowie Modalität.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a histogram.
Die vorliegende Arbeit beschäftigt sich mit dem Sprachkorpus aus zwei Blickwinkeln. Im technischen Teil handelt es sich um die Aufbereitung der Texte für das deutsch-tschechische Korpus DeuCze. Es wird hier der Vorgang von der Digitalisierung der Bücher bis zum Erstellen der wohlgeformten und validen XML-Dateien beschrieben. Diese Dateien sind bis zur Satzebene segmentiert und ermöglichen auf diese Weise die parallele Anzeige der Texte der beiden verglichenen Sprachen nach einzelnen Segmenten. Im analytischen Teil wird die Aufmerksamkeit der sprachlichen Analyse des Phänomens der Themaentwicklung innerhalb eines ausgewählten Textes gewidmet. Das Ziel sind also sowohl die aufbereiteten Dateien für das genannte Korpus als auch die Analyse der Teilthemaentwicklung.
Design and Implementation of Architectures for Interactive Textual Documents Collation Systems
(2011)
One of the main purposes of textual documents collation is to identify a base text or closest witness to the base text, by analyzing and interpreting differences also known as types of changes that might exist between those documents. Based on this fact, it is reasonable to argue that, explicit identification of types of changes such as deletions, additions, transpositions, and mutations should be part of the collation process. The identification could be carried out by an interpretation module after alignment has taken place. Unfortunately existing collation software such as CollateX1 and Juxta2’s collation engine do not have interpretation modules. In fact they implement the Gothenburg model [1] for collation process which does not include an interpretation unit. Currently both CollateX and Juxta’s collation engine do not distinguish in their critical apparatus between the types of changes, and do not offer statistics about those changes. This paper presents a model for both integrated and distributed collation processes that improves the Gothenburg model. The model introduces an interpretation component for computing and distinguishing between the types of changes that documents could have undergone. Moreover two architectures implementing the model in order to solve the problem of interactive collation are discussed as well. Each architecture uses CollateX library, and provides on the one hand preprocessing functions for transforming input documents into CollateX input format, and on the other hand a post-processing module for enabling interactive collation. Finally simple algorithms for distinguishing between types of changes, and linking collated source documents with the collation results are also introduced.
Learning a book in general involves reading it, underlining important words, adding comments, summarizing some passages, and marking up some text or concepts. Once deeper understanding is achieved, one would like to organize and manage her/his knowledge in such a way that, it could be easily remembered and efficiently transmitted to others. In this paper, books organized in terms of chapters consisting of verses, are considered as the source of knowledge to be modeled. The knowledge model consists of verses with their metadata and semantic annotations. The metadata represent the multiple perspectives of knowledge modeling. Verses with their metadata and annotations form a meta-model, which will be published on a web Mashup. The meta-model with linking between its elements constitute a knowledge base. An XML-based annotation system breaking down the learning process into specific tasks, helps constructing the desired meta-model. The system is made up of user interfaces for creating metadata, annotating chapters’ contents according to user selected semantics, and templates for publishing the generated knowledge on the Internet. The proposed software system improves comprehension and retention of knowledge contained in religious texts through modeling and visualization. The system has been applied to the Quran, and the result obtained shows that multiple perspectives of information modeling can be successfully applied to religious texts. It is expected that this short ongoing study would motivate others to engage in devising and offering software systems for cross-religions learning.
Die vorliegende Arbeit stellt einen Beitrag zur gesprächslinguistischen Analyse literarischer Dialoge dar. Da Theodor Fontane in der Forschung als Schriftsteller gilt, der dem Gespräch und seiner sprachlichen Gestaltung einen besonders hohen Stellenwert zuschreibt, ist sein letzter großer Roman Der Stechlin aus linguistischer Sicht besonders reizvoll. In ihm wird die Gesellschaft des 19. Jahrhunderts durch das Mittel des Gesprächs eindrucksvoll charakterisiert. In einem theoretischen Teil dieser Arbeit werden zunächst die Besonderheiten des literarischen Dialogs in Abgrenzung zum Alltagsgespräch geklärt sowie der historische Kontext, also die Höflichkeits- und Gesprächskultur in adeligen Kreisen des 19. Jahrhunderts, beleuchtet. Auf dieser Basis steht die detaillierte Analyse von drei Dialogausschnitten aus dem Roman im Mittelpunkt: ein offizieller Besuch, ein Tischge-spräch, ein Klatschgespräch unter Bekannten.
The Quran is the holy book of Islam consisting of 6236 verses divided into 114 chapters called suras. Many verses are similar and even identical. Searching for similar texts (e.g verses) could return thousands of verses, that when displayed completely or partly as textual list would make analysis and understanding difficult and confusing. Moreover it would be visually impossible to instantly figure out the overall distribution of the retrieved verses in the Quran. As consequence reading and analyzing the verses would be tedious and unintuitive. In this study a combination of interactive scatter plots and tables has been developed to assist analysis and understanding of the search result. Retrieved verses are clustered by chapters, and a weight is assigned to each cluster according to number of verses it contains, so that users could visually identify most relevant areas, and figure out the places of revelation of the verses. Users visualize the complete result and can select a region of the plot to zoom in, click on a marker to display a table containing verses with English translation side by side.
A Knowledge-based Hybrid Statistical Classifier for Reconstructing the Chronology of the Quran
(2011)
Computationally categorizing Quran’s chapters has been mainly confined to the determination of chapters’ revelation places. However this broad classification is not sufficient to effectively and thoroughly understand and interpret the Quran. The chronology of revelation would not only improve comprehending the philosophy of Islam, but also the easiness of implementing and memorizing its laws and recommendations. This paper attempts estimating possible chapters’ dates of revelation through their lexical frequency profiles. A hybrid statistical classifier consisting of stemming and clustering algorithms for comparing lexical frequency profiles of chapters, and deriving dates of revelation has been developed. The classifier is trained using some chapters with known dates of revelation. Then it classifies chapters with uncertain dates of revelation by computing their proximity to the training ones. The results reported here indicate that the proposed methodology yields usable results in estimating dates of revelation of the Quran’s chapters based on their lexical contents.
The technique of using Cascading Style Sheets (CSS) to format and present structured data is called CSS processing model. For instance a CSS processing model for XML documents describes steps involved in formatting and presenting XML documents on screens or papers. Many software applications such as browsers and XML editors have their own CSS processing models which are part of their rendering engines. For instance each browser based on its CSS processing model renders CSS layout differently, as a result an inconsistency in the support of CSS features arises. Some browsers support more CSS features than others, and the rendering itself varies. Moreover the W3C standards are not even adhered by some browsers such as Internet Explorer. Test suites and other hacks and filters cannot definitely solve these problems, because these solutions are temporary and fragile. To palliate this inconsistency and browser compatibility issues with respect to CSS, a reference CSS processing model is needed. By extension it could even allow interoperability across CSS rendering engines. A reference architecture would provide common software architecture and interfaces, and facilitate refactoring, reuse, and automated unit testing. In [2] a reference architecture for browsers has been proposed. However this reference architecture is a macro reference model which does not consider separately individual components of rendering and layout engines. In this paper an attempt to develop a reference architecture for CSS processing models is discussed. In addition the Vex editor [3] rendering and layout engines, as well as an extended version of the editor used in TextGrid project [5] are also presented in order to validate the proposed reference architecture.
The Visual Editor for XML (Vex)[1] used by TextGrid [2]and other applications has got rendering and layout engines. The layout engine is well documented but the rendering engine is not. This lack of documenting the rendering engine has made refactoring and extending the editor hard and tedious. For instance many CSS2.1 and upcoming CSS3 properties have not been implemented. Software developers in different projects such as TextGrid using Vex would like to update its CSS rendering engine in order to provide advanced user interfaces as well as support different document types. In order to minimize the effort of extending Vex functionality, I found it beneficial to write a basic documentation about Vex software architecture in general and its CSS rendering engine in particular. The documentation is mainly based on the idea of architectural layered diagrams. In fact layered diagrams can help developers understand software’s source code faster and easier in order to alter it, and fix errors. This paper is written for the purpose of providing direct support for exploration in the comprehension process of Vex source code. It discusses Vex software architecture. The organization of packages that make up the software, the architecture of its CSS rendering engine, an algorithm explaining the working principle of its rendering engine are described.
Die vorliegende Arbeit untersucht die metaphorischen Konzepte, die Herz- und Hand-Somatismen der deutschen und der albanischen Sprache zugrunde liegen. Gestützt auf die kognitive Metapherntheorie und die holistisch geprägte kognitive Semantik wird die semantische Klassifizierung der ausgewählten Somatismen in metaphorische Konzepte unternommen. Somatismen gehören zum Grundwortschatz jeder Sprache und da sie zweifach anthropozentrisch sind, ist man der Überzeugung, dass metaphorische Konzepte, die auf solchen Bezeichnungen beruhen, einen universellen Charakter aufweisen. Des Weiteren werden die Vorkommenshäufigkeit und die Erscheinung der deutschen Somatismen in belletristischen und in Pressetexten korpusbasiert untersucht, um zu ermitteln, welche Konzepte in der Gegenwartssprache lebendig sind und welche Phraseologismen als Fossile lediglich in Wörterbüchern existieren. Abschließend folgt eine Analyse der stilistischen Funktion von ausgewählten deutschen Somatismen in Zeitungstexten. In der albanischen Phraseologie ist der kognitive Ansatz noch kaum Gegenstand von Forschungsarbeiten geworden. Auch kontrastive linguistische Untersuchungen in Bezug auf das Sprachenpaar Deutsch-Albanisch auf dem Gebiet der Kognitiven Linguistik und der konzeptuellen Metapher sind sehr selten. Daher setzt sich die vorliegende Arbeit als Ziel, eine Forschungslücke teilweise zu füllen.
Der Beitrag zeigt am Beispiel der Analyse der Konstruktion lassen mit reinem Infinitiv die Arbeit mit dem parallelen DeuCze-Korpus. Er geht auf die semanto-syntaktische Analyse aller Korpusbelege ein und schlägt ausgehend von ihrer Interpretation eine Klassifikation der untersuchten Konstruktion vor. Anschließend werden die tschechischen Entsprechungen von lassen+Infinitiv untersucht und abschließende Schlussfolgerungen für beide Sprachen gezogen.
Webservices composition is traditionally carried out using composition technologies such as Business Process Execution Language (BPEL) [1] and Web Service Choreography Interface (WSCI) [2]. The composition technology involves the process of web service discovery, invocation, and composition. However these technologies are not easy and flexible enough because they are mainly developer-centric. Moreover majority of websites have not yet embarked into the world of web service, although they have very important and useful information to offer. Is it because they have not understood the usefulness of web services or is it because of the costs? Whatever might be the answers to these questions, time and money are definitely required in order to create and offer web services. To avoid these expenditures, wrappers [7] to automatically generate webservices from websites would be a cheaper and easier solution. Mashups offer a different way of doing webservices composition. In web environment a Mashup is a web application that brings together data from several sources using webservices, APIs, wrappers and so on, in order to create entirely a new application that was not provided before. This paper presents first an overview of Mashups and the process of web service invocation and composition based on Mashup, then describes an example of a web-based simulator for navigation system in Germany.
This article discusses web frameworks that are available to a software developer in Java language. It introduces MVC paradigm and some frameworks that implement it. The article presents an overview of Struts, Spring MVC, JSF Frameworks, as well as guidelines for selecting one of them as development environment.
Empirical Study on Screen Scraping Web Service Creation: Case of Rhein-Main-Verkehrsverbund (RMV)
(2010)
Internet is the biggest database that science and technology have ever produced. The world wide web is a large repository of information that cannot be used for automation by many applications due to its limited target audience. One of the solutions to the automation problem is to develop wrappers. Wrapping is a process whereby unstructured extracted information is transformed into a more structured one such as XML, which could be provided as webservice to other applications. A web service is a web page whose content is well structured so that a computer program can consume it automatically. This paper describes steps involved in constructing wrappers manually in order to automatically generate web services.
Overlapping is a common word used to describe documents whose structural dimensions cannot be adequately represented using tree structure. For instance a quotation that starts in one verse and ends in another verse. The problem of overlapping hierarchies is a recurring one, which has been addressed by a variety of approaches. There are XML based solutions as well as Non-XML ones. The XML-based solutions are: multiple documents, empty elements, fragmentation, out-of-line markup, JITT and BUVH. And the Non-XML approaches comprise CONCUR/XCONCUR, MECS, LMNL ...etc. This paper presents shortly state-of-the-art in overlapping hierarchies, and introduces two variations on the TEI fragmentation markup that have several advantages.
Ziele der textlinguistisch-pragmatisch angelegten Arbeit sind einerseits die inhaltliche Darstellung der Stereotype, die Briten und Deutsche im Spiegel der überregionalen Printmedien voneinander haben, andererseits die Analyse der sprachlichen Mittel, mit deren Hilfe diese Stereotype ausgedrückt werden. Damit soll eine Stilistik stereotyper Ausdrucksformen erstellt werden, wobei Stereotype hier als versprachlichte Vorurteile gegenüber Mitgliedern einer Personengruppe aufgefasst werden. Da die Behauptung des Eigenen und die Abwehr des Fremden zwei untrennbare Aspekte der Gruppenidentität sind, werden Auto- und Heterostereotype in ihrem Bezug zueinander thematisiert, wodurch die Spiegelfunktion nationaler Stereotype sehr deutlich wird: Die Ergebnisse der Inhaltsanalyse und der thematischen Längs- und Querschnitte zeigen, dass die Nationenbilder weitgehend asymmetrisch strukturiert, ja über weite Strecken komplementär zueinander angelegt sind. Untersucht wird zudem, inwieweit sich die unterschiedlichen Zeitungstypen in ihrer Verwendung stereotyper Äußerungen unterscheiden. Anhand der Verteilung der Stereotype auf die Ressorts und Textsorten lassen sich schließlich Rückschlüsse auf die Funktionen dieser Strukturen in der Presse ziehen.
Modalität und Modalitätsausdrücke in althochdeutschen Bibeltexten. Eine korpusgestützte Analyse
(2009)
Die vorliegende Abhandlung leistet einen Beitrag zu der noch längst nicht genügend untersuchten Modalitätsproblematik in althochdeutschen Bibeltexten. Bei den bisherigen historischen Untersuchungen wurden die kommunikativen Bedingungen für das Vorkommen der Modalitätsausdrücke nicht oder nicht hinreichend genug beachtet. Daher hat sich die Arbeit zum Ziel gesetzt, die sprachlichen Ausdrucksformen der Modalität unter dem kommunikativen Gesichtspunkt zu behandeln und neue Punkte zum Thema "Modalität im Althochdeutschen" zur Diskussion zu stellen. Die Analyse ist diskursiv angelegt: Die jeweiligen Modalitätsformen werden auf dem Hintergrund des gesamten Textes dargestellt und aus dem jeweiligen Kontext heraus erklärt. Als Textgrundlage fungiert das selbst erstellte historische Korpus der zwei biblischen Evangelienharmonien aus dem 9. Jahrhundert (der ahd. 'Tatian' und 'Otfrids Evangelienbuch').
Gewaltakte - Disziplinarapparate : Geschlecht und Gewalt in mittel- und frühneuhochdeutschen Mären
(2008)
Inhaltsverzeichnis 1 Einleitung 6 1.1 Einführung in den Forschungsgegenstand und das Forschungsinteresse der Untersuchung 6 1.2 Theoretische Prämissen 15 1.2.1 Überlegungen zur Problematik des Konstruktbegriffes 16 1.2.2 Zur Konstituierung der Konstrukte ‚Geschlecht’ und ‚Gewalt’ 23 1.2.2.1 Semantik der neuhochdeutschen Begriffe ‚Gewalt’ und ‚Geschlecht’ 23 1.2.2.1.1 ‚Gewalt’ 24 1.2.2.1.2 ‚Geschlecht’ 27 1.2.2.2 Judith Butlers Modell der citationality des ‚Geschlechts’ 30 1.3 Mittelalterliche Geschlechtsnormen in außerliterarischen Kontexten 37 1.4 Textauswahl und Untersuchungsverlauf 41 2 Prototheorie des Märes: Geschlecht und Gewalt in den Ehestandsmären des Strickers 43 2.1 Der Gevatterin Rat 47 2.2 Der begrabene Ehemann 58 2.3 Die eingemauerte Frau 70 2.4 Ehescheidungsgespräch 86 3 Strickers Erben? Geschlecht und Gewalt in ausgewählten Mären des 14. und 15. Jahrhunderts 91 3.1 Gewaltakte 92 3.1.1 Nur über ihre Leiche: Die undankbare Wiedererweckte 92 3.1.2 Erstarrte Männlichkeit im Bildschnitzer von Würzburg II 99 3.1.3 Making Sex: Gold und Zers I 107 3.1.4 Hans Rosenplüts abwaschbare Tinte 114 3.2 Disziplinarapparate 120 3.2.1 Sibotes Frauenzucht. Was Disziplinarapparate leisten können ... 122 3.2.2 ... und wie sie außer Kraft gesetzt werden – Philippas abenteurig, kurzweilig red im Enttäuschten Liebhaber des Johannes Werner von Zimmern 134 3.2.3 Vorsicht, bissig! Virgils Zauberbild als weiblicher Disziplinarapparat 144 3.2.4 Entblößen, Einwickeln, Bemänteln – Disziplinarapparate in den Mären Heinrich Kaufringers 148 3.2.4.1 Bürgermeister und Königssohn: Entblößen und Einschließen 148 3.2.4.2 Chorherr und Schusterin: Zudecken und Bemänteln 154 3.2.4.3 Der Schlafpelz: Die Kunst des Einwickelns 160 3.2.4.4 Die zurückgelassene Hose – Wie Heinrich Kaufringer Hosen Beine macht 163 4 Zusammenfassung 167 Literaturverzeichnis 183 1 Abkürzungen 183 2 Primärliteratur 183 2.1 Literatur des Mittelalters 183 2.1.1 Sammelausgaben 183 2.1.2 Einzeltextverzeichnis 184 2.2 Literatur der Neuzeit 185 3 Nachschlagewerke und Wörterbücher 186 4 Forschungsliteratur 186
No abstract available
Diese Arbeit befasst sich mit den Gesprächen im 2004 erschienenen Roman "Jessica, 30." von Marlene Streeruwitz. Der Hauptdialog und die vorhergehenden Telefongespräche zwischen der Hauptfigur Jessica und ihrem Liebhaber Gerhard werden eingehend auf verschiedene Aspekte hin linguistisch analysiert. Einen Schwerpunkt bilden die Gesprächsstrategien beider Aktanten, Passagen des Streits, der innere Monolog, aber auch Merkmale der gesprochenen Sprache und des mimetischen Sprechens. Die Arbeit schließt mit einem Überblick, was die Künstlichkeit des literarischen Dialogs trotz seiner realistischen Nachahmung von Alltagsgesprächen ausmacht.
Evangelische Gemäldeepitaphe in Franken. Ein Beitrag zum religiösen Bild in Renaissance und Barock
(2007)
Gemäldeepitaphe sind eine zu Unrecht vernachlässigte Gattung der Kircheneinrichtung. Die vorliegende Arbeit umfasst 458 gemalte Epitaphe aus Franken, aus der Zeit von 1550 bis 1800. Der Schwerpunkt liegt auf der Darstellung der vielfältigen religiösen Themen der Gemälde. Die Arbeit versteht sich dabei als Beitrag zur Erforschung religiöser Malerei der Renaissance- und Barockzeit.
Die Sprachinhaltsforschung Leo Weisgerbers unter sprachwissenschaftlich-historischer Perspektive
(2009)
Leo Weisgerbers Sprachinhaltsforschung dominierte nach dem Zweiten Weltkrieg die deutsche Sprachwissenschaft; ab den 70er Jahren geriet sie fast völlig in Vergessenheit oder wurde nur noch unter starken ideologischen Vorbehalten rezipiert. Diese Arbeit versucht zu zeigen, dass trotz berechtigter Einwände gegen Weisgerber dessen Sprachinhaltsforschung für die Entwicklung der Allgemeinen und Vergleichenden Sprachwissenschaft bis heute dennoch eine nicht unbedeutende Rolle spielte. Der systematischen Darstellung der Sprachinhaltsforschung geht eine Diskussion ihrer frühen Entwicklung voraus, die zeigt, dass spätere thematische Schwerpunkte (der Inhaltsbegriff als Kritik des Bedeutungsbegriffs / die These vom Weltbild der Sprache / der Feldbegriff) in Auseinandersetzung mit zahlreichen bedeutenden Sprachwissenschaftlern des frühen 20. Jahrhunderts schon eine deutliche Ausprägung fanden und intensiv rezipiert wurden. Desweiteren werden in dieser Arbeit die Umstände diskutiert, die zur ausgeprägten Ablehnung der Sprachinhaltsforschung führten, sowie die Frage, in welcher Form Grundprämissen der Sprachinhaltsforschung für rezente sprachwissenschaftliche Forschungsansätze relevant waren oder noch relevant sind.
Die vorliegende Arbeit enthält das soziolinguistische Portrait einer Stammtischgruppe aus dem Raum Unterfranken. Im Zentrum stehen Formen und Verfahren der sprachlichen Symbolisierung sozialer Identität. Das Gruppenportrait enthält neben der genauen Analyse der bedeutendsten Gesprächsthemen der Gruppe ein Kapitel der sozialregulierenden Aktivitäten und der Sprachvariation. Insbesondere die sozialregulierenden Aktivitäten wie Beziehungsarbeit und Verhaltensregulation spielen bei dieser nicht institutionalisierten Gruppe eine große Rolle. Höchste Relevanz kommt dabei eindeutig dem Klatsch zu. Neben dem präventiv verhaltensregulierenden Moment ist vor allem auf die gruppenstabilisierende Wirkung hinzuweisen. Ergänzt wird die Untersuchung letztlich durch die Analyse des ortspezifischen Dialekts mit den einzelnen Normallagen der Mitglieder und deren funktionalen Varianten. Abschließend werden alle Stilzüge in ihren Zusammenhängen dargestellt und ausgewertet.
Die Dissertation untersucht anhand der Hauptnachrichtensendungen des deutschen Fernsehens das Zusammenwirken von Sprache und Bild (Schlagzeilen, Filmberichte, Fotos und Bildkompositionen), deren Verständlichkeit und emotionalen Einfluss auf die Zuschauern. Begleitet wird die Untersuchung durch eine statistische Auswertung zur Nachrichtenwahrnehmung und eine Analyse der Sprache der Fernsehnachrichten anhand der Aspekte Kohärenz und Kohäsion. Außerdem werden gemeinsame und trennende Elemente in der Text- und Bildwahrnehmung erörtert. Die Ergebnisse werden auch anhand der Textsorte "Schlagzeile" dargestellt.
Die Verwendbarkeit des Partizips I als Prädikativ soll laut der einschlägigen Literatur sehr restringiert sein. Die Restriktionen werden aber teilweise sehr unterschiedlich aufgefasst. Dieser Beitrag setzt sich zum Ziel, die Stichhaltigkeit verschiedener semantischer, morphologischer und syntaktischer Kriterien zu überprüfen und die Unzulänglichkeit der bisherigen Regelformulierungen aufzuzeigen.
Der Artikel führt alle bibliographischen Angaben zu den Texten des elektronischen finnisch-deutschen FinDe-Korpus auf. Er enthält zudem statistische Angaben zu der Größe der Texte, zu der Gesamtzahl der Wortformen (Tokens), der Zahl der verschiedenen Wortformen (Types), der Einzelbelege (Singles) und deren Relationen zueinander.