Refine
Has Fulltext
- yes (232)
Is part of the Bibliography
- yes (232) (remove)
Year of publication
Document Type
- Doctoral Thesis (48)
- Book article / Book chapter (40)
- Book (38)
- Journal article (29)
- Preprint (25)
- Master Thesis (24)
- Conference Proceeding (10)
- Review (8)
- Bachelor Thesis (4)
- Other (3)
Keywords
- Deutsch (22)
- Kulturanthropologie (13)
- Korpus <Linguistik> (8)
- Quran (8)
- Deutschunterricht (7)
- Digital Humanities (7)
- Koran (7)
- Rezension (7)
- Text Mining (7)
- Alltagskultur (6)
Institute
- Institut für deutsche Philologie (232) (remove)
Schriftenreihe
Sonstige beteiligte Institutionen
- Professur für Museologie (3)
- VolkswagenStiftung (2)
- Zentrum für Lehrerbildung und Bildungsforschung (2)
- Badisches Landesmuseum Karlsruhe (1)
- Bayerische Museumsakademie (1)
- Bezirk Unterfranken (1)
- Brown University (1)
- DFG (1)
- Heimatmuseum Ebern (1)
- Lehrstuhl für Europäische Ethnologie/Volkskunde der Julius-Maximilians-Universität Würzburg (1)
Obgleich das erzählerische Syntagma der Tristansage sich ohne weitere Zugaben zu entfalten vermag, ist die Liebesgeschichte von Tristan und Isolde schon in der Mitte des 12. Jahrhunderts eng mit den Legenden von König Artus und seinen Rittern verwoben. Die Frage, wie sich der keltische Tristanstoff zum Artusroman verhält, ist in der mediävistischen Forschung bislang jedoch nur in Ansätzen und zumeist wenig kontrovers diskutiert worden. Dabei bietet gerade die kontingente Verbindung beider literarischer Welten bei Eilhart und Béroul zu einem arthurisierten Tristanroman die Möglichkeit, die zentralen Scharnierstellen zweier Erzähltradition zu untersuchen und nach den Möglichkeiten und Grenzen des Erzählens von der Liebe um 1200 zu fragen.
Die vorliegende Arbeit befasst sich mit der Frage, wie Gottfried von Straßburg in seinem Tristanroman mit dem Ehebruchsthema umgeht. Wie gelingt es Gottfried, die Ehebrecher Tristan und Isolde von Vorwürfen frei zu halten, ohne ihr Handeln ausdrücklich zu entschuldigen – und ohne dabei den Ehebruch zu verharmlosen? Woraus entsteht uns bei ihm der Eindruck, der Tatbestand des Ehebruchs sei als solcher gar nicht verwerflich? Durch welche Kunstgriffe erfahren die Liebenden Entlastung, die wir in ihrer Subtilität so wenig wahrnehmen, dass wir meinen, der Ehebruch habe Gottfried kaum interessiert? Im Sinne einer diskursanalytischen Herangehensweise werden zunächst diejenigen Diskurse erarbeitet, die sich im 12. Jahrhundert zum Thema Ehebruch positioniert haben: Diese sind der biblisch-theologische Diskurs, der eherechtliche Diskurs, der feudale Diskurs sowie der höfisch-literarische Minnediskurs. Sie geben Aufschluss darüber, wie über den Ehebruch zur Zeit Gottfrieds gedacht und geurteilt wurde. Auf der Grundlage dieses Wissens richtet sich im nächsten Schritt der Blick auf Gottfrieds Tristanroman. Ermittelt werden die darin enthaltene Konzeption der Ehe als derjenigen Institution, die durch den Ehebruch geschädigt wird, sowie der minne, in deren Namen diese Schädigung erfolgt. Im Anschluss stehen der Ehebruch selbst und insbesondere seine Korrelation zum Treuebruch im Fokus der Untersuchung. Ausgewählte Episoden und Textstellen, die Rückschlüsse auf Gottfrieds Umgang mit Ehe, minne und Ehebruch ermöglichen, werden daraufhin untersucht, inwiefern sie die genannten Diskurse jeweils aktualisieren, konterkarieren oder anderweitig für sich nutzbar machen. Weitere Ergebnisse bezüglich der Fragestellung liefert der Vergleich mit parallelen Textteilen bei den älteren Tristan-Dichtern Thomas von England, Eilhart von Oberg und Berol sowie auch der Blick zu Ovid, Heinrich von Veldeke und Hartmann von Aue. Am Ende der Untersuchung zeigt sich Gottfrieds Umgang mit dem Ehebruch als eine duale Strategie: Zum einen betreibt Gottfried die Abwehr des Schuldvorwurfs, indem er die Markeehe demontiert und gleichzeitig die Ehebruchsbeziehung zur Minneehe hochstilisiert. Dafür nutzt er jeweils nicht nur die Begründungsmuster des höfisch-literarischen Diskurses, sondern in gleichem Maße auch die des biblisch-theologischen, des eherechtlichen sowie des feudalen Diskurses, obwohl diese den Tatbestand des Ehebruchs klar verurteilen. Zum anderen bietet der Ehebruch, so wie ihn der Straßburger Dichter in der Stoffgeschichte vorgefunden hat, Gottfried ideale Voraussetzungen, um seine spezifische Minnekonzeption auf den Weg zu bringen: liebe und leit bleiben in der vorbildhaften Minne, wie Gottfried sie sieht, untrennbar miteinander verbunden, am Leiden muss sich die Liebe der edelen herzen Tristan und Isolde immer wieder neu bewähren. Dass dieser Leidensaspekt in der Liebeshandlung dauerhaft erhalten bleibt, wird durch die Ehebruchskonstellation wirksam garantiert. So wandelt sich der Ehebruch bei Gottfried vom erzählerischen Problemfall zum gewinnbringenden Handlungselement.
Inhalt der vorliegenden Arbeit ist eine Studie der englisch-deutschen und deutsch-englischen Wörterbücher von Johannes Ebers, die gegen Ende des 18. Jahrhunderts erschienen. Die Arbeit versucht in einem ersten Schritt zu bestimmen, wie und in welchem Ausmaß die zeitgenössischen englischen Orthoepisten und Lexikografen, die Ebers als Quellen benutzt hat, Konzept und Realisierung seines englisch-deutschen Wörterbuches beeinflusst haben. Der zweite Schwerpunkt dieser Arbeit ist die Darstellung einer Methodologie zur Erstellung einer digitalen Edition der Wörterbücher auf der Grundlage der TEI-Guidelines for Electronic Text Encoding and Interchange (Version P5).
Der Einsatz von Geographischen Informationssystemen (GIS) bietet auch für die Geisteswissenschaften zahlreiche Ansätze zur Generierung von neuem Wissen. Die GIS-Software ist jedoch unterschiedlich geeignet für geisteswissenschaftliche Fragestellungen. Getestet wurden daher zwei kommerzielle und vier Open Source GIS-Programme: MapInfo, ArcGIS, Quantum GIS, gvSIG, DIVA-GIS und SAGA. MapInfo zeichnet sich besonders für GIS-Anfänger durch seine große Benutzerfreundlichkeit aus. Jedoch sind die Anschaffungskosten recht hoch. ArcGIS weist den größten Nutzungsumfang auf, wobei jedoch keine oder kaum eine „intuitive“ Nutzung möglich ist. Zudem sind die laufenden Kosten durch aufwändige Abo-Lizenzverträge besonders hoch. Quantum GIS ist eine freie Software, die benutzerfreundlich ist und auch Anfängern einen leichten Einstieg ermöglicht. Hunderte Erweiterungen machen Quantum GIS sehr leistungsstark und universal einsetzbar. gvSIG ist nicht ganz leicht zu bedienen, da zudem die Dokumentation nur fragmentarisch vorliegt. Der große Funktionsumfang macht es jedoch zu einem vollwertigen GIS, wenn auch manch ergänzende Funktion fehlt. DIVA-GIS ermöglicht einen schnellen Einstieg durch seine gute Dokumentation. Man gelangt jedoch recht bald an die Grenzen des Nutzungsumfangs durch die eingeschränkte Funktionalität. SAGA hingegen erfüllte alle hier gestellten Anforderungen, sodass es, trotz der geringeren Anzahl von Erweiterungen, zusammen mit Quantum GIS als Open Source eine echte Alternative zu kommerziellen GIS-Programmen darstellt.
Durch die systematische Sichtung des Fundmaterials des frühmittelalterlichen Burgwalls von Kopchin in der Oberlausitz konnten einige Keramikscherben identifiziert werden, die wohl älter als bisher angenommen sind und in die Völkerwanderungszeit datieren. Dies ist von besonderer Relevanz, da für Nordostdeutschland traditionell eine Besiedlungslücke im 5.–7. Jh. AD postuliert wird. Dieser Hiatus ist offenbar teils auch der schwierigen sicheren Datierung der oft recht unspezifischen Keramiktypen geschuldet. So konnten mit wachsendem Kenntnisstand dieser Keramiken in den letzten Jahren auch einige völkerwanderungszeitliche Fundstellen, besonders in Nordbrandenburg und im deutsch-polnischen Pommern lokalisiert werden. In Nordost-Sachsen sind die vorgestellten singulären Funde des 5.–6. Jhs. AD jedoch bisher ohne sichere Parallelen, auch wenn mittlerweile einige Fundstellen der Völkerwanderungszeit in der Region erkannt worden sind.
Eisenproduktionswerkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) im inneren Barbaricum
(2012)
Durch systematische Prospektionen in Südbrandenburg wurden auch bei den devastierten Ortschaften Klein Görigk und Kausche zahlreiche bisher unbekannte Fundplatze entdeckt (vgl. Abb. 1). Diese verdeutlichen den Fundreichtum dieser kargen Landschaft als „archäologisches Fenster“ einer fallbeispielhaft intensiv erforschten Region. Die sehr zahlreichen Werkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) belegen eine massenhafte Eisenproduktion, die über den Eigenbedarf weit hinausging und die Grundlage für Handel darstellte. Interessanterweise sind im Eisenverhüttungszentrum des Niederlausitzer Grenzwalls keine zeitgleichen Siedlungen und Gräberfelder entdeckt worden. Diese liegen etwas weiter entfernt in den fruchtbareren Niederungs- und Beckenlandschaften der Umgebung. Die Werkplätze sind also nur temporär zur Eisenverhüttung aufgesucht worden. Die stereotyp errichteten Eisenproduktionsstätten wurden in unmittelbarer Nähe zum lokal vorkommenden „Raseneisenerz“ im waldreichen Gebiet errichtet. Durch die massenhafte Eisenproduktion, die äußerst viel Holzkohle benötigte, ist auch von negativen Folgen auf die prähistorische Umwelt auszugehen. Indizien einer mutmaßlichen „ökologischen Krise“ zum Ende der spätgermanischen Kultur (Mitte 5. Jh. AD) konnten jedoch bisher nicht sicher belegt werden.
Jean Pauls Registerbände
(2011)
Die Dissertation befasst sich mit den Registerbänden Jean Pauls. Diese stellen eine komprimierte Fassung der umfangreichen Exzerptbände dar, die auf mehr als 12.000 Seiten vorliegen. Jean Paul ordnet seine Exzerpte unter zuvor ausgewählten Oberbegriffen, und fasst diese in den Registerbänden zusammen.
In this research, an attempt to create a knowledge-based learning system for the Quranic text has been performed. The knowledge base is made up of the Quranic text along with detailed information about each chapter and verse, and some rules. The system offers the possibility to study the Quran through web-based interfaces, implementing novel visualization techniques for browsing, querying, consulting, and testing the acquired knowledge. Additionally the system possesses knowledge acquisition facilities for maintaining the knowledge base.
Hauptgegenstand dieser Arbeit ist die Untersuchung des Phänomens der mündlichen Ver-wendung von im Chat gebräuchlichen akronymischen Kurzformen wie lol und omg im Deut-schen. Da die Chatkommunikation trotz ihrer schriftlichen Realisierung einige Merkmale mündlicher Kommunikation aufweist, scheint eine Integration der zunächst rein graphischen Kürzungen in die gesprochene Sprache außerhalb des Chats nicht abwegig. Darüber hinaus lassen sich in jüngster Zeit sowohl eine Flexibilisierung der Verwendungsweise der Kürzel als auch Wortbildungsprozesse mithilfe der entsprechenden Formen konstatieren. Es handelt sich dabei um ein jugendsprachliches Phänomen; dies gilt vor allem für den Bereich der Wortbildung. In dieser Arbeit werden die Ergebnisse einer empirischen Erhebung der Relevanz sechs gängiger Kürzel und abgeleiteter Formen vorgestellt und interpretiert. Darüber hinaus erfolgt eine Bestandsaufnahme aller analysierten Formen in Standardnachschlagewerken und diversen Wörterbüchern zu den Soziolekten der Jugend- und Internetsprache.
Der Begriff Germanen ist eine Fremdbezeichnung griechisch-römischer Autoren der Antike. Die so bezeichneten Gruppen hatten aber keine gemeinsame germanische Identität. Die Germanen wurden schon in der Antike als mächtige Gegner stilisiert, was wiederum im Mittelalter im Zuge der Staatenbildungen gerne in den schriftlichen Quellen aufgegriffen wurde. Retrospektiv kann keine "Ursprache" oder "Urheimat" der Germanen rekonstruiert werden. In der Archäologie gibt es jedoch aufgrund des Fundmaterials Kulturräume einer materiellen Kultur, die als germanisch interpretiert werden. Diese sind jedoch nicht mit einer "germanischen Ethnie" zu verwechseln.
This paper discusses the categorization of Quranic chapters by major phases of Prophet Mohammad’s messengership using machine learning algorithms. First, the chapters were categorized by places of revelation using Support Vector Machine and naïve Bayesian classifiers separately, and their results were compared to each other, as well as to the existing traditional Islamic and western orientalists classifications. The chapters were categorized into Meccan (revealed in Mecca) and Medinan (revealed in Medina). After that, chapters of each category were clustered using a kind of fuzzy-single linkage clustering approach, in order to correspond to the major phases of Prophet Mohammad’s life. The major phases of the Prophet’s life were manually derived from the Quranic text, as well as from the secondary Islamic literature e.g hadiths, exegesis. Previous studies on computing the places of revelation of Quranic chapters relied heavily on features extracted from existing background knowledge of the chapters. For instance, it is known that Meccan chapters contain mostly verses about faith and related problems, while Medinan ones encompass verses dealing with social issues, battles…etc. These features are by themselves insufficient as a basis for assigning the chapters to their respective places of revelation. In fact, there are exceptions, since some chapters do contain both Meccan and Medinan features. In this study, features of each category were automatically created from very few chapters, whose places of revelation have been determined through identification of historical facts and events such as battles, migration to Medina…etc. Chapters having unanimously agreed places of revelation were used as the initial training set, while the remaining chapters formed the testing set. The classification process was made recursive by regularly augmenting the training set with correctly classified chapters, in order to classify the whole testing set. Each chapter was preprocessed by removing unimportant words, stemming, and representation with vector space model. The result of this study shows that, the two classifiers have produced useable results, with an outperformance of the support vector machine classifier. This study indicates that, the proposed methodology yields encouraging results for arranging Quranic chapters by phases of Prophet Mohammad’s messengership.
Computing Generic Causes of Revelation of the Quranic Verses Using Machine Learning Techniques
(2011)
Because many verses of the holy Quran are similar, there is high probability that, similar verses addressing same issues share same generic causes of revelation. In this study, machine learning techniques have been employed in order to automatically derive causes of revelation of Quranic verses. The derivation of the causes of revelation is viewed as a classification problem. Initially the categories are based on the verses with known causes of revelation, and the testing set consists of the remaining verses. Based on a computed threshold value, a naïve Bayesian classifier is used to categorize some verses. After that, using a decision tree classifier the remaining uncategorized verses are separated into verses that contain indicators (resultative connectors, causative expressions…), and those that do not. As for those verses having indicators, each one is segmented into its constituent clauses by identification of the linking indicators. Then a dominant clause is extracted and considered either as the cause of revelation, or post-processed by adding or subtracting some terms to form a causal clause that constitutes the cause of revelation. Concerning remaining unclassified verses without indicators, a naive Bayesian classifier is again used to assign each one of them to one of the existing classes based on features and topics similarity. As for verses that could not be classified so far, manual classification was made by considering each verse as a category on its own. The result obtained in this study is encouraging, and shows that automatic derivation of Quranic verses’ generic causes of revelation is achievable, and reasonably reliable for understanding and implementing the teachings of the Quran.
The question of why the Quran structure does not follow its chronology of revelation is a recurring one. Some Islamic scholars such as [1] have answered the question using hadiths, as well as other philosophical reasons based on internal evidences of the Quran itself. Unfortunately till today many are still wondering about this issue. Muslims believe that the Quran is a summary and a copy of the content of a preserved tablet called Lawhul-Mahfuz located in the heaven. Logically speaking, this suggests that the arrangement of the verses and chapters is expected to be similar to that of the Lawhul-Mahfuz. As for the arrangement of the verses in each chapter, there is unanimity that it was carried out by the Prophet himself under the guidance of Angel Gabriel with the recommendation of God. But concerning the ordering of the chapters, there are reports about some divergences [3] among the Prophet’s companions as to which chapter should precede which one. This paper argues that Quranic chapters might have been arranged according to months and seasons of revelation. In fact, based on some verses of the Quran, it is defendable that the Lawhul-Mahfuz itself is understood to have been structured in terms of the months of the year. In this study, philosophical and mathematical arguments for computing chapters’ months of revelation are discussed, and the result is displayed on an interactive scatter plot.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a bar diagram. Additionally this study includes a recursive algorithm for automatically reconstructing the original text from the identified base text and ranked witnesses.
Learning a book in general involves reading it, underlining important words, adding comments, summarizing some passages, and marking up some text or concepts. Once deeper understanding is achieved, one would like to organize and manage her/his knowledge in such a way that, it could be easily remembered and efficiently transmitted to others. This paper discusses about modeling religious texts using semantic XML markup based on frame-based knowledge representation, with the purpose of assisting understanding, retention, and sharing of knowledge they contain. In this study, books organized in terms of chapters made up of verses are considered as the source of knowledge to model. Some metadata representing the multiple perspectives of knowledge modeling are assigned to each chapter and verse. Chapters and verses with their metadata form a meta-model, which is represented using frames, and published on a web mashup. An XML-based annotation and visualization system equipped with user interfaces for creating static and dynamic metadata, annotating chapters’ contents according to user selected semantics, and templates for publishing generated knowledge on the Internet, has been developed. The system has been applied to the Quran, and the result obtained shows that multiple perspectives of information modeling can be successfully applied to religious texts, in order to support analysis, understanding, and retention of the texts.
Diese Veröffentlichung ist eine Einführung in die syntaktischen Strukturen der deutschen Gegenwartssprache und deckt folgende Gebiete ab: Satzdefinition, Wortarten, Topologie deutscher Sätze, valenzabhängige und -unabhängige Satzglieder (Ergänzungen und Angaben), Funktion und Semantik von Dativ- und Genitivkonstruktionen, Hilfs-, Modal- und Modalitätsverben, Funktionsverbgefüge und verbale Wendungen, reflexive Konstruktionen, komplexe Sätze und Satzglieder, Passivkonstruktionen, Temporalität sowie Modalität.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a histogram.