Refine
Has Fulltext
- yes (232)
Is part of the Bibliography
- yes (232) (remove)
Year of publication
Document Type
- Doctoral Thesis (48)
- Book article / Book chapter (40)
- Book (38)
- Journal article (29)
- Preprint (25)
- Master Thesis (24)
- Conference Proceeding (10)
- Review (8)
- Bachelor Thesis (4)
- Other (3)
Keywords
- Deutsch (22)
- Kulturanthropologie (13)
- Korpus <Linguistik> (8)
- Quran (8)
- Deutschunterricht (7)
- Digital Humanities (7)
- Koran (7)
- Rezension (7)
- Text Mining (7)
- Alltagskultur (6)
Institute
- Institut für deutsche Philologie (232) (remove)
Schriftenreihe
Sonstige beteiligte Institutionen
- Professur für Museologie (3)
- VolkswagenStiftung (2)
- Zentrum für Lehrerbildung und Bildungsforschung (2)
- Badisches Landesmuseum Karlsruhe (1)
- Bayerische Museumsakademie (1)
- Bezirk Unterfranken (1)
- Brown University (1)
- DFG (1)
- Heimatmuseum Ebern (1)
- Lehrstuhl für Europäische Ethnologie/Volkskunde der Julius-Maximilians-Universität Würzburg (1)
Gegenstand dieser linguistischen Untersuchung ist das sprachlich-kommunikative Verhalten von Bewohnern einer Mennoniten-Kolonie in Paraguay. Die Autorin gibt zunächst eine gründliche ethnografische Analyse der gemeinsamen sozialen Identität, der internen Gliederungen und Strukturen, der Kommunikationsanlässe etc. und beschreibt auf dieser Grundlage die durch ethnische und religiöse Überzeugungen geprägten sozialen Stile einzelner Interaktionsgruppen in bestimmten Kommunikationssituationen. Forschungsleitende Idee ist die Ethnografie des Sprechens, durchgeführt mit den Methoden der linguistischen Gesprächsanalyse.
Der zweite Schwerpunkt ist mehr strukturell orientiert: Die Autorin beschreibt auf den Ebenen der Lexik und der Morphosyntax die Besonderheiten der Fernheimer Standardsprache (‚Mennonitendeutsch‘), die durch die lange Tradition des mennonitisch-niederdeutschen Plautdietschen und durch einige spanische Lehnwörter geprägt ist.
Diese Untersuchung zeigt, wie man quantitative und qualitative, struktur- und interaktionsorientierte Fragestellungen der Soziolinguistik gewinnbringend miteinander kombinieren kann.
No abstract available.
No abstract available.
No abstract available.
In Yaşar Kemal‘s The Pomegranate on the Knoll, the environment of the Çukurova peasants is depicted meticulously in their daily struggle for survival; however, Kemal transcends purely realist representations whenever the characters try either to make sense of or to gain control over their hostile environment. By using magical realist strategies in his text as well, he gives a voice to the suffering of the Çukurova peasants and engages in a form of political writing different from social realism or village literature. He helps to raise public awareness for the traumatic consequences of the changing social reality in rural Turkey not only by describing it, but also by using magical realist writing strategies which let readers feel it for themselves.
Diese wissenschaftliche Arbeit beschäftigt sich mit der Eigentümlichkeit der geschriebenen Modesprache. Da die Modesprache offensichtliche sprachliche Auffälligkeiten sowie einen überaus kreativen und erfrischend humorvollen Umgang mit Sprache aufweist, sollte sie unter wissenschaftlichen Aspekten betrachtet werden. Mode ist eine Institution mit der sich die Soziologie seit jeher ausführlich beschäftigt. Somit stellt sie auch einen interessanten Untersuchungsgegenstand für die Soziolinguistik und deren Varietätenmodell dar. Dieses geht davon aus, dass die Gesamtsprache in verschiedene Varietäten (bspw. Gruppensprache, Jugendsprache, Fachsprache etc.) aufgegliedert ist. Die Frage, die sich im Verlauf dieser Arbeit in Bezug auf die Modesprache stellen wird, ist, wo sie in diesem Modell angesiedelt ist und wie sie sich zur Alltagssprache verhält. Dabei ist es schwierig von „der“ Modesprache als feststehende Varietät zu sprechen. Ebenso wie ihr Gegenstand Mode wandelt sich die Sprache schnell, um einerseits die nötige Aufmerksamkeit der Öffentlichkeit zu erregen und andererseits um adäquate Bezeichnungen für die ständige wechselnden Moden zu liefern. Aus diesem Grund ist eine quantitative Untersuchung der Besonderheiten wenig sinnvoll. Denn es lassen sich zwar bestimmte Aussagen zum allgemeinen Charakter der Modesprache formulieren, weniger jedoch permanent geltende Tatsachen über ihre Gestalt. Somit wird für diese Arbeit eine rein qualitative Betrachtung der derzeitigen Modesprache vorgezogen, die Beschreibungskategorien und allenfalls Tendenzen vorstellt, sich damit jedoch näher an der sprachlichen Realität der Modewelt orientiert.
Es steht nicht die Überprüfung einer bereits vorhandenen These im Mittelpunkt, vielmehr ist das empirische Material zu beschreiben und zu interpretieren. Begonnen wird mit einem theoretischen Teil zu Soziologie und Psychologie der Mode, um eine thematische Grundlage zu schaffen. Diese ist deshalb von Bedeutung, weil vor ihrem Hintergrund einige der vorkommenden Phänomene besser verstanden und damit analysiert werden können.
Im Anschluss beschäftigt sich die Arbeit mit dem theoretischen Zusammenhang von Mode und Sprache in den Medien. Insbesondere wird hierbei Zeitschriftentheoretisches und dabei vornehmlich das Themenfeld der Frauen- und Modepresse behandelt. Außerdem wird die Sprache der Modewelt unter den Aspekten der Soziolinguistik sowie der Fachsprache betrachtet. Da die Modesprache viele unterschiedliche Elemente in sich vereint, wird im Anschluss der Versuch einer Einordnung unternommen. Der theoretische Teil endet mit Annahmen zur Gestalt der Modesprache. Diese werden am Ende der Arbeit in Form eines Resümees überprüft.
Den größten Teil der Arbeit stellt die Analyse des Materials auf den verschiedenen Ebenen der Sprachwissenschaft dar. Dieser beginnt zunächst– ausgehend von der Vorstellung, mit den kleinsten Sprachebenen zu beginnen – mit Ausführungen zu Interpunktion und Typografie in der Modepresse. Im Anschluss behandelt das umfangreichste Kapitel dieser Arbeit ausführlich die Modelexik bevor schließlich syntaktische Auffälligkeiten untersucht werden. Die bildliche und sprachspielerische Komponente der Modesprache bleibt ebenfalls nicht unbeachtet, weshalb neben Text-Bild-Bezügen auch Metaphern, Sprachspiele und Intertextualität beschrieben werden. Der empirische Teil endet schließlich mit einem Vergleich der Mode- mit der Werbesprache, bevor in einem Resümee die Erkenntnisse der Arbeit zusammengefasst werden.
Die sprachlichen Fähigkeiten der Kinder im Vorschulbereich sind eine wichtige Voraussetzung für den späteren Erfolg in der Schule. Während die Sprachfähigkeiten der monolingualen Kinder bis zum Einschulungsalter in der Regel altersgemäß entwickelt sind, können sich bei bilingual aufwachsenden Kindern Probleme unterschiedlicher Ausprägung abzeichnen. Im Rahmen einer empirischen Studie werden die Sprachfähigkeiten von jeweils 8 monolingual deutsch und bilingual russisch-deutsch aufwachsenden Kindern im Alter von 4 bis 6 Jahren untersucht. Die Arbeit befasst sich mit der Frage nach dem Sprachentwicklungsstand der bilingualen gegenüber dem der monolingualen Kinder und mit der Frage nach dem gegenseitigen Verhältnis der beiden Sprachen der bilingualen Kinder. Im Vordergrund stehen dabei die Sprachkompetenzen der Kinder im morphosyntaktischen Bereich und im Bereich der statischen Lokalisierung. Die Analyse der anhand von Elizitierungsmethoden erhobenen Sprachdaten hinsichtlich der Wortstellung, der Formen und Stellung des Verbs, der Subjekt-Verb-Kongruenz, der Verbindung von Sätzen und der irregulären Verben zeigt, dass sich die mono- und bilingualen Kinder auf einem vergleichbaren Niveau befinden. Dieses Ergebnis bestätigt die zusätzlich durchgeführte Wortschatzanalyse. In Bezug auf die Lokalisierung zeigen sich sowohl Gemeinsamkeiten als auch Unterschiede. Hervorzuheben ist, dass die Relation AN den bilingualen Kindern erhebliche Probleme bereitete. Insgesamt liegt die Substitutionsrate der Präpositionen bei ihnen wesentlich höher als bei den monolingualen Kindern. Der Vergleich der Sprachentwicklung im Russisch und im Deutsch der bilingualen Kinder hat deutliche Differenzen in der Beherrschung der beiden Sprachen ergeben. Sie reichen von relativ ausgewogener Zweisprachigkeit über leichte bis starke Dominanz des Deutschen bis zu nahezu passiver Beherrschung der Muttersprache. Dabei zeigte sich, dass eine klare Trennung der Sprachen die bilinguale Sprachentwicklung positiv beeinflusst. Fehlt eine solche klare Trennung, kommt es zu Defiziten in der Erstsprachentwicklung, die sich zudem in Sprachmischungen und Transferelementen aus der Zweitsprache in die Erstsprache manifestieren.
Einen Satz syntaktisch zu analysieren heißt, ein Satzverstehen nach bestimmten Kriterien offenzulegen. Jeder Satzanalyse geht ein grundsätzliches, voranalytisch verborgenes Verstehen ebenso voraus, wie der Prozess der Analyse ein solches Verstehen konkretisiert und ausdrücklich festzurrt: Ohne Verstehen keine Analyse. Für Analysen, die ein Satzverstehen syntaktisch explizieren sollen, benötigt man einen theoretischen Hintergrund, der die Analysewerkzeuge bereitstellt: Ohne Beschreibungsmittel keine Analyse. Schließlich braucht jede Analyse auch noch eine Darstellungsmethode: Ohne Festhalten der Ergebnisse kein Zugriff auf die Analyse.
Der vorliegende Band versteht sich als eine Explikation von Satzverstehen anhand eines konkreten, valenzorientierten Beschreibungsinventars. Im Vordergrund stehen dabei die Visualisierungen der Analyse-Ergebnisse durch Baumgraphen. Über 100 Bäumchen sind hier zu einem Wald versammelt. Damit ist insbesondere (aber nicht nur) für Studierende, die nach dieser Methode Sätze analysieren, eine Möglichkeit gegeben, einen valenz- und dependenzgrammatischen Zugriff auf verschiedene syntaktisch beschreibbare Phänomene authentischen Sprachvorkommens zu erproben. Darüber hinaus stellt der „Würzburger Wald“ unter Beweis, dass die in diesem Band intensiv angewandte Analysemethode ein stabiles Instrument für adäquate syntaktische Analysen sprachlicher Einheiten aus der freien Wildbahn journalistischer Textproduktion ist.
Diese Veröffentlichung ist eine Einführung in die syntaktischen Strukturen der deutschen Gegenwartssprache und deckt folgende Gebiete ab: Satzdefinition, Wortarten, Topologie deutscher Sätze, valenzabhängige und -unabhängige Satzglieder (Ergänzungen und Angaben), Funktion und Semantik von Dativ- und Genitivkonstruktionen, Hilfs-, Modal- und Modalitätsverben, Funktionsverbgefüge und verbale Wendungen, reflexive Konstruktionen, komplexe Sätze und Satzglieder, Passivkonstruktionen, Temporalität sowie Modalität.
Der erste Teil präsentiert kurze Steckbriefe von zehn Museen der Stadt Würzburg mit allgemeinen Informationen, für Schulen relevanten Tipps und Besonderheiten, sowie spezielle museumspädagogische Angebote. Im zweiten Teil werden die Lehrplanbezüge der einzelnen
Bildungsangebote für weiterführende Schulen nach Schultypen, Fächern und Jahrgangsstufen aufgelistet.
Das Programmheft zur Tagung zum Thema "Museum und Inklusion" enthält neben den abstracts aller ReferentInnen den Beitrag "Inklusionschancen und -grenzen taktiler Medien in der Kunstvermittlung" (Bastian Schlang und Jan Soldin unter Mitarbeit von Helen-Sophie Mayr und Maxim Reichow), eine "Auswahlbibliographie" (Simone Doll-Gerstendörfer unter Mitarbeit von Veronika Leikauf) sowie Informationen zu den Veranstaltern (Bayerische Museumsakademie, Bezirk Unterfranken, Museum am Dom, Professur für Museologie).
Based on the results of a 3-day workshop at the Brown University (2012) this white paper tries to sum up important topics and problems which came up in the presentations and discussions and to outline some general aspects of data modeling in digital humanities. Starting with an attempt to define data modeling it introduces distinctions like curation-driven vs. research-driven for a more general description of data modeling. The second part discusses specific problems and challenges of data modeling in the Humanities, while the third part outlines practical aspects, like the creation of data models or their evaluation.
Einen Satz syntaktisch zu analysieren heißt, ein Satzverstehen nach bestimmten Kriterien offenzulegen. Jeder Satzanalyse geht ein grundsätzliches, voranalytisch verborgenes Verstehen ebenso voraus, wie der Prozess der Analyse ein solches Verstehen konkretisiert und ausdrücklich festzurrt: Ohne Verstehen keine Analyse. Für Analysen, die ein Satzverstehen syntaktisch explizieren sollen, benötigt man einen theoretischen Hintergrund, der die Analysewerkzeuge bereitstellt: Ohne Beschreibungsmittel keine Analyse. Schließlich braucht jede Analyse auch noch eine Darstellungsmethode: Ohne Festhalten der Ergebnisse kein Zugriff auf die Analyse.
Der vorliegende Band versteht sich als eine Explikation von Satzverstehen anhand eines konkreten, valenzorientierten Beschreibungsinventars. Im Vordergrund stehen dabei die Visualisierungen der Analyse-Ergebnisse durch Baumgraphen. Über 100 Bäumchen sind hier zu einem Wald versammelt. Damit ist insbesondere (aber nicht nur) für Studierende, die nach dieser Methode Sätze analysieren, eine Möglichkeit gegeben, einen valenz- und dependenzgrammatischen Zugriff auf verschiedene syntaktisch beschreibbare Phänomene authentischen Sprachvorkommens zu erproben. Darüber hinaus stellt der „Würzburger Wald“ unter Beweis, dass die in diesem Band intensiv angewandte Analysemethode ein stabiles Instrument für adäquate syntaktische Analysen sprachlicher Einheiten aus der freien Wildbahn journalistischer Textproduktion ist.
Unter Förderung durch den Hessischen Kultusminister aus den für ein Hessen-Nassauisches Wörterbuch mit Hilfe aller Volkskreise und besonders der Lehrerschaft unseres Arbeitsbereiches von Ferdinand Wrede angelegten und verwalteten Sammlungen ausgewählt und bearbeitet von Luise Berhold und Hans Friebertshäuser; ab Lieferung 38: Mitarbeit Heinrich J. Dingeldein. Bd. IV, Bogen 1-32 (Lieferungen 31-38 des Gesamtwerks). "Taa-Wanst"
Programmheft zur 21. Fachtagung der DGV-Kommission „Sachkulturforschung und Museum“, die zum Thema „Identitätsfabrik reloaded. Museen als Resonanzräume kultureller Vielfalt und pluraler Lebensstile“ vom Referat Volkskunde des Badischen Landesmuseums Karlsruhe und der Professur für Museologie der Universität Würzburg vom 22. bis 24. Mai 2014 in Karlsruhe durchgeführt wurde.
Der erste Teil präsentiert kurze Steckbriefe von zehn Museen der Stadt Würzburg mit allgemeinen Informationen, für Schulen relevanten Tipps und Besonderheiten, sowie spezielle museumspädagogische Angebote. Im zweiten Teil werden die Lehrplanbezüge der einzelnen Bildungsangebote für weiterführende Schulen nach Schultypen, Fächern und Jahrgangsstufen aufgelistet.
Ziel der vorliegenden Untersuchung ist es, ausgehend von einer Aufnahme des Lautstandes der Mundart der Bauern und Handwerker von Erlach einen Vorschlag für ein neues Fragebuch zu entwickeln und davon einen Arbeitsbericht zu geben. Dabei wurde zunächst der heutige Stand der Mundart aufgenommen mit allen Neuerungen 5 Störungen und umgangssprachlichen Ausgleichserscheinungen, wobei nur die Mundart der älteren Generation dargestellt wurde. Auf die Probleme, die Sprache der mittleren und jüngeren Generation, wo sich umgangssprachliche Tendenzen stärker bemerkbar machen, darzustellen, werde ich ebenfalls kurz eingehen.
Werkstattbericht Hybridedition zu Goethes Faust. Es handelt sich dabei um ein Gemeinschaftsprojekt des Freien deutsche Hochstifts, des Goethe- und Schiller Archivs Weimar und der Universität Würzburg. Der Aufsatz befasst sich mit dem derzeitigen Entwicklungsstand der Edition, deren Konzeption als Hybridedition und verschiedenen Aspekten der Datenmodellierung.
Die gesprächsanalytische Studie untersucht Gespräche im Spannungsfeld von institutioneller und interkultureller Kommunikation. Im Zuge der Beschreibung von natürlichen Kontaktgesprächen zwischen Mitarbeitern und Klienten einer deutschen Ausländerbehörde wird eine makrosoziologische Beschreibung der Arbeitswelt der Behörde und der Begegnung zwischen Mitarbeitern und Klienten mit der mikrosoziologischen Analyse von Face-to-face-Interaktionen des verbalen Handelns im situativen Kontext kombiniert. Ziel der Studie ist die Beschreibung des Gesprächsverhaltens der Mitarbeiter gegenüber den Klienten. Hierfür werden unterschiedliche sprachliche und kommunikative Strategien zur Bedeutungsherstellung und Verständnissicherung herausgearbeitet. Außerdem wird die Frage verfolgt, inwiefern sprachliche Individualität im institutionellen Umfeld möglich ist. Dabei zeigt sich, dass es sowohl in linguistischer als auch in allgemeiner Hinsicht unzureichend ist, pauschal von den Behördenmitarbeitern und den Klienten zu sprechen.
Obgleich das erzählerische Syntagma der Tristansage sich ohne weitere Zugaben zu entfalten vermag, ist die Liebesgeschichte von Tristan und Isolde schon in der Mitte des 12. Jahrhunderts eng mit den Legenden von König Artus und seinen Rittern verwoben. Die Frage, wie sich der keltische Tristanstoff zum Artusroman verhält, ist in der mediävistischen Forschung bislang jedoch nur in Ansätzen und zumeist wenig kontrovers diskutiert worden. Dabei bietet gerade die kontingente Verbindung beider literarischer Welten bei Eilhart und Béroul zu einem arthurisierten Tristanroman die Möglichkeit, die zentralen Scharnierstellen zweier Erzähltradition zu untersuchen und nach den Möglichkeiten und Grenzen des Erzählens von der Liebe um 1200 zu fragen.
Die vorliegende Arbeit befasst sich mit der Frage, wie Gottfried von Straßburg in seinem Tristanroman mit dem Ehebruchsthema umgeht. Wie gelingt es Gottfried, die Ehebrecher Tristan und Isolde von Vorwürfen frei zu halten, ohne ihr Handeln ausdrücklich zu entschuldigen – und ohne dabei den Ehebruch zu verharmlosen? Woraus entsteht uns bei ihm der Eindruck, der Tatbestand des Ehebruchs sei als solcher gar nicht verwerflich? Durch welche Kunstgriffe erfahren die Liebenden Entlastung, die wir in ihrer Subtilität so wenig wahrnehmen, dass wir meinen, der Ehebruch habe Gottfried kaum interessiert? Im Sinne einer diskursanalytischen Herangehensweise werden zunächst diejenigen Diskurse erarbeitet, die sich im 12. Jahrhundert zum Thema Ehebruch positioniert haben: Diese sind der biblisch-theologische Diskurs, der eherechtliche Diskurs, der feudale Diskurs sowie der höfisch-literarische Minnediskurs. Sie geben Aufschluss darüber, wie über den Ehebruch zur Zeit Gottfrieds gedacht und geurteilt wurde. Auf der Grundlage dieses Wissens richtet sich im nächsten Schritt der Blick auf Gottfrieds Tristanroman. Ermittelt werden die darin enthaltene Konzeption der Ehe als derjenigen Institution, die durch den Ehebruch geschädigt wird, sowie der minne, in deren Namen diese Schädigung erfolgt. Im Anschluss stehen der Ehebruch selbst und insbesondere seine Korrelation zum Treuebruch im Fokus der Untersuchung. Ausgewählte Episoden und Textstellen, die Rückschlüsse auf Gottfrieds Umgang mit Ehe, minne und Ehebruch ermöglichen, werden daraufhin untersucht, inwiefern sie die genannten Diskurse jeweils aktualisieren, konterkarieren oder anderweitig für sich nutzbar machen. Weitere Ergebnisse bezüglich der Fragestellung liefert der Vergleich mit parallelen Textteilen bei den älteren Tristan-Dichtern Thomas von England, Eilhart von Oberg und Berol sowie auch der Blick zu Ovid, Heinrich von Veldeke und Hartmann von Aue. Am Ende der Untersuchung zeigt sich Gottfrieds Umgang mit dem Ehebruch als eine duale Strategie: Zum einen betreibt Gottfried die Abwehr des Schuldvorwurfs, indem er die Markeehe demontiert und gleichzeitig die Ehebruchsbeziehung zur Minneehe hochstilisiert. Dafür nutzt er jeweils nicht nur die Begründungsmuster des höfisch-literarischen Diskurses, sondern in gleichem Maße auch die des biblisch-theologischen, des eherechtlichen sowie des feudalen Diskurses, obwohl diese den Tatbestand des Ehebruchs klar verurteilen. Zum anderen bietet der Ehebruch, so wie ihn der Straßburger Dichter in der Stoffgeschichte vorgefunden hat, Gottfried ideale Voraussetzungen, um seine spezifische Minnekonzeption auf den Weg zu bringen: liebe und leit bleiben in der vorbildhaften Minne, wie Gottfried sie sieht, untrennbar miteinander verbunden, am Leiden muss sich die Liebe der edelen herzen Tristan und Isolde immer wieder neu bewähren. Dass dieser Leidensaspekt in der Liebeshandlung dauerhaft erhalten bleibt, wird durch die Ehebruchskonstellation wirksam garantiert. So wandelt sich der Ehebruch bei Gottfried vom erzählerischen Problemfall zum gewinnbringenden Handlungselement.
Inhalt der vorliegenden Arbeit ist eine Studie der englisch-deutschen und deutsch-englischen Wörterbücher von Johannes Ebers, die gegen Ende des 18. Jahrhunderts erschienen. Die Arbeit versucht in einem ersten Schritt zu bestimmen, wie und in welchem Ausmaß die zeitgenössischen englischen Orthoepisten und Lexikografen, die Ebers als Quellen benutzt hat, Konzept und Realisierung seines englisch-deutschen Wörterbuches beeinflusst haben. Der zweite Schwerpunkt dieser Arbeit ist die Darstellung einer Methodologie zur Erstellung einer digitalen Edition der Wörterbücher auf der Grundlage der TEI-Guidelines for Electronic Text Encoding and Interchange (Version P5).
Der Einsatz von Geographischen Informationssystemen (GIS) bietet auch für die Geisteswissenschaften zahlreiche Ansätze zur Generierung von neuem Wissen. Die GIS-Software ist jedoch unterschiedlich geeignet für geisteswissenschaftliche Fragestellungen. Getestet wurden daher zwei kommerzielle und vier Open Source GIS-Programme: MapInfo, ArcGIS, Quantum GIS, gvSIG, DIVA-GIS und SAGA. MapInfo zeichnet sich besonders für GIS-Anfänger durch seine große Benutzerfreundlichkeit aus. Jedoch sind die Anschaffungskosten recht hoch. ArcGIS weist den größten Nutzungsumfang auf, wobei jedoch keine oder kaum eine „intuitive“ Nutzung möglich ist. Zudem sind die laufenden Kosten durch aufwändige Abo-Lizenzverträge besonders hoch. Quantum GIS ist eine freie Software, die benutzerfreundlich ist und auch Anfängern einen leichten Einstieg ermöglicht. Hunderte Erweiterungen machen Quantum GIS sehr leistungsstark und universal einsetzbar. gvSIG ist nicht ganz leicht zu bedienen, da zudem die Dokumentation nur fragmentarisch vorliegt. Der große Funktionsumfang macht es jedoch zu einem vollwertigen GIS, wenn auch manch ergänzende Funktion fehlt. DIVA-GIS ermöglicht einen schnellen Einstieg durch seine gute Dokumentation. Man gelangt jedoch recht bald an die Grenzen des Nutzungsumfangs durch die eingeschränkte Funktionalität. SAGA hingegen erfüllte alle hier gestellten Anforderungen, sodass es, trotz der geringeren Anzahl von Erweiterungen, zusammen mit Quantum GIS als Open Source eine echte Alternative zu kommerziellen GIS-Programmen darstellt.
Durch die systematische Sichtung des Fundmaterials des frühmittelalterlichen Burgwalls von Kopchin in der Oberlausitz konnten einige Keramikscherben identifiziert werden, die wohl älter als bisher angenommen sind und in die Völkerwanderungszeit datieren. Dies ist von besonderer Relevanz, da für Nordostdeutschland traditionell eine Besiedlungslücke im 5.–7. Jh. AD postuliert wird. Dieser Hiatus ist offenbar teils auch der schwierigen sicheren Datierung der oft recht unspezifischen Keramiktypen geschuldet. So konnten mit wachsendem Kenntnisstand dieser Keramiken in den letzten Jahren auch einige völkerwanderungszeitliche Fundstellen, besonders in Nordbrandenburg und im deutsch-polnischen Pommern lokalisiert werden. In Nordost-Sachsen sind die vorgestellten singulären Funde des 5.–6. Jhs. AD jedoch bisher ohne sichere Parallelen, auch wenn mittlerweile einige Fundstellen der Völkerwanderungszeit in der Region erkannt worden sind.
Eisenproduktionswerkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) im inneren Barbaricum
(2012)
Durch systematische Prospektionen in Südbrandenburg wurden auch bei den devastierten Ortschaften Klein Görigk und Kausche zahlreiche bisher unbekannte Fundplatze entdeckt (vgl. Abb. 1). Diese verdeutlichen den Fundreichtum dieser kargen Landschaft als „archäologisches Fenster“ einer fallbeispielhaft intensiv erforschten Region. Die sehr zahlreichen Werkplätze der späten römischen Kaiserzeit (3.–5. Jh. AD) belegen eine massenhafte Eisenproduktion, die über den Eigenbedarf weit hinausging und die Grundlage für Handel darstellte. Interessanterweise sind im Eisenverhüttungszentrum des Niederlausitzer Grenzwalls keine zeitgleichen Siedlungen und Gräberfelder entdeckt worden. Diese liegen etwas weiter entfernt in den fruchtbareren Niederungs- und Beckenlandschaften der Umgebung. Die Werkplätze sind also nur temporär zur Eisenverhüttung aufgesucht worden. Die stereotyp errichteten Eisenproduktionsstätten wurden in unmittelbarer Nähe zum lokal vorkommenden „Raseneisenerz“ im waldreichen Gebiet errichtet. Durch die massenhafte Eisenproduktion, die äußerst viel Holzkohle benötigte, ist auch von negativen Folgen auf die prähistorische Umwelt auszugehen. Indizien einer mutmaßlichen „ökologischen Krise“ zum Ende der spätgermanischen Kultur (Mitte 5. Jh. AD) konnten jedoch bisher nicht sicher belegt werden.
Jean Pauls Registerbände
(2011)
Die Dissertation befasst sich mit den Registerbänden Jean Pauls. Diese stellen eine komprimierte Fassung der umfangreichen Exzerptbände dar, die auf mehr als 12.000 Seiten vorliegen. Jean Paul ordnet seine Exzerpte unter zuvor ausgewählten Oberbegriffen, und fasst diese in den Registerbänden zusammen.
In this research, an attempt to create a knowledge-based learning system for the Quranic text has been performed. The knowledge base is made up of the Quranic text along with detailed information about each chapter and verse, and some rules. The system offers the possibility to study the Quran through web-based interfaces, implementing novel visualization techniques for browsing, querying, consulting, and testing the acquired knowledge. Additionally the system possesses knowledge acquisition facilities for maintaining the knowledge base.
Hauptgegenstand dieser Arbeit ist die Untersuchung des Phänomens der mündlichen Ver-wendung von im Chat gebräuchlichen akronymischen Kurzformen wie lol und omg im Deut-schen. Da die Chatkommunikation trotz ihrer schriftlichen Realisierung einige Merkmale mündlicher Kommunikation aufweist, scheint eine Integration der zunächst rein graphischen Kürzungen in die gesprochene Sprache außerhalb des Chats nicht abwegig. Darüber hinaus lassen sich in jüngster Zeit sowohl eine Flexibilisierung der Verwendungsweise der Kürzel als auch Wortbildungsprozesse mithilfe der entsprechenden Formen konstatieren. Es handelt sich dabei um ein jugendsprachliches Phänomen; dies gilt vor allem für den Bereich der Wortbildung. In dieser Arbeit werden die Ergebnisse einer empirischen Erhebung der Relevanz sechs gängiger Kürzel und abgeleiteter Formen vorgestellt und interpretiert. Darüber hinaus erfolgt eine Bestandsaufnahme aller analysierten Formen in Standardnachschlagewerken und diversen Wörterbüchern zu den Soziolekten der Jugend- und Internetsprache.
Der Begriff Germanen ist eine Fremdbezeichnung griechisch-römischer Autoren der Antike. Die so bezeichneten Gruppen hatten aber keine gemeinsame germanische Identität. Die Germanen wurden schon in der Antike als mächtige Gegner stilisiert, was wiederum im Mittelalter im Zuge der Staatenbildungen gerne in den schriftlichen Quellen aufgegriffen wurde. Retrospektiv kann keine "Ursprache" oder "Urheimat" der Germanen rekonstruiert werden. In der Archäologie gibt es jedoch aufgrund des Fundmaterials Kulturräume einer materiellen Kultur, die als germanisch interpretiert werden. Diese sind jedoch nicht mit einer "germanischen Ethnie" zu verwechseln.
This paper discusses the categorization of Quranic chapters by major phases of Prophet Mohammad’s messengership using machine learning algorithms. First, the chapters were categorized by places of revelation using Support Vector Machine and naïve Bayesian classifiers separately, and their results were compared to each other, as well as to the existing traditional Islamic and western orientalists classifications. The chapters were categorized into Meccan (revealed in Mecca) and Medinan (revealed in Medina). After that, chapters of each category were clustered using a kind of fuzzy-single linkage clustering approach, in order to correspond to the major phases of Prophet Mohammad’s life. The major phases of the Prophet’s life were manually derived from the Quranic text, as well as from the secondary Islamic literature e.g hadiths, exegesis. Previous studies on computing the places of revelation of Quranic chapters relied heavily on features extracted from existing background knowledge of the chapters. For instance, it is known that Meccan chapters contain mostly verses about faith and related problems, while Medinan ones encompass verses dealing with social issues, battles…etc. These features are by themselves insufficient as a basis for assigning the chapters to their respective places of revelation. In fact, there are exceptions, since some chapters do contain both Meccan and Medinan features. In this study, features of each category were automatically created from very few chapters, whose places of revelation have been determined through identification of historical facts and events such as battles, migration to Medina…etc. Chapters having unanimously agreed places of revelation were used as the initial training set, while the remaining chapters formed the testing set. The classification process was made recursive by regularly augmenting the training set with correctly classified chapters, in order to classify the whole testing set. Each chapter was preprocessed by removing unimportant words, stemming, and representation with vector space model. The result of this study shows that, the two classifiers have produced useable results, with an outperformance of the support vector machine classifier. This study indicates that, the proposed methodology yields encouraging results for arranging Quranic chapters by phases of Prophet Mohammad’s messengership.
Computing Generic Causes of Revelation of the Quranic Verses Using Machine Learning Techniques
(2011)
Because many verses of the holy Quran are similar, there is high probability that, similar verses addressing same issues share same generic causes of revelation. In this study, machine learning techniques have been employed in order to automatically derive causes of revelation of Quranic verses. The derivation of the causes of revelation is viewed as a classification problem. Initially the categories are based on the verses with known causes of revelation, and the testing set consists of the remaining verses. Based on a computed threshold value, a naïve Bayesian classifier is used to categorize some verses. After that, using a decision tree classifier the remaining uncategorized verses are separated into verses that contain indicators (resultative connectors, causative expressions…), and those that do not. As for those verses having indicators, each one is segmented into its constituent clauses by identification of the linking indicators. Then a dominant clause is extracted and considered either as the cause of revelation, or post-processed by adding or subtracting some terms to form a causal clause that constitutes the cause of revelation. Concerning remaining unclassified verses without indicators, a naive Bayesian classifier is again used to assign each one of them to one of the existing classes based on features and topics similarity. As for verses that could not be classified so far, manual classification was made by considering each verse as a category on its own. The result obtained in this study is encouraging, and shows that automatic derivation of Quranic verses’ generic causes of revelation is achievable, and reasonably reliable for understanding and implementing the teachings of the Quran.
The question of why the Quran structure does not follow its chronology of revelation is a recurring one. Some Islamic scholars such as [1] have answered the question using hadiths, as well as other philosophical reasons based on internal evidences of the Quran itself. Unfortunately till today many are still wondering about this issue. Muslims believe that the Quran is a summary and a copy of the content of a preserved tablet called Lawhul-Mahfuz located in the heaven. Logically speaking, this suggests that the arrangement of the verses and chapters is expected to be similar to that of the Lawhul-Mahfuz. As for the arrangement of the verses in each chapter, there is unanimity that it was carried out by the Prophet himself under the guidance of Angel Gabriel with the recommendation of God. But concerning the ordering of the chapters, there are reports about some divergences [3] among the Prophet’s companions as to which chapter should precede which one. This paper argues that Quranic chapters might have been arranged according to months and seasons of revelation. In fact, based on some verses of the Quran, it is defendable that the Lawhul-Mahfuz itself is understood to have been structured in terms of the months of the year. In this study, philosophical and mathematical arguments for computing chapters’ months of revelation are discussed, and the result is displayed on an interactive scatter plot.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a bar diagram. Additionally this study includes a recursive algorithm for automatically reconstructing the original text from the identified base text and ranked witnesses.
Learning a book in general involves reading it, underlining important words, adding comments, summarizing some passages, and marking up some text or concepts. Once deeper understanding is achieved, one would like to organize and manage her/his knowledge in such a way that, it could be easily remembered and efficiently transmitted to others. This paper discusses about modeling religious texts using semantic XML markup based on frame-based knowledge representation, with the purpose of assisting understanding, retention, and sharing of knowledge they contain. In this study, books organized in terms of chapters made up of verses are considered as the source of knowledge to model. Some metadata representing the multiple perspectives of knowledge modeling are assigned to each chapter and verse. Chapters and verses with their metadata form a meta-model, which is represented using frames, and published on a web mashup. An XML-based annotation and visualization system equipped with user interfaces for creating static and dynamic metadata, annotating chapters’ contents according to user selected semantics, and templates for publishing generated knowledge on the Internet, has been developed. The system has been applied to the Quran, and the result obtained shows that multiple perspectives of information modeling can be successfully applied to religious texts, in order to support analysis, understanding, and retention of the texts.
Diese Veröffentlichung ist eine Einführung in die syntaktischen Strukturen der deutschen Gegenwartssprache und deckt folgende Gebiete ab: Satzdefinition, Wortarten, Topologie deutscher Sätze, valenzabhängige und -unabhängige Satzglieder (Ergänzungen und Angaben), Funktion und Semantik von Dativ- und Genitivkonstruktionen, Hilfs-, Modal- und Modalitätsverben, Funktionsverbgefüge und verbale Wendungen, reflexive Konstruktionen, komplexe Sätze und Satzglieder, Passivkonstruktionen, Temporalität sowie Modalität.
Given a collection of diverging documents about some lost original text, any person interested in the text would try reconstructing it from the diverging documents. Whether it is eclecticism, stemmatics, or copy-text, one is expected to explicitly or indirectly select one of the documents as a starting point or as a base text, which could be emended through comparison with remaining documents, so that a text that could be designated as the original document is generated. Unfortunately the process of giving priority to one of the documents also known as witnesses is a subjective approach. In fact even Cladistics, which could be considered as a computer-based approach of implementing stemmatics, does not present or recommend users to select a certain witness as a starting point for the process of reconstructing the original document. In this study, a computational method using a rule-based Bayesian classifier is used, to assist text scholars in their attempts of reconstructing a non-existing document from some available witnesses. The method developed in this study consists of selecting a base text successively and collating it with remaining documents. Each completed collation cycle stores the selected base text and its closest witness, along with a weighted score of their similarities and differences. At the end of the collation process, a witness selected more often by majority of base texts is considered as the probable base text of the collection. Witnesses’ scores are weighted using a weighting system, based on effects of types of textual modifications on the process of reconstructing original documents. Users have the possibility to select between baseless and base text collation. If a base text is selected, the task is reduced to ranking the witnesses with respect to the base text, otherwise a base text as well as ranking of the witnesses with respect to the base text are computed and displayed on a histogram.
Die vorliegende Arbeit beschäftigt sich mit dem Sprachkorpus aus zwei Blickwinkeln. Im technischen Teil handelt es sich um die Aufbereitung der Texte für das deutsch-tschechische Korpus DeuCze. Es wird hier der Vorgang von der Digitalisierung der Bücher bis zum Erstellen der wohlgeformten und validen XML-Dateien beschrieben. Diese Dateien sind bis zur Satzebene segmentiert und ermöglichen auf diese Weise die parallele Anzeige der Texte der beiden verglichenen Sprachen nach einzelnen Segmenten. Im analytischen Teil wird die Aufmerksamkeit der sprachlichen Analyse des Phänomens der Themaentwicklung innerhalb eines ausgewählten Textes gewidmet. Das Ziel sind also sowohl die aufbereiteten Dateien für das genannte Korpus als auch die Analyse der Teilthemaentwicklung.
Design and Implementation of Architectures for Interactive Textual Documents Collation Systems
(2011)
One of the main purposes of textual documents collation is to identify a base text or closest witness to the base text, by analyzing and interpreting differences also known as types of changes that might exist between those documents. Based on this fact, it is reasonable to argue that, explicit identification of types of changes such as deletions, additions, transpositions, and mutations should be part of the collation process. The identification could be carried out by an interpretation module after alignment has taken place. Unfortunately existing collation software such as CollateX1 and Juxta2’s collation engine do not have interpretation modules. In fact they implement the Gothenburg model [1] for collation process which does not include an interpretation unit. Currently both CollateX and Juxta’s collation engine do not distinguish in their critical apparatus between the types of changes, and do not offer statistics about those changes. This paper presents a model for both integrated and distributed collation processes that improves the Gothenburg model. The model introduces an interpretation component for computing and distinguishing between the types of changes that documents could have undergone. Moreover two architectures implementing the model in order to solve the problem of interactive collation are discussed as well. Each architecture uses CollateX library, and provides on the one hand preprocessing functions for transforming input documents into CollateX input format, and on the other hand a post-processing module for enabling interactive collation. Finally simple algorithms for distinguishing between types of changes, and linking collated source documents with the collation results are also introduced.
Learning a book in general involves reading it, underlining important words, adding comments, summarizing some passages, and marking up some text or concepts. Once deeper understanding is achieved, one would like to organize and manage her/his knowledge in such a way that, it could be easily remembered and efficiently transmitted to others. In this paper, books organized in terms of chapters consisting of verses, are considered as the source of knowledge to be modeled. The knowledge model consists of verses with their metadata and semantic annotations. The metadata represent the multiple perspectives of knowledge modeling. Verses with their metadata and annotations form a meta-model, which will be published on a web Mashup. The meta-model with linking between its elements constitute a knowledge base. An XML-based annotation system breaking down the learning process into specific tasks, helps constructing the desired meta-model. The system is made up of user interfaces for creating metadata, annotating chapters’ contents according to user selected semantics, and templates for publishing the generated knowledge on the Internet. The proposed software system improves comprehension and retention of knowledge contained in religious texts through modeling and visualization. The system has been applied to the Quran, and the result obtained shows that multiple perspectives of information modeling can be successfully applied to religious texts. It is expected that this short ongoing study would motivate others to engage in devising and offering software systems for cross-religions learning.
Die vorliegende Arbeit stellt einen Beitrag zur gesprächslinguistischen Analyse literarischer Dialoge dar. Da Theodor Fontane in der Forschung als Schriftsteller gilt, der dem Gespräch und seiner sprachlichen Gestaltung einen besonders hohen Stellenwert zuschreibt, ist sein letzter großer Roman Der Stechlin aus linguistischer Sicht besonders reizvoll. In ihm wird die Gesellschaft des 19. Jahrhunderts durch das Mittel des Gesprächs eindrucksvoll charakterisiert. In einem theoretischen Teil dieser Arbeit werden zunächst die Besonderheiten des literarischen Dialogs in Abgrenzung zum Alltagsgespräch geklärt sowie der historische Kontext, also die Höflichkeits- und Gesprächskultur in adeligen Kreisen des 19. Jahrhunderts, beleuchtet. Auf dieser Basis steht die detaillierte Analyse von drei Dialogausschnitten aus dem Roman im Mittelpunkt: ein offizieller Besuch, ein Tischge-spräch, ein Klatschgespräch unter Bekannten.
The Quran is the holy book of Islam consisting of 6236 verses divided into 114 chapters called suras. Many verses are similar and even identical. Searching for similar texts (e.g verses) could return thousands of verses, that when displayed completely or partly as textual list would make analysis and understanding difficult and confusing. Moreover it would be visually impossible to instantly figure out the overall distribution of the retrieved verses in the Quran. As consequence reading and analyzing the verses would be tedious and unintuitive. In this study a combination of interactive scatter plots and tables has been developed to assist analysis and understanding of the search result. Retrieved verses are clustered by chapters, and a weight is assigned to each cluster according to number of verses it contains, so that users could visually identify most relevant areas, and figure out the places of revelation of the verses. Users visualize the complete result and can select a region of the plot to zoom in, click on a marker to display a table containing verses with English translation side by side.
A Knowledge-based Hybrid Statistical Classifier for Reconstructing the Chronology of the Quran
(2011)
Computationally categorizing Quran’s chapters has been mainly confined to the determination of chapters’ revelation places. However this broad classification is not sufficient to effectively and thoroughly understand and interpret the Quran. The chronology of revelation would not only improve comprehending the philosophy of Islam, but also the easiness of implementing and memorizing its laws and recommendations. This paper attempts estimating possible chapters’ dates of revelation through their lexical frequency profiles. A hybrid statistical classifier consisting of stemming and clustering algorithms for comparing lexical frequency profiles of chapters, and deriving dates of revelation has been developed. The classifier is trained using some chapters with known dates of revelation. Then it classifies chapters with uncertain dates of revelation by computing their proximity to the training ones. The results reported here indicate that the proposed methodology yields usable results in estimating dates of revelation of the Quran’s chapters based on their lexical contents.
In der Universitätsbibliothek Würzburg finden seit 1985 regelmäßig Werkstattgespräche mit Autoren der Gegenwartsliteratur statt. Organisiert werden diese Autorenlesungen vom Universitätsverbund und dem Institut für deutsche Philologie. In diesem Artikel wird das Konzept der Literatur-Werkstattgespräche beschrieben sowie ein Rückblick auf die ersten 5 Lesungen gegeben. - Manfred Bieler 27. November 1985 - Walter Kempowski 11. Dezember 1985 - Reiner Kunze 15. Januar 1986 - Leonie Ossowski 29. Januar 1986 - Horst Bienek 19. Februar 1986
The technique of using Cascading Style Sheets (CSS) to format and present structured data is called CSS processing model. For instance a CSS processing model for XML documents describes steps involved in formatting and presenting XML documents on screens or papers. Many software applications such as browsers and XML editors have their own CSS processing models which are part of their rendering engines. For instance each browser based on its CSS processing model renders CSS layout differently, as a result an inconsistency in the support of CSS features arises. Some browsers support more CSS features than others, and the rendering itself varies. Moreover the W3C standards are not even adhered by some browsers such as Internet Explorer. Test suites and other hacks and filters cannot definitely solve these problems, because these solutions are temporary and fragile. To palliate this inconsistency and browser compatibility issues with respect to CSS, a reference CSS processing model is needed. By extension it could even allow interoperability across CSS rendering engines. A reference architecture would provide common software architecture and interfaces, and facilitate refactoring, reuse, and automated unit testing. In [2] a reference architecture for browsers has been proposed. However this reference architecture is a macro reference model which does not consider separately individual components of rendering and layout engines. In this paper an attempt to develop a reference architecture for CSS processing models is discussed. In addition the Vex editor [3] rendering and layout engines, as well as an extended version of the editor used in TextGrid project [5] are also presented in order to validate the proposed reference architecture.
The Visual Editor for XML (Vex)[1] used by TextGrid [2]and other applications has got rendering and layout engines. The layout engine is well documented but the rendering engine is not. This lack of documenting the rendering engine has made refactoring and extending the editor hard and tedious. For instance many CSS2.1 and upcoming CSS3 properties have not been implemented. Software developers in different projects such as TextGrid using Vex would like to update its CSS rendering engine in order to provide advanced user interfaces as well as support different document types. In order to minimize the effort of extending Vex functionality, I found it beneficial to write a basic documentation about Vex software architecture in general and its CSS rendering engine in particular. The documentation is mainly based on the idea of architectural layered diagrams. In fact layered diagrams can help developers understand software’s source code faster and easier in order to alter it, and fix errors. This paper is written for the purpose of providing direct support for exploration in the comprehension process of Vex source code. It discusses Vex software architecture. The organization of packages that make up the software, the architecture of its CSS rendering engine, an algorithm explaining the working principle of its rendering engine are described.