@phdthesis{HennyKrahmer2023, author = {Henny-Krahmer, Ulrike}, title = {Genre Analysis and Corpus Design: Nineteenth Century Spanish-American Novels (1830-1910)}, doi = {10.25972/OPUS-31999}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-319992}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2023}, abstract = {This work in the field of digital literary stylistics and computational literary studies is concerned with theoretical concerns of literary genre, with the design of a corpus of nineteenth-century Spanish-American novels, and with its empirical analysis in terms of subgenres of the novel. The digital text corpus consists of 256 Argentine, Cuban, and Mexican novels from the period between 1830 and 1910. It has been created with the goal to analyze thematic subgenres and literary currents that were represented in numerous novels in the nineteenth century by means of computational text categorization methods. The texts have been gathered from different sources, encoded in the standard of the Text Encoding Initiative (TEI), and enriched with detailed bibliographic and subgenre-related metadata, as well as with structural information. To categorize the texts, statistical classification and a family resemblance analysis relying on network analysis are used with the aim to examine how the subgenres, which are understood as communicative, conventional phenomena, can be captured on the stylistic, textual level of the novels that participate in them. The result is that both thematic subgenres and literary currents are textually coherent to degrees of 70-90 \%, depending on the individual subgenre constellation, meaning that the communicatively established subgenre classifications can be accurately captured to this extent in terms of textually defined classes. Besides the empirical focus, the dissertation also aims to relate literary theoretical genre concepts to the ones used in digital genre stylistics and computational literary studies as subfields of digital humanities. It is argued that literary text types, conventional literary genres, and textual literary genres should be distinguished on a theoretical level to improve the conceptualization of genre for digital text analysis.}, subject = {Gattungstheorie}, language = {en} } @phdthesis{Weimer2022, author = {Weimer, Lukas Matthias}, title = {Indirekte Figurencharakterisierung durch Formen der Redewiedergabe in realistischem Erz{\"a}hlen}, doi = {10.25972/OPUS-29293}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-292938}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2022}, abstract = {Indirekte Charakterisierung tr{\"a}gt zu einem großen Teil zur Gesamtcharakteristik von Figuren bei, ist bisher aber dennoch vergleichsweise wenig erforscht. Diese Arbeit n{\"a}hert sich dem Ph{\"a}nomen der indirekten Figurencharakterisierung durch eine eigene Explikation theoretisch an, nennt verschiedene Repr{\"a}sentationsformen von indirekter Charakterisierung und f{\"u}hrt die Theorie dann in Bezug auf Redewiedergabe anhand zahlreicher Beispiele aus. Der Untersuchung wird ein Korpus realistischer Erz{\"a}hltexte zugrunde gelegt und darin manuell Formen der Redewiedergabe annotiert, um in einem sp{\"a}teren Schritt computergest{\"u}tzt einige Experimente mit den Annotationen durchzuf{\"u}hren. In ihrem Aufbau entspricht diese Arbeit dadurch einem Mixed-Methods-Design von qualitativer und quantitativer Literaturwissenschaft.}, subject = {Literaturwissenschaft}, language = {de} } @article{Schmidt2016, author = {Schmidt, Hans-G{\"u}nter}, title = {Kallimachos: Digital Humanities als Auftrag der Universit{\"a}tsbibliothek W{\"u}rzburg}, series = {ABI Technik}, volume = {36}, journal = {ABI Technik}, number = {3}, issn = {2191-4664}, doi = {10.1515/abitech-2016-0035}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-194011}, pages = {170-177}, year = {2016}, abstract = {KALLIMACHOS baut an der Universit{\"a}tsbibliothek W{\"u}rzburg ein Digital-Humanitites-Zentrum mit den Arbeitsschwerpunkten OCR, digitale Edition, Textmining und quantitative Analyse auf. Das Zentrum bietet eine technische und soziale Infrastruktur, die Geisteswissenschaftler bei der Beantwortung von Forschungsfragen unterst{\"u}tzt und innovative Werkzeuge, Methoden, prototypische Arbeitsabl{\"a}ufe und Dienste entwickelt. In sechs Beispielprojekten aus Papyrologie, Geschichte, Philologie, Philosophie und P{\"a}dagogik werden die Neuentwicklungen erprobt, die Fruchtbarkeit der neuen Verfahren vermittelt und Bausteine f{\"u}r ein k{\"u}nftiges Forschungsdatenmanagement geschaffen. Das BMBF unterst{\"u}tzt den Aufbau des Zentrums bis Ende 2017 im Rahmen der F{\"o}rderlinie „eHumanities".}, language = {de} } @phdthesis{Krug2020, author = {Krug, Markus}, title = {Techniques for the Automatic Extraction of Character Networks in German Historic Novels}, doi = {10.25972/OPUS-20918}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-209186}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Recent advances in Natural Language Preprocessing (NLP) allow for a fully automatic extraction of character networks for an incoming text. These networks serve as a compact and easy to grasp representation of literary fiction. They offer an aggregated view of the text, which can be used during distant reading approaches for the analysis of literary hypotheses. In their core, the networks consist of nodes, which represent literary characters, and edges, which represent relations between characters. For an automatic extraction of such a network, the first step is the detection of the references of all fictional entities that are of importance for a text. References to the fictional entities appear in the form of names, noun phrases and pronouns and prior to this work, no components capable of automatic detection of character references were available. Existing tools are only capable of detecting proper nouns, a subset of all character references. When evaluated on the task of detecting proper nouns in the domain of literary fiction, they still underperform at an F1-score of just about 50\%. This thesis uses techniques from the field of semi-supervised learning, such as Distant supervision and Generalized Expectations, and improves the results of an existing tool to about 82\%, when evaluated on all three categories in literary fiction, but without the need for annotated data in the target domain. However, since this quality is still not sufficient, the decision to annotate DROC, a corpus comprising 90 fragments of German novels was made. This resulted in a new general purpose annotation environment titled as ATHEN, as well as annotated data that spans about 500.000 tokens in total. Using this data, the combination of supervised algorithms and a tailored rule based algorithm, which in combination are able to exploit both - local consistencies as well as global consistencies - yield an algorithm with an F1-score of about 93\%. This component is referred to as the Kallimachos tagger. A character network can not directly display references however, instead they need to be clustered so that all references that belong to a real world or fictional entity are grouped together. This process widely known as coreference resolution is a hard problem in the focus of research for more than half a century. This work experimented with adaptations of classical feature based machine learning, with a dedicated rule based algorithm and with modern techniques of Deep Learning, but no approach can surpass 55\% B-Cubed F1, when evaluated on DROC. Due to this barrier, many researchers do not use a fully-fledged coreference resolution when they extract character networks, but only focus on a more forgiving subset- the names. For novels such as Alice's Adventures in Wonderland by Lewis Caroll, this would however only result in a network in which many important characters are missing. In order to integrate important characters into the network that are not named by the author, this work makes use of automatic detection of speaker and addressees for direct speech utterances (all entities involved in a dialog are considered to be of importance). This problem is by itself not an easy task, however the most successful system analysed in this thesis is able to correctly determine the speaker to about 85\% of the utterances as well as about 65\% of the addressees. This speaker information can not only help to identify the most dominant characters, but also serves as a way to model the relations between entities. During the span of this work, components have been developed to model relations between characters using speaker attribution, using co-occurrences as well as by the usage of true interactions, for which yet again a dataset was annotated using ATHEN. Furthermore, since relations between characters are usually typed, a component for the extraction of a typed relation was developed. Similar to the experiments for the character reference detection, a combination of a rule based and a Maximum Entropy classifier yielded the best overall results, with the extraction of family relations showing a score of about 80\% and the quality of love relations with a score of about 50\%. For family relations, a kernel for a Support Vector Machine was developed that even exceeded the scores of the combined approach but is behind on the other labels. In addition, this work presents new ways to evaluate automatically extracted networks without the need of domain experts, instead it relies on the usage of expert summaries. It also refrains from the uses of social network analysis for the evaluation, but instead presents ranked evaluations using Precision@k and the Spearman Rank correlation coefficient for the evaluation of the nodes and edges of the network. An analysis using these metrics showed, that the central characters of a novel are contained with high probability but the quality drops rather fast if more than five entities are analyzed. The quality of the edges is mainly dominated by the quality of the coreference resolution and the correlation coefficient between gold edges and system edges therefore varies between 30 and 60\%. All developed components are aggregated alongside a large set of other preprocessing modules in the Kallimachos pipeline and can be reused without any restrictions.}, subject = {Textanalyse}, language = {en} } @article{Schoech2016, author = {Sch{\"o}ch, Christof}, title = {Ein digitales Textformat f{\"u}r die Literaturwissenschaften. Die Richtlinien der Text Encoding Initiative und ihr Nutzen f{\"u}r Textedition und Textanalyse}, series = {Romanische Studien}, volume = {4}, journal = {Romanische Studien}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-171351}, pages = {325-364}, year = {2016}, abstract = {Die stetig voranschreitende Digitalisierung literarischer Texte verschiedenster Sprachen, Epochen und Gattungen stellt die Literaturwissenschaften immer wieder vor die Frage, wie sie diese Entwicklung mitgestalten und zu ihrem Vorteil nutzen k{\"o}nnen. Dabei ist digital nicht gleich digital, sondern es existiert eine Vielzahl sehr unterschiedlicher, digitaler Repr{\"a}sentationsformen von Text. Nur wenige dieser Repr{\"a}sentationsformen werden literaturwissenschaftlichen Anforderungen tats{\"a}chlich gerecht, darunter diejenige, die den Richtlinien der Text Encoding Initiative folgt. Der vorliegende Beitrag vergleicht zun{\"a}chst einige derzeit g{\"a}ngige digitale Repr{\"a}sentationsformen von Text. F{\"u}r literaturwissenschaftliche Forschung besonders geeignet erweist sich hierbei eine Repr{\"a}sentationsform, die den Richtlinien der Text Encoding Initiative folgt. Daher informiert der Beitrag anschließend {\"u}ber deren Nutzen f{\"u}r die literaturwissenschaftliche Arbeit, sowohl im Bereich der wissenschaftlichen Textedition als auch im Bereich der Analyse und Interpretation von Texten. Nur wenn die Literaturwissenschaften in ihrer Breite den Nutzen von offenen, expressiven, flexiblen und standardisierten, langfristig nutzbaren Formaten f{\"u}r die Forschung erkennen, k{\"o}nnen sie sich mit dem erforderlichen Nachdruck f{\"u}r deren Verbreitung einsetzen und durch die zunehmende Verf{\"u}gbarkeit von Texten in solchen Formaten f{\"u}r die eigene Forschung und Lehre davon profitieren.}, language = {de} } @misc{Reger2016, type = {Master Thesis}, author = {Reger, Isabella}, title = {Figurennetzwerke als {\"A}hnlichkeitsmaß}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-149106}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Die vorliegende Arbeit l{\"a}sst sich dem Bereich der quantitativen Literaturanalyse zuordnen und verfolgt das Ziel, mittels computergest{\"u}tzter Verfahren zu untersuchen, inwieweit sich Romane hinsichtlich ihrer Figurenkonstellation {\"a}hneln. Dazu wird die Figurenkonstellation, als wichtiges strukturgebendes Ordnungsprinzip eines Romans, als soziales Netzwerk der Figuren operationalisiert. Solche Netzwerke k{\"o}nnen unter Anwendung von Verfahren des Natural Language Processing automatisch aus dem Text erstellt werden. Als Datengrundlage dient ein Korpus von deutschsprachigen Romanen aus dem 19. Jahrhundert, das mit automatischen Verfahren zur Figurenerkennung und Koreferenzaufl{\"o}sung prozessiert und manuell nachkorrigiert wurde, um eine m{\"o}glichst saubere Datenbasis zu schaffen. Ausgehend von der intensiven vergleichenden Betrachtung der Figurenkonstellationen von Fontanes "Effi Briest" und Flauberts "Madame Bovary" wurde in einer manuell erstellten Distanzmatrix die menschliche Intuition solcher {\"A}hnlichkeit zwischen allen Romanen des Korpus festgehalten, basierend auf der Lekt{\"u}re von Zusammenfassungen der Romane. Diese Daten werden als Evaluationsgrundlage genutzt. Mit Hilfe von Methoden der sozialen Netzwerkanalyse k{\"o}nnen strukturelle Eigenschaften dieser Netzwerke als Features erhoben werden. Diese wurden anschließend zur Berechnung der Kosinusdistanz zwischen den Romanen verwendet. Obwohl die automatisch erstellten Netzwerke die Figurenkonstellationen der Romane im Allgemeinen gut widerspiegeln und die Netzwerkfeatures sinnvoll interpretierbar sind, war die Korrelation mit der Evaluationsgrundlage niedrig. Dies legt die Vermutung nahe, dass neben der Struktur der Figurenkonstellation auch wiederkehrende Themen und Motive die Erstellung der Evaluationsgrundlage unterbewusst beeinflusst haben. Daher wurde Topic Modeling angewendet, um wichtige zwischenmenschliche Motive zu modellieren, die f{\"u}r die Figurenkonstellation von Bedeutung sein k{\"o}nnen. Die Netzwerkfeatures und die Topic-Verteilung wurden in Kombination zur Distanzberechnung herangezogen. Außerdem wurde versucht, jeder Kante des Figurennetzwerks ein Topic zuzuordnen, das diese Kante inhaltlich beschreibt. Hier zeigte sich, dass einerseits Topics, die sehr spezifisch f{\"u}r bestimmte Texte sind, und andererseits Topics, die {\"u}ber alle Texte hinweg stark vertreten sind, das Ergebnis bestimmen, sodass wiederum keine, bzw. nur eine sehr schwache Korrelation mit der Evaluationsgrundlage gefunden werden konnte. Der Umstand, dass keine Verbindung zwischen den berechneten Distanzen und der Evaluationsgrundlage gefunden werden konnte, obwohl die einzelnen Features sinnvoll interpretierbar sind, l{\"a}sst Zweifel an der Evaluationsmatrix aufkommen. Diese scheint st{\"a}rker als zu Beginn angenommen unterbewusst von thematischen und motivischen {\"A}hnlichkeiten zwischen den Romanen beeinflusst zu sein. Auch die Qualit{\"a}t der jeweiligen Zusammenfassung hat hier einen nicht unwesentlichen Einfluss. Daher w{\"a}re eine weniger subjektiv gepr{\"a}gte M{\"o}glichkeit der Auswertung von N{\"o}ten, beispielsweise durch die parallele Einsch{\"a}tzung mehrerer Annotatoren. Auch die weitere Verbesserung von NLP-Verfahren f{\"u}r literarische Texte in deutscher Sprache ist ein Desideratum f{\"u}r ankn{\"u}pfende Forschungsans{\"a}tze.}, subject = {Digital Humanities}, language = {de} } @inproceedings{JannidisRegerWeimeretal.2015, author = {Jannidis, Fotis and Reger, Isabella and Weimer, Lukas and Krug, Markus and Puppe, Frank}, title = {Automatische Erkennung von Figuren in deutschsprachigen Romanen}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-143332}, pages = {7}, year = {2015}, abstract = {Eine wichtige Grundlage f{\"u}r die quantitative Analyse von Erz{\"a}hltexten, etwa eine Netzwerkanalyse der Figurenkonstellation, ist die automatische Erkennung von Referenzen auf Figuren in Erz{\"a}hltexten, ein Sonderfall des generischen NLP-Problems der Named Entity Recognition. Bestehende, auf Zeitungstexten trainierte Modelle sind f{\"u}r literarische Texte nur eingeschr{\"a}nkt brauchbar, da die Einbeziehung von Appellativen in die Named Entity-Definition und deren h{\"a}ufige Verwendung in Romantexten zu einem schlechten Ergebnis f{\"u}hrt. Dieses Paper stellt eine anhand eines manuell annotierten Korpus auf deutschsprachige Romane des 19. Jahrhunderts angepasste NER-Komponente vor.}, subject = {Digital Humanities}, language = {de} } @inproceedings{FlandersJannidis2015, author = {Flanders, Julia and Jannidis, Fotis}, title = {Knowledge Organization and Data Modeling in the Humanities}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-111270}, year = {2015}, abstract = {Based on the results of a 3-day workshop at the Brown University (2012) this white paper tries to sum up important topics and problems which came up in the presentations and discussions and to outline some general aspects of data modeling in digital humanities. Starting with an attempt to define data modeling it introduces distinctions like curation-driven vs. research-driven for a more general description of data modeling. The second part discusses specific problems and challenges of data modeling in the Humanities, while the third part outlines practical aspects, like the creation of data models or their evaluation.}, subject = {Digital Humanities}, language = {en} } @unpublished{VolkmannBockSeibtetal.2012, author = {Volkmann, Armin and Bock, Sina and Seibt, Daniela and K{\"u}mmet, Sonja and Weiß, Michael and Dietz, Elisabeth and Huss, Patrick and Heer, Anna and El Hassan, Naitelqadi}, title = {Geisteswissenschaft und Geografische Informationssysteme (GIS): Erstellung von Kartierungen mit kommerzieller und Open Source Software im Vergleich}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-74470}, year = {2012}, abstract = {Der Einsatz von Geographischen Informationssystemen (GIS) bietet auch f{\"u}r die Geisteswissenschaften zahlreiche Ans{\"a}tze zur Generierung von neuem Wissen. Die GIS-Software ist jedoch unterschiedlich geeignet f{\"u}r geisteswissenschaftliche Fragestellungen. Getestet wurden daher zwei kommerzielle und vier Open Source GIS-Programme: MapInfo, ArcGIS, Quantum GIS, gvSIG, DIVA-GIS und SAGA. MapInfo zeichnet sich besonders f{\"u}r GIS-Anf{\"a}nger durch seine große Benutzerfreundlichkeit aus. Jedoch sind die Anschaffungskosten recht hoch. ArcGIS weist den gr{\"o}ßten Nutzungsumfang auf, wobei jedoch keine oder kaum eine „intuitive" Nutzung m{\"o}glich ist. Zudem sind die laufenden Kosten durch aufw{\"a}ndige Abo-Lizenzvertr{\"a}ge besonders hoch. Quantum GIS ist eine freie Software, die benutzerfreundlich ist und auch Anf{\"a}ngern einen leichten Einstieg erm{\"o}glicht. Hunderte Erweiterungen machen Quantum GIS sehr leistungsstark und universal einsetzbar. gvSIG ist nicht ganz leicht zu bedienen, da zudem die Dokumentation nur fragmentarisch vorliegt. Der große Funktionsumfang macht es jedoch zu einem vollwertigen GIS, wenn auch manch erg{\"a}nzende Funktion fehlt. DIVA-GIS erm{\"o}glicht einen schnellen Einstieg durch seine gute Dokumentation. Man gelangt jedoch recht bald an die Grenzen des Nutzungsumfangs durch die eingeschr{\"a}nkte Funktionalit{\"a}t. SAGA hingegen erf{\"u}llte alle hier gestellten Anforderungen, sodass es, trotz der geringeren Anzahl von Erweiterungen, zusammen mit Quantum GIS als Open Source eine echte Alternative zu kommerziellen GIS-Programmen darstellt.}, subject = {Geoinformationssystem}, language = {de} }