Refine
Has Fulltext
- yes (7)
Is part of the Bibliography
- yes (7)
Document Type
- Journal article (2)
- Doctoral Thesis (2)
- Conference Proceeding (1)
- Master Thesis (1)
- Preprint (1)
Language
- German (7) (remove)
Keywords
- Digital Humanities (7) (remove)
Institute
Als quantitative Textanalysemethode ist das LDA Topic Modeling in den letzten Jahren in den Digital Humanities weit verbreitet worden, um zahlreiche unstrukturierte Textdaten zu untersuchen. Wenn man LDA Topic Modeling anwendet, muss man mit vielen Faktoren umgehen, die das Ergebnis der Modellierung beeinflussen können. In dieser Dissertation wurde das LDA Topic Modeling, genauer gesagt sechs entscheidende Faktoren, durch Experimente evaluiert, nämlich die Anzahl der Topics, der Hyperparameter Alpha, die Hyperparameter-Optimierung, der Hyperparameter Beta, die Iteration des Gibbs-Samplings und das Chunk-Length. Der Einfluss der sechs Faktoren wurde anhand eines deutschen Zeitungskorpus und eines deutschen Romankorpus aus zwei Perspektiven, der Dokumentklassifikation und der Topic-Kohärenz, untersucht. Ziel ist es, die Frage zu beantworten, unter welchen Umständen das LDA Topic Modeling stabil ist und damit einen Einblick in die Sensitivität der Methode gegenüber Parametereinstellungen zu geben.
Indirekte Charakterisierung trägt zu einem großen Teil zur Gesamtcharakteristik von Figuren bei, ist bisher aber dennoch vergleichsweise wenig erforscht. Diese Arbeit nähert sich dem Phänomen der indirekten Figurencharakterisierung durch eine eigene Explikation theoretisch an, nennt verschiedene Repräsentationsformen von indirekter Charakterisierung und führt die Theorie dann in Bezug auf Redewiedergabe anhand zahlreicher Beispiele aus. Der Untersuchung wird ein Korpus realistischer Erzähltexte zugrunde gelegt und darin manuell Formen der Redewiedergabe annotiert, um in einem späteren Schritt computergestützt einige Experimente mit den Annotationen durchzuführen. In ihrem Aufbau entspricht diese Arbeit dadurch einem Mixed-Methods-Design von qualitativer und quantitativer Literaturwissenschaft.
Die vorliegende Arbeit lässt sich dem Bereich der quantitativen Literaturanalyse zuordnen und verfolgt das Ziel, mittels computergestützter Verfahren zu untersuchen, inwieweit sich Romane hinsichtlich ihrer Figurenkonstellation ähneln. Dazu wird die Figurenkonstellation, als wichtiges strukturgebendes Ordnungsprinzip eines Romans, als soziales Netzwerk der Figuren operationalisiert. Solche Netzwerke können unter Anwendung von Verfahren des Natural Language Processing automatisch aus dem Text erstellt werden.
Als Datengrundlage dient ein Korpus von deutschsprachigen Romanen aus dem 19. Jahrhundert, das mit automatischen Verfahren zur Figurenerkennung und Koreferenzauflösung prozessiert und manuell nachkorrigiert wurde, um eine möglichst saubere Datenbasis zu schaffen.
Ausgehend von der intensiven vergleichenden Betrachtung der Figurenkonstellationen von Fontanes "Effi Briest" und Flauberts "Madame Bovary" wurde in einer manuell erstellten Distanzmatrix die menschliche Intuition solcher Ähnlichkeit zwischen allen Romanen des Korpus festgehalten, basierend auf der Lektüre von Zusammenfassungen der Romane. Diese Daten werden als Evaluationsgrundlage genutzt.
Mit Hilfe von Methoden der sozialen Netzwerkanalyse können strukturelle Eigenschaften dieser Netzwerke als Features erhoben werden. Diese wurden anschließend zur Berechnung der Kosinusdistanz zwischen den Romanen verwendet.
Obwohl die automatisch erstellten Netzwerke die Figurenkonstellationen der Romane im Allgemeinen gut widerspiegeln und die Netzwerkfeatures sinnvoll interpretierbar sind, war die Korrelation mit der Evaluationsgrundlage niedrig. Dies legt die Vermutung nahe, dass neben der Struktur der Figurenkonstellation auch wiederkehrende Themen und Motive die Erstellung der Evaluationsgrundlage unterbewusst beeinflusst haben.
Daher wurde Topic Modeling angewendet, um wichtige zwischenmenschliche Motive zu modellieren, die für die Figurenkonstellation von Bedeutung sein können. Die Netzwerkfeatures und die Topic-Verteilung wurden in Kombination zur Distanzberechnung herangezogen. Außerdem wurde versucht, jeder Kante des Figurennetzwerks ein Topic zuzuordnen, das diese Kante inhaltlich beschreibt. Hier zeigte sich, dass einerseits Topics, die sehr spezifisch für bestimmte Texte sind, und andererseits Topics, die über alle Texte hinweg stark vertreten sind, das Ergebnis bestimmen, sodass wiederum keine, bzw. nur eine sehr schwache Korrelation mit der Evaluationsgrundlage gefunden werden konnte.
Der Umstand, dass keine Verbindung zwischen den berechneten Distanzen und der Evaluationsgrundlage gefunden werden konnte, obwohl die einzelnen Features sinnvoll interpretierbar sind, lässt Zweifel an der Evaluationsmatrix aufkommen. Diese scheint stärker als zu Beginn angenommen unterbewusst von thematischen und motivischen Ähnlichkeiten zwischen den Romanen beeinflusst zu sein. Auch die Qualität der jeweiligen Zusammenfassung hat hier einen nicht unwesentlichen Einfluss. Daher wäre eine weniger subjektiv geprägte Möglichkeit der Auswertung von Nöten, beispielsweise durch die parallele Einschätzung mehrerer Annotatoren. Auch die weitere Verbesserung von NLP-Verfahren für literarische Texte in deutscher Sprache ist ein Desideratum für anknüpfende Forschungsansätze.
KALLIMACHOS baut an der Universitätsbibliothek Würzburg ein Digital-Humanitites-Zentrum mit den Arbeitsschwerpunkten OCR, digitale Edition, Textmining und quantitative Analyse auf. Das Zentrum bietet eine technische und soziale Infrastruktur, die Geisteswissenschaftler bei der Beantwortung von Forschungsfragen unterstützt und innovative Werkzeuge, Methoden, prototypische Arbeitsabläufe und Dienste entwickelt. In sechs Beispielprojekten aus Papyrologie, Geschichte, Philologie, Philosophie und Pädagogik werden die Neuentwicklungen erprobt, die Fruchtbarkeit der neuen Verfahren vermittelt und Bausteine für ein künftiges Forschungsdatenmanagement geschaffen. Das BMBF unterstützt den Aufbau des Zentrums bis Ende 2017 im Rahmen der Förderlinie „eHumanities“.
Die stetig voranschreitende Digitalisierung literarischer Texte verschiedenster Sprachen, Epochen und Gattungen stellt die Literaturwissenschaften immer wieder vor die Frage, wie sie diese Entwicklung mitgestalten und zu ihrem Vorteil nutzen können. Dabei ist digital nicht gleich digital, sondern es existiert eine Vielzahl sehr unterschiedlicher, digitaler Repräsentationsformen von Text. Nur wenige dieser Repräsentationsformen werden literaturwissenschaftlichen Anforderungen tatsächlich gerecht, darunter diejenige, die den Richtlinien der Text Encoding Initiative folgt. Der vorliegende Beitrag vergleicht zunächst einige derzeit gängige digitale Repräsentationsformen von Text. Für literaturwissenschaftliche Forschung besonders geeignet erweist sich hierbei eine Repräsentationsform, die den Richtlinien der Text Encoding Initiative folgt. Daher informiert der Beitrag anschließend über deren Nutzen für die literaturwissenschaftliche Arbeit, sowohl im Bereich der wissenschaftlichen Textedition als auch im Bereich der Analyse und Interpretation von Texten. Nur wenn die Literaturwissenschaften in ihrer Breite den Nutzen von offenen, expressiven, flexiblen und standardisierten, langfristig nutzbaren Formaten für die Forschung erkennen, können sie sich mit dem erforderlichen Nachdruck für deren Verbreitung einsetzen und durch die zunehmende Verfügbarkeit von Texten in solchen Formaten für die eigene Forschung und Lehre davon profitieren.
Eine wichtige Grundlage für die quantitative Analyse von Erzähltexten, etwa eine Netzwerkanalyse der Figurenkonstellation, ist die automatische Erkennung von Referenzen auf Figuren in Erzähltexten, ein Sonderfall des generischen NLP-Problems der Named Entity Recognition. Bestehende, auf Zeitungstexten trainierte Modelle sind für literarische Texte nur eingeschränkt brauchbar, da die Einbeziehung von Appellativen in die Named Entity-Definition und deren häufige Verwendung in Romantexten zu einem schlechten Ergebnis führt. Dieses Paper stellt eine anhand eines manuell annotierten Korpus auf deutschsprachige Romane des 19. Jahrhunderts angepasste NER-Komponente vor.
Der Einsatz von Geographischen Informationssystemen (GIS) bietet auch für die Geisteswissenschaften zahlreiche Ansätze zur Generierung von neuem Wissen. Die GIS-Software ist jedoch unterschiedlich geeignet für geisteswissenschaftliche Fragestellungen. Getestet wurden daher zwei kommerzielle und vier Open Source GIS-Programme: MapInfo, ArcGIS, Quantum GIS, gvSIG, DIVA-GIS und SAGA. MapInfo zeichnet sich besonders für GIS-Anfänger durch seine große Benutzerfreundlichkeit aus. Jedoch sind die Anschaffungskosten recht hoch. ArcGIS weist den größten Nutzungsumfang auf, wobei jedoch keine oder kaum eine „intuitive“ Nutzung möglich ist. Zudem sind die laufenden Kosten durch aufwändige Abo-Lizenzverträge besonders hoch. Quantum GIS ist eine freie Software, die benutzerfreundlich ist und auch Anfängern einen leichten Einstieg ermöglicht. Hunderte Erweiterungen machen Quantum GIS sehr leistungsstark und universal einsetzbar. gvSIG ist nicht ganz leicht zu bedienen, da zudem die Dokumentation nur fragmentarisch vorliegt. Der große Funktionsumfang macht es jedoch zu einem vollwertigen GIS, wenn auch manch ergänzende Funktion fehlt. DIVA-GIS ermöglicht einen schnellen Einstieg durch seine gute Dokumentation. Man gelangt jedoch recht bald an die Grenzen des Nutzungsumfangs durch die eingeschränkte Funktionalität. SAGA hingegen erfüllte alle hier gestellten Anforderungen, sodass es, trotz der geringeren Anzahl von Erweiterungen, zusammen mit Quantum GIS als Open Source eine echte Alternative zu kommerziellen GIS-Programmen darstellt.