@phdthesis{Grigorova2016, author = {Grigorova, Stanislava}, title = {Studien zur Digitalisierung von Campes ‚Verdeutschungsw{\"o}rterbuch'}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-133196}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2016}, abstract = {Diese Arbeit stellt ein ausf{\"u}hrliches Konzept f{\"u}r die Digitalisierung von Campes sogenannten ‚Verdeutschungsw{\"o}rterbuch'\(^1\) (1813). Campes Opus gilt als Schl{\"u}sselwerk f{\"u}r die Zeit um 1800 und ist deshalb sowohl von literaturhistorischem als auch von lexikographischem Interesse. Das Projekt umfasst die wichtigsten konzeptuellen und praktischen Schritte der Erstellung einer digitalen Edition. Untersucht wird der Kontext, in dem die Vorlage zu sehen ist, n{\"a}mlich Campes Arbeit an der Sprachreinigung und die Genese des ‚Verdeutschungsw{\"o}rterbuchs'. F{\"u}r die Texterfassung werden die M{\"o}glichkeiten aktueller Software f{\"u}r optische Zeichenerkennung (OCR, Optical Character Recognition) als m{\"o}gliche Alternative zur Praxis des manuellen Abschreibens von Frakturtexten gepr{\"u}ft. Im Kern des Projekts steht die tiefgehende Kodierung des elektronisch erfassten Textes nach den Richtlinien der ‚Text Encoding Initiative' (TEI), die die einzelnen lexikographischen Strukturen sichtbar und f{\"u}r weitere Bearbeitung zug{\"a}nglich macht. Es wird n{\"a}her auf jene Problemstellen eingegangen, die logische oder semantische Schwierigkeiten bei der Kodierung darstellen und an denen das TEI-W{\"o}rterbuch-Tagset den Anspr{\"u}chen eines W{\"o}rterbuchs aus dem 19. Jahrhundert m{\"o}glicherweise nicht vollst{\"a}ndig gen{\"u}gen kann und erweitert werden muss. Somit stellt das Projekt auch eine Fallstudie f{\"u}r die retrospektive Digitalisierung historischer Texte am Beispiel einer stark strukturierten Vorlage dar. Die Vorteile der großen Erschließungstiefe f{\"u}r weiterf{\"u}hrende Untersuchungen werden durch einen Vorschlag f{\"u}r die Pr{\"a}sentation der kodierten Daten und einige quantifizierende Abfragen dargelegt. Die vorgeschlagenen Arbeitsschritte werden parallel an einer repr{\"a}sentativen W{\"o}rterbuchstrecke praktisch angewandt. Angestrebt wird, dass der Leser den gesamten Prozess vom papiergebundenen Original bis hin zur Onlinepr{\"a}sentation verfolgen kann. \(^1\) ‚W{\"o}rterbuch zur Erkl{\"a}rung und Verdeutschung der unserer Sprache aufgedrungenen fremden Ausdr{\"u}cke. Ein Erg{\"a}nzungsband zu Adelungs und Campes W{\"o}rterb{\"u}chern. Neue starkvermehrte und durchg{\"a}ngig verbesserte Ausgabe von Joachim Heinrich Campe, Doktor der Gottesgelehrtheit.' Braunschweig, 1813.}, language = {de} } @misc{Vorbach2014, type = {Master Thesis}, author = {Vorbach, Paul}, title = {Analysen und Heuristiken zur Verbesserung von OCR-Ergebnissen bei Frakturtexten}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-106527}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2014}, abstract = {Zahlreiche Digitalisierungsprojekte machen das Wissen vergangener Jahrhunderte jederzeit verf{\"u}gbar. Das volle Potenzial der Digitalisierung von Dokumenten entfaltet sich jedoch erst, wenn diese als durchsuchbare Volltexte verf{\"u}gbar gemacht werden. Mithilfe von OCR-Software kann die Erfassung weitestgehend automatisiert werden. Fraktur war ab dem 16. Jahrhundert bis zur Mitte des 20. Jahrhunderts die verbreitete Schrift des deutschen Sprachraums. Durch einige Besonderheiten von Fraktur bleiben die Erkennungsraten bei Frakturtexten aber meist deutlich hinter den Erkennungsergebnissen bei Antiquatexten zur{\"u}ck. Diese Arbeit konzentriert sich auf die Verbesserung der Erkennungsergebnisse der OCR-Software Tesseract bei Frakturtexten. Dazu wurden die Software und bestehende Sprachpakete gesondert auf die Eigenschaften von Fraktur hin analysiert. Durch spezielles Training und Anpassungen an der Software wurde anschließend versucht, die Ergebnisse zu verbessern und Erkenntnisse {\"u}ber die Effektivit{\"a}t verschiedener Ans{\"a}tze zu gewinnen. Die Zeichenfehlerraten konnten durch verschiedene Experimente von zuvor 2,5 Prozent auf 1,85 Prozent gesenkt werden. Außerdem werden Werkzeuge vorgestellt, die das Training neuer Schriftarten f{\"u}r Tesseract erleichtern und eine Evaluation der erzielten Verbesserungen erm{\"o}glichen.}, subject = {Optische Zeichenerkennung}, language = {de} } @phdthesis{Reul2020, author = {Reul, Christian}, title = {An Intelligent Semi-Automatic Workflow for Optical Character Recognition of Historical Printings}, doi = {10.25972/OPUS-20923}, url = {http://nbn-resolving.de/urn:nbn:de:bvb:20-opus-209239}, school = {Universit{\"a}t W{\"u}rzburg}, year = {2020}, abstract = {Optical Character Recognition (OCR) on historical printings is a challenging task mainly due to the complexity of the layout and the highly variant typography. Nevertheless, in the last few years great progress has been made in the area of historical OCR resulting in several powerful open-source tools for preprocessing, layout analysis and segmentation, Automatic Text Recognition (ATR) and postcorrection. Their major drawback is that they only offer limited applicability by non-technical users like humanist scholars, in particular when it comes to the combined use of several tools in a workflow. Furthermore, depending on the material, these tools are usually not able to fully automatically achieve sufficiently low error rates, let alone perfect results, creating a demand for an interactive postcorrection functionality which, however, is generally not incorporated. This thesis addresses these issues by presenting an open-source OCR software called OCR4all which combines state-of-the-art OCR components and continuous model training into a comprehensive workflow. While a variety of materials can already be processed fully automatically, books with more complex layouts require manual intervention by the users. This is mostly due to the fact that the required Ground Truth (GT) for training stronger mixed models (for segmentation as well as text recognition) is not available, yet, neither in the desired quantity nor quality. To deal with this issue in the short run, OCR4all offers better recognition capabilities in combination with a very comfortable Graphical User Interface (GUI) that allows error corrections not only in the final output, but already in early stages to minimize error propagation. In the long run this constant manual correction produces large quantities of valuable, high quality training material which can be used to improve fully automatic approaches. Further on, extensive configuration capabilities are provided to set the degree of automation of the workflow and to make adaptations to the carefully selected default parameters for specific printings, if necessary. The architecture of OCR4all allows for an easy integration (or substitution) of newly developed tools for its main components by supporting standardized interfaces like PageXML, thus aiming at continual higher automation for historical printings. In addition to OCR4all, several methodical extensions in the form of accuracy improving techniques for training and recognition are presented. Most notably an effective, sophisticated, and adaptable voting methodology using a single ATR engine, a pretraining procedure, and an Active Learning (AL) component are proposed. Experiments showed that combining pretraining and voting significantly improves the effectiveness of book-specific training, reducing the obtained Character Error Rates (CERs) by more than 50\%. The proposed extensions were further evaluated during two real world case studies: First, the voting and pretraining techniques are transferred to the task of constructing so-called mixed models which are trained on a variety of different fonts. This was done by using 19th century Fraktur script as an example, resulting in a considerable improvement over a variety of existing open-source and commercial engines and models. Second, the extension from ATR on raw text to the adjacent topic of typography recognition was successfully addressed by thoroughly indexing a historical lexicon that heavily relies on different font types in order to encode its complex semantic structure. During the main experiments on very complex early printed books even users with minimal or no experience were able to not only comfortably deal with the challenges presented by the complex layout, but also to recognize the text with manageable effort and great quality, achieving excellent CERs below 0.5\%. Furthermore, the fully automated application on 19th century novels showed that OCR4all (average CER of 0.85\%) can considerably outperform the commercial state-of-the-art tool ABBYY Finereader (5.3\%) on moderate layouts if suitably pretrained mixed ATR models are available.}, subject = {Optische Zeichenerkennung}, language = {en} }