004 Datenverarbeitung; Informatik
Refine
Has Fulltext
- yes (27)
Is part of the Bibliography
- yes (27)
Year of publication
Document Type
- Doctoral Thesis (12)
- Jahresbericht (5)
- Journal article (4)
- Master Thesis (4)
- Other (1)
- Report (1)
Language
- German (27) (remove)
Keywords
- Computer Center University of Wuerzburg (5)
- Jahresbericht (5)
- annual report (5)
- RZUW (4)
- Simulation (4)
- Julius-Maximilians-Universität Würzburg (3)
- Rechenzentrum (3)
- Computersimulation (2)
- Entscheidungsfindung (2)
- IT Security (2)
- IT-Sicherheit (2)
- Künstliche Intelligenz (2)
- Mehragentensystem (2)
- Modellierung (2)
- Multimedia (2)
- Ablaufplanung (1)
- Agent <Informatik> (1)
- Agent <Künstliche Intelligenz> (1)
- Agent-based Simulation (1)
- Agentbased System (1)
- Agenten-basierte Simulation (1)
- Anforderungsmanagement (1)
- Angewandte Informatik (1)
- Annotation (1)
- Anwendung (1)
- Aufwandsanalyse (1)
- Automatisierte Prüfungskorrektur (1)
- Autonomer Agent (1)
- Autonomer Roboter (1)
- Autonomie (1)
- Bernoulli stochastics (1)
- Bernoulli-Raum (1)
- Bernoullische Stochastik (1)
- Bernoullispace (1)
- Bewegungsablauf (1)
- Bewegungsplanung (1)
- Bit Parallelität (1)
- Brüder Grimm Privatbibliothek (1)
- Business Intelligence (1)
- Calibration (1)
- Computervirus (1)
- Convolutional Neural Network (1)
- Cost Analysis (1)
- Data Mining (1)
- Databases (1)
- Datenbanken (1)
- Datenbasis (1)
- Datenübertragung ; Datensicherung ; Informationstechnik ; Internet ; Computersicherheit (1)
- Diagnosesystem (1)
- Dienstleistungen (1)
- Digitalisierung (1)
- Dynamic Environments (1)
- Educational Measurement (I2.399) (1)
- Endnutzer (1)
- Entscheidungsträger (1)
- Erkennung handschriftlicher Artefakte (1)
- Ethik (1)
- Fahrsimulation (1)
- Fahrsimulator (1)
- Fallstudie (1)
- Feature-Matching (1)
- Feldprogrammierbare Architekturen (1)
- Field programmable gate array (1)
- Field-programmable Gate Arrays (1)
- Firewall (1)
- Forschung (1)
- Frühdruck (1)
- Gay-Array-Bauelement (1)
- Gllobal self-localisation (1)
- Globale Selbstlokalisation (1)
- Grimm brothers personal library (1)
- Handschrift (1)
- Hierarchische Simulation (1)
- Hochschulnetz (1)
- Hospital (1)
- Inferenz <Künstliche Intelligenz> (1)
- Informatik (1)
- Information Retrieval (1)
- Information-Retrieval-System (1)
- Innovation Management (1)
- Innovationsmanagement (1)
- Invertierte Liste (1)
- Julius-Maximilians-Universität Würzburg. Rechenzentrum (1)
- Kartierung (1)
- Konzeptsuche (1)
- Krankenhaus (1)
- Learning (1)
- Lehre (1)
- Lernen (1)
- Lokalisation (1)
- Mehrebenensimulation (1)
- Methodologie (1)
- Missionsbetrieb (1)
- Mobile Roboter (1)
- Mobiler Roboter (1)
- Modellbasierte Diagnose (1)
- Modelling (1)
- Motion Planning (1)
- Multi-Agent-Simulation (1)
- Multi-agent system (1)
- Multiagentensimulation (1)
- Multiagentensystem (1)
- Multiple-Choice Examination (1)
- Multiple-Choice Prüfungen (1)
- Mustererkennung (1)
- Open Source (1)
- Optimization (1)
- Parameterkalibrierung (1)
- Planausführung (1)
- Planungssystem (1)
- Process Optimization (1)
- Programmierbare logische Anordnung (1)
- Project Management (1)
- Projektmanagement (1)
- Prozessoptimierung (1)
- Rechenzentrum Universität Würzburg (1)
- Regelbasiertes System (1)
- Requirements Management (1)
- Risikomanagement (1)
- Risk Management (1)
- Robot (1)
- Roboter (1)
- Rule-based Systems (1)
- Satellit (1)
- Self-Evaluation Programs (I2.399.780) (1)
- Services (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Spam-Mail (1)
- Stochastik (1)
- Stochastikon (1)
- Straßennetzwerk (1)
- Straßenverkehr (1)
- Suchverfahren (1)
- System (1)
- Szenariogenerierung (1)
- Teaching (1)
- Volltextsuche (1)
- Webmail-System (1)
- Werkstattdiagnose (1)
- aftermarket diagnostic (1)
- bit-parallel (1)
- case study (1)
- computer virus (1)
- concept search (1)
- convolutional neural network (1)
- data mining (1)
- database (1)
- decission finding (1)
- driving simulation (1)
- dynamische Umgebungen (1)
- early printed books (1)
- end user (1)
- feature-matching (1)
- field-programmable architectures (1)
- field-programmable gate arrays (1)
- firewall (1)
- full-text search (1)
- handwritten artefact recognition (1)
- hybrid Diagnostic (1)
- hybride Diagnose (1)
- mission operation (1)
- mobile robots (1)
- model-base diagnosis (1)
- n-Gramm (1)
- n-gram (1)
- open source (1)
- pattern perception (1)
- plan execution (1)
- process model (1)
- q-Gramm (1)
- q-gram (1)
- regelbasierte Nachbearbeitung (1)
- road network (1)
- rule based post processing (1)
- scenario creation (1)
- scheduling (1)
- skalierbare Diagnose (1)
- slam (1)
- spam mail (1)
- stochastic thinking (1)
- stochastisches Denken (1)
- system (1)
- university network (1)
- webmail system (1)
Institute
Die künstliche Intelligenz (KI) entwickelt sich rasant und hat bereits eindrucksvolle Erfolge zu verzeichnen, darunter übermenschliche Kompetenz in den meisten Spielen und vielen Quizshows, intelligente Suchmaschinen, individualisierte Werbung, Spracherkennung, -ausgabe und -übersetzung auf sehr hohem Niveau und hervorragende Leistungen bei der Bildverarbeitung, u. a. in der Medizin, der optischen Zeichenerkennung, beim autonomen Fahren, aber auch beim Erkennen von Menschen auf Bildern und Videos oder bei Deep Fakes für Fotos und Videos. Es ist zu erwarten, dass die KI auch in der Entscheidungsfindung Menschen übertreffen wird; ein alter Traum der Expertensysteme, der durch Lernverfahren, Big Data und Zugang zu dem gesammelten Wissen im Web in greifbare Nähe rückt. Gegenstand dieses Beitrags sind aber weniger die technischen Entwicklungen, sondern mögliche gesellschaftliche Auswirkungen einer spezialisierten, kompetenten KI für verschiedene Bereiche der autonomen, d. h. nicht nur unterstützenden Entscheidungsfindung: als Fußballschiedsrichter, in der Medizin, für richterliche Entscheidungen und sehr spekulativ auch im politischen Bereich. Dabei werden Vor- und Nachteile dieser Szenarien aus gesellschaftlicher Sicht diskutiert.
Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen.
Die Erkennung handschriftlicher Artefakte wie Unterstreichungen in Buchdrucken ermöglicht Rückschlüsse auf das Rezeptionsverhalten und die Provenienzgeschichte und wird auch für eine OCR benötigt. Dabei soll zwischen handschriftlichen Unterstreichungen und waagerechten Linien im Druck (z. B. Trennlinien usw.) unterschieden werden, da letztere nicht ausgezeichnet werden sollen. Im Beitrag wird ein Ansatz basierend auf einem auf Unterstreichungen trainierten Neuronalen Netz gemäß der U-Net Architektur vorgestellt, dessen Ergebnisse in einem zweiten Schritt mit heuristischen Regeln nachbearbeitet werden. Die Evaluationen zeigen, dass Unterstreichungen sehr gut erkannt werden, wenn bei der Binarisierung der Scans nicht zu viele Pixel der Unterstreichung wegen geringem Kontrast verloren gehen. Zukünftig sollen die Worte oberhalb der Unterstreichung mit OCR transkribiert werden und auch andere Artefakte wie handschriftliche Notizen in alten Drucken erkannt werden.
Einleitung:
Multiple-Choice-Klausuren spielen immer noch eine herausragende Rolle für fakultätsinterne medizinische Prüfungen. Neben inhaltlichen Arbeiten stellt sich die Frage, wie die technische Abwicklung optimiert werden kann. Für Dozenten in der Medizin gibt es zunehmend drei Optionen zur Durchführung von MC-Klausuren: Papierklausuren mit oder ohne Computerunterstützung oder vollständig elektronische Klausuren. Kritische Faktoren sind der Aufwand für die Formatierung der Klausur, der logistische Aufwand bei der Klausurdurchführung, die Qualität, Schnelligkeit und der Aufwand der Klausurkorrektur, die Bereitstellung der Dokumente für die Einsichtnahme, und die statistische Analyse der Klausurergebnisse.
Methoden:
An der Universität Würzburg wird seit drei Semestern ein Computerprogramm zur Eingabe und Formatierung der MC-Fragen in medizinischen und anderen Papierklausuren verwendet und optimiert, mit dem im Wintersemester (WS) 2009/2010 elf, im Sommersemester (SS) 2010 zwölf und im WS 2010/11 dreizehn medizinische Klausuren erstellt und anschließend die eingescannten Antwortblätter automatisch ausgewertet wurden. In den letzten beiden Semestern wurden die Aufwände protokolliert.
Ergebnisse:
Der Aufwand der Formatierung und der Auswertung einschl. nachträglicher Anpassung der Auswertung einer Durchschnittsklausur mit ca. 140 Teilnehmern und ca. 35 Fragen ist von 5-7 Stunden für Klausuren ohne Komplikation im WS 2009/2010 über ca. 2 Stunden im SS 2010 auf ca. 1,5 Stunden im WS 2010/11 gefallen. Einschließlich der Klausuren mit Komplikationen bei der Auswertung betrug die durchschnittliche Zeit im SS 2010 ca. 3 Stunden und im WS 10/11 ca. 2,67 Stunden pro Klausur.
Diskussion:
Für konventionelle Multiple-Choice-Klausuren bietet die computergestützte Formatierung und Auswertung von Papierklausuren einen beträchtlichen Zeitvorteil für die Dozenten im Vergleich zur manuellen Korrektur von Papierklausuren und benötigt im Vergleich zu rein elektronischen Klausuren eine deutlich einfachere technische Infrastruktur und weniger Personal bei der Klausurdurchführung.
Der Betrieb von Satelliten wird sich in Zukunft gravierend ändern. Die bisher ausgeübte konventionelle Vorgehensweise, bei der die Planung der vom Satelliten auszuführenden Aktivitäten sowie die Kontrolle hierüber ausschließlich vom Boden aus erfolgen, stößt bei heutigen Anwendungen an ihre Grenzen. Im schlimmsten Fall verhindert dieser Umstand sogar die Erschließung bisher ungenutzter Möglichkeiten. Der Gewinn eines Satelliten, sei es in Form wissenschaftlicher Daten oder der Vermarktung satellitengestützter Dienste, wird daher nicht optimal ausgeschöpft.
Die Ursache für dieses Problem lässt sich im Grunde auf eine ausschlaggebende Tatsache zurückführen: Konventionelle Satelliten können ihr Verhalten, d.h. die Folge ihrer Tätigkeiten, nicht eigenständig anpassen. Stattdessen erstellt das Bedienpersonal am Boden - vor allem die Operatoren - mit Hilfe von Planungssoftware feste Ablaufpläne, die dann in Form von Kommandosequenzen von den Bodenstationen aus an die jeweiligen Satelliten hochgeladen werden. Dort werden die Befehle lediglich überprüft, interpretiert und strikt ausgeführt. Die Abarbeitung erfolgt linear. Situationsbedingte Änderungen, wie sie vergleichsweise bei der Codeausführung von Softwareprogrammen durch Kontrollkonstrukte, zum Beispiel Schleifen und Verzweigungen, üblich sind, sind typischerweise nicht vorgesehen. Der Operator ist daher die einzige Instanz, die das Verhalten des Satelliten mittels Kommandierung, per Upload, beeinflussen kann, und auch nur dann, wenn ein direkter Funkkontakt zwischen Satellit und Bodenstation besteht. Die dadurch möglichen Reaktionszeiten des Satelliten liegen bestenfalls bei einigen Sekunden, falls er sich im Wirkungsbereich der Bodenstation befindet. Außerhalb des Kontaktfensters kann sich die Zeitschranke, gegeben durch den Orbit und die aktuelle Position des Satelliten, von einigen Minuten bis hin zu einigen Stunden erstrecken. Die Signallaufzeiten der Funkübertragung verlängern die Reaktionszeiten um weitere Sekunden im erdnahen Bereich. Im interplanetaren Raum erstrecken sich die Zeitspannen aufgrund der immensen Entfernungen sogar auf mehrere Minuten. Dadurch bedingt liegt die derzeit technologisch mögliche, bodengestützte, Reaktionszeit von Satelliten bestenfalls im Bereich von einigen Sekunden.
Diese Einschränkung stellt ein schweres Hindernis für neuartige Satellitenmissionen, bei denen insbesondere nichtdeterministische und kurzzeitige Phänomene (z.B. Blitze und Meteoreintritte in die Erdatmosphäre) Gegenstand der Beobachtungen sind, dar. Die langen Reaktionszeiten des konventionellen Satellitenbetriebs verhindern die Realisierung solcher Missionen, da die verzögerte Reaktion erst erfolgt, nachdem das zu beobachtende Ereignis bereits abgeschlossen ist.
Die vorliegende Dissertation zeigt eine Möglichkeit, das durch die langen Reaktionszeiten entstandene Problem zu lösen, auf. Im Zentrum des Lösungsansatzes steht dabei die Autonomie. Im Wesentlichen geht es dabei darum, den Satelliten mit der Fähigkeit auszustatten, sein Verhalten, d.h. die Folge seiner Tätigkeiten, eigenständig zu bestimmen bzw. zu ändern. Dadurch wird die direkte Abhängigkeit des Satelliten vom Operator bei Reaktionen aufgehoben. Im Grunde wird der Satellit in die Lage versetzt, sich selbst zu kommandieren.
Die Idee der Autonomie wurde im Rahmen der zugrunde liegenden Forschungsarbeiten umgesetzt. Das Ergebnis ist ein autonomes Planungssystem. Dabei handelt es sich um ein Softwaresystem, mit dem sich autonomes Verhalten im Satelliten realisieren lässt. Es kann an unterschiedliche Satellitenmissionen angepasst werden. Ferner deckt es verschiedene Aspekte des autonomen Satellitenbetriebs, angefangen bei der generellen Entscheidungsfindung der Tätigkeiten, über die zeitliche Ablaufplanung unter Einbeziehung von Randbedingungen (z.B. Ressourcen) bis hin zur eigentlichen Ausführung, d.h. Kommandierung, ab. Das Planungssystem kommt als Anwendung in ASAP, einer autonomen Sensorplattform, zum Einsatz. Es ist ein optisches System und dient der Detektion von kurzzeitigen Phänomenen und Ereignissen in der Erdatmosphäre.
Die Forschungsarbeiten an dem autonomen Planungssystem, an ASAP sowie an anderen zu diesen in Bezug stehenden Systemen wurden an der Professur für Raumfahrttechnik des Lehrstuhls Informatik VIII der Julius-Maximilians-Universität Würzburg durchgeführt.
Jahresbericht 2015
(2016)
Jahresbericht 2014
(2016)