004 Datenverarbeitung; Informatik
Refine
Has Fulltext
- yes (27)
Is part of the Bibliography
- yes (27)
Year of publication
Document Type
- Doctoral Thesis (12)
- Jahresbericht (5)
- Journal article (4)
- Master Thesis (4)
- Other (1)
- Report (1)
Language
- German (27) (remove)
Keywords
- Computer Center University of Wuerzburg (5)
- Jahresbericht (5)
- annual report (5)
- RZUW (4)
- Simulation (4)
- Julius-Maximilians-Universität Würzburg (3)
- Rechenzentrum (3)
- Computersimulation (2)
- Entscheidungsfindung (2)
- IT Security (2)
- IT-Sicherheit (2)
- Künstliche Intelligenz (2)
- Mehragentensystem (2)
- Modellierung (2)
- Multimedia (2)
- Ablaufplanung (1)
- Agent <Informatik> (1)
- Agent <Künstliche Intelligenz> (1)
- Agent-based Simulation (1)
- Agentbased System (1)
- Agenten-basierte Simulation (1)
- Anforderungsmanagement (1)
- Angewandte Informatik (1)
- Annotation (1)
- Anwendung (1)
- Aufwandsanalyse (1)
- Automatisierte Prüfungskorrektur (1)
- Autonomer Agent (1)
- Autonomer Roboter (1)
- Autonomie (1)
- Bernoulli stochastics (1)
- Bernoulli-Raum (1)
- Bernoullische Stochastik (1)
- Bernoullispace (1)
- Bewegungsablauf (1)
- Bewegungsplanung (1)
- Bit Parallelität (1)
- Brüder Grimm Privatbibliothek (1)
- Business Intelligence (1)
- Calibration (1)
- Computervirus (1)
- Convolutional Neural Network (1)
- Cost Analysis (1)
- Data Mining (1)
- Databases (1)
- Datenbanken (1)
- Datenbasis (1)
- Datenübertragung ; Datensicherung ; Informationstechnik ; Internet ; Computersicherheit (1)
- Diagnosesystem (1)
- Dienstleistungen (1)
- Digitalisierung (1)
- Dynamic Environments (1)
- Educational Measurement (I2.399) (1)
- Endnutzer (1)
- Entscheidungsträger (1)
- Erkennung handschriftlicher Artefakte (1)
- Ethik (1)
- Fahrsimulation (1)
- Fahrsimulator (1)
- Fallstudie (1)
- Feature-Matching (1)
- Feldprogrammierbare Architekturen (1)
- Field programmable gate array (1)
- Field-programmable Gate Arrays (1)
- Firewall (1)
- Forschung (1)
- Frühdruck (1)
- Gay-Array-Bauelement (1)
- Gllobal self-localisation (1)
- Globale Selbstlokalisation (1)
- Grimm brothers personal library (1)
- Handschrift (1)
- Hierarchische Simulation (1)
- Hochschulnetz (1)
- Hospital (1)
- Inferenz <Künstliche Intelligenz> (1)
- Informatik (1)
- Information Retrieval (1)
- Information-Retrieval-System (1)
- Innovation Management (1)
- Innovationsmanagement (1)
- Invertierte Liste (1)
- Julius-Maximilians-Universität Würzburg. Rechenzentrum (1)
- Kartierung (1)
- Konzeptsuche (1)
- Krankenhaus (1)
- Learning (1)
- Lehre (1)
- Lernen (1)
- Lokalisation (1)
- Mehrebenensimulation (1)
- Methodologie (1)
- Missionsbetrieb (1)
- Mobile Roboter (1)
- Mobiler Roboter (1)
- Modellbasierte Diagnose (1)
- Modelling (1)
- Motion Planning (1)
- Multi-Agent-Simulation (1)
- Multi-agent system (1)
- Multiagentensimulation (1)
- Multiagentensystem (1)
- Multiple-Choice Examination (1)
- Multiple-Choice Prüfungen (1)
- Mustererkennung (1)
- Open Source (1)
- Optimization (1)
- Parameterkalibrierung (1)
- Planausführung (1)
- Planungssystem (1)
- Process Optimization (1)
- Programmierbare logische Anordnung (1)
- Project Management (1)
- Projektmanagement (1)
- Prozessoptimierung (1)
- Rechenzentrum Universität Würzburg (1)
- Regelbasiertes System (1)
- Requirements Management (1)
- Risikomanagement (1)
- Risk Management (1)
- Robot (1)
- Roboter (1)
- Rule-based Systems (1)
- Satellit (1)
- Self-Evaluation Programs (I2.399.780) (1)
- Services (1)
- Software Engineering (1)
- Softwareentwicklung (1)
- Spam-Mail (1)
- Stochastik (1)
- Stochastikon (1)
- Straßennetzwerk (1)
- Straßenverkehr (1)
- Suchverfahren (1)
- System (1)
- Szenariogenerierung (1)
- Teaching (1)
- Volltextsuche (1)
- Webmail-System (1)
- Werkstattdiagnose (1)
- aftermarket diagnostic (1)
- bit-parallel (1)
- case study (1)
- computer virus (1)
- concept search (1)
- convolutional neural network (1)
- data mining (1)
- database (1)
- decission finding (1)
- driving simulation (1)
- dynamische Umgebungen (1)
- early printed books (1)
- end user (1)
- feature-matching (1)
- field-programmable architectures (1)
- field-programmable gate arrays (1)
- firewall (1)
- full-text search (1)
- handwritten artefact recognition (1)
- hybrid Diagnostic (1)
- hybride Diagnose (1)
- mission operation (1)
- mobile robots (1)
- model-base diagnosis (1)
- n-Gramm (1)
- n-gram (1)
- open source (1)
- pattern perception (1)
- plan execution (1)
- process model (1)
- q-Gramm (1)
- q-gram (1)
- regelbasierte Nachbearbeitung (1)
- road network (1)
- rule based post processing (1)
- scenario creation (1)
- scheduling (1)
- skalierbare Diagnose (1)
- slam (1)
- spam mail (1)
- stochastic thinking (1)
- stochastisches Denken (1)
- system (1)
- university network (1)
- webmail system (1)
Institute
Die künstliche Intelligenz (KI) entwickelt sich rasant und hat bereits eindrucksvolle Erfolge zu verzeichnen, darunter übermenschliche Kompetenz in den meisten Spielen und vielen Quizshows, intelligente Suchmaschinen, individualisierte Werbung, Spracherkennung, -ausgabe und -übersetzung auf sehr hohem Niveau und hervorragende Leistungen bei der Bildverarbeitung, u. a. in der Medizin, der optischen Zeichenerkennung, beim autonomen Fahren, aber auch beim Erkennen von Menschen auf Bildern und Videos oder bei Deep Fakes für Fotos und Videos. Es ist zu erwarten, dass die KI auch in der Entscheidungsfindung Menschen übertreffen wird; ein alter Traum der Expertensysteme, der durch Lernverfahren, Big Data und Zugang zu dem gesammelten Wissen im Web in greifbare Nähe rückt. Gegenstand dieses Beitrags sind aber weniger die technischen Entwicklungen, sondern mögliche gesellschaftliche Auswirkungen einer spezialisierten, kompetenten KI für verschiedene Bereiche der autonomen, d. h. nicht nur unterstützenden Entscheidungsfindung: als Fußballschiedsrichter, in der Medizin, für richterliche Entscheidungen und sehr spekulativ auch im politischen Bereich. Dabei werden Vor- und Nachteile dieser Szenarien aus gesellschaftlicher Sicht diskutiert.
Innovative Software kann die Position eines Unternehmens im Wettbewerb sichern. Die Einführung innovativer Software ist aber alles andere als einfach. Denn obgleich die technischen Aspekte offensichtlicher sind, dominieren organisationale Aspekte. Zu viele Softwareprojekte schlagen fehl, da die Einführung nicht gelingt, trotz Erfüllung technischer Anforderungen. Vor diesem Hintergrund ist das Forschungsziel der Masterarbeit, Risiken und Erfolgsfaktoren für die Einführung innovativer Software in Unternehmen zu finden, eine Strategie zu formulieren und dabei die Bedeutung von Schlüsselpersonen zu bestimmen.
Die Erkennung handschriftlicher Artefakte wie Unterstreichungen in Buchdrucken ermöglicht Rückschlüsse auf das Rezeptionsverhalten und die Provenienzgeschichte und wird auch für eine OCR benötigt. Dabei soll zwischen handschriftlichen Unterstreichungen und waagerechten Linien im Druck (z. B. Trennlinien usw.) unterschieden werden, da letztere nicht ausgezeichnet werden sollen. Im Beitrag wird ein Ansatz basierend auf einem auf Unterstreichungen trainierten Neuronalen Netz gemäß der U-Net Architektur vorgestellt, dessen Ergebnisse in einem zweiten Schritt mit heuristischen Regeln nachbearbeitet werden. Die Evaluationen zeigen, dass Unterstreichungen sehr gut erkannt werden, wenn bei der Binarisierung der Scans nicht zu viele Pixel der Unterstreichung wegen geringem Kontrast verloren gehen. Zukünftig sollen die Worte oberhalb der Unterstreichung mit OCR transkribiert werden und auch andere Artefakte wie handschriftliche Notizen in alten Drucken erkannt werden.
Der Betrieb von Satelliten wird sich in Zukunft gravierend ändern. Die bisher ausgeübte konventionelle Vorgehensweise, bei der die Planung der vom Satelliten auszuführenden Aktivitäten sowie die Kontrolle hierüber ausschließlich vom Boden aus erfolgen, stößt bei heutigen Anwendungen an ihre Grenzen. Im schlimmsten Fall verhindert dieser Umstand sogar die Erschließung bisher ungenutzter Möglichkeiten. Der Gewinn eines Satelliten, sei es in Form wissenschaftlicher Daten oder der Vermarktung satellitengestützter Dienste, wird daher nicht optimal ausgeschöpft.
Die Ursache für dieses Problem lässt sich im Grunde auf eine ausschlaggebende Tatsache zurückführen: Konventionelle Satelliten können ihr Verhalten, d.h. die Folge ihrer Tätigkeiten, nicht eigenständig anpassen. Stattdessen erstellt das Bedienpersonal am Boden - vor allem die Operatoren - mit Hilfe von Planungssoftware feste Ablaufpläne, die dann in Form von Kommandosequenzen von den Bodenstationen aus an die jeweiligen Satelliten hochgeladen werden. Dort werden die Befehle lediglich überprüft, interpretiert und strikt ausgeführt. Die Abarbeitung erfolgt linear. Situationsbedingte Änderungen, wie sie vergleichsweise bei der Codeausführung von Softwareprogrammen durch Kontrollkonstrukte, zum Beispiel Schleifen und Verzweigungen, üblich sind, sind typischerweise nicht vorgesehen. Der Operator ist daher die einzige Instanz, die das Verhalten des Satelliten mittels Kommandierung, per Upload, beeinflussen kann, und auch nur dann, wenn ein direkter Funkkontakt zwischen Satellit und Bodenstation besteht. Die dadurch möglichen Reaktionszeiten des Satelliten liegen bestenfalls bei einigen Sekunden, falls er sich im Wirkungsbereich der Bodenstation befindet. Außerhalb des Kontaktfensters kann sich die Zeitschranke, gegeben durch den Orbit und die aktuelle Position des Satelliten, von einigen Minuten bis hin zu einigen Stunden erstrecken. Die Signallaufzeiten der Funkübertragung verlängern die Reaktionszeiten um weitere Sekunden im erdnahen Bereich. Im interplanetaren Raum erstrecken sich die Zeitspannen aufgrund der immensen Entfernungen sogar auf mehrere Minuten. Dadurch bedingt liegt die derzeit technologisch mögliche, bodengestützte, Reaktionszeit von Satelliten bestenfalls im Bereich von einigen Sekunden.
Diese Einschränkung stellt ein schweres Hindernis für neuartige Satellitenmissionen, bei denen insbesondere nichtdeterministische und kurzzeitige Phänomene (z.B. Blitze und Meteoreintritte in die Erdatmosphäre) Gegenstand der Beobachtungen sind, dar. Die langen Reaktionszeiten des konventionellen Satellitenbetriebs verhindern die Realisierung solcher Missionen, da die verzögerte Reaktion erst erfolgt, nachdem das zu beobachtende Ereignis bereits abgeschlossen ist.
Die vorliegende Dissertation zeigt eine Möglichkeit, das durch die langen Reaktionszeiten entstandene Problem zu lösen, auf. Im Zentrum des Lösungsansatzes steht dabei die Autonomie. Im Wesentlichen geht es dabei darum, den Satelliten mit der Fähigkeit auszustatten, sein Verhalten, d.h. die Folge seiner Tätigkeiten, eigenständig zu bestimmen bzw. zu ändern. Dadurch wird die direkte Abhängigkeit des Satelliten vom Operator bei Reaktionen aufgehoben. Im Grunde wird der Satellit in die Lage versetzt, sich selbst zu kommandieren.
Die Idee der Autonomie wurde im Rahmen der zugrunde liegenden Forschungsarbeiten umgesetzt. Das Ergebnis ist ein autonomes Planungssystem. Dabei handelt es sich um ein Softwaresystem, mit dem sich autonomes Verhalten im Satelliten realisieren lässt. Es kann an unterschiedliche Satellitenmissionen angepasst werden. Ferner deckt es verschiedene Aspekte des autonomen Satellitenbetriebs, angefangen bei der generellen Entscheidungsfindung der Tätigkeiten, über die zeitliche Ablaufplanung unter Einbeziehung von Randbedingungen (z.B. Ressourcen) bis hin zur eigentlichen Ausführung, d.h. Kommandierung, ab. Das Planungssystem kommt als Anwendung in ASAP, einer autonomen Sensorplattform, zum Einsatz. Es ist ein optisches System und dient der Detektion von kurzzeitigen Phänomenen und Ereignissen in der Erdatmosphäre.
Die Forschungsarbeiten an dem autonomen Planungssystem, an ASAP sowie an anderen zu diesen in Bezug stehenden Systemen wurden an der Professur für Raumfahrttechnik des Lehrstuhls Informatik VIII der Julius-Maximilians-Universität Würzburg durchgeführt.
Jahresbericht 2014
(2016)
Jahresbericht 2015
(2016)
Die Entwicklung eines wissensbasierten Systems, speziell eines Diagnosesystems, ist eine Teildisziplin der künstlichen Intelligenz und angewandten Informatik. Im Laufe der Forschung auf diesem Gebiet wurden verschiedene Lösungsansätze mit unterschiedlichem Erfolg bei der Anwendung in der Kraftfahrzeugdiagnose entwickelt. Diagnosesysteme in Vertragswerkstätten, das heißt in Fahrzeughersteller gebundenen Werkstätten, wenden hauptsächlich die fallbasierte Diagnostik an. Zum einen hält sich hier die Fahrzeugvielfalt in Grenzen und zum anderen besteht eine Meldepflicht bei neuen, nicht im System vorhandenen Fällen. Die freien Werkstätten verfügen nicht über eine solche Datenbank. Somit ist der fallbasierte Ansatz schwer umsetzbar. In freien Werkstätten - Fahrzeughersteller unabhängigen Werkstätten - basiert die Fehlersuche hauptsächlich auf Fehlerbäumen. Wegen der wachsenden Fahrzeugkomplexität, welche wesentlich durch die stark zunehmende Anzahl der durch mechatronische Systeme realisierten Funktionen bedingt ist, und der steigenden Typenvielfalt ist die geführte Fehlersuche in freien Werkstätten nicht immer zielführend. Um die Unterstützung des Personals von freien Werkstätten bei der zukünftigen Fehlersuche zu gewährleisten, werden neue Generationen von herstellerunabhängigen Diagnosetools benötigt, die die Probleme der Variantenvielfalt und Komplexität lösen. In der vorliegenden Arbeit wird ein Lösungsansatz vorgestellt, der einen qualitativen, modellbasierten Diagnoseansatz mit einem auf heuristischem Diagnosewissen basierenden Ansatz vereint. Neben der Grundlage zur Wissenserhebung werden in dieser Arbeit die theoretische Grundlage zur Beherrschung der Variantenvielfalt sowie die Tests für die erstellten Diagnosemodelle behandelt. Die Diagnose ist symptombasiert und die Inferenzmechanismen zur Verarbeitung des Diagnosewissens sind eine Kombination aus Propagierung der abweichenden physikalischen Größen im Modell und der Auswertung des heuristischen Wissens. Des Weiteren werden in dieser Arbeit verschiedene Aspekte der Realisierung der entwickelten theoretischen Grundlagen dargestellt, zum Beispiel: Systemarchitektur, Wissenserhebungsprozess, Ablauf des Diagnosevorgangs in den Werkstätten. Die Evaluierung der entwickelten Lösung bei der Wissenserhebung in Form von Modellerstellungen und Modellierungsworkshops sowie Feldtests dient nicht nur zur Bestätigung des entwickelten Ansatzes, sondern auch zur Ideenfindung für die Integration der entwickelten Tools in die existierende IT-Infrastruktur.