Refine
Has Fulltext
- yes (3)
Is part of the Bibliography
- yes (3)
Document Type
- Journal article (3) (remove)
Language
- German (3)
Keywords
- Künstliche Intelligenz (3) (remove)
Hintergrund
Die Fotodokumentation von offenen Frakturen, Wunden, Dekubitalulzera, Tumoren oder Infektionen ist ein wichtiger Bestandteil der digitalen Patientenakte. Bisher ist unklar, welchen Stellenwert diese Fotodokumentation bei der Abrechnungsprüfung durch den Medizinischen Dienst der Krankenkassen (MDK) hat.
Fragestellung
Kann eine Smartphone-basierte Fotodokumentation die Verteidigung von erlösrelevanten Diagnosen und Prozeduren sowie der Verweildauer verbessern?
Material und Methoden
Ausstattung der Mitarbeiter mit digitalen Endgeräten (Smartphone/Tablet) in den Bereichen Notaufnahme, Schockraum, OP, Sprechstunden sowie auf den Stationen. Retrospektive Auswertung der Abrechnungsprüfung im Jahr 2019 und Identifikation aller Fallbesprechungen, in denen die Fotodokumentation eine Erlösveränderung bewirkt hat.
Ergebnisse
Von insgesamt 372 Fallbesprechungen half die Fotodokumentation in 27 Fällen (7,2 %) zur Bestätigung eines Operationen- und Prozedurenschlüssels (OPS) (n = 5; 1,3 %), einer Hauptdiagnose (n = 10; 2,7 %), einer Nebendiagnose (n = 3; 0,8 %) oder der Krankenhausverweildauer (n = 9; 2,4 %). Pro oben genanntem Fall mit Fotodokumentation ergab sich eine durchschnittliche Erlössteigerung von 2119 €. Inklusive Aufwandpauschale für die Verhandlungen wurde somit ein Gesamtbetrag von 65.328 € verteidigt.
Diskussion
Der Einsatz einer Smartphone-basierten Fotodokumentation kann die Qualität der Dokumentation verbessern und Erlöseinbußen bei der Abrechnungsprüfung verhindern. Die Implementierung digitaler Endgeräte mit entsprechender Software ist ein wichtiger Teil des digitalen Strukturwandels in Kliniken.
Die künstliche Intelligenz (KI) entwickelt sich rasant und hat bereits eindrucksvolle Erfolge zu verzeichnen, darunter übermenschliche Kompetenz in den meisten Spielen und vielen Quizshows, intelligente Suchmaschinen, individualisierte Werbung, Spracherkennung, -ausgabe und -übersetzung auf sehr hohem Niveau und hervorragende Leistungen bei der Bildverarbeitung, u. a. in der Medizin, der optischen Zeichenerkennung, beim autonomen Fahren, aber auch beim Erkennen von Menschen auf Bildern und Videos oder bei Deep Fakes für Fotos und Videos. Es ist zu erwarten, dass die KI auch in der Entscheidungsfindung Menschen übertreffen wird; ein alter Traum der Expertensysteme, der durch Lernverfahren, Big Data und Zugang zu dem gesammelten Wissen im Web in greifbare Nähe rückt. Gegenstand dieses Beitrags sind aber weniger die technischen Entwicklungen, sondern mögliche gesellschaftliche Auswirkungen einer spezialisierten, kompetenten KI für verschiedene Bereiche der autonomen, d. h. nicht nur unterstützenden Entscheidungsfindung: als Fußballschiedsrichter, in der Medizin, für richterliche Entscheidungen und sehr spekulativ auch im politischen Bereich. Dabei werden Vor- und Nachteile dieser Szenarien aus gesellschaftlicher Sicht diskutiert.
Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen.