Refine
Has Fulltext
- yes (16)
Document Type
- Doctoral Thesis (10)
- Journal article (3)
- Book article / Book chapter (2)
- Conference Proceeding (1)
Keywords
- Künstliche Intelligenz (16) (remove)
Institute
- Institut für Informatik (4)
- Betriebswirtschaftliches Institut (3)
- Deutsches Zentrum für Herzinsuffizienz (DZHI) (1)
- Graduate School of Life Sciences (1)
- Graduate School of Science and Technology (1)
- Institut Mensch - Computer - Medien (1)
- Institut für Geographie (1)
- Institut für Internationales Recht, Europarecht und Europäisches Privatrecht (1)
- Institut für Politische Wissenschaft (1)
- Institut für diagnostische und interventionelle Radiologie (Institut für Röntgendiagnostik) (1)
Sonstige beteiligte Institutionen
Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen.