• Treffer 5 von 28
Zurück zur Trefferliste

Der Einfluss von menschlichen Denkmustern auf künstliche Intelligenz – eine strukturierte Untersuchung von kognitiven Verzerrungen

Zitieren Sie bitte immer diese URN: urn:nbn:de:bvb:20-opus-323787
  • Künstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einerKünstliche Intelligenz (KI) dringt vermehrt in sensible Bereiche des alltäglichen menschlichen Lebens ein. Es werden nicht mehr nur noch einfache Entscheidungen durch intelligente Systeme getroffen, sondern zunehmend auch komplexe Entscheidungen. So entscheiden z. B. intelligente Systeme, ob Bewerber in ein Unternehmen eingestellt werden sollen oder nicht. Oftmals kann die zugrundeliegende Entscheidungsfindung nur schwer nachvollzogen werden und ungerechtfertigte Entscheidungen können dadurch unerkannt bleiben, weshalb die Implementierung einer solchen KI auch häufig als sogenannte Blackbox bezeichnet wird. Folglich steigt die Bedrohung, durch unfaire und diskriminierende Entscheidungen einer KI benachteiligt behandelt zu werden. Resultieren diese Verzerrungen aus menschlichen Handlungen und Denkmustern spricht man von einer kognitiven Verzerrung oder einem kognitiven Bias. Aufgrund der Neuigkeit dieser Thematik ist jedoch bisher nicht ersichtlich, welche verschiedenen kognitiven Bias innerhalb eines KI-Projektes auftreten können. Ziel dieses Beitrages ist es, anhand einer strukturierten Literaturanalyse, eine gesamtheitliche Darstellung zu ermöglichen. Die gewonnenen Erkenntnisse werden anhand des in der Praxis weit verbreiten Cross-Industry Standard Process for Data Mining (CRISP-DM) Modell aufgearbeitet und klassifiziert. Diese Betrachtung zeigt, dass der menschliche Einfluss auf eine KI in jeder Entwicklungsphase des Modells gegeben ist und es daher wichtig ist „mensch-ähnlichen“ Bias in einer KI explizit zu untersuchen.zeige mehrzeige weniger
  • Artificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as aArtificial intelligence (AI) is increasingly penetrating sensitive areas of everyday human life, resulting in the ability to support humans in complex and difficult tasks. The result is that intelligent systems are capable of handling not only simple but also complex tasks. For example, this includes deciding whether an applicant should be hired or not. Oftentimes, this decision-making can be difficult to comprehend, and consequently incorrect decisions may remain undetected, which is why these implementations are often referred to as a so-called black box. Consequently, there is the threat of unfair and discriminatory decisions by an intelligent system. If these distortions result from human actions and thought patterns, it is referred to as a cognitive bias. However, due to the novelty of this subject, it is not yet apparent which different cognitive biases can occur within an AI project. The aim of this paper is to provide a holistic view through a structured literature review. Our insights are processed and classified according to the Cross-Industry Standard Process for Data Mining (CRISP-DM) model, which is widely used in practice. This review reveals that human influence on an AI is present in every stage of the model’s development process and that “human-like” biases in an AI must be examined explicitly.zeige mehrzeige weniger

Volltext Dateien herunterladen

Metadaten exportieren

Weitere Dienste

Teilen auf Twitter Suche bei Google Scholar Statistik - Anzahl der Zugriffe auf das Dokument
Metadaten
übersetzter Titel (Englisch):The impact of human thinking on artificial intelligence – a structured investigation of cognitive biases
Autor(en): Lukas-Valentin HermORCiD, Christian Janiesch, Patrick Fuchs
URN:urn:nbn:de:bvb:20-opus-323787
Dokumentart:Artikel / Aufsatz in einer Zeitschrift
Institute der Universität:Wirtschaftswissenschaftliche Fakultät / Betriebswirtschaftliches Institut
Sprache der Veröffentlichung:Deutsch
Titel des übergeordneten Werkes / der Zeitschrift (Deutsch):HMD Praxis der Wirtschaftsinformatik
ISSN:1436-3011
Erscheinungsjahr:2022
Band / Jahrgang:59
Heft / Ausgabe:2
Seitenangabe:556-571
Originalveröffentlichung / Quelle:HMD Praxis der Wirtschaftsinformatik (2022) 59:2, 556-571. DOI: 10.1365/s40702-022-00844-1
DOI:https://doi.org/10.1365/s40702-022-00844-1
Allgemeine fachliche Zuordnung (DDC-Klassifikation):3 Sozialwissenschaften / 38 Handel, Kommunikation, Verkehr / 380 Handel, Kommunikation, Verkehr
6 Technik, Medizin, angewandte Wissenschaften / 65 Management, Öffentlichkeitsarbeit / 650 Management und unterstützende Tätigkeiten
Freie Schlagwort(e):Künstliche Intelligenz; Literaturanalyse; Maschinelles Lernen; Menschliche Denkmuster
artificial intelligence; cognitive biases; literature review; machine learning
Datum der Freischaltung:09.01.2024
Lizenz (Deutsch):License LogoCC BY: Creative-Commons-Lizenz: Namensnennung 4.0 International