Kognitive Verzerrung (Cognitive Bias)
Kognitive Verzerrungen sind menschliche Vorurteile, welche die Entwicklung und das Training von KI-Systemen beeinflussen können. Entwickler und Datenwissenschaftler bringen meist unbewusst ihre eigenen Vorurteile und Annahmen in die KI-Modelle ein, was zu verzerrten Ergebnissen führen kann. Diese kognitiven Verzerrungen wirken sich auf die Art und Weise aus, wie Daten ausgewählt, interpretiert und genutzt werden. Diese Art von Coded Bias beeinträchtigt die Fairness und Genauigkeit der KI-Technologie.
Weitere mögliche Vorurteile
Datensatz-Bias, algorithmische Voreingenommenheit und kognitive Verzerrungen können sich in unterschiedlichen Ausprägungen zeigen. Das Auftreten dieser Vorurteile verdeutlicht die Notwendigkeit sorgfältiger Überprüfung und Anpassung von Trainingsdaten und Algorithmen, um sicherzustellen, dass KI-Systeme wie beispielsweise Large Language Models (LLMs) fair und inklusiv arbeiten.
Geschlechter-Bias: Diskriminierung aufgrund von unausgewogenen Trainingsdaten, die geschlechtsspezifische Stereotype verstärken und Menschen unterschiedlichen Geschlechts, oft Frauen, benachteiligen
Rassistische Voreingenommenheit: Vorurteile, die ethnische Gruppen benachteiligen und oft darauf basieren, dass bestimmte Gruppen in den Datensätzen unterrepräsentiert sind
Alters-Bias: Diskriminierung von Menschen aufgrund ihres Alters, wenn die Trainingsdaten altersbezogene Vorurteile enthalten
Sozioökonomischer Bias: Benachteiligung von Menschen aufgrund ihres sozialen oder wirtschaftlichen Status, die sich in den Trainingsdaten widerspiegeln
Kultureller Bias: Diskriminierung aufgrund kultureller Unterschiede, wenn die künstliche Intelligenz nicht auf vielfältige kulturelle Kontexte trainiert wurde
Beispiele für AI Bias im Alltag
Ein bekanntes Beispiel für Coded AI Bias im Alltag ist die Erkennung von Gesichtern mittels Gesichtserkennungssoftware, die häufig in Sicherheits- und Überwachungssystemen Verwendung findet. Diese Technologie kann rassistische Vorurteile zeigen, indem sie Gesichter weißer Menschen deutlich besser erkennt als die nicht-weißer Menschen. Eine mögliche Folge können falsche Identifizierungen und ungerechtfertigte Verdächtigungen sein.
Ein weiteres Beispiel bietet der Einsatz künstlicher Intelligenz auf dem Arbeitsmarkt. Unternehmen wie Amazon haben KI-Systeme zur Vorauswahl von Bewerbern genutzt. Dabei konnte beobachtet werden, dass diese Systeme geschlechtsspezifische und rassistische Vorurteile reproduzierten. Amazons Rekrutierungssystem bevorzugte männliche Bewerber, da die Trainingsdaten überwiegend aus Lebensläufen männlicher Bewerber bestanden, was zu einer systematischen Benachteiligung qualifizierter weiblicher Bewerber führte.
Im Rahmen von Finanzdienstleistungen greifen unterschiedliche Anbieter immer mehr auf Algorithmen und künstliche Intelligenzen bei der Auswertung von Daten zurück. Auch in diesem Bereich konnten bereits benachteiligende AI Bias festgestellt werden. KI-Modelle zur Bewertung der Kreditwürdigkeit neigen dazu, Kreditanträge von Minderheiten häufiger abzulehnen. In der Regel basiert dieses Phänomen auf historischen Daten, die sozioökonomische Unterschiede widerspiegeln. Dies führt zu ungerechter Behandlung von Menschen aus bestimmten ethnischen Gruppen oder sozioökonomischen Schichten.
Was vor einigen Jahren noch Teil von Science Fiction Filmen war, ist durch den Fortschritt der KI mittlerweile längst Teil der Realität: Predictive Policing-Algorithmen in der Strafverfolgung. Diese Systeme versuchen, Verbrechen zu erkennen, bevor diese begangen werden. Dazu werden historische Kriminalitätsraten und Falldaten ausgewertet und diese Erkenntnisse angewandt. Allerdings klassifizieren diese Algorithmen Gebiete mit einer hohen Bevölkerungsdichte von Minderheiten oft als kriminalitätsanfällig, was zu verstärkter Überwachung und Diskriminierung dieser Gemeinschaften führt.
Wie kann man Coded Bias vermeiden?
Coded Bias in KI-Systemen zu vermeiden, erfordert mehrere Ansätze. Durch die Kombination verschiedener Strategien zur Minimierung der Voreingenommenheit in künstlichen Intelligenzen können helfen, die Fairness und Genauigkeit der Ergebnisse zu verbessern.
Qualitative Trainingsdaten nutzen: Der Einsatz vielfältiger und repräsentativer Trainingsdaten reduziert die Wahrscheinlichkeit von Verzerrungen
Transparenz bei der Entwicklung: Offene Darlegung der Funktionsweise und der verwendeten Daten ermöglicht eine externe Überprüfung und hilft, potenzielle Bias frühzeitig zu erkennen
Regelmäßige Tests und Optimierungen: Ständige Evaluierung und Verbesserung der KI-Modelle stellt sicher, dass die Systeme fair und akkurat arbeiten
Überprüfung durch Menschen: Menschliche Kontrolle der KI-Ausgaben gewährleistet, dass die generierten Informationen korrekt und relevant sind
Vielfältige Entwicklungsteams: Teams mit unterschiedlichen Hintergründen und Perspektiven sind besser in der Lage, potenzielle Vorurteile zu erkennen und zu adressieren
Kann eine künstliche Intelligenz jemals unvoreingenommen sein
Das grundlegende Problem der Voreingenommenheit künstlicher Intelligenzen besteht in den vorbelasteten Trainingsdaten, die menschliche Vorurteile und verzerrte Wahrnehmungen widerspiegeln. Basieren die Algorithmen selbst auf fehlerhaften Annahmen oder Modellen, verstärkt dies die Gefahr für Coded Bias. Dabei ist es nahezu unmöglich, alle Verzerrungen für Gesichtserkennungssoftware, Large Language Models und andere KI-Systeme auszuschließen.
Hinzu kommen die unbewussten Vorurteile menschlicher Entwickler, die ebenfalls in den Code einfließen können. Diese Denkweisen sind tief im kulturellen Gedächtnis und den Denkprozessen der Menschen verankert. Aufgrund der vielfältigen Faktoren ist es unwahrscheinlich, dass eine künstliche Intelligenz jemals vollständig unvoreingenommen agieren kann.
Fazit: Coded Bias in AI-Algorithmen erkennen und handeln
Coded Bias der künstlichen Intelligenz sind in einer Vielzahl von Faktoren begründet. Dazu zählen die Qualität und Repräsentativität der Trainingsdaten, die Algorithmen und die bewussten sowie unbewussten Vorurteile der Entwickler. Ob es eine Gesichtserkennungssoftware ist, die Gesichter von Weißen besser erkennt als die Gesichter anderer ethnischer Gruppen oder Software, die Frauen bei der Jobsuche aufgrund überwiegend männlicher Datensätze benachteiligt: Coded Bias stellen ein Problem modernen KI-Systeme dar. Daher müssen Entwickler und Betreiber künstlicher Intelligenzen auf eine sorgfältige Auswahl der Trainingsdaten, hohe Transparenz bei der Entwicklung der Algorithmen und regelmäßige Tests sowie menschliche Überprüfung achten. Nur so kann die Gefahr für Coded Bias langfristig reduziert werden und eine für alle Menschen faire Etablierung von KI-Systemen unser aller Leben leichter und effizienter gestalten.