Case Study 10 Min.

Bias in Recruiting-Daten erkennen

BiasRecruitingEthik

Ausgangslage

Die fiktive TechSolutions GmbH, ein mittelständisches Softwareunternehmen mit 300 Mitarbeitenden, führte ein KI-gestütztes Screening-Tool ein, um Bewerbungen effizienter zu sichten. Nach sechs Monaten Einsatz fiel dem HR-Team auf, dass bestimmte Bewerbergruppen systematisch niedrigere Scores erhielten. Eine interne Untersuchung wurde eingeleitet.

Die Entdeckung

Bei der Analyse der Screening-Ergebnisse stellte das Team folgende Auffälligkeiten fest:

  • Bewerberinnen erhielten im Durchschnitt 12% niedrigere Scores als Bewerber mit vergleichbarer Qualifikation.
  • Bewerbungen von Personen mit nicht-deutschem Namen wurden häufiger als "nicht passend" eingestuft.
  • Kandidaten mit Karrierelücken (z.B. Elternzeit) wurden systematisch abgewertet.

Die Ursachen

Die tiefere Analyse offenbarte mehrere Problemquellen:

Verzerrte Trainingsdaten

Das Modell wurde mit historischen Einstellungsdaten trainiert. Da in der Vergangenheit überwiegend männliche Kandidaten eingestellt wurden, lernte das Modell, dieses Muster zu reproduzieren. Die Trainingsdaten spiegelten keine objektive Qualität wider, sondern vergangene Entscheidungsmuster.

Proxy-Variablen

Auch ohne direkte Verwendung von Geschlecht oder Herkunft erkannte das Modell Korrelationen:

  • Bestimmte Hobbys und Vereinsmitgliedschaften korrelierten mit dem Geschlecht.
  • Die Nennung bestimmter Hochschulen korrelierte mit dem sozioökonomischen Hintergrund.
  • Sprachliche Formulierungsmuster variierten nach Herkunft.

Diese Proxy-Variablen ermöglichten es dem Modell, indirekt nach geschützten Merkmalen zu diskriminieren, selbst wenn diese nicht als Eingabedaten verwendet wurden.

Fehlende Fairness-Metriken

Bei der Einführung des Tools wurde ausschließlich auf Gesamtgenauigkeit optimiert. Es gab keine Prüfung, ob die Genauigkeit über verschiedene demografische Gruppen hinweg gleichmäßig verteilt war.

Der Audit-Prozess

Das HR-Team entwickelte gemeinsam mit einer externen Beratung einen strukturierten Audit-Prozess:

  1. Datenerhebung: Systematische Erfassung der Screening-Ergebnisse, aufgeschlüsselt nach demografischen Merkmalen (anonymisiert und aggregiert).
  2. Disparate-Impact-Analyse: Berechnung der Auswahlraten für verschiedene Gruppen. Die 80%-Regel (Four-Fifths-Rule) wurde als Schwellenwert verwendet.
  3. Feature-Importance-Analyse: Untersuchung, welche Merkmale den größten Einfluss auf die Scoring-Entscheidungen hatten.
  4. Kontrafaktische Tests: Identische Bewerbungen mit geänderten Namen, Geschlecht und anderen sensiblen Merkmalen wurden durch das System geschickt.

Maßnahmen

Basierend auf den Ergebnissen ergriff die TechSolutions GmbH folgende Schritte:

  • Das KI-Screening wurde vorübergehend ausgesetzt und durch ein strukturiertes manuelles Verfahren ersetzt.
  • Die Trainingsdaten wurden bereinigt und um gezielt ausbalancierte Datensätze ergänzt.
  • Fairness-Metriken (Equal Opportunity, Demographic Parity) wurden als feste Bewertungskriterien eingeführt.
  • Ein regelmäßiger Bias-Audit (vierteljährlich) wurde als Standardprozess etabliert.
  • Das HR-Team erhielt eine Schulung zu algorithmischer Fairness und Bias-Erkennung.

Erkenntnisse

Dieser Fall verdeutlicht, dass technische Effizienz allein kein ausreichendes Kriterium für den Einsatz von KI im Recruiting ist. Ohne aktive Überprüfung auf Fairness können KI-Systeme bestehende Ungleichheiten verstärken, anstatt sie zu reduzieren. Ein kontinuierlicher Monitoring-Prozess und klare Verantwortlichkeiten sind unverzichtbar.