Mara Santidrián Korff

23 November 2022

Der Einsatz von künstlicher Intelligenz im Recruiting – kritischer Erfolgsfaktor oder doch Verschlimmbesserung?

Der HR-Bereich wird durch den Megatrend der Digitalisierung und den globalen Wettbewerb ständig vor neue Herausforderungen gestellt. Die Lösung versprechen sich viele HRler*innen von Tools, die durch künstliche Intelligenz (KI) betrieben werden. Der Einsatz der KI-Tools im Recruiting soll dabei helfen Vielfalt, Gleichheit und Inklusion in die Unternehmenskultur zu integrieren und die Bewerber*innen gleichzeitig objektiv und frei von subjektiven Biases und Vorurteilen zu bewerten.

Künstliche Intelligenz im Recruiting? Praktisch anwendbar oder doch zu schön, um wahr zu sein?

Amazon hat sich bereits 2018 gegen den Einsatz von KI-gestützten HR-Tools entschieden. Der Onlineversandhändler versuchte die Personalauswahl und die Suche nach geeigneten Mitarbeiter*innen zu automatisieren. Daher entwickelten sie ein KI-gestütztes Tool, angelernt mit den Bewerber*innendaten aus den vergangenen zehn Jahren. Das Problem daran? 

Die Bewerbungen stammten in der Mehrheit von Männern. In Konsequenz bevorzugte das System männliche Bewerber und diskriminierte Frauen im Auswahlprozess. Sobald in den Bewerbungen Wörter wie “Frau” auftauchten, bewertete das System sie schlechter – und das nicht, weil der Algorithmus aus eigenem Willen für die Benachteiligung verantwortlich war, sondern die manuell ausgewählten Daten.

Die Erfahrung, „Vielfalt, Gleichheit und Inklusion” mit KI-Tools als Unternehmensziel zu etablieren, hat Amazon nicht erlebt.

Doch Firmen, die KI-Tools für den Personalbereich vertreiben, werben mit diversen Vorteilen ihrer Systeme:

  1. Die Bewerber*innen werden unabhängig von Geschlecht oder ethnischem Hintergrund erfasst
  2. KI-Tools sind in der Lage aus dem äußeren Erscheinungsbild der Bewerber*innen innere Eigenschaften und die Persönlichkeit abzuleiten
  3. KI-Tools können die*den ideale*n Bewerber*in identifizieren, aufgrund von zugrundeliegenden Prozessen der Kategorisierung

Diese Versprechen klingen verheißungsvoll. Das Beispiel von Amazon zeigt allerdings, dass die Tools in der Praxis nicht halten können, was sie versprechen. Liegt das an einer schlechten Umsetzung? Oder sorgen KI-betriebene HR-Tools für eine Verschlimmbesserung der bestehenden Auswahlprozesse?

Was haben die Wissenschaftler untersucht?

Drage & Mackereth (2022) haben die Fragestellung untersucht, ob Künstliche Intelligenz in der Lage ist, die Biases aus der Personalauswahl zu entfernen. Dazu haben sie ein KI-Modell nachgebildet, das in der Praxis häufig eingesetzt wird. Das Modell dient der Erfassung der Big Five – 5 zentrale Eigenschaften zur Ermittlung der Persönlichkeit werden erhoben: Offenheit, Extraversion, Gewissenhaftigkeit, Neurotizismus und Verträglichkeit. 

Was sind zentrale Erkenntnisse?

Drage & Mackereth (2022) fanden allerdings heraus, dass die Eignungsvorhersagen, die das Modell trifft, von verschiedenen Faktoren beeinflusst werden, die eigentlich nicht relevant sein dürften. 

Beispielsweise sorgte ein Bücherregal im Videohintergrund für eine bessere Bewertung der Bewerber*innen im Vergleich zu einem schlichten Hintergrund. Außerdem unterschieden sich die Bewertungen des KI-Tools in Abhängigkeit davon, ob die Bewerber*innen Brillen oder Kopftücher tragen.

Die Ergebnisse der Wissenschaftler der Cambridge University zeigen, dass das KI-Programm falsche Verbindungen im Versuch die Bewerber*innen zu kategorisieren, zieht. Dafür werden Faktoren herangezogen (z.B. Videohintergrund, Kleidung), die keine Rolle spielen dürften. Die Biases, die bei Menschen auftreten und zu einer falschen Beurteilung führen könnten, treten also gleichermaßen bei einer KI-Lösung auf. 

Was bedeutet das für die Praxis?

Der Einsatz von KI-Recruiting-Tools ist fehleranfällig. Drage & Mackereth (2022) widerlegen damit die Versprechen, die die KI-Tools so großzügig angekündigt haben:

  1. Versprechen: Die Bewerber*innen werden unabhängig von ihrem Geschlecht oder ethnischen Hintergrund erfasst

Den KI-Tools liegt ein falsches Verständnis dessen zugrunde, was Geschlecht und ethnischer Hintergrund eigentlich sind. Sie sind nicht als isolierbare Eigenschaften anzusehen, sondern viel eher als dynamische und sich überschneidende Machtsysteme einzuordnen.

  1. Versprechen: Vielfalt, Gleichheit und Inklusion in die Unternehmensziele integrieren

Die KI-Tools sorgen dafür, dass Ungleichheiten und Diskriminierung im Unternehmen erhalten bleiben. Die systematischen Probleme, die eigentlich in der Organisation bestehen, werden nicht identifiziert und verhindert, sondern nur an die KI-Software weitergegeben. Mit diesem Problem sah sich Amazon beim Versuch, künstliche Intelligenz im Recruiting einzusetzen, auch konfrontiert. 

  1. Versprechen: Die KI-Tools sind in der Lage aus dem äußeren Erscheinungsbild der Bewerber*innen innere Eigenschaften abzuleiten

Die Verbindungen, die die KI-Tools zwischen dem äußeren Erscheinungsbild und den inneren Eigenschaften herstellen, sind fehleranfällig und werden von irrelevanten Faktoren (z.B. Brille) beeinflusst.

  1. Versprechen: KI-Tools sind aufgrund von zugrundeliegenden Prozessen der Kategorisierung in der Lage, die*den ideale*n Bewerber*in zu identifizieren 

Die Kategorisierungsprozesse der KI-Tools basieren auf aktuellen Trends des Arbeitsmarktes. Das zeigt auch das Beispiel von Amazon: die vergangenen Bewerber*innendaten setzten sich zu großen Teilen aus Männern zusammen. Der Trend, dass technische Berufe von Männern dominiert werden, setzt sich damit auch in der Personalauswahl mithilfe von KI-Tools durch – denn die KI wird mit den vorhandenen Bewerber*innendaten angelernt. Damit ist die Bewertung durch die KI-Tools nur vermeintlich neutral und unabhängig.
Was sind sinnvolle Handlungsempfehlungen?


Was sind sinnvolle Handlungsempfehlungen?

Drage &  Mackereth (2022) geben einige Praxisempfehlungen für den Umgang mit KI-betriebenen HR-Tools vor.

  1. Für die Entwickler*innen der KI-Tools gilt: Der Fokus auf vereinzelte Biases in Auswahlprozessen ist nicht zielführend. Viel eher müssen die zugrunde liegenden Ungleichheiten und Probleme in Einstellungsprozessen identifiziert und adressiert werden.
  2. HRler*innen, die KI-Tools anwenden, müssen sich mit der Anwendungsweise der Tools und dessen Grenzen vertraut machen. Auch wenn die Tools viele Vorteile und eine immense Arbeitserleichterung versprechen, muss ein kritischer Blick die Schattenseite der KI-betriebenen Personalauswahl berücksichtigen.
  3. Die bisherigen Gesetze zur Regulation von KI-Tools sind unzureichend. Mehr Gesetze, Rahmenbedingungen und Regularien sind notwendig, um faire HR-Prozesse zu gewährleisten. 

Zusammenfassend gilt:

Die KI-Tools können bisher ihre Versprechen oftmals nicht halten. Stattdessen reproduzieren sie bisherige Formen von Ungleichheit und Ungerechtigkeit in Einstellungsentscheidungen. Die Folgerung, eine fairere Personalauswahl wäre durch den Einsatz einer künstlichen Intelligenz automatisch gegeben, ist nicht vollständig zu Ende gedacht! Vielmehr bedarf es hier mehr Technik-Kompetenz in der Personalauswahl, um sinnvolle Unterstützung von tönernen Heilsversprechen zu unterscheiden. 
Daher lohnt sich in der Praxis der Einsatz von digitalen Softwarelösungen, wie von Applysia. Durch die enge Orientierung an der DIN 33430, wird eine optimale Personalauswahl sichergestellt und die HRler*innen sind in der Lage, ideale Einstellungsentscheidungen zu treffen – und das ohne sich auf ein von künstlicher Intelligenz betriebenes HR-Tool zu verlassen. Mehr Informationen über Applysia sind auf unserer Website unter https://applysia.de/ zu finden.

en_USEnglish