KI – der Schlüssel zu diskriminierungsfreiem Recruiting?

11.05.2020 | Dr. Philipp Karl Seegers

KI im Recruiting
Quelle: Franki Chamaki

Dass künstliche Intelligenz vielerlei Möglichkeiten bietet, Prozesse zu optimieren, steht außer Frage. Auch in der HR finden Algorithmen einige Anwendungsbereiche, z. B. im Bereich People Analytics. Doch kann KI auch dabei helfen Recruitingentscheidungen fairer und diskriminierungsfreier zu machen? Um zu erklären, wie das funktionieren kann, stellt sich zunächst folgende Frage:

Künstliche Intelligenz und Fairness - wie passt das überhaupt zusammen?

Dystopien und Science-Fiction Filme haben jahrzehntelang ein eher skeptisches gesellschaftliches Bild von KI und Algorithmen gezeichnet. Grundsätzlich beunruhigt uns der Gedanke, dass Maschinen in der Lage sind, uns Prozesse abzunehmen, die wir selbst am besten zu meistern glauben. Doch dabei fehlt uns häufig die gewisse Selbstreflexion: Menschen neigen dazu, unterbewusst Fehler zu machen. Und das liegt nicht daran, dass wir weniger intelligent als Maschinen sind, sondern dass unsere Entscheidungen sehr häufig von kognitiven Verzerrungen beeinflusst werden. Kontrast- und Halo-Effekte, Unconscious- und Gender Bias, selbst die Reihenfolge von Interviews. Die Liste der möglichen Verzerrungen ist lang. Im Gegensatz dazu sind Algorithmen, wenn diese denn richtig aufgesetzt und kontrolliert werden, zumindest theoretisch frei von diesen Problemen. Die große Stärke solcher Systeme liegt in ihrer Objektivität. Diese Eigenschaft bildet die Grundlage für vergleichbare und faire Entscheidungen.

Was bedeutet das fürs Recruiting?

Auch Recruiterinnen und Recruiter bleiben von den oben beschriebenen kognitiven Verzerrungen nicht unbetroffen. Trotz speziellem Training und jahrelanger Erfahrung müssen wir uns im Klaren sein, dass vor allem Screening-Entscheidungen in der heutigen Form nie ganz objektiv sein werden. Das händische Beurteilen von Lebenslaufinformationen ist extrem fehleranfällig und lässt viele Verzerrungen zu.

Die von den meisten Unternehmen angestrebte Chancengerechtigkeit ihrer Rekrutierungsprozesse bleibt deswegen ein schwer erreichbares Ziel, besonders bei Faktoren wie Geschlecht und Herkunft wird häufig unterbewusst diskriminiert.

Auch hier bieten Algorithmen die Chance, dem entgegenzuwirken. Sie sind in der Lage nur festgelegte Faktoren zu vergleichen und zu bewerten, ohne dass Aussehen, Geschlecht und Herkunft einer Kandidatin oder eines Kandidaten eine Rolle spielen. Es können so diskriminierungsfrei bestimmte Profile ausgewählt werden, die dann im Anschluss weiter auf ihre Eignung überprüft werden können. Kognitive Verzerrungen im Screeningprozess werden somit vermieden und Recruiterinnen und Recruiter entlastet, indem sie vor potenziellen Fehlentscheidungen bewahrt werden.

Wie stellen wir sicher, dass auch Algorithmen diskriminierungsfrei funktionieren?

Algorithmen, die eine Vorauswahl von Kandidaten treffen sollen, müssen Informationen wie Bildung, Arbeitserfahrung, soziales Engagement und spezielle Fähigkeiten analysieren können und dabei valide Voraussagen treffen, ohne bestimmte Gruppen dabei zu diskriminieren. Da Algorithmen auf Basis vergangener Daten trainiert werden besteht aber die Gefahr, dass Algorithmen bereits vorhandene Diskriminierung fortschreiben und so manifestieren. Doch wie kann man diesem Problem entgegenwirken? Diese Frage hat sich auch FAIR (Fair Artificial Intelligence Recruiting) gestellt, ein vom Land NRW und der EU gefördertes Projekt, in dem Forschern der Universität zu Köln und der candidate select GmbH neue diskriminierungsfreie Recruiting-Algorithmen entwickeln. Als Antwort wurde der FAIR-Index entwickelt, der sowohl menschengemachte als auch auf Algorithmen zurückzuführende Diskriminierung messbar machen kann. Der Index bildet ab, wer fälschlicherweise eingestellt wurde und wer vielleicht übersehen wurde. Abweichungen sind natürlich nicht grundsätzlich ein Problem, aber wenn diese immer zulasten bestimmter Gruppen gehen ist dies ein Indiz für eine systematische Benachteiligung. Algorithmen, die bestehende Diskriminierung fortschreiben, werden also durch diesen Index identifiziert und können anschließend angepasst werden. Durch die kontinuierliche Evaluation eines Algorithmus kann dieser also sehr wohl die Fairness im Recruiting steigern und Diskriminierung abbauen.

Sind wir bereit für solche Technologien im Recruiting?

Bei aller Komplexität dieses Themas stellt sich die Frage, inwiefern wir bereit für eine derartige Umstellung unserer Prozesse sind. Interesse und Potenzial sind vorhanden, dennoch: Um gemeinsam Digitalisierung und neue Technologien voranzutreiben, müssen sich sowohl Anbieter als auch HR-Abteilungen stärker öffnen. Die einen sollten bereit für neue Technik und aufklärende Gespräche sein und die anderen müssen ihre Algorithmen transparent und einfach erklären. Wichtig dabei bleibt, selbst die besten Expertinnen und Experten können einen Algorithmus nicht ohne Datengrundlage überprüfen.

Deswegen müssen HR und auch andere Bereiche bereit sein, verantwortungsvoll Daten zu sammeln und zu analysieren.

Dies ist die Grundlage dafür, um zu beantworten, ob ein Algorithmus in einem bestimmten Kontext valide Voraussagen trifft und diskriminierungsfrei funktioniert. Lasst uns also gemeinsam daran arbeiten, um Technik und Innovation zum Positiven zu nutzen, um unsere Unternehmen diverser und unsere HR-Arbeit fairer zu gestalten!

 

 

Über den Autoren

Dr. Philipp Karl Seegers

Dr. Philipp Karl Seegers beschäftigt sich als „Labour Economist" mit dem Übergang zwischen Bildung und Arbeitsmarkt. Zusammen mit Dr. Jan Bergerhoff und Dr. Max Hoyer hat Philipp das HR-Tech Unternehmen candidate select GmbH (CASE) gegründet, welches große Datensätze und wissenschaftliche Methoden nutzt, um Bildungsabschlüsse vergleichbar zu machen.

www.candidate-select.de