Whitepaper: Akzeptanz von Algorithmen in der Personalauswahl

04.06.2020 | Zukunft Personal

Quelle: CASE

Diskriminierung als Herausforderung in der Personalauswahl rückt zunehmend in den Fokus der öffentlichen Diskussion. Dabei stellt sich unter anderem auch die Frage, ob die Nutzung technischer Hilfsmittel zu faireren Entscheidungen führen kann. Während 61 % der Recruiter*innen die zukünftige Nutzung digitaler Tools in der Personalauswahl für bedeutend halten, wurde die Position von Bewerbern im Allgemeinen und Studierenden im Speziellen zu dem Einsatz von Algorithmen noch nicht hinreichend erfasst.1

Die Analyse hierzu bildet den Kern der vorliegenden Fachkraft-2030-Sonderauswertung. Beleuchtet wird darüber hinaus die Erwartung von Hochschüler*innen gegenüber Algorithmen in der Personalauswahl hinsichtlich konkreter Anwendungskriterien:

(1) Transparenz von Entscheidungen
(2) Vermeidung von Fehlentscheidungen
(3) Abbauvon Diskriminierung und

(4) Entscheidungsgeschwindigkeit

Grundlage der Analyse bildet die seit 2012 halbjährlich durchgeführte Studierendenbefragung „Fachkraft 2030“. Befragt wurden im Rahmen der 16. Runde im März 2020 rund 15.500 Studierende. Erhoben wurde online, ausführliche Darstellungen zur Methodik können den auf fachkraft2030.de bereitgestellten Vollversionen der Studienreihe entnommen werden.2 Dabei konnten in der Vergangenheit keine systematischen Unterschiede zwischen der Fachkraft-2030-Stichprobe und der Population der deutschen Studierenden gefunden werden.

„Fachkraft 2030“ arbeitet themenspezifisch mit wechselnden Kooperationspartnern zusammen. Dazu gehören unter anderem das Bundesinstitut für Berufsbildung (BiBB) oder die Rheinische Friedrich-Wilhelms-Universität zu Bonn. Die Akzeptanz von Algorithmen ist erstmalig Teil der Studie. Diese Daten wurden im Rahmen des FAIR Projektes der candidate select GmbH und der Universität zu Köln ausgewertet.

Über das Projekt FAIR

FAIR ist ein vorwettbewerbliches Forschungsprojekt mit dem Ziel, den Arbeitsmarkt diskriminierungsfreier zu machen. Es gibt zwei Forschungsschwerpunkte: Erstens soll ein Kontrollmechanismus entworfen werden, der menschliche und algorithmische Diskriminierung sichtbar und messbar macht und zweitens sollen Algorithmen entwickelt werden, die Lebensläufe fair und zuverlässig vorauswählen können.

Das Projekt wird im Zeitraum vom 01.01.2020 bis zum 31.12.2021 durchgeführt und von Fördermitteln der EU und des Landes NRW unterstützt.

Mehr zu FAIR