Wie lässt sich KI im Personalwesen FAIR entwickeln und einsetzen?
So wie viele Branchen erfährt das Personalwesen eine zunehmende Automatisierung und Algorithmisierung. Technologien der künstlichen Intelligenz (KI) werden vermehrt für Aufgaben wie die Kontaktaufnahme mit Bewerber*innen, das Filtern von Lebensläufen oder die Durchführung von Bewerbungsgesprächen erforscht und eingesetzt. Gerade in Zeiten des Fachkräftemangels und angesichts des Zeit- und Kostenaufwands klassischer Auswahlverfahren hat diese Entwicklung großes Potenzial: KI-basierte Systeme sollen nicht nur effizienter und effektiver geeignete Bewerber*innen identifizieren, sondern dabei auch objektiver und vorurteilsfreier als menschliche Personaler*innen agieren.
Doch KI-Systeme basieren auf oft subjektiven menschlichen Inputs und Daten aus komplexen sozialen Kontexten. Beruhen automatisierte Entscheidungen auf voreingenommenen Daten, können sie gesellschaftliche Ungleichheiten reproduzieren und automatisieren. Beim Einsatz in der Personalauswahl können vulnerable Gruppen wie ethnische Minderheiten, Frauen oder Personen mit Behinderung so weiter benachteiligt werden. Zudem sind die zugrundeliegenden algorithmischen Entscheidungen oft intransparent; das heißt, dass im schlimmsten Fall weder Personaler*innen noch Bewerber*innen exakt nachvollziehen können, aus welchen Gründen und mit welchen Methoden jemand vom System als (un)geeignet eingestuft wurde. Gleichzeitig kann die vermeintliche Objektivität und Autorität von maschinellen Entscheidungen dazu führen, dass KI-Empfehlungen, die die Entscheidungsfindung von Personen eigentlich nur unterstützen sollen, blind gefolgt wird.
Im November 2023 hat das Projekt FAIR („Fair Automated and Intelligent Recruiting“) begonnen. In FAIR arbeiten die Projektpartner SAPHIR Deutschland GmbH (Konsortialleitung), Sagacity Intelligence und die AG ViSiR der Hochschule Reutlingen an einem KI-gestützten Recruiting-System, das den Fokus auf Fairness, Diversität, Transparenz und Erklärbarkeit legt. Die Arbeit des IZEW spielt daher eine Schlüsselrolle im Projekt: Über technische Anforderungen wie den Einsatz von Fairness-Metriken hinaus beansprucht die Entwicklung eines möglichst diskriminierungsfreien und transparenten Systems eine kontinuierliche Auseinandersetzung mit ethischen Normen. In konkrete Arbeiten übersetzt bedeutet das:
-
Wir sammeln und analysieren ethische und sozialwissenschaftliche Literatur, um das Thema des KI-basierten Recruitings in stattfindenden Diskursen zu verorten. Wichtige Fragestellungen dabei sind z.B. verschiedene Auffassungen von KI-Fairness oder das Spannungsfeld zwischen gesellschaftlicher Akzeptanz und Akzeptabilität.
-
Wir organisieren Ethik-Workshops mit den Projektmitarbeiter*innen, um eine ethisch informierte Entwicklung des Systems von Beginn an sicherzustellen. Schwerpunkte dabei sind Grundlagen der KI- und Datenethik, normative Anforderungen aus der KI-Verordnung der Europäischen Union (AI Act) und konkrete ethische Problemstellungen, die sich aus dem Projekt ergeben.
-
Zusammen mit den Projektpartnern entwickeln wir Anforderungsspezifikationen und Trainingsmaterialien für Anwender*innen. Das erhöht zum einen Transparenz und Erklärbarkeit und kann zum anderen auch das Risiko des blinden Vertrauens in das System verringern.
Die hohe Relevanz von normativer Forschung zu KI im Personalwesen zeigt sich auch in der Einordnung dieser Technologien durch den AI Act: Sie können die berufliche Laufbahn, den Lebensunterhalt und die Arbeitnehmerrechte von Personen entscheidend beeinträchtigen und werden daher als Hochrisikosysteme eingestuft. Da sowohl die Nutzung als auch die Regulierung von KI-Plattformen im Personalwesen zunehmen, hat die Forschung in FAIR das Potenzial, ethische Standards für zukünftige Studien und Produkte in diesem Bereich zu setzen.
Das Projekt wird gefördert vom Programm Invest BW des Ministeriums für Wirtschaft, Arbeit und Tourismus.
Verfasst von: Dr. Lou Therese Brandner