KI-Rekrutierung: Gerechte Entscheidung oder Vorurteilsfalle?

Verstärkung vorgefasster Meinungen: Eine Untersuchung darüber, wie soziale Vorurteile unbeabsichtigt verschärft werden. Dieser Artikel analysiert verborgene Vorurteile in alltäglichen Verhaltensweisen und Entscheidungen, deckt deren potenzielle Auswirkungen auf die soziale Gerechtigkeit auf und schlägt Denkansätze zur Verringerung von Vorurteilen vor.

Neue Herausforderung bei der Bewerbung: Mensch-Maschine-Konfrontation mit "eisernem und unparteiischem" KI-Interviewer

Es ist wieder Abschlusszeit, und das obige "Du" könnte ein Spiegelbild von Millionen von Absolventen sein.

Die Revolution der künstlichen Intelligenz hat begonnen und betrifft fast alle Aspekte des beruflichen und persönlichen Lebens der Menschen, einschließlich akademischer Interviews und Arbeitsrekrutierung.

Unternehmensführungen erkennen zunehmend, dass künstliche Intelligenz in allen Bereichen wie Lieferkettenmanagement, Kundenservice, Produktentwicklung und Personalwesen zu höherer Effizienz führen kann.

Eine der Anwendungen in der Rekrutierung ist der sogenannte "KI-Interviewer".

Es handelt sich dabei um einen Frage-Antwort-Roboter, der in Echtzeit interagieren kann. Durch verschiedene Algorithmen wie semantische Erkennung, Gesichtsausdruckserkennung und Spracherkennung analysiert und strukturiert er die Antworten der Bewerber auf vorgegebene Fragen und gibt schließlich eine Referenzbewertung ab.

Zum Beispiel hat KI bei der Auswahl von Lebensläufen nach Stellenanforderungen Vorteile in Bezug auf Genauigkeit und Effizienz gegenüber Menschen, und bei relativ einfachen, standardisierten Erstgesprächen kann sie die erste Auswahl am schnellsten durchführen.

Darüber hinaus ist der KI-Interviewer tatsächlich im physischen Sinne "eisern und unparteiisch" und kann Voreingenommenheit, Diskriminierung und Vetternwirtschaft vermeiden, die durch menschliche Interviewer verursacht werden können, und so die Fairness und Konsistenz der Entscheidungsfindung verbessern.

Der "Forschungsbericht zur Entwicklung des chinesischen Online-Rekrutierungsmarktes 2023" zeigt, dass der Anteil von KI-Video-Interviews in Anwendungsszenarien bereits 31,8% erreicht hat, und dieser Anteil wird in Zukunft nur noch zunehmen.

Nicht nur in China, sondern auch weltweit wird KI immer häufiger zur Verbesserung der Rekrutierungseffizienz eingesetzt.

Der Konsumgüterriese Unilever hat einmal Daten veröffentlicht, die zeigen, dass KI 100.000 Stunden Interviewzeit einsparen und jährlich 1 Million US-Dollar an Rekrutierungskosten sparen kann.

Obwohl die Einführung von KI Kosten senken und die Effizienz steigern kann, tragen sowohl das Wesen der künstlichen Intelligenz als auch die zugrunde liegenden Trainingsdaten menschliche Prägungen und führen unvermeidlich zu menschlichen Vorurteilen, die sogar auf der Grundlage bestehender Vorurteile "verschlimmert" werden können.

Verstärkung menschlicher Vorurteile

Obwohl einer der Gründe für den Einsatz künstlicher Intelligenz bei der Rekrutierung darin besteht, objektiver zu sein, haben mehrere Studien gezeigt, dass diese Technologie tatsächlich voreingenommen sein kann.

Der Hauptgrund dafür sind die Daten. Wenn die Daten voreingenommen und fehlerhaft sind, wird die künstliche Intelligenz diese Mängel kopieren.

Nach Interviews mit 22 Personalfachleuten identifizierte The Decoder zwei häufige Vorurteile bei der Rekrutierung - "Stereotypen-Vorurteile" und "Ähnlichkeits-Vorurteile".

"Stereotypen-Vorurteile" stammen, wie der Name schon sagt, aus Stereotypen über bestimmte Gruppen. Zum Beispiel die Bevorzugung von Bewerbern eines bestimmten Geschlechts, was zu Geschlechterungleichheit führt.

"Ähnlichkeits-Vorurteile" beziehen sich darauf, dass Recruiter Bewerber mit ähnlichem Hintergrund oder Interessen bevorzugen.

Diese Vorurteile können die Fairness des Rekrutierungsprozesses ernsthaft beeinträchtigen. Sie können in historische Rekrutierungsdaten einfließen und dann zum Training von KI-Systemen verwendet werden, was zu KI-Voreingenommenheit führt.

Zum Beispiel begann Amazon 2014 mit der Entwicklung künstlicher Intelligenz zur Lebenslaufauswahl in der Hoffnung, schnell die idealen Kandidaten aus einer großen Menge von Lebensläufen herauszufiltern.

Diese Technologie wurde jedoch nach nur einem Jahr eingestellt, als man feststellte, dass die KI-Auswahlergebnisse eine starke Geschlechterneigung aufwiesen.

Selbst wenn das Geschlecht in den Bewerberlebensläufen nicht explizit angegeben war, suchte die KI nach "Hinweisen" in den Details des Textes, wie zum Beispiel "Kapitänin des Frauenschachclubs" oder Abschluss an einer Frauenuniversität.

Insider berichten, dass das Trainingsmaterial für diese KI die Einstellungshistorie des Unternehmens der letzten 10 Jahre war, und im Technologiebereich haben langfristige berufliche Stereotypen und eine "männerfreundliche Kultur" zu einer größeren Anzahl männlicher Mitarbeiter geführt, insbesondere in technischen Positionen.

2017 gab Amazon dieses KI-Modell zur Lebenslaufauswahl auf.

Das anhaltende Vorhandensein solcher Vorurteile zeigt, dass unabhängig davon, ob KI verwendet wird oder nicht, eine sorgfältige Planung und Überwachung erforderlich ist, um die Fairness des Rekrutierungsprozesses zu gewährleisten.

Können Menschen Vorurteile beseitigen?

Neben Personalfachleuten interviewte The Decoder auch 17 KI-Entwickler, um zu untersuchen, wie KI-Rekrutierungssysteme entwickelt werden können, um Rekrutierungsvorurteile zu reduzieren statt zu verstärken.

Basierend auf den Interviews entwickelten sie ein Modell, bei dem Personalfachleute und KI-Ingenieure während des Prozesses der Untersuchung von Datensätzen und der Entwicklung von Algorithmen Informationen austauschen, vorgefasste Meinungen hinterfragen und beseitigen.

Die Forschungsergebnisse zeigen jedoch, dass die Schwierigkeit bei der Umsetzung dieses Modells in den Bildungs- und beruflichen Unterschieden zwischen Personalfachleuten und KI-Entwicklern liegt.

Diese Unterschiede behindern die Fähigkeit zur effektiven Kommunikation, Zusammenarbeit und sogar zum gegenseitigen Verständnis.

Personalfachleute werden traditionell in Personalmanagement und Organisationsverhalten geschult, während KI-Entwickler Experten für Datenberechnung und Technologie sind. Diese unterschiedlichen Hintergründe können bei der Zusammenarbeit zu Missverständnissen und Unstimmigkeiten führen.

Wie man KI + HR optimiert

Eine kürzlich durchgeführte Umfrage des Pew Research Center unter 11.004 Amerikanern ergab, dass 66% der Menschen nicht bei Arbeitgebern arbeiten möchten, die KI für die Rekrutierung einsetzen.

Nur 32% gaben an, dass sie sich bewerben würden, während der Rest unsicher war. 71% der Befragten lehnten Einstellungsentscheidungen durch KI ab.

Wenn Unternehmen und die Personalbranche das Problem der Voreingenommenheit bei KI-Rekrutierung lösen wollen, müssen daher einige Änderungen vorgenommen werden.

Erstens ist eine strukturierte Schulung für Personalfachleute mit Schwerpunkt auf Informationssystementwicklung und künstlicher Intelligenz von entscheidender Bedeutung.

Die Schulungsinhalte sollten die Grundprinzipien der KI, wie man Voreingenommenheit in Systemen erkennt und wie man diese Voreingenommenheit reduziert, umfassen.

Darüber hinaus ist es wichtig, eine bessere Zusammenarbeit zwischen Personalfachleuten und KI-Entwicklern zu fördern.

Unternehmen sollten Teams bilden, die sowohl Personal- als auch KI-Experten einschließen. Dies hilft, Kommunikationslücken zu überbrücken und die Arbeit beider Seiten besser zu koordinieren.

Außerdem sollten hochwertige Datensätze mit kultureller Vielfalt erstellt werden, um sicherzustellen, dass die in KI-Rekrutierungsprozessen verwendeten Daten verschiedene Bevölkerungsgruppen repräsentieren.

Schließlich müssen Länder Richtlinien und ethische Standards für den Einsatz von KI bei der Rekrutierung entwickeln, um Vertrauen aufzubauen und Fairness zu gewährleisten. Organisationen sollten Rechenschaftspflicht und Transparenz im KI-Entscheidungsprozess implementieren.

Durch diese Maßnahmen können wir ein inklusiveres und faireres Rekrutierungssystem schaffen. Da KI gut in der objektiven Datenanalyse und Entscheidungsunterstützung ist, sollte sie als Hilfsmittel eingesetzt werden, anstatt mit unzureichendem Training "dumm" und vorurteilsbehaftet voreilig zum Schicksalsrichter zu werden.

Referenzen:

https://the-decoder.com/what-will-a-robot-make-of-your-resume-the-bias-problem-with-using-ai-in-job-recruitment/