KI-Rekrutierungssoftware ist laut Cambridge-Studie „automatisierte Pseudowissenschaft“.

Quellknoten: 1722666

Behauptungen, dass KI-gestützte Rekrutierungssoftware die Vielfalt von Neueinstellungen an einem Arbeitsplatz steigern kann, wurden in einer diese Woche veröffentlichten Studie widerlegt.

Befürworter von maschinellen Lernalgorithmen, die darauf trainiert sind, die Körpersprache zu analysieren und die emotionale Intelligenz von Kandidaten vorherzusagen, glauben, dass die Software eine gerechtere Methode zur Beurteilung von Arbeitnehmern bietet, wenn sie Geschlecht und Rasse nicht berücksichtigt. Sie argumentieren, dass die neuen Tools menschliche Vorurteile beseitigen und Unternehmen helfen könnten, ihre Ziele in Bezug auf Vielfalt, Gerechtigkeit und Inklusion zu erreichen, indem sie mehr Mitarbeiter aus unterrepräsentierten Gruppen einstellen.

Sondern ein Papier veröffentlicht in der Zeitschrift Philosophie und Technik von zwei Forschern der University of Cambridge zeigt jedoch, dass die Software kaum mehr als „automatisierte Pseudowissenschaft“ ist. Sechs Informatik-Studenten replizierten ein kommerzielles Modell, das in der Industrie verwendet wird, um zu untersuchen, wie KI-Rekrutierungssoftware die Persönlichkeit von Menschen anhand von Bildern ihrer Gesichter vorhersagt. 

Die „Persönlichkeitsmaschine“ genannt System sucht nach den „großen fünf“ Persönlichkeitstropen: Extraversion, Verträglichkeit, Offenheit, Gewissenhaftigkeit und Neurotizismus. Sie stellten fest, dass die Vorhersagen der Software von Änderungen der Gesichtsausdrücke, der Beleuchtung und des Hintergrunds der Menschen sowie der Wahl ihrer Kleidung beeinflusst wurden. Diese Merkmale haben nichts mit den Fähigkeiten eines Arbeitssuchenden zu tun, daher ist die Verwendung von KI für Rekrutierungszwecke fehlerhaft, argumentieren die Forscher. 

„Die Tatsache, dass Änderungen von Licht, Sättigung und Kontrast Ihren Persönlichkeitswert beeinflussen, ist ein Beweis dafür“, sagte Kerry Mackereth, Postdoktorandin am Centre for Gender Studies der Universität Cambridge Das Register. Die Ergebnisse des Papiers werden durch frühere Studien gestützt, die gezeigt wie das Tragen einer Brille und eines Kopftuchs in einem Videointerview oder das Hinzufügen eines Bücherregals im Hintergrund die Punktzahl eines Kandidaten für Gewissenhaftigkeit und Neurotizismus verringern kann, stellte sie fest. 

Mackereth erklärte auch, dass diese Tools wahrscheinlich darauf trainiert sind, nach Attributen zu suchen, die mit früheren erfolgreichen Kandidaten verbunden sind, und daher eher ähnlich aussehende Personen rekrutieren, anstatt Vielfalt zu fördern. 

„Modelle des maschinellen Lernens werden als prädiktiv verstanden; Da sie jedoch anhand vergangener Daten trainiert wurden, wiederholen sie Entscheidungen, die in der Vergangenheit getroffen wurden, nicht in der Zukunft. Da die Tools aus diesem bereits vorhandenen Datensatz lernen, entsteht eine Rückkopplungsschleife zwischen dem, was die Unternehmen als idealen Mitarbeiter wahrnehmen, und den Kriterien, die von automatisierten Rekrutierungstools zur Auswahl von Kandidaten verwendet werden“, sagte sie.

Die Forscher glauben, dass die Technologie strenger reguliert werden muss. „Wir befürchten, dass einige Anbieter ‚Schlangenöl‘-Produkte in eine glänzende Verpackung packen und sie an ahnungslose Kunden verkaufen.“ sagte Co-Autorin Eleanor Drage, Postdoktorandin ebenfalls am Zentrum für Geschlechterforschung. 

„Während Unternehmen möglicherweise nicht in böser Absicht handeln, gibt es wenig Verantwortung dafür, wie diese Produkte hergestellt oder getestet werden. Daher könnten diese Technologie und die Art und Weise, wie sie vermarktet wird, zu einer gefährlichen Quelle für Fehlinformationen darüber werden, wie die Personalbeschaffung „vorurteilsfrei“ und gerechter gestaltet werden kann“, fügte sie hinzu.

Mackereth sagte, dass, obwohl das KI-Gesetz der Europäischen Union solche Rekrutierungssoftware als „hohes Risiko“ einstuft, es unklar ist, welche Regeln durchgesetzt werden, um diese Risiken zu verringern. „Wir denken, dass diese Tools und die Marketingaussagen, die über diese Produkte gemacht werden, viel ernsthafter geprüft werden müssen und dass die Regulierung von KI-gestützten HR-Tools eine viel wichtigere Rolle in der KI-Politikagenda spielen sollte.“

„Während die Schäden von KI-gestützten Einstellungstools weitaus latenter und heimtückischer zu sein scheinen als hochkarätige Fälle von algorithmischer Diskriminierung, besitzen sie das Potenzial, langfristige Auswirkungen auf die Beschäftigung und die sozioökonomische Mobilität zu haben“, schloss sie. ®

Zeitstempel:

Mehr von Das Register