Bevor die KI Ihren Job übernimmt, übernimmt sie Ihre Bewerbung

In „Der Algorithmus“ entlarvt Hilke Schellmann die Robo-Job-Recruiter, die zwischen Ihnen und Ihrem Traumjob stehen.
Bevor die KI Ihren Job übernimmt, übernimmt sie Ihre Bewerbung
Photo: Christin Hume (Andere)
Für die Links auf dieser Seite können wir eine Provision verdienen.

Ende 2017 war Hilke Schellmann gerade dabei, eine Konferenz in Washington, D.C., zu beenden, als sie eine Mitfahrgelegenheit zum Bahnhof anrief. Der Filmemacher und Journalismusprofessor an der New York University sprang in ihr Lyft, fragte den Fahrer, wie es ihm ginge, und wartete kurz. „Es sei ein seltsamer Tag gewesen“, antwortete er. „Er hatte sich um eine Stelle als Gepäckabfertiger am örtlichen Flughafen beworben und wurde am Nachmittag zu einem Vorstellungsgespräch mit einem Roboter gerufen.“

Schellmann war fasziniert. Im darauffolgenden April nahm sie an ihrer ersten HR-Tech-Konferenz teil und sah, wie ein Unternehmen namens HireVue eine neue Art von Videointerview vorstellte: Dabei wurde mithilfe künstlicher Intelligenz die Mimik und der Tonfall der Kandidaten analysiert, um festzustellen, wie gut sie für eine Stelle geeignet waren. Diese Analyse konnte dazu verwendet werden, ein Stellenangebot zu machen – oder abzulehnen. „Es schien wie Zauberei“, erinnert sich Schellmann. Doch als sie begann, Fragen zur wissenschaftlichen Grundlage dieser Analyse zu stellen, wurde ihr klar, dass es keine gab.

Jetzt eine Reihe von HR-Software verspricht, dass KI Unternehmen dabei helfen kann, bessere Mitarbeiter einzustellen als Menschen. KI wird bereits in unseren Bewerbungen eingesetzt: Mehr als 80 % der Arbeitgeber nutzen sie für Einstellungsentscheidungen, schätzte die Vorsitzende der US-amerikanischen Equal Employment Opportunity Commission Charlotte Burrows im Jahr 2023. Heute durchleuchten Roboter unsere Lebensläufe und zeichnen unsere ersten Interviews auf, um die besten Einstellungen zu empfohlen zu haben. Aber das ist noch nicht alles: Manche bitten uns zu spielen KI-Videospiele, wo das Aufpumpen eines virtuellen Ballons angeblich Aufschluss über Ihre beruflichen Fähigkeiten geben soll. Manche hören unsere Vorstellungsgespräche mit und werten unsere Worte aus, um unsere Soft Skills vorherzusagen. Wieder andere scannen blitzschnell unsere sozialen Medien und erstellen Persönlichkeitsprofile im Stil von Cambridge Analytica für unsere zukünftigen Arbeitgeber. Viele brauchen unsere Erlaubnis nicht um loszulegen – und oft wissen wir nie , dass wir von einem Algorithmus bewertet wurden.

In ihrem neuen Buch Der Algorithmus: Wie KI entscheidet, wer eingestellt, überwacht, befördert und entlassen wird, und warum wir uns jetzt wehren müssenSchellmann wirft einen Blick in die Blackbox, die darüber entscheidet, ob wir einen Job bekommen oder nicht – und stellt fest, dass die Maschinen sind ebenso fehlerhaft als die Menschen die sie errichten. In der Ausstellung als Kandidatin deckt sie deren Versäumnisse aus erster Hand auf: Transkriptionstools geben ihr gute Noten in Englisch nach sie spricht mit ihnen auf Deutsch; Social-Media-Screener spuckten gegensätzliche Persönlichkeitsprofile aus, je nachdem sie ihr Twitter oder ihr LinkedIn ansehen.

In der Zwischenzeit spricht Schellmann mit mehr als 200 Personen – Arbeitsrechtsanwälten, Organisationspsychologen, Aufsichtsbehörden, Personalvermittlern, Bewerbern und den Maschinenherstellern selbst –, um herauszufinden, wie diese Tools nicht nur menschliche Vorurteile reproduzieren, sondern auch völlig neue Wege der Diskriminierung schaffen.

Quartz sprach mit Schellmann darüber, wie es dazu kam, dass bei der Einstellung von Mitarbeitern weniger Menschen und mehr Computer zum Einsatz kamen und darüber, was Bewerber tun können, um ein wenig Kontrolle zurückzuerlangen. Dieses Interview wurde aus Gründen der Länge und Klarheit bearbeitet und gekürzt.

Quarz: Die überwiegende Mehrheit der Arbeitssuchenden stößt bei der Suche nach offenen Stellen auf eine Art von KI. (Alle großen Jobplattformen – wie LinkedIn, Indeed, ZipRecruiter und Monster – bestätigen Sie den Einsatz von KI, obwohl sie nicht verpflichtet sind, genau offenzulegen wo und wie diese Funktion funktioniert.) Warum kaufen Unternehmen zusätzliche KI-Tools von Anbietern?

Hilke Schellmann: Das Aufkommen von Jobbörsen wie LinkedIn und Monster [war] für Bewerber wunderbar – Sie können Ihren Lebenslauf jeden Tag an viele, viele Leute und Stellenangebote schicken. Auf der anderen Seite hat das dazu geführt, dass Unternehmen das Gefühl haben, mit Bewerbungen überschwemmt zu werden und sie nicht alle lesen zu können. Google beispielsweise gibt an, dass sie jedes Jahr etwa 3 Millionen Bewerbungen erhalten. Menschliche Personalvermittler können unmöglich alle diese Lebensläufe oder Bewerbungen durchgehen, also brauchen diese Unternehmen eine technische Lösung.

Genau darauf bieten KI-Anbieter an: Sie sagen: „Hey, wir haben eine tolle Lösung. Sie ist effizient, spart Ihnen Geld und findet ohne Voreingenommenheit die am besten qualifizierten Kandidaten für den Job.“ Wir haben Beweise dafür gesehen, dass [die Technologie] sehr effizient ist und viel Geld spart. Wir haben jedoch nicht viele Belege dafür gefunden, dass sie die am besten qualifizierten Kandidaten findet oder dass es weniger Voreingenommenheit gibt.

KI-Tools basieren auf Daten, die von Menschen gewonnen wurden. Bei Lebenslauf-Screenern beispielsweise wird die KI anhand der Lebensläufe aktueller Mitarbeiter trainiert und lernt, nach Mustern in ihnen zu suchen. In manchen Fällen kann uns das bestehende Ungleichheiten vor Augen führen. In mehr als einem Fall hat eine KI, die anhand der Daten eines männerdominierten Teams trainiert wurde, gelernt, Frauen niedriger zu bewerten. In manchen Fällen kann dies zu Folgendem führen: völlig neue Vorurteile. Wie werden diese Fehler erkannt?

Von Zeit zu Zeit ziehen Unternehmen externe Berater und Anwälte hinzu, um diese Tools zu evaluieren. [Der ehemalige Arbeitsrechtsanwalt] Matthew Scheier erzählte mir: keiner der Tools, die er sich während seiner Arbeitsrechtler anschaute, waren bereit für die Hauptsendezeit. [Software-Auditor] John Scott, der COO der [Personalberatungsfirma] APTMetrics, untersuchte fünf Lebenslauf-Screener und fand bei allen fünf Probleme. [Whistleblower und ehemaliger Arbeitsrechtler] Ken Willner sagte, bei etwa einem Viertel davon problematische Variablen gefunden habe. Es ist kein Zufall, sondern eigentlich ein Muster, dass Dinge schief laufen. Diese Tools bringen Voreingenommenheit und mögliche Diskriminierung und Schäden mit sich auf die Arbeitsrechtler und auf die Arbeitsrechtler .

Willner war wirklich besorgt, als er einen der Lebenslauf-Screener anschaute und feststellte, dass eine der vorhergesagten Variablen das Wort „Afrika“ [wie in] „Afrikaner“ und „Afroamerikaner“ war. Das wäre eine Rassendiskriminierung. Unsere Hautfarbe sollte nichts damit zu tun, ob wir für eine Stelle ausgewählt oder abgelehnt werden. [Ein anderer Bewerter] stellte fest, dass das Wort „Thomas“ in einem Lebenslauf-Screener vorhersehbar war. Ich tschuldige mich an alle Thomases da da draußen, aber der Name Thomas qualifiziert Sie für keine Stelle.

Etwas anderes das mich schockierte, war laut Willner, dass die Voreingenommenheit in den KI-Tools nie vom Anbieter selbst entdeckt wurde. Sie wurden ausschließlich dann entdeckt, wenn ein Unternehmen, das das Tool nutzte, einen externen Wirtschaftsprüfer einschaltete.

Viele [von dem, was ich als prädiktive KI-Tools bezeichne], nutzen maschinelles Lernen und häufig tiefe neuronale Netzwerke. Daher wissen die Entwickler oft selbst nicht genau, was die Tools tatsächlich vorhersagen [oder], wie sie zu den Ergebnissen ihrer Schlussfolgerungen gelangen. Ich denke, das sollte uns allen Sorgen bereiten.

Sie schreiben auch darüber, dass diese Tools enorm viel Raum für die Diskriminierung von Menschen mit Behinderungen lassen – und dabei offenbar unter dem rechtlichen Radar bleiben.

Menschen mit Behinderungen machen einen großen Teil der Bevölkerung aus – in den USA etwa 10 bis 20 %, vielleicht sogar mehr. Behinderungen können sichtbar oder unsichtbar, körperlich oder geistig sein. Es gibt alle möglichen Varianten, und eine Behinderung kann sich sehr unterschiedlich ausdrücken. Selbst wenn ich autistisch bin und meine Daten in ein KI-System eingespeist werden, bedeutet das also nicht, dass Menschen mit Autismus in den Trainingsdaten ausreichend repräsentiert sind. Behinderungen sind individuelle Ausprägungen, die in einem System, das nach statistisch relevanten Mustern sucht, nicht angemessen repräsentiert werden können.

Ich glaube, viele Leute auf der Einstellungsseite sagen: „Das Gesetz besagt, dass Menschen mit Behinderungen angemessene Vorkehrungen getroffen werden können“ – wenn Sie beispielsweise an einem Einweg-Videointerview teilnehmen und taub oder schwerhörig sind oder eine Sprachbehinderung haben, würde das Unternehmen vielleicht einen Menschen ans andere Ende schicken. Was ich aus Gesprächen mit Berufsberatern, die mit Menschen mit Behinderungen arbeiten, erfahren habe, ist die tragische Erfahrung, dass sie jedes Mal, wenn sie um eine angemessene Unterbringung gebeten werden, was gesetzlich vorgeschrieben ist, nie eine Antwort erhalten. Ich glaube, es wird immer schwieriger, weil wir im Einstellungsprozess mehr automatische Überprüfungen durchführen.

Wie können Bewerber also ein wenig Handlungsspielraum zurückgewinnen oder das Gefühl bekommen, dass sie etwas tun können, um sich besser darauf vorzubereiten, dass KI ihre Bewerbung liest?

Hieraus können Arbeitssuchende einige Lektionen lernen. Ich möchte vorweg schicken, dass ich nicht alles über jedes verwendete Tool weiß.

Früher sagten wir den Lesern: „Oh, sorgen Sie dafür , dass Ihr Lebenslauf auffällt, dass er ein Augenfänger ist.“ Heute wird der gegenteilige Ratschlag verfolgt: Gestalten Sie Ihren Lebenslauf maschinenlesbar. Nicht zwei Spalten, nur eine Spalte; klarer Text; kurze und prägnante Sätze. Verwenden Sie leicht quantifizierbare Informationen. Wenn Sie eine Lizenz haben, zum Beispiel eine Krankenpflegelizenz , tragen Sie diese hier ein. Vielleicht tragen Sie damit ein Computer nachschlagen kann, dass Sie eine Ausbildungslizenz haben oder etwas Ähnliches haben.

Ich denke, für viele Leute ist es wirklich ermächtigend, ChatGPT und andere generative KI zum Korrekturlesen ihres Lebenslaufs [oder zum Verfassen von Anschreiben] zu verwenden. Auf Stellenvermittlungsplattformen gibt es Witze, wo Leute scherzen wie: „Oh ja, lass die bessere KI gewinnen … mein Anschreiben wurde von einer KI geschrieben und alle Unternehmen nutzen KI [zum Lesen].“ Ich denke, das wirkt auf manche Bewerber ermächtigend. Ich denke, generative KI hat das Machtgleichgewicht ein wenig verändert.

Ehrlich gesagt, wenn ich über einige dieser KI-Softwareprogramme lese, überkommt mich ein sehr dystopisches Gefühl – aber es ist schön zu wissen, dass diese öffentlich zugänglichen Tools sie demokratisiert haben, wenn auch nur ein wenig.

Ich glaube, wir stehen erst am Anfang und decken jetzt die Fehler auf. Vielleicht lüften wir den Vorhang der Geheimhaltung ein wenig und zeigen: „Hey, das ist es, was bereits passiert. Wir sehen all diese Probleme.“ Setzen wir uns für Veränderungen ein – etwa für mehr Transparenz und möglicherweise mehr Regulierung. Aber setzen wir uns auch für Druck auf die Unternehmen ein, das Richtige zu tun.

Während ich das Buch schrieb, dachte ich: „Ich denke, es muss [einige] große zivilgesellschaftliche Organisationen geben, die diese Tools testen, aber auch Tools im öffentlichen Interesse entwickeln.“ Vielleicht könnte also jemand oder eine Organisation ein Tool wie einen Lebenslauf-Screener entwickeln, das nicht voreingenommen ist. Vielleicht können wir das im öffentlichen Interesse der Öffentlichkeit zugänglich machen und Unternehmen dazu drängen, diskriminierungsfreie Tools zu verwenden.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung

Werbung