Unternehmen nutzen mehr und mehr auch im Human Resources Lösungen, um effizienter zu werden. Solche HR-Tech-Tools können sich jedoch kontraproduktiv auf die Diversität eines Unternehmens auswirken. Denn: HR-Tech-Lösungen treffen oft diskriminierende Entscheidungen, basierend auf unbewusster Voreingenommenheit, die sich in den genutzten Datenmodellen festgesetzt hat.
(Bild: Unsplash)
Die Digitalisierung des HR-Bereiches schreitet schnell voran. So genannte «HR-Tech»-Lösungen schiessen zurzeit wie Pilze aus dem Boden. Unternehmen nutzen diese aus verschiedenen Gründen; z. B. zur effizienteren Handhabung von Personaldossiers, für schnellere Feedback-Loops mit Angestellten, zur Früherkennung von Unzufriedenheit bei den Mitarbeitenden, für Gesundheitschecks etc. Oft ist auch künstliche Intelligenz im Spiel, welche die HR-Fachleute dabei unterstützen soll, effizienter und effektiver in einem Markt mit Fachkräftemangel vorzugehen.
Viele dieser Tools treffen sogar selbst Entscheidungen - im Namen des Unternehmens. Gewisse «Applicant Tracking Systems» machen die Vorselektion der Lebensläufe; andere interpretieren Gesichtszüge beim ersten Online-Interview, um über den Charakter der Person Schlüsse zu ziehen; wiederum andere bestimmen über das Zusammenpassen zwischen den Kandidierenden und der Firmenkultur aufgrund von Online-Tests. Auf künstlicher Intelligenz basierende Algorithmen nehmen den Personalfachpersonen die mühselige Entscheidungsarbeit ab.
HR-Tech-Lösungen, die diskriminieren
Leider sind solche Tools ein zweischneidiges Schwert. Denn sie können auch äusserst negative Auswirkungen haben.
Dazu zwei Beispiele:
Beispiel 1:
Amazon entschloss sich 2014, einen auf künstlicher Intelligenz basierten Algorithmus zu entwickeln, der es schafft aus einer grossen Anzahl von Lebensläufen eine Vorselektion zu machen. Die Idee war, dass z. B. aus 100 Lebensläufen die Top-Fünf automatisiert ausgewählt werden. Diese Personen würden dann zum Interview eingeladen.
Aber im Jahr 2015 realisierte das Team, dass die Auswahl vom Algorithmus wider Erwarten nicht neutral vollzogen wird. Weibliche Talente wurden in der Auswahl diskriminiert; sie wurden nicht zu Interviews vorgeschlagen.
Was war geschehen? Die Datenmodelle wurden mit Lebensläufen trainiert, die in den letzten 10 Jahren bei Amazon eingegangen waren. Daraus lernte der Algorithmus - einfach gesagt -, dass alles “weibliche” negativ ist und daher nicht fürs Interview vorgeschlagen werden sollte. Denn: Die eingegangen Lebensläufe waren zu einem grossen Teil Lebensläufe von männlichen Kandidaten. Wörter wie “women’s” oder “female” wurden vom Algorithmus als negativ eingeschätzt, denn sie kamen nur bei wenigen Dossiers vor. Wurde also ein Dossier von einer Kandidatin durch den Algorithmus geprüft und auf dem Lebenslauf stand z. B. «President of the Women’s Chess Club» oder «Degree of the Female College Minnesota», entschied das Tool, dass die Kandidatin für eine Einstellung nicht geeignet war.
Beispiel 2:
600 Firmen wie Nike und Unilever nutzen HireVue - ein Tool, das Bewerbende über Videoanalyse nach verbalen und nonverbalen Hinweisen bewertet. Leider ist aber auch dieses Tool nicht neutral: Es bekundet Mühe, verbale oder nonverbale Merkmale von Menschen mit dunkler Hautfarbe oder Frauen zu interpretieren und bewertet diese dadurch schlechter.
Künstliche Intelligenz wird zwar für die Effizienzsteigerung eingesetzt, aber hat unbeabsichtigt negative Auswirkungen. Einerseits werden Menschen mit diversem Hintergrund benachteiligt, andererseits verunmöglicht es Unternehmen, auch diverse Talente zu rekrutieren.
Unbewusste Voreingenommenheit – menschlich, aber für HR-Tech verhängnisvoll
Dass Datenmodelle solche verhängnisvollen Entscheidungen treffen, kommt nicht von ungefähr. Datenmodelle werden von Menschen entwickelt und lernen von Daten, die im Internet verfügbar sind. Beide - Menschen und Daten - sind nicht neutral, sie sind geprägt von unbewusster Voreingenommenheit.
Was ist unbewusste Voreingenommenheit (oder in Englisch: unconscious bias)?
«Eine unbewusste Voreingenommenheit ist ein systematisches Muster der Abweichung von der Rationalität bei der Beurteilung. Dies kann zu Wahrnehmungsverzerrungen oder unlogischen Interpretationen führen.» Quelle:
Wikipedia
Mit anderen Worten: Als Menschen ergreifen wir unbewusst Partei für oder gegen eine Sache, eine Person oder eine Gruppe, wenn wir unsere Umgebung interpretieren. Wir schaffen unsere eigene subjektive Realität, die auf Mustern beruht, die wir im Laufe unseres Lebens gelernt haben. Und daraus leiten wir unsere Verhaltensweisen ab.
Da Datenmodelle durch Menschen entwickelt werden und von Daten lernen, die durch Menschen geschaffen wurden, werden auch sie Opfer von unbewusster Voreingenommenheit. Es ist sogar noch schlimmer: Sie verstärken diese sogar, da sie in sehr kurzer Zeit sehr viele Daten interpretieren und damit die von Vorurteilen durchsetzten Muster systematischer zur Anwendung kommen.
In vielen Fällen ist unbewusste Voreingenommenheit notwendig, weil sie unser Überleben garantiert (z. B. nicht auf die Strasse treten, wenn wir ein Auto hören) oder uns hilft, Informationen sehr schnell zu kategorisieren. Aber im HR-Management und vor allem bei der künstlichen Intelligenz, die im HR-Management Anwendung findet, ist sie für Talente mit diversem Hintergrund und für die Unternehmen selbst verhängnisvoll. So werden kompetente, aber für das Unternehmen «untypische» Kandidatinnen und Kandidaten aussortiert oder Talente aus unterrepräsentierten Gruppen werden vom Tool nicht zur Beförderung vorgeschlagen. Diversitätsziele, die sich das Unternehmen vorgenommen hat, können nicht erreicht werden.
Die Sprache in Stellenanzeigen bestimmt, wer sich bewirbt. Abhängig von der Sozialisierung haben Menschen eine unbewusste Voreingenommenheit in verschiedenen Bereichen, die sich auch auf die Interpretation der Sprache in Stellenanzeigen auswirkt. So interpretieren weibliche Talente Anforderungen anders als männliche. Oder Menschen mit Migrationshintergrund interpretieren die Beschreibung der Sprachkenntnisse anders. Diese Verschiedenheiten können dazu führen, dass Unternehmen nicht genug Bewerbungen von Talenten mit diversem Hintergrund erhalten. Inklusive Sprache ist hier die Lösung dazu. Das Tech-Startup Witty Works hat eine HR-Tech-Lösung entwickelt, die es Unternehmen erlaubt, Stellenanzeigen so zu schreiben, dass sich alle Arten von Talenten bewerben. Damit können Unternehmen ihren Bewerbungs-Pool diversifizieren und ihre Diversitätsziele eher erreichen.
Massnahmen, um Fairness in Personalprozessen herzustellen
Wir Menschen sind nicht so rational, wie wir es gerne wären. Und Algorithmen sind nicht so neutral, wie wir sie gerne hätten. Beide werden von Voreingenommenheit unbewusst gesteuert.
Was können wir also tun, um HR-Tech-Lösungen fairer zu gestalten? Oder wie können wir als Nutzende von HR-Tech vorbeugen, diskriminierende Tools zu kaufen?
Die folgenden Massnahmen basieren auf drei Aktionsebenen: Mensch, Organisation und Technologie. Denn um die negativen Auswirkungen von unbewusster Voreingenommenheit umgehen zu können, braucht es eine ganzheitliche Herangehensweise:
- Als Menschen und HR-Verantwortliche müssen wir uns weiterbilden: Wir müssen lernen, was unbewusste Voreingenommenheit ist und wie sie sich in Personalprozessen auswirkt.
- Als HR-Verantwortliche müssen wir lernen zuzuhören: Wir sollten aufhorchen, wenn Talente aus unterrepräsentierten Gruppen von Unfairness erzählen im Rekrutierungs- oder Beförderungsprozess. Oft sind es auch nur Vermutungen, da die Ungerechtigkeiten ja unbewusst passieren. Aber auch diesen Vermutungen sollte nachgegangen werden.
- Organisationen sollten bei der Auswahl von HR-Tech-Lösungen genauer hinschauen. Sie können bei den Lieferanten nachfragen, wie die Datenmodelle entwickelt wurden und nach welchen ethischen Prinzipien.
- Organisationen sollten die HR-Tech-Lösungen auf Voreingenommenheit testen, bevor sie sie erwerben. Lassen Sie unterrepräsentierte Gruppen die Lösungen ausprobieren und messen sie die Resultate.
- Lieferanten, die HR-Tech-Lösungen entwickeln, müssen Teams aufweisen können, die divers aufgestellt sind. In solchen Teams wird ein Produkt aus verschiedenen Perspektiven entwickelt und getestet. Auch wenn ein diverses Team nicht Garant für die Absenz von Voreingenommenheit ist, so schwächt sie diese auf jeden Fall ab.
- Lieferanten müssen die Daten, die zum Training der künstlichen Intelligenz genutzt werden sollen, säubern, so dass sie möglichst neutral sind.
- Organisationen sollten HR-Tech-Lösungen wählen, die explizit ausgerichtet sind auf die Eliminierung von Voreingenommenheit.
Diversitätsziele erreichen mit fairen HR-Tech-Lösungen
Diversität und Inklusion sind bei den HR-Abteilungen in aller Munde. Und trotzdem schaffen es viele Unternehmen nur schwer, sich divers aufzustellen. Hier gilt dieselbe Regel wie in anderen Geschäftsbereichen: Ziele können nur erreicht werden, wenn sie explizit definiert sind und Investitionen in Massnahmen getätigt werden, um diese Ziele zu erreichen.
Unternehmen müssen also zuerst konkrete und messbare Ziele bezüglich Diversität definieren. Und danach die Massnahmen bestimmen, die sie zum Ziel bringt. HR-Tech-Lösungen können Unternehmen dabei unterstützen, aber - wie oben erklärt - gilt es ein ganz genaues Auge darauf zu richten, dass sich ein gekauftes Tool nicht plötzlich kontraproduktiv auswirkt. Um Diversitätsziele zu erreichen, sollten HR-Tech-Lösungen angeschafft werden, die den klaren Fokus haben, Unvoreingenommenheit und Diskriminierung auszuschalten.
Die Autorin
Nadia Fischer hat ursprünglich Internationale Beziehungen in Genf studiert, wechselte dann aber in die Tech-Branche, weil sie auf der Suche nach Innovation und dynamischen Entwicklungen war. Da sie Diversität in der Tech-Branche vermisste, hat Nadia das Tech-Startup Witty Works mitgegründet. Witty Works entwickelt eine KI-basierte Software -
diversifier.witty.works. Der Diversifier revolutioniert, wie wir in Europa schreiben, um uns hin zu einer inklusiven Wirtschaft und Gesellschaft zu entwickeln.
Magazin kostenlos abonnieren
Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.