Über menschliche und künstliche Intelligenz (KI) im Recruiting spricht Frau Dr. Sibylle Peuker, Partner und User Experience Architect bei Zeix, Agentur für User-Centered Design in Zürich und Hochschuldozentin. Sie forscht zu Userverhalten und -bedürfnissen, was die Basis für eine nützliche und ethische KI-Produktentwicklung ist.

1. Die Künstliche Intelligenz hält Einzug ins Recruiting. Was bedeutet das?
Mit neuen Systemen, die auf künstlicher Intelligenz beruhen, versucht man verschiedene Probleme zu lösen. Zum einen möchte man HR-Abteilungen unterstützen, die mit einer grossen Flut von Bewerbungen klarkommen müssen. Hier soll das System eine Vorauswahl treffen. Ausserdem entscheiden sich Menschen oft nach ihren persönlichen Vorlieben. Ein intelligentes System soll den Auswahlprozess gerechter machen, indem es „unemotional“ und ohne persönliche Vorlieben geeignete Kandidat’innen vorschlägt. Dass das nicht so einfach ist, zeigen prominente Beispiele, wie das Recruiting-System, das Amazon entwickelt hat. In der Pilotphase stellte sich heraus, dass das System Frauen benachteiligt. Obwohl es dem System nicht möglich war, anhand von Namen auf das Geschlecht zu schliessen, fand man heraus, dass z.B. Absolventinnen von Women-only Colleges automatisch heruntergestuft wurden. Man hat versucht, das System „umzutrainieren“, was aber nicht gelang. Amazon hat das Projekt eingestellt, bevor es in Betrieb ging.

2. Wie funktionieren denn intelligente Recruiting-Systeme?
Solche Systeme werden mit vielen Daten gefüttert: man versucht, z.B., geeignete Kandidat’innen daran zu erkennen, dass sie ähnliche Lebensläufe, wie bereits erfolgreiche Mitarbeitende, haben. Das System lernt dann mit immer neuen Daten dazu. Damit man nicht dasselbe Problem wie Amazon bekommt, muss man sich genau überlegen, wie man das System „trainiert“. Wenn man es mit Daten aus der Vergangenheit füttert und es bisher nur wenige Frauen im Management gab, dann wird das System auch weiterhin nur wenige Frauen vorschlagen. Wenn die Datenmenge zu klein oder biased ist, dann könnte es zudem passieren, dass ein System annimmt, dass erfolgreiche Manager vorzugsweise schlecht in Mathe und gut in Sport sind, - denn „Intelligente“ Systeme können (noch) nicht zwischen Korrelation und Kausalität unterscheiden.

Bei Dimensionen wie „Cultural Fit“ wird es für das KI-System noch schwieriger. Es gibt Systeme, die versuchen Persönlichkeitsmerkmale wie Selbstbewusstsein, Risikobereitschaft von Bewerber’innen zu eruieren. Das System analysiert dazu beispielsweise Videos, die die Kandidat’innen einsenden müssen. Andere werten öffentlich zugängliche Social Media Profile der Bewerber’innen aus und ziehen daraus Rückschlüsse auf die Persönlichkeit und den Gesundheitszustand. Hier gibt es viele offene, ethische Fragen. Die Hersteller sagen, dass diese Analysen auf fundierten, psychologischen Theorien beruhen. Hier wird es kritisch: Abgesehen davon, dass auch psychologische Theorien Biases enthalten können, geben Social Media Posts aus dem Zusammenhang gerissen, oft ein völlig falsches Bild wieder. Ironie und Sarkasmus erkennen Maschinen sehr schlecht. Die Online-Persönlichkeit eines Menschen weicht ausserdem oft stark von seiner realen Persönlichkeit ab. Die Daten sind also nicht zuverlässig und die Methoden teilweise ungeeignet. Wenn man solche Analysen zur Unterstützung von Rekrutierenden heranzieht, besteht die Gefahr einer falschen Vorverurteilung.

3. Menschliche Rekrutierende sind ja auch nicht „objektiv“ und werfen vielleicht vor dem Bewerbungsgespräch einen Blick auf die Social Media Profile der Bewerber’innen. Könnte es nicht sein, dass ein intelligentes Recruiting-System objektiver oder gerechter entscheidet als ein Mensch, auch wenn es nicht perfekt ist?
Ja, das wäre theoretisch möglich. Was mir dabei Angst macht: Im Moment schiessen intelligente Rekrutierungssysteme wie Pilze aus dem Boden. Eventuell wird sich irgendwann der „Mercedes unter den Rekrutierungssystemen herauskristallisieren und viele grosse Firmen werden dasselbe System benutzen. Dann gibt es vielleicht Menschen die irgendwie nicht in das „Raster“ dieses Systems passen, und die dann bei keiner dieser Firmen eine Chance haben. Bei einem menschlichen Rekrutierenden kann man immer noch zum nächsten gehen und hoffen, dass dieser anders urteilt.

4. In Ihren Vorträgen betonen Sie, dass eine Zusammenarbeit zwischen menschlicher und künstlicher Intelligenz nur gelingen kann, wenn der Mensch im Mittelpunkt bleibt. Was meinen Sie damit?
Wir haben es hier mit einer sehr mächtigen, potentiell sehr nützlichen, aber auch gefährlichen Technologie zu tun. Ich bin sicher, dass die Firmen, die derzeit solche Rekrutierungssysteme entwickeln, überhaupt nicht abschätzen können (oder wollen), was das in Zukunft für Bewerber’innen und die Gesellschaft bedeutet. Sie rechtfertigen sich damit, dass sie ja nur Vorschläge machen und der Mensch immer noch entscheiden muss. Wie bei selbstfahrenden Autos: Auch hier ist immer noch der Fahrer selbst schuld, wenn etwas passiert. Die „intelligenten“ Systeme sind oft viel dümmer als der User annimmt. Wenn es aber bequem ist, werden sich die Rekrutierende immer mehr auf die Maschine verlassen. Hier muss man von Anfang an genau hinschauen: Es ist ein Trugschluss, dass es ausreicht, die Kriterien transparent zu machen, nach denen das KI-System entscheidet (was oft auch gar nicht möglich ist). Einfache Kriterien sind oft viel zu einseitig und führen zu einer Gleichmacherei. Das haben wir ja teilweise schon bei Anschreiben mit Standardfloskeln. Damit wird es schwierig, die kreativen Köpfe für die Herausforderungen der Zukunft zu rekrutieren. Oft ist es deshalb sinnvoll, wenn das System vom Menschen lernt. Die Rekrutierenden können dem System mitteilen, wenn sie nicht einverstanden sind mit dem Vorschlag und das System lernt daraus. Dann läuft man aber auch Gefahr, dass das System die Vorurteile der Rekrutierenden übernimmt. Es ist wichtig, solche Grenzen der KI zu kennen. Um ein ethisches System zu bauen, muss man den Menschen (sowohl die Rekrutierenden als auch die Bewerberinnen und Bewerber) in den Mittelpunkt stellen. Ich bin sicher, dass man Systeme so bauen kann, dass sie sowohl die Arbeit der HR-Abteilung sinnvoll unterstützen, als auch die Bedürfnisse der Bewerber’innen respektieren. Aber da ist noch viel Arbeit vor uns.

5. Die Systeme sollen also vor allem die HR-Mitarbeitenden bei einem Überangebot an Bewerberinnen und Bewerbern unterstützen. Müssen HSG Studierende Angst haben vor solchen Systemen?
Nein, eher im Gegenteil. Diese Entwicklung kann für HSG-Studierende, die ja oft als High Potentials eingestuft werden, sehr vorteilhaft sein. Plattformen wie kununu, helfen ihnen heute schon dabei zu entscheiden, wo sie sich bewerben sollen. Stellen Sie sich vor, kununu würde mit Hilfe von KI und öffentlich zugänglichen Informationen Ihren Studierenden in Zukunft Fragen beantworten wie: Wie viele Frauen gibt es im Management? Wie lange bleiben Mitarbeitende bei dieser Firma? (Aus LinkedIn-Profilen) Gibt es viele Mitarbeitende mit Burnout und Depressionen? Gibt es sexuelle Belästigung am Arbeitsplatz? (Aus Social Media Profilen der Mitarbeitenden) und würde den Studierenden daraufhin passende Vorschläge erstellen. Da stellt sich eher die Frage, ob die Firmen im Kampf um die High Potentials dafür vorbereitet sind. Wie Sie sehen, kommen da spannende Zeiten auf uns zu.

Mein Fazit:
Es sollte nicht darum gehen, menschliche Rekrutierende durch KI zu ersetzen, sondern sie in Ihrer Arbeit zu unterstützen. Auf jeden Fall lohnt es sich alles, wo „Künstliche Intelligenz“ (KI) draufsteht, kritisch zu hinterfragen, z.B.:
• Welches Problem lösen wir damit und für wen?
• Wen schliesst das System aus?
• Welche neuen Probleme kreieren wir (jetzt und auf lange Sicht) damit?
• Wer ist im Lead, der Mensch oder die Maschine?

Nur so können wir ethische Produkte entwickeln für eine Zukunft, in der wir und unsere Kinder gerne leben wollen.

Vielen Dank für das Gespräch!

Dr. Sibylle Peuker studierte Mathematik und promovierte in Informatik an der Humboldt Universität Berlin. Sie leitet seit vielen Jahren Projekte mit den Usern im Fokus. 2010 kam Frau Peuker aus der Strategy & Innovation Abteilung der Swisscom zu Zeix, Agentur für User-Centered Design in Zürich. Sie ist davon überzeugt, dass man mit User-Centered Design die Menschen glücklicher machen und sogar Leben retten kann, insbesondere mit Hilfe von Künstlicher Intelligenz (KI). Gerne probiert Frau Dr. Peuker innovative Gadgets oder Services im Selbsttest aus. Ihr Wissen vermittelt sie mit Begeisterung regelmässig als Dozentin weiter, derzeit unter anderem an der Berner Fachhochschule und der Technischen Hochschule Rapperswil.

--------------------------------------------------------------- 

Dieses Interview führte Frau Christina Sandau-Jensen, Karriereberaterin an der Universität St.Gallen (HSG).

"Unsere Studierenden und berufserfahrenen Akademiker begleite ich mit viel Passion. Als ausgebildeter Coach im lösungsorientierten Kurzcoaching (LOKC) greife ich dabei auf über 20 Jahre Erfahrung im öffentlichen und privaten Sektor (insbesondere in der Finanzbranche und in der UN) zurück."
ÜBER DEN AUTHOR
Christina Sandau-Jensen

Christina Sandau-Jensen

Beraterin Student Career Services