Erfahrung brauchen Personalverantwortliche auch künftig, um über Beschäftigte und ihre Jobs zu entscheiden. Aber immer mehr Vorschläge dafür kommen von Analyseprogrammen, die Personaldaten interpretieren. Im Umgang damit ist Vorsicht geboten.
People Analytics Systeme kommen immer mehr zum Einsatz in der Personalführung von Unternehmen. Die Programme erleichtern Vorgänge, sind aber nicht frei von Diskriminierung. Vorsicht ist deshalb geboten. Pixabay/Isabela bela
Zunehmend arbeiten Personalabteilungen großer Häuser mit sogenannter People Analytics. Dieses digitale Werkzeug macht es möglich, personenbezogene Daten von Beschäftigten automatisch oder mithilfe künstlicher Intelligenz (KI) auszuwerten. So kann die Produktivität einzelner Mitarbeiter*innen oder ganzer Abteilungen verglichen oder ermittelt werden, welche Teams am besten zusammenpassen. Auch ist die Personalabteilung in der Lage, die mögliche Fluktuation bei den Beschäftigten besser einzuschätzen.
Dafür werden Personendaten wie Geschlecht, Alter, Bezahlung, Ausbildung und Abteilung statistisch ausgewertet. Wer geht wann? Gibt es Muster? Was kann welche Leitungsebene daran ändern? Eine Umfrage in Deutschland im Jahr 2020 ergab, dass von 500 Personalverantwortlichen zwar erst rund 13 Prozent dieses Instrument intensiv nutzen – aber sehr viele in People Analytics bereits jetzt einen wichtigen Trend in der Personalarbeit der Zukunft sehen.
In der Personalarbeit setzen deutsche Unternehmen Daten für den gezielten Umgang mit einzelnen oder Gruppen von Beschäftigten noch eher zögerlich ein. Bartz/Stockmar, CC BY 4.0
Im Einsatz ist diese Analyse entweder deskriptiv, beschreibt also anhand der Daten das Verhalten von Beschäftigten, oder es arbeitet prädiktiv, versucht also, das Verhalten zu prognostizieren. Basis dafür sind in der Regel im Unternehmen gewachsene Datensätze, aber auch kontinuierlich gesammelte Daten, die Beschäftigte ganz nebenbei beim Arbeiten generieren. Da kann zum Beispiel erfasst werden, wie viele E-Mails sie senden, wie lang sie telefonieren, welche Applikationen auf ihrem PC offen sind, wie viel Zeit sie in Meetings verbracht oder wie viele Überstunden sie geleistet haben.
Anhand dieser Analysen kann das Unternehmen beobachten, wie Prozesse ablaufen, wo und bei wem sie Besonderheiten aufweisen – und darauf reagieren. Die COVID-19-Pandemie hilft dabei. Denn sie hat dazu geführt, dass weit mehr Menschen mobil oder nicht im Firmenbüro arbeiten. Die vermehrte digitale Zusammenarbeit lässt sich besser, schneller und mit aktuelleren Anwendungen erfassen und analysieren als mit den traditionellen Mitteln der Performance-Überwachung.
Die Herstellerfirmen von People Analytics argumentieren, dass ihre Software Prozesse optimiert. Darüber hinaus heben sie häufig einen Aspekt als besonders positiv hervor: Die Anwendungen sollen Fairness und Diversität fördern, da sie – anders als Menschen – theoretisch keine Vorurteile gegen Einzelpersonen oder bestimmte Gruppen haben. Doch auch das Gegenteil ist möglich. Die Systeme können bestehende soziale Ungerechtigkeiten weiterführen und gegebenenfalls sogar verstärken. Denn die Daten, mit denen die eingesetzten Algorithmen trainiert werden, sind selten neutral und vorurteilsfrei.
Wenn etwa in einem Unternehmen jahrzehntelang wenige Frauen eingestellt wurden, lernt der Algorithmus aus den bestehenden Daten, dass vielversprechende Bewerbungen möglichst über das Attribut „männlich“ verfügen sollten – und könnte automatisch vorschlagen, vor allem männliche Bewerber einzuladen. Während sich dies noch recht leicht korrigieren lässt, muss die Software schon sehr gut angepasst werden oder „lernfreudig“ sein, um geeignete besondere Qualifikationen oder gar die passenden Fähigkeiten von Quereinsteiger*innen und Berufswechsler*innen zu erkennen.
Der Reuters-Bericht über Amazons frauenfeindliche Software wurde zu einem Meilenstein der Kritik am Einsatz künstlicher Intelligenz im Personalbereich. Bartz/Stockmar, CC BY 4.0
In deutschen Betrieben dürfen personenbezogene Daten am Arbeitsplatz nur mit Zustimmung der Beschäftigten gesammelt und ausgewertet werden. Diese Zustimmung zu erhalten ist schwierig. People-Analytics-Anwendungen sind noch relativ jung und es gibt wenig verständliches Informationsmaterial. Das meiste kommt von den Herstellern selbst, die aber nicht über mögliche Risiken im Umgang mit den Systemen aufklären. Daher wissen Beschäftigte oft nicht, was sich hinter den Anwendungen verbirgt, warum welche Daten gesammelt werden und welche Empfehlungen daraus resultieren. Sie laufen Gefahr, Methoden zuzustimmen, deren Konsequenzen sie nicht abschätzen können.
Neben den Risiken gibt es auch positive Aspekte. Wenn die Produktivität von Beschäftigten einheitlich erfasst wird, könnten benachteiligte Gruppen zum Beispiel durch gezielte Weiterbildung profitieren oder die Gehälter angepasst werden. Darüber hinaus ermöglichen die Systeme eine neue Flexibilität, zumindest dort, wo hauptsächlich am Schreibtisch gearbeitet wird. Es kann zum Beispiel erfasst werden, wer wie oft die vorgesehene Arbeitszeit überschreitet, um dann solche Routinen zu unterbinden und Arbeitsprozesse zu verändern. Auch Symptome von Stress und Überarbeitung könnten schneller bemerkt werden – wenn sich zum Beispiel das Arbeitsverhalten plötzlich ändert, mehr Überstunden anfallen oder die Zahl von E-Mails deutlich ansteigt oder sinkt. Häufig sind die Systeme allerdings intransparent. Beschäftigte wissen nicht, mit welchen Daten und Parametern ein Algorithmus aufgestellt wurde. Dies aber ist erforderlich, um das Ziel einer arbeitnehmer*innenfreundlichen Technik zu erreichen.
Mittlerweile ist der Zeitpunkt verstrichen, an dem darüber diskutiert werden kann, ob People Analytics überhaupt eingesetzt werden sollte. Dazu sind die Anwendungen bereits zu sehr verbreitet. Wichtiger ist deswegen, Regelungen zu schaffen, die aufklären, Mitbestimmung ermöglichen und einen Einsatz der Systeme im Sinne der Beschäftigten gewährleisten. An dieser Stelle können Betriebsräte aktiv werden. Sie haben ein Mitbestimmungsrecht im Umgang mit KI-basierten Systemen. Das 2021 verabschiedete Betriebsrätemodernisierungsgesetz sieht vor, dass die Belegschaftsvertretungen zur Bewertung von KI wie zum Beispiel Personal Analytics Sachverständige hinzuziehen dürfen. Zudem gelten ihre grundsätzlichen Rechte auch dann, wenn die Personalauswahl mit KI erfolgt oder Arbeitsabläufe und Planung mit KI gesteuert werden. Kein Management kann sich also weiter hinter KI-Entscheidungen verstecken.
Sie können den Atlas der Arbeit hier als PDF herunterladen.
Sie können den Atlas außerdem hier in der gedruckten Version bestellen.
Der Atlas der digitalen Arbeit ist ein Gemeinschaftsprojekt des Deutschen Gewerkschaftsbundes (DGB) und der Hans-Böckler-Stiftung (HBS).