Deutscher Gewerkschaftsbund

02.06.2022
Atlas der digitalen Arbeit 2022

Personalführung: Daten für die Karriere

Erfahrung brauchen Personalverantwortliche auch künftig, um über Beschäftigte und ihre Jobs zu entscheiden. Aber immer mehr Vorschläge dafür kommen von Analyseprogrammen, die Personaldaten interpretieren. Im Umgang damit ist Vorsicht geboten.

Symbolbild Personalführung: Hand auf Computer und ein Datennetz mit vielen Menschengesichtern

People Analytics Systeme kommen immer mehr zum Einsatz in der Personalführung von Unternehmen. Die Programme erleichtern Vorgänge, sind aber nicht frei von Diskriminierung. Vorsicht ist deshalb geboten. Pixabay/Isabela bela

Zunehmend arbeiten Personalabteilungen großer Häuser mit sogenannter People Analytics. Dieses digitale Werkzeug macht es möglich, personenbezogene Daten von Beschäftigten automatisch oder mithilfe künstlicher Intelligenz (KI) auszuwerten. So kann die Produktivität einzelner Mitarbeiter*innen oder ganzer Abteilungen verglichen oder ermittelt werden, welche Teams am besten zusammenpassen. Auch ist die Personalabteilung in der Lage, die mögliche Fluktuation bei den Beschäftigten besser einzuschätzen.

People Analytics: Trend in der Personalarbeit der Zukunft

Dafür werden Personendaten wie Geschlecht, Alter, Bezahlung, Ausbildung und Abteilung statistisch ausgewertet. Wer geht wann? Gibt es Muster? Was kann welche Leitungsebene daran ändern? Eine Umfrage in Deutschland im Jahr 2020 ergab, dass von 500 Personalverantwortlichen zwar erst rund 13 Prozent dieses Instrument intensiv nutzen – aber sehr viele in People Analytics bereits jetzt einen wichtigen Trend in der Personalarbeit der Zukunft sehen.

Grafik: Einsatz von People Analytics Systemen bei deutschen Unternehmen, Kienbaum-Umfrage unter 492 Verantwortlichen, 2020

In der Personalarbeit setzen deutsche Unternehmen Daten für den gezielten Umgang mit einzelnen oder Gruppen von Beschäftigten noch eher zögerlich ein. Bartz/Stockmar, CC BY 4.0

Im Einsatz ist diese Analyse entweder deskriptiv, beschreibt also anhand der Daten das Verhalten von Beschäftigten, oder es arbeitet prädiktiv, versucht also, das Verhalten zu prognostizieren. Basis dafür sind in der Regel im Unternehmen gewachsene Datensätze, aber auch kontinuierlich gesammelte Daten, die Beschäftigte ganz nebenbei beim Arbeiten generieren. Da kann zum Beispiel erfasst werden, wie viele E-Mails sie senden, wie lang sie telefonieren, welche Applikationen auf ihrem PC offen sind, wie viel Zeit sie in Meetings verbracht oder wie viele Überstunden sie geleistet haben.

Anhand dieser Analysen kann das Unternehmen beobachten, wie Prozesse ablaufen, wo und bei wem sie Besonderheiten aufweisen – und darauf reagieren. Die COVID-19-Pandemie hilft dabei. Denn sie hat dazu geführt, dass weit mehr Menschen mobil oder nicht im Firmenbüro arbeiten. Die vermehrte digitale Zusammenarbeit lässt sich besser, schneller und mit aktuelleren Anwendungen erfassen und analysieren als mit den traditionellen Mitteln der Performance-Überwachung.

Künstliche Intelligenz und Vorurteile: Algorithmen sind selten neutral

Die Herstellerfirmen von People Analytics argumentieren, dass ihre Software Prozesse optimiert. Darüber hinaus heben sie häufig einen Aspekt als besonders positiv hervor: Die Anwendungen sollen Fairness und Diversität fördern, da sie – anders als Menschen – theoretisch keine Vorurteile gegen Einzelpersonen oder bestimmte Gruppen haben. Doch auch das Gegenteil ist möglich. Die Systeme können bestehende soziale Ungerechtigkeiten weiterführen und gegebenenfalls sogar verstärken. Denn die Daten, mit denen die eingesetzten Algorithmen trainiert werden, sind selten neutral und vorurteilsfrei.

Wenn etwa in einem Unternehmen jahrzehntelang wenige Frauen eingestellt wurden, lernt der Algorithmus aus den bestehenden Daten, dass vielversprechende Bewerbungen möglichst über das Attribut „männlich“ verfügen sollten – und könnte automatisch vorschlagen, vor allem männliche Bewerber einzuladen. Während sich dies noch recht leicht korrigieren lässt, muss die Software schon sehr gut angepasst werden oder „lernfreudig“ sein, um geeignete besondere Qualifikationen oder gar die passenden Fähigkeiten von Quereinsteiger*innen und Berufswechsler*innen zu erkennen.

Grafik: Eine kurze Geschichte der experimentellen Amazon-Software mit künstlicher Intelligenz zur Personalrekrutierung

Der Reuters-Bericht über Amazons frauenfeindliche Software wurde zu einem Meilenstein der Kritik am Einsatz künstlicher Intelligenz im Personalbereich. Bartz/Stockmar, CC BY 4.0

In deutschen Betrieben dürfen personenbezogene Daten am Arbeitsplatz nur mit Zustimmung der Beschäftigten gesammelt und ausgewertet werden. Diese Zustimmung zu erhalten ist schwierig. People-Analytics-Anwendungen sind noch relativ jung und es gibt wenig verständliches Informationsmaterial. Das meiste kommt von den Herstellern selbst, die aber nicht über mögliche Risiken im Umgang mit den Systemen aufklären. Daher wissen Beschäftigte oft nicht, was sich hinter den Anwendungen verbirgt, warum welche Daten gesammelt werden und welche Empfehlungen daraus resultieren. Sie laufen Gefahr, Methoden zuzustimmen, deren Konsequenzen sie nicht abschätzen können.

Regelungen schaffen: Mitbestimmung für Beschäftigte beim Einsatz der Systeme

Neben den Risiken gibt es auch positive Aspekte. Wenn die Produktivität von Beschäftigten einheitlich erfasst wird, könnten benachteiligte Gruppen zum Beispiel durch gezielte Weiterbildung profitieren oder die Gehälter angepasst werden. Darüber hinaus ermöglichen die Systeme eine neue Flexibilität, zumindest dort, wo hauptsächlich am Schreibtisch gearbeitet wird. Es kann zum Beispiel erfasst werden, wer wie oft die vorgesehene Arbeitszeit überschreitet, um dann solche Routinen zu unterbinden und Arbeitsprozesse zu verändern. Auch Symptome von Stress und Überarbeitung könnten schneller bemerkt werden – wenn sich zum Beispiel das Arbeitsverhalten plötzlich ändert, mehr Überstunden anfallen oder die Zahl von E-Mails deutlich ansteigt oder sinkt. Häufig sind die Systeme allerdings intransparent. Beschäftigte wissen nicht, mit welchen Daten und Parametern ein Algorithmus aufgestellt wurde. Dies aber ist erforderlich, um das Ziel einer arbeitnehmer*innenfreundlichen Technik zu erreichen.

Mittlerweile ist der Zeitpunkt verstrichen, an dem darüber diskutiert werden kann, ob People Analytics überhaupt eingesetzt werden sollte. Dazu sind die Anwendungen bereits zu sehr verbreitet. Wichtiger ist deswegen, Regelungen zu schaffen, die aufklären, Mitbestimmung ermöglichen und einen Einsatz der Systeme im Sinne der Beschäftigten gewährleisten. An dieser Stelle können Betriebsräte aktiv werden. Sie haben ein Mitbestimmungsrecht im Umgang mit KI-basierten Systemen. Das 2021 verabschiedete Betriebsrätemodernisierungsgesetz sieht vor, dass die Belegschaftsvertretungen zur Bewertung von KI wie zum Beispiel Personal Analytics Sachverständige hinzuziehen dürfen. Zudem gelten ihre grundsätzlichen Rechte auch dann, wenn die Personalauswahl mit KI erfolgt oder Arbeitsabläufe und Planung mit KI gesteuert werden. Kein Management kann sich also weiter hinter KI-Entscheidungen verstecken.


Nach oben

Kurzprofil

Miriam Klöpper
Miriam Klöpper ist wissenschaftliche Mitarbeiterin am FZI Forschungszentrum Informatik. Der Fokus ihrer Forschung sind soziale und ethische Aspekte beim Einsatz von automatisierten Systemen in der Personalführung, insbesondere Chancengerechtigkeit, Machtverhältnisse und Mitbestimmung.
» Zum Kurzprofil

Jetzt downloaden: Atlas der digitalen Arbeit

Cover des Atlas der digitalen Arbeit

DGB

DOWNLOAD UND BESTELLUNG

Sie können den Atlas der Arbeit hier als PDF herunterladen.

Sie können den Atlas außerdem hier in der gedruckten Version bestellen.

Der Atlas der digitalen Arbeit ist ein Gemeinschaftsprojekt des Deutschen Gewerkschaftsbundes (DGB) und der Hans-Böckler-Stiftung (HBS).