„Dann ist es plötzlich wichtig, dass ich wichtig erscheine“

Big Data hat die Personalabteilungen erreicht, ihr Einsatz ist durch den Datenschutz in Deutschland aber noch begrenzt. Uwe Vormbusch ist Professor für Soziologische Gegenwartsdiagnosen an der FernUniversität in Hagen und forscht zu People Analytics, also der Nutzung von Daten für Personalentscheidungen. Statt Foto und Sympathie entscheiden dann Daten, welche Bewerberinnen und Bewerber ausgewählt werden – aber ist das wirklich fairer?

Wie fair sind Bewerbungsverfahren hierzulande, Herr Vormbusch? 

Das kann man nicht quantifizieren, da würde ich mir auch kein Urteil erlauben. In den Unternehmen wird das unterschiedlich organisiert.  

Was verspricht der Einsatz von Daten bei Personalentscheidungen? 

People Analytics hat den Anspruch, Ungerechtigkeiten und Undurchschaubarkeiten in Bewerbungsprozessen auszuschalten. Also dass Bewerber aufgrund ihres Geschlechts oder eines Migrationshintergrunds in vielen Bewerbungsverfahren systematisch benachteiligt werden. Das ist ein Problem. Dem kann man einerseits durch Kultur begegnen und ein Bewusstsein für das Thema schaffen. Auf der anderen Seite kann man das mit Daten versuchen, also indem Algorithmen mehr oder weniger selbstständig entscheiden oder Vorschläge machen, welche Bewerberinnen und Bewerber eingeladen werden und welche nicht. 

Entscheidungen werden damit fairer? 

Es gibt schon jetzt viele Hinweise – nicht nur im Personalbereich –, dass Algorithmen damit halt auch Schwierigkeiten haben. Weil Bewerberinnen und Bewerber nun mal Individuen sind mit unterschiedlichen Lebensläufen, und da können Algorithmen beim gegenwärtigen Entwicklungsstand sehr schwer differenzieren. Der Algorithmus sucht nach dem, was man ihm vorgibt. Bewerberinnen und Bewerber sollen also für einen bestimmten Job in den letzten Jahren bestimmte Zertifikate vorweisen, Entwicklungsstufen durchlaufen haben und dabei nicht älter als X Jahre sein. Der Algorithmus sucht nach Struktur. Und alles was der Struktur nicht entspricht, läuft Gefahr, durch dieses Raster zu fallen. 

Klingt jetzt auch nicht gerade nach mehr Fairness.

Wir können in keinem Entscheidungsprozess komplette Fairness herstellen. Wir haben bei Prozessen, die von Menschen getragen werden, spezifische Ungerechtigkeiten. Darüber müssen die Unternehmen sprechen und Transparenz schaffen. Und wir haben auch bei Verfahren, die mehr datengestützt sind, spezifische Ungerechtigkeiten. 

 Woran liegt das? 

Wenn ich in eine Suchmaschine „Nobelpreisträger“ eingebe, bekomme ich als Ergebnis Männer und die sind weiß. Und wenn ich „Professor“ oder „Manager“ eingebe, dann passiert genau dasselbe. Warum? Die Algorithmen machen Vorschläge auf der Grundlage von Daten, die  bestehende Strukturen widerspiegeln. Damit besteht die Gefahr, dass sie die Strukturen einfach nur reproduzieren, auch wenn sie ungerecht sind. Sie verbessern sie nicht oder reflektieren kritisch. Hier wird ein Widerspruch deutlich. Auf der einen Seite wollen wir für Wirtschaft und Gesellschaft mehr Dynamik und Innovation und gleichzeitig setzt man auf Maschinen, die ‚Neues‘ und ‚Unbekanntes‘ gar nicht erfassen können. 

Wie sieht das in der Praxis aus, wenn ein Unternehmen anhand von Daten eine Personal-Auswahl treffen will? 

Das kommt ganz darauf an, wie viele Daten das Unternehmen zur Verfügung hat und auf welche  es zurückgreifen kann – und will. Bei der internen Kandidatensuche könnten Unternehmen die Personaldaten mit Key-Performance-Indikatoren verbinden. Sie schauen sich also an, wie der Geschäftsbereich in dem der Mitarbeiter tätig ist, abschneidet. Hier stellt sich aus Sicht des Datenschutzes die Frage, ob Unternehmen solche Daten einzelnen Mitarbeitern zuordnen können und welche Konsequenzen das dann hat. Ich halte es durchaus für realistisch, dass sich 50 Prozent der großen Unternehmen genau mit solchen Fragen beschäftigen, weil Daten mittlerweile die Grundlage für Geschäftsmodelle sind. Aber wie sie das machen, dazu gibt es bisher kaum wissenschaftliche Erkenntnisse.

Dürfen solche Daten in Deutschland verarbeitet werden? 

Nein, das dürfen sie nicht. Die Beschäftigten können sich zwar nicht dagegen wehren, dass diese Systeme eingesetzt werden, aber die Daten dürfen nicht in Leistungsbeurteilungen einfließen. Gegenwärtig ist das zumindest so. 

Mit Peter Kels von der Hochschule Luzern haben Sie dazu in der Schweiz geforscht und Unternehmen gefragt, wie sie People Analytics im Personalbereich einsetzen. Wie gehen die Schweizer mit den Daten um? 

Es ist es sehr unterschiedlich, auf welcher Ebene die Unternehmen stoppen und sich Daten anschauen – ob also im Team, auf Bereichsebene oder in der Business Unit. Mein Eindruck ist, dass People Analytics sehr vorsichtig genutzt wird. Die Unternehmen, die wir befragt haben, machen das in sehr enger Absprache mit den entsprechenden Sozialpartnern, also Gewerkschaften und Betriebsräte. Die meisten haben Ethikboards installiert oder sind nach eigenen Angaben dabei, das zu tun. Das ist auch sinnvoll, weil es sensible Daten sind, mit denen man viel falsch machen kann. 

Was genau sind sensible Daten? 

Sensibel sind alle Daten, in denen es um erbrachte und zukünftig zu erwartende Leistung geht. Und wenn aus ihnen hervorgeht, wie sich Beschäftigte in das soziale Gefüge eines Betriebes einordnen. Die meisten Systeme können auswerten, wann und wie oft Beschäftigte mit welchen Kolleginnen und Kollegen in Kontakt sind, wie diese auf deren Nachrichten reagieren und diese Nachrichten dann teilen und diskutieren. Die Systeme zeigen also, welche Stellung Beschäftigte im betrieblichen Netzwerk einnehmen und das heißt auch, wo sie in der betrieblichen Hierarchie stehen und welchen Wertbeitrag sie leisten. 

Reagieren Kollegen nicht auf meine Mails, würde ich also gleich schlechter abschneiden? 

Ganz genau. Das System würde das so interpretieren, dass sie nicht wichtig sind. Oder  Beschäftigte schreiben die Mails schon so, dass Mitarbeiter drauf reagieren müssen und sie so halbwegs wichtig aussehen im Rahmen dieser sozialen Netzwerke. Das verändert natürlich auch die Arbeit. Dann ist es plötzlich wichtig, dass ich wichtig erscheine. Und der Stellenwert der wirklichen Arbeit ist dann nur noch ein Aspekt. Aber auch darüber wissen wir noch nicht so viel. Auch hier wird es darauf ankommen, wie eine solche Datenkultur in Unternehmen ausgehandelt wird. Big Data kann zwar eine ganze Menge, aber die Frage ist doch: Wie sinnvoll ist es, nur noch auf Basis von Daten zu entscheiden und zum Beispiel Betriebs- und Berufserfahrung nicht mehr zu berücksichtigen. 

Und außerdem besteht auch die Sorge darüber, wie gut sich die Systeme letztendlich kontrollieren lassen. 

Ganz wichtiges Stichwort ist hier die Intransparenz. Man muss sagen, dass die algorithmischen Entscheidungssysteme in der Regel hoch intransparent sind. Und es fehlt in Betrieben das Wissen, um einschätzen zu können, wie die Algorithmen arbeiten. Dazu müsste man Informatiker sein. Und auch von dieser Seite hört man: „Naja, wir wissen auch nicht genau, wie selbstlernende Maschinen konkret bewerten und entscheiden.“ Es kommt darauf an, wie sie trainiert und mit welchen Daten sie gefüttert werden. Menschen glauben oftmals, dass sie mit vielen Daten auch näher an der Wahrheit dran sind. Aber die Systeme durchlaufen mit den Daten eine Art Sozialisation, die wir nicht mehr vollständig kontrollieren können. Es fehlt uns einfach noch an Forschung darüber, wie der Einsatz von Algorithmen innerhalb von Unternehmen konkret gestaltet wird. 


Prof. Uwe Vormbusch (Hagen) führt zusammen mit Prof. Peter Kels (Luzern) ein Forschungsprojekt zur Gestaltung von People Analytics durch, das auf Fallstudien in Deutschland und der Schweiz beruht. Bei Interesse an diesem Projekt oder Kooperationsanfragen senden Sie bitte E-Mail an uwe.vormbusch@fernuni-hagen.de

Mehr von Uwe Vormbusch lesen Sie in seinem Beitrag People Analytics in der aktuellen Ausgabe von Industrie 4.0 Management „Arbeiten in der digitalisierten Industrie“. 

 

Fehler | INDUSTRIE-MANAGEMENT

Fehler

Auf der Website ist ein unvorhergesehener Fehler aufgetreten. Bitte versuchen Sie es später nochmal.