Deutscher Gewerkschaftsbund

16.12.2022

Wie Algorithmen Frauen benachteiligen

Digitale Technik und Künstliche Intelligenz prägen immer mehr die Wirtschaft. Doch die Maschinen funktionieren nicht immer geschlechterneutral.

Frau vor Computer

Colourbox.de

Die Bloggerin Lisa Ringen kritisierte 2017 ein bekanntes Online-Karrierenetzwerk. “Kaum jemand wird auf den Gedanken kommen, dass die Xing-Suche Expertinnen des gleichen Berufszweigs komplett ausschließt”, schrieb sie damals auf ihrer Webseite. Beim Scrollen durch die Ergebnisliste bei Google entstehe der “unterschwellige Eindruck, Männer seien die erfolgreicheren, kompetenteren Fotografie-, Beratungs- und Grafik-Spezialisten”. Mit der Abbildung von Wirklichkeit habe das wenig zu tun, Grund dafür sei vielmehr die nur scheinbar objektive Logik des verwendeten Algorithmus.

Beispielsweise können die nach rein mathematischen Kriterien gesteuerten Suchmaschinen die Wörter “Architekt” und “Architektin” nicht als Synonyme erkennen. Die männliche Form einer beruflichen Tätigkeit wird aber bei einer Internetrecherche viel häufiger eingegeben. Das ist keine sprachliche Kleinigkeit, sondern hat ausgrenzende Folgen: Wenn sich Frauen bei ihren Angeboten im Netz der weiblichen Form bedienen, sind sie für ihre potenzielle Kundschaft schwieriger zu finden als ihre männlichen Kollegen. Das Unternehmen hat damals relativ schnell auf das Problem reagiert.

Diskriminierung per Algorithmus: Endlich ein Thema

Fünf Jahre nach der Beschwerde über Xing hat sich eine breite und inzwischen auch in der Wissenschaft angekommene Debatte über digitale Diskriminierung entwickelt. Mögliche Betroffene sind dabei nicht nur Frauen, es können etwa auch Menschen mit schwarzer Hautfarbe sein. Ein eindrückliches und immer wieder angeführtes Beispiel ist der automatische Seifenspender, dessen Sensor nur die Hände weißer Personen erkennt. Während sich diese Form von Benachteiligung relativ leicht abstellen lässt, liegen die Ursachen im Gender-Bereich tiefer. Denn die programmierten Vorurteile beruhen im Kern auf der (manchmal unbewussten) geschlechterpolitischen Ignoranz von Programmieren und Administratoren. Der Anteil männlicher Mitarbeiter beträgt in allen wichtigen Unternehmen des Silicon Valley wie Facebook, Microsoft, Uber, Google oder Apple über 60, in den Technologieabteilungen gar bei rund 80 Prozent. In Deutschland sieht es ähnlich aus: Laut Zahlen von Eurostat war im Jahr 2021 nur knapp jede fünfte IT-Fachkraft weiblich.

KI-Macho: Männer auf den ersten Plätzen

“Der Algorithmus ist ein Macho” lautet daher nicht zufällig die plakative Schlagzeile eines aktuellen Online-Beitrags zum Thema. Bei Zoom-Konferenzen oder anderen Diskussionsformaten erkennt die Software weibliche Stimmen und Gesichter schlechter, fanden Wissenschaftlerinnen an der dänischen Universität Sonderborg heraus. Stellengesuche von Frauen behandelt die Künstliche Intelligenz, kurz KI genannt, häufig nachrangig. Der elektronische Speicher trägt dazu bei, dass meist Männer auf den ersten Plätzen der Bewerbungslisten landen. Denn gefüttert wird die Maschine er vorwiegend mit Erfahrungswerten und Auswahlkriterien aus der Vergangenheit. Die genutzten Informationen stützen sich nicht selten auf traditionelle Geschlechterrollen, im Extremfall können die übernommenen Inhalte auch rassistisch oder sexistisch sein.

“Sind die Daten mit Ungleichheit gespickt, so schlägt sich diese Ungleichheit auch in den Resultaten der Algorithmen nieder”, betont der Medienwissenschaftler Tobias Matzner, der an der Universität Paderborn zum Thema forscht. KI ist also keineswegs so fair, unvoreingenommen und diskriminierungsfrei wie immer wieder behauptet wird. “Neutralität gibt es für Algorithmen nicht”, betont Matzner. Vielmehr wiederholen sich im digitalen Raum die althergebrachten Muster der realen Welt, und das kann gravierende Konsequenzen für die Entscheidungsprozesse in Betrieben und Institutionen haben. Suchmaschinen bestimmen in wachsendem Umfang mit, wer eine beliebte Hochschule besuchen darf, wer einen Immobilienkredit zu attraktiven Konditionen erhält oder wer eine günstige Versicherungspolice abschließen kann.

Alte Muster im digitalen Raum

Eine Untersuchung der US-amerikanischen Carnegie Mellon University kommt zu dem Ergebnis, dass Frauen bei Google weniger gut bezahlte Stellen in Führungspositionen angezeigt bekommen als Männer. Schon 2015 geriet Amazon in die Schlagzeilen, weil ein im Konzern entwickeltes Programm weibliche Bewerberinnen bei der Vergabe lukrativer Jobs systematisch aussortierte. Die (mittlerweile überarbeitete) Software war darauf getrimmt, Anfragen von Menschen mit über zehn Jahren Berufserfahrung zu bevorzugen – ein Kriterium, das eher Männer erfüllten. 2020 wurde bekannt, wie Geschlechterstereotypen die Stellenausschreibungen bei Facebook prägen. Die Suche nach einem LKW-Fahrer (männlich/weiblich/divers) bekamen Männer zehn Mal häufiger angezeigt als Frauen, die Suche nach einer Erzieherin (m/w/d) hingegen landete 20 Mal so oft bei weiblichen Nutzerinnen.

Eine Studie der Antidiskriminierungsstelle des Bundes listete 2019 ähnliche Beispiele aus der Sozialverwaltung und im Gesundheitswesen auf. In Österreich ist ein Algorithmus heftig umstritten, der die beruflichen Möglichkeiten von Arbeitslosen prognostizieren soll. Frauen erhalten Minuspunkte, wenn sie Kinder haben und weil ihnen aufgrund historischer Daten ohnehin schlechtere Jobchancen zugeschrieben werden. Auf dieser Basis folgt dann die Einstufung in eine hohe, mittlere oder niedrige Kategorie bei Angeboten zur Wiedereingliederung. So reproduziert und verfestigt das digitale Bewertungssystem die Benachteiligung von Frauen auf dem Arbeitsmarkt.

Menschen denken in Stereotypen

Dagegen anzugehen ist für die Betroffenen schwierig. Denn die Auswahlkriterien von computergesteuerten Systemen sind viel versteckter als die klare Entscheidung eines Prüfgremiums der Personalabteilung nach einem persönlichen Gespräch. Die durch elektronisches Filtern abgelehnten Kandidatinnen können den Vorgang oft “nicht richtig nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist”, sagt Lisa Hanstein. Die frühere Softwareentwicklerin bei SAP setzt sich an der Europäischen Akademie für Frauen und Politik in Berlin für mehr Transparenz und den Abbau digitaler Diskriminierung ein. “IT gilt als sehr rational”, betont die Expertin, “dabei vergessen wir, dass sie von Menschen hergestellt wird und diese Menschen in Stereotypen denken”. Oft geschehe das “ohne böses Zutun oder Absicht”.

Die Unternehmensberaterin Janina Kugel, früher im Vorstand von Siemens, fordert daher ein Umdenken in den Chefetagen. Die Tech-Branche müsse “das soziale Gefüge einer Gesellschaft berücksichtigen und diverse Erfahrungen und Lebensrealitäten einschließen”, schrieb sie letztes Jahr in einer Kolumne im Manager Magazin. Es reiche nicht, die Welt “als eine Ansammlung von Nullen und Einsen zu sehen”. Neben der Perspektive der meist männlichen Ingenieure sei auch die Sichtweise von Sozial- und Geisteswissenschaften wichtig. Denn: “Künstliche Intelligenz kann nur mathematische Entscheidungen treffen, keine ethischen.”


Nach oben

Kurzprofil

Thomas Gesterkamp
Thomas Gesterkamp schreibt seit über 30 Jahren als Journalist über die Arbeitswelt und Familienpolitik.
» Zum Kurzprofil

Gegenblende Podcast

Karikatur mit einem Mann und einer Frau die an einem Tisch sitzen, auf dem Mikrofone stehen.

DGB/Heiko Sakurai

Der Gegenblende Podcast ist die Audio-Ergänzung zum Debattenmagazin. Hier sprechen wir mit Experten aus Politik, Wirtschaft, Gesellschaft und Arbeitswelt, es gibt aber auch Raum für Kolumnen und Beiträge von Autorinnen und Autoren.

Unsere Podcast-Reihen abonnieren und hören.