Ein Beitrag von Alexandra Geese.

Kümmern ist weiblich – immer noch. Alle Berufe, die unter das Stichwort „Care“ fallen, werden hauptsächlich von Frauen ausgefüllt. Sie sind in der Pflege und Erziehung unterbezahlt und erhalten viel zu wenig Anerkennung. Das gilt für alle unbezahlten Arbeiten noch viel mehr. Jede*r weiß es, und trotzdem ändert sich fast nichts. Können wir durch mathematische Verfahren mehr Gerechtigkeit herstellen? Theoretisch ja, aber in der Realität geschieht momentan das Gegenteil. Im schlimmsten Fall fördern technische Anwendungen sogar die Ungleichbehandlung und Festlegung von Frauen auf Kümmerer-Tätigkeiten – sofern wir die Technik nicht kontrollieren und mit besseren, neutralen Datensätzen trainieren. Genau das ist Aufgabe der Politik – besonders meine, denn die EU-Kommission wird Anfang nächsten Jahres einen Gesetzentwurf für künstliche Intelligenz vorlegen, in dem wir genau dies weltweit erstmalig regeln können.

Ein Beispiel dafür, wie künstliche Intelligenz bisher alte Stereotypen in die Zukunft projiziert: Wenn selbstlernende Systeme Texte zu einem Thema auswerten, etwa in der Medizin, und darin die meisten Chef- und Oberarztposten von Männern besetzt sind, während es unter den Krankenschwestern und -pflegern besonders viele Frauen gibt, kommt der Algorithmus zu dem Ergebnis: Mann gleich Arzt, Frau gleich Krankenschwester. Die Diskriminierung entsteht aus dem mangelhaften Datensatz, weil der Maschine wichtige Informationen fehlten: Etwa, dass 60 Prozent der Medizinstudierenden und 46 Prozent der Ärzt*innen in Deutschland Frauen sind.

Das hat Folgen: Wer bei Google Translate den Satz „The doctor came“ eingibt, bekommt als Übersetzung „Der Arzt kam“ angezeigt. Bei „The nurse came“ übersetzt der Algorithmus „Die Krankenschwester kam“, obwohl der Begriff genauso für männliche Krankenpfleger steht wie das englische „doctor“ für Ärztinnen. So werden alte Stereotypen auch dann verstärkt, wenn sie längst nicht mehr der Realität entsprechen.

Auch die Google-Bildersuche kann Stereotype verstärken

Eine neue Studie des Karlsruhe Institute of Technology (KIT) mit dem Titel „Diskriminierungsrisiken durch Verwendung von Algorithmen“ offenbart noch ganz andere Fälle. Sie ziehen sich durch alle Lebensbereiche. Interessant für die Festlegung von Frauen auf Sorgearbeiten ist eine darin zitierte Studie von Kay u. a. (2015) zur Google-Suche nach Bildern über Berufsgruppen. Ergebnis: Die angezeigten Bilder verstärken Stereotypen in der Darstellung und in der Wahrnehmung. Bilder von Frauen waren deutlich unterrepräsentiert in Berufen, die stereotyp von Männern besetzt sind und entsprachen nicht dem Geschlechterverhältnis der offiziellen Beschäftigungsstatistik für diese Berufsgruppen. Die Studie zeigte auch, dass die dargestellte Professionalität auf den Bildern höher ausfiel, wenn sie den Rollenklischees entsprach. Zudem konnten die Forscher*innen zeigen, dass sich die Wahrnehmung der Geschlechterverhältnisse bei den Suchergebnissen auf die Vorstellungen über die tatsächlichen Geschlechterverhältnisse in den Berufen auswirkte.

Algorithmen haben leider viel zu oft eine „Gender-Bias“, einen geschlechterbezogenen Verzerrungseffekt. Wenn bei einem Unternehmen vor allem weiße Männer arbeiten, dann ist auch künstliche Intelligenz beim Sortieren von Bewerbungen auf diese Männer fixiert – obwohl ausreichend Studien belegen, dass divers besetzte Teams erfolgreicher arbeiten. Maschinen können das nicht erahnen, sie diskriminieren, weil sie nicht gezielt anders trainiert wurden. „Müll rein – Müll raus“, sagen die Informatiker*innen zu diesem Phänomen, und wir müssen vor diesem Müll auf der Hut sein.

Auswirkungen bis in den Alltag

Das Bewusstsein dafür wächst durch Fälle wie zuletzt den Twitter-Shitstorm für die neue Apple Card. Zwei prominente männliche IT-Experten berichteten, dass ihre Ehefrauen bei der neuen Kreditkarte einen bis zu 20 Mal kleineren Kreditrahmen eingeräumt bekamen als sie selbst – bei gleichem Einkommen, gleichen Eigentumsverhältnissen und sogar höheren Bonitätseinstufungen. „Die Apple Card ist so ein ***** sexistisches Programm“, twitterte David Heinemeier Hansson, angesehener Programmierer, Bestsellerautor und Mitgründer des Internetunternehmens Basecamp.

Diskriminierungen sind eines der größten Probleme bei der Anwendung von Algorithmen. Sicherlich würde sich auch die Untersuchung der Berufsberatungs-Tools bei den Arbeitsagenturen lohnen. Diese fragen mit Hilfe von KI die Interessen von Jugendlichen ab und leiten daraus Empfehlungen für Ausbildungen und Studienfächer ab. Gibt es auch dort durch die Technik einen Verstärkungs-Effekt, der Frauen in Care-Berufe und Männer in MINT-Berufe empfiehlt? Der Verdacht liegt nahe.

Saubere Daten sind der Schlüssel

Ändern können wir die Situation, indem wir bei den Daten ansetzen. Überall fehlen ausgewogene Daten von und über Frauen, People of Color und Menschen mit Behinderungen. Caroline Criado-Perez hat ein ganzes Buch darüber geschrieben: „Invisible Women“. Es ist eines meiner Lieblingsbücher. Es schafft für sämtliche Lebensbereiche ein Bewusstsein für die mangelnde Datenlage, die wir beheben müssen. Für die Zukunft von KI-Anwendungen ist diese Diskriminierung eines der größten Probleme, für die wir auf europäischer Ebene eine Lösung finden müssen.

Die Rechtslage ist eindeutig: Artikel 3 unseres Grundgesetzes verbietet die Diskriminierung. Außerdem gilt die europäische Richtlinie 2000/78/EG zur Gleichbehandlung in Beschäftigung und Beruf. Dieses Recht müssen wir bei Anwendungen Künstlicher Intelligenz überall durchsetzen, wo Maschinen Menschen bewerten. Mit dieser Debatte stehen wir noch am Anfang. Ich möchte dazu beitragen, dass wir einen Rahmen schaffen, der uns die Chance eröffnet, durch künstliche Intelligenz langfristig sogar mehr Gerechtigkeit zu schaffen.

Alexandra Geese, Dolmetscherin und Politikerin. Seit 2019 Europa-Abgeordnete in Brüssel für Die Grünen / EFA