Bots mit Vorurteilen
Künstliche Intelligenz arbeitet mit Algorithmen, deren Scharfsinn auf einer Vielzahl von Daten beruht. Dumm nur, wenn in diesen Informationen jede Menge Geschlechtervorurteile stecken, erklärt uns KI-Expertin Kenza Ait Si Abbou Lyadini.
Alexa, Siri, Sophia, Roberta – KI-Assistenzsysteme tragen gerne weibliche Namen oder sprechen, wie auch „Hallo Magenta“, der Smart Speaker der Telekom, mit weiblicher Stimme. Doch als kürzlich Konzernkollegen für den Avatar eines Chatbots die Zeichnung einer gut aussehenden Frau auswählten, reichte es Kenza Ait Si Abbou Lyadini: Sie machte darauf aufmerksam, dass es keinen Grund gibt, Robotern und künstlicher Intelligenz ein Geschlecht zuzuweisen. „Assistenzsysteme haben dienende Funktionen. Wir reproduzieren daher Geschlechterklischees, wenn wir sie mit Frauenbildern in Verbindung bringen.“
Mehr Diversität in Entwicklerteams
Kenza Ait Si Abbou Lyadini arbeitet als Senior-Managerin im Robotics-and-Artificial-Intelligence-Hub der Telekom IT. „Wir bauen für andere Unternehmensbereiche KI-Lösungen und beraten sie, wenn sie künstliche Intelligenz nutzen wollen.“ Das Team ist auf fünf Länder verteilt – Deutschland, die Slowakei, Polen, Ungarn und Russland. Ein Gender-Glücksfall. „Dank der Informatikerinnen aus Osteuropa ist bei uns der Frauenanteil vergleichsweise hoch.“ Grundsätzlich geht es ihr beim Thema Diversität in Entwicklerteams jedoch nicht nur um eine ausgewogene Geschlechterverteilung. „In einem idealen KI-Entwicklerteam säßen Frauen, Männer und diverse Personen ¬– Menschen verschiedener Altersgruppen, unterschiedlicher Hautfarben und sexueller Identität sowie gemischter sozialer Herkunft.“ Und neben Entwicklern und Data-Scientists zusätzlich auch Anthropologen, Psychologen, Soziologen oder Linguisten. Warum? „Weil wir mit KI die Welt von morgen bauen. Diese Aufgabe sollten wir nicht nur weißen 25-jährigen Männern in Kapuzenpullis überlassen, sondern möglichst viele Denk- und Sichtweisen berücksichtigen.“
Denn jeder Algorithmus sei untrennbar mit den Menschen verbunden, die ihn entwickeln und anwenden. Sie wählen die Daten aus, mit denen sie ihn füttern. Und weil Computerprogramme nichts hinterfragen, erlernen die Algorithmen bei ihrem Training auch die in den Daten steckenden Vorurteile. Das ist kein theoretisches Problem: Auf Karriereportalen bekommen Frauen seltener Top-Jobs angezeigt als Männer, schreibt die Süddeutsche Zeitung. Medizinische KIs trainieren häufig mit Daten männlicher Patienten – und erkennen Leiden bei Frauen daher deutlich schlechter. Bei weißen Männern funktioniert die Gesichtserkennung mit 99 Prozent Genauigkeit, bei schwarzen Frauen liegt die Trefferquote nur bei 75 Prozent. Warum solche Machine-Learning-Systeme dann überhaupt auf den Markt kommen? „Ganz einfach: Sie werden in der Regel von weißen Männern getestet – und bei ihnen laufen sie tadellos.“
Algorithmen übernehmen unbewusste Vorurteile
Wie ein Algorithmus unbewusste Vorurteile – Unconscious Biases – übernimmt und verfestigt, zeigt das Beispiel von Amazon. Das Unternehmen entdeckte, dass die eigene Software für die automatische Bewerbervorauswahl systematisch Frauen benachteiligte. Der Grund: Die Entwickler hatten den Algorithmus mit den Datensätzen der in den Vorjahren eingestellten Kandidaten trainiert. So sollte die KI lernen, welche Eigenschaften Amazon besonders wichtig sind, und das zugrunde liegende Muster erkennen. Und weil Amazon in der Vergangenheit vorwiegend Männer eingestellt hatte, folgerte die KI messerscharf, dass das Geschlecht wohl ein wichtiges Auswahlkriterium sein müsse. „Das zeigt, dass nicht der Algorithmus, sondern die Daten das Problem sind“, sagt Kenza Ait Si Abbou Lyadini. Aber Moment mal: Hätte ein diverses Entwicklerteam den Algorithmus nicht mit denselben Datensätzen trainiert? „Möglich“, räumt die KI-Expertin ein, „aber dann wäre bestimmt früher aufgefallen, dass die Software so nicht brauchbar ist. Und: Gemischte Teams machen sich im Vorfeld sicher mehr Gedanken über die Wahl der Datensätze.“
Das ist entscheidend, denn über sie fließt ein Weltbild in das Maschinenlernen ein. Wer es nicht glaubt, kann in Googles Bildersuche mal nach „Mathematikprofessor“ fahnden. In der Trefferliste: Fotos weißer Männer. Man muss sehr weit nach unten scrollen, ehe man ein Bild einer weiblichen Vertreterin entdeckt. Ganz anders ist das Ergebnis, wenn man in die Suchleiste „Mathematikprofessorin“ tippt. Die erste Abbildung zeigt eine Frau, doch schon das nächste Foto wieder einen Mann. „Man kann natürlich der Auffassung sein, dass dies nur die Realität abbildet“, sagt Kenza Ait Si Abbou Lyadini. Denn tatsächlich gibt es deutlich mehr Matheprofessoren als -professorinnen. Aber wer nicht möchte, dass sich im Cyberspace Vorurteile der realen Welt fortpflanzen, wem es gegen den Strich geht, dass jeder bei einem Mathe-Ass sofort an einen Mann denkt, sollte die Auswahl der Daten überdenken.
„Wir müssen daher die Entwickler und Data-Scientists für den Data-Bias sensibilisieren, damit Ungerechtigkeit, Sexismus oder Rassismus nicht noch durch KI-Software zementiert und vervielfacht werden.“ Die Telekom ist schon dran und entwickelt gerade ein entsprechendes KI-Ethik-Kursprogramm und ein KI-Regelwerk für die eigenen Datenexperten. Denn eine gute, eine vorurteilsfreie KI hält Kenza Ait Si Abbou Lyadini für ein mächtiges Fairnessinstrument: „Wir Menschen haben es bisher nicht geschafft, gerecht miteinander umzugehen. Ich hoffe sehr, dass wir mit der Hilfe von KI einmal dahin kommen.“
Mit KI Stellenanzeigen gerechter formulieren„Durchsetzungsfähiger Softwareingenieur (m/w/d) gesucht“: Gut möglich, dass sich eine Frau von einer solchen Formulierung in einer Stellenanzeige gar nicht erst angesprochen fühlt. Weil sie sich vielleicht eher als kollaborative Persönlichkeit sieht, der Teamarbeit wichtig ist. „Wir entwickeln gerade den Prototyp für eine KI, die die Recruiter und Fachabteilungen bei der Formulierung von Stellenanzeigen unterstützen soll.“
Das Ziel: ein vorurteilsfreier Bewerbungsprozess. Mit Stellenanzeigen, die alle ansprechen, Frauen, diverse Personen und Männer gleichermaßen. Die KI spürt dann Wörter und Redewendungen auf, die manche Menschen von einer Bewerbung abhalten. Die Anregung dafür gab übrigens der erste KI-Hackathon für Frauen den Kenza Ait Si Abbou Lyadini im vergangenen Jahr gemeinsam mit dem Netzwerk Women@Telekom initiierte. Der Lohn für ihr Engagement: Auf der Hannover Messe erhielt Kenza Ait Si Abbou Lyadini den Engineer Powerwoman Award 2019 und im Vorjahr den Digital Female Leader Award 2018.