KI, Genderfragen und Diskriminierungen

Ein Expertinnenbeitrag von Professorin Regina Ammicht Quinn, Universität Tübingen
SIRI, ALEXA, CORTANA: Die KI-Assistenzsysteme, die im alltäglichen Gebrauch sind, haben Frauennamen und sprechen mit Frauenstimmen, „weißen“ Frauenstimmen. Alexa organisiert unseren Tag, beantwortet Fragen, bucht das Hotel und bestellt Katzenfutter. Alexa hat keinen Körper, aber (imaginierte und programmierte) Eigenschaften: Sie ist hilfsbereit, unterstützend, vertrauenswürdig, verlässlich, kompetent, effizient, geduldig und anspruchslos. Auch wenn sie im Alltag mit uns spricht, hat sie nicht das Sagen. Die Voreinstellungen der Frauenstimmen lassen sich ändern; aber als Voreinstellungen sind sie Ausdruck gesellschaftlicher Vor-Einstellungen, anhand derer die Systeme in das Leben integriert werden. Die Hersteller sagen, dass die Verbraucher eben weibliche Stimmen wollen. Und das mag ja so sein: Clifford Nass und Scott Brave beschrieben schon 2005, dass weibliche Stimmen in der Mensch-Computer-Interaktion suggerieren, Hilfe anzubieten, um die Probleme selbst zu lösen; männliche Stimmen suggerieren, uns Lösungen mitzuteilen.

Programmieren – Von der Frauenarbeit zur Männerarbeit?

In den 1950er und 60er Jahren war Programmieren Frauenarbeit. Diese Arbeit hatte noch nicht den Status, den sie heute hat, der Begriff „Software“ war noch nicht erfunden und „coding“ galt als sekundäre Aufgabe, während Ruhm und Ehre den Herstellern der Maschinen zukam. Frauen galten als besonders qualifizierte Programmiererinnen, schließlich, so eine der damaligen Argumentationen, waren sie schließlich auch in der Lage, Strickmuster zu entwerfen. Dennoch haben viele von ihnen Grundsteine für die heutige Informatik gelegt. Dass es heute eklatant wenige Frauen in diesem Bereich gibt, hat also wenig mit der DNA oder anscheinend geschlechtergebundenen Begabungen zu tun, sondern mit einer Sozialgeschichte, die im Einzelnen noch nachgezeichnet werden muss.
Der Global Gender Gap Report des World Economic Forum, der im Dezember 2018 veröffentlicht wurde, zeigt auf, dass zum jetzigen Zeitpunkt die Erfolge der Geschlechtergerechtigkeit in Kernbereichen wie Gesundheit, Bildung, Ökonomie und Politik erneut in Frage stehen: durch Künstliche Intelligenz. Während der Gender Gap – also die Geschlechterkluft in zentralen gesellschaftlichen Bereichen – in der Fertigungsindustrie, dem Bergbau und im Energiesektor weiter abnimmt, ist der Gender Gap für den „KI-talent pool“ seit vier Jahren konstant: 78 Prozent derjenigen, die im KI Sektor arbeiten, sind Männer (vorwiegend weiße und asiatische Männer). Damit ist der Gender Gap dreimal so hoch wie in anderen Industrien. Und dort, wo Frauen im KI Bereich beschäftigt sind, geschieht dies zu großem Teil in schlechter bezahlten und reputationsarmen Positionen. Deutschland, auf Platz drei der führenden „KI-Nationen“ nach USA und Indien, nimmt mit einem Frauenanteil von 16% in Bezug auf den Gender Gap den drittletzten Platz unter den “KI-Nationen“ ein. Dieser Gender Gap ist so groß, dass er sich laut World Economic Forum nicht von selbst erledigt. Wenn KI in naher Zukunft zur Querschnittstechnologie in vielen Lebensbereichen wird, dann hat dies Konsequenzen für die ökonomische Partizipation von Frauen und für den dringenden Bedarf an Fachkräften.

Regina Ammicht Quinn, Professorin für Ethik, leitet das Internationale Zentrum für Ethik in den Wissenschaften der Universität Tübingen.


Biased Algorithms: Folgen für die Qualität der KI-Systeme:

KI-Systeme bilden in vielen Fällen die Gesellschaft mitsamt den bislang bestehenden Ungerechtigkeiten ab. Ein Beispiel ist das vor wenigen Monaten diskutierte Prognosesystem des österreichischen Arbeitsmarktservice (AMS). Frauen sind bislang auf dem Arbeitsmarkt strukturell und aufgrund von Vorurteilen benachteiligt. Genau diese Daten werden aber zur Grundlage für die Berechnung der Chancen von Frauen auf dem Arbeitsmarkt generell. Die daraus errechneten schlechteren Aussichten von Frauen münden in diesem Fall in schlechteren Vermittlungshilfen und wirken sich auch negativ auf das Selbstbild von arbeitssuchenden Frauen aus. Zugleich wird den Ergebnissen einer KI-Berechnung meist eine hohe Objektivität zugeschreiben, sodass eine Kritik an den Ergebnissen, beispielsweise durch Sachbearbeiter und Sachbearbeiterinnen des Arbeitsmarktservices, schwer zu leisten ist.
Zugleich sind Genderfragen Teil eines breiten Diskriminierungsproblems vieler KI-Systeme. Wo mit Hilfe von KI-Berechnungen Kredite vergeben, Studienplätze verteilt und Entscheidungen über vorzeitige Haftentlassung getroffen werden, können historische und/oder verzerrte Daten zu größten Gerechtigkeitsproblemen führen.
Es gibt an einigen Stellen breite Anstrengungen, mehr Frauen in den „talent pool“ für KI zu integrieren – offensichtlich momentan noch mit geringen Effekten. Wenn es um ökonomische Teilhabe, Fachkräftemangel und die Diskriminierungsgefahr durch KI geht: Löst dann ein höherer, gleichberechtigter Frauenanteil diese Probleme? Wird alles gut, wenn nur mehr Frauen an KI-Systemen arbeiten?
In Fragen ökonomischer Teilhabe und Fachkräftemangel: ja.
In Fragen der Diskriminierungsfreiheit: naja.

Lösungsansätze für mehr Diversität von KI-Systemen

Einiges könnte sich hier durch einen höheren Frauenanteil verändern. Apps, die die Menstruation von Frauen vermessen, könnten vielleicht darauf verzichten, „vulnerable“ Zeitfenster zu identifizieren, in denen dann effektive personalisierte Werbung geschaltet wird. Fitness Apps könnten aufhören, Frauen nach der Geburt eines Kindes zum „Gewichtsverlust“ zu gratulieren. Und Systeme für Stellenanzeigen könnten Anzeigen für Führungspositionen auch bei Frauen schalten. Dies sind Probleme, die im „pale male mainstream“ nicht vorkommen und leichter übersehen werden.
Damit ist die Forderung nach einer radikalen Erhöhung des Frauenanteils nötig, reicht aber nicht aus.
Erstens sind Diskriminierungsfragen intersektionell. Das heißt: „Geschlecht“ ist mit anderen Diskriminierungskategorien wie Rasse, Klasse, Herkunft usw. verbunden. Wenn ein von amerikanischen Strafverfolgungsbehörden genutztes Gesichtserkennungssystem schwarze Gesichter fehlerhaft mit einer hohen Rate als in Verbrecherdateien vorhanden „erkennt“, dann müssen andere Formen von Diskriminierung mitgedacht werden. Nicht nur Frauen müssen sich repräsentiert sehen, sondern auch andere Gruppen, auch Menschen, die sich selbst keinem eindeutigen Geschlecht zuordnen.
Zweitens kann aber Identitätspolitik – also die Forderung, dass jeder Mensch für die eigene Gruppe spricht – nicht der alleinige Ausgangspunk sein, um KI-Systeme so gerecht wie möglich zu machen. Nötig ist eine Ausbildung, die gesellschaftliche Kontexte mit reflektiert und ein Wissen über mögliche Diskriminierungsformen vermittelt; nötig ist eine Professionsethik, die die ethischen Grundlagen der eigenen Arbeit thematisiert.

Fazit
Diversität in Entwicklungsabteilungen ist also nicht „automatisch“ ausreichend, sondern es ist notwendig, Diskriminierungsprozesse zu erkennen, ihnen in ihren komplexen gesellschaftlichen Erscheinungsformen zu begegnen. Dazu gehören in einer digitalen Gesellschaft natürlich auch technischen Instrumente: Durch DADM („discrimination-aware data-mining“) und FATML („fairness, accountability and transparency in machine learning“) wird momentan versucht, Diskriminierungsfreiheit in technische Systeme einzuschreiben.
Der „pale male mainstream“ muss sich verändern – im Hinblick auf seine Dominanz, genauso aber im Hinblick auf eine Erweiterung seiner Kompetenzen: Für Gerechtigkeitsfragen sind nicht allein diejenigen zuständig, die diskriminiert werden, sondern alle. Und alle, die an und mit KI-Systemen arbeiten, haben die Aufgabe, die Technik im Sinn des Gemeinwohls zu entwickeln und zu nutzen.

 

 

Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: