Wie diskriminierend ist Künstliche Intelligenz?

Ein Expertinnenbeitrag von Prof. Dr. Susanne Beck, Plattform Lernende Systeme
Ein reales Beispiel: Die Personalverantwortlichen einer großen Firma sortieren mithilfe eines Algorithmus die eingegangenen Bewerbungen vor. Was sie nicht wissen: Bewerbungen von Frauen bewertete das Computersystem grundsätzlich schlechter als jene von Männern. Denn: Die Datenbasis, mit der der Algorithmus trainiert wurde, beinhaltete die Daten der in den letzten zehn Jahren erfolgreich eingestellten Beschäftigten. Da diese überwiegend männlich waren, hatte der Algorithmus gelernt, diese Eigenschaft als positiv zu bewerten.

Prof. Dr. Susanne Beck ist Inhaberin des Lehrstuhls für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover und Mitglied der Arbeitsgruppe “IT- Sicherheit, Privacy, Recht und Ethik” der Plattform Lernende Systeme. Sie studierte Rechtswissenschaften in Würzburg und an der London School of Economics. Ihr Referendariat absolvierte sie in Würzburg und Sydney (AUS). 2006 promovierte sie zu “Stammzellforschung und Strafrecht”. Im Anschluss arbeitete sie am UIC in Zhuhai (China). Von 2008 bis 2012 war sie Wissenschaftliche Mitarbeiterin in Würzburg. Nach Vertretungen in Gießen, Köln und Wiesbaden hat sie seit 2013 den Lehrstuhl für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover inne. Einen Ruf nach Frankfurt a.M. lehnte sie ab. Susanne Beck arbeitet seit über zehn Jahren im Bereich Robotik und Recht.

Maschinelles Lernen ist ein mächtiges Werkzeug, um große, unstrukturierte Datenmengen zu durchforsten, darin Muster zu erkennen und anhand der gewonnenen Erkenntnisse selbständig weiter zu lernen. Es ermöglicht Auswertungen, die in der Kürze der Zeit kein Mensch vornehmen könnte. Nicht immer offensichtlich ist dabei: Die scheinbar faktenbasierten Ergebnisse sind nicht per se neutral und wertungsfrei.

Denn wie das Eingangsbeispiel zeigt: Nicht nur Menschen differenzieren in ihren Entscheidungen bisweilen ungerechtfertigt. Auch datenbasierte Systeme bergen das Potenzial, bereits vorhandene Diskriminierungen zu übernehmen und möglicherweise sogar zu verschärfen.

Nicht jede Unterscheidung ist diskriminierend

Maschinelles Lernen beruht darauf, zu klassifizieren: Die Technologie erkennt neue Muster in Daten und weist Ergebnisse grundsätzlich bestimmten Gruppen zu. Damit stellt sich die Frage: Welche Art der Unterscheidung ist diskriminierend?

Allgemein gilt als diskriminierend, wenn Gleiches ungleich oder Ungleiches gleich behandelt wird. Nicht die Differenzierung an sich ist ein Problem – wie Schulnoten oder Steuerklassen zeigen. Entscheidend ist, ob eine Ungleichbehandlung gerechtfertigt ist oder nicht. Da sich dies jedoch nicht objektiv definieren lässt, werden im Umgang mit Empfehlungen von KI-basierten Systemen verschiedene Abgrenzungen diskutiert. So könnte man für bestimmte Lebensbereiche KI-gestützte Beurteilungen gänzlich ablehnen, da diese stets auf statistischen Werten und Gruppenzuordnungen basieren, und stattdessen das Recht auf eine Einzelfallbetrachtung fordern.

Dem Bias auf der Spur

Wie aber lassen sich die von KI-Systemen erzeugte Diskriminierungen kontrollieren und vermeiden? Die in diesem Zusammenhang häufig geforderte Transparenz von maschinellen Entscheidungen ist nicht leicht herzustellen. Faktisch sind die Algorithmen – insbesondere beim so genanntem Deep Learning – so komplex, dass sie sich kaum nachvollziehen lassen; rechtlich gesehen fallen sie zudem meist unter das Firmengeheimnis. Hinzu kommt: Bei Systemen, die im laufenden Betrieb weiterlernen, kann nie mit vollständiger Sicherheit ausgeschlossen werden, dass unerwünschte Lernvorgänge stattfinden.

Diese Verzerrungen – auch Biases genannt – können ihren Ursprung sowohl in der Eingabe (Input) als auch in der Anwendung (Output) haben. Als diskriminierender Input gilt, wenn in der Gesellschaft etablierte Vorurteile in die Software übertragen werden. Dies kann explizit geschehen – indem diskriminierende Unterscheidungen programmiert werden. Oder aber implizit, wie im Eingangsbeispiel der Fall. Eine Diskriminierung in der Eingabe liegt auch vor, wenn technische Vorgaben dazu führen, dass bestimmte Gruppen von Menschen anders behandelt werden als andere. Ein Bespiel hierfür sind Sensoren, die nur bei heller Hautfarbe reagieren.

Manche Formen der Diskriminierung entstehen wiederum erst in der Anwendung. Feststellen lassen sie sich nur in Testläufen oder auch erst während des Betriebs eines Systems. Ein Beispiel hierfür ist der von Google entwickelte Chatroboter „Tay“: Er wurde nach seiner Veröffentlichung von organisierten Nutzern systematisch mit fremdenfeindlichen Konversationen „gefüttert“ und lernte auf diese Weise eine diskriminierende Ausdrucksweise.

Herausforderungen – nicht nur für Programmierer

Um diesem Diskriminierungsproblem zu begegnen, werden aktuell verschiedene Ansätze diskutiert. Dazu zählen Schulungen für Beschäftigte, die KI nutzen. Gefordert wird auch, dass Individuen gegen eine unrechtmäßige Diskriminierung durch KI-Systeme vorgehen können sollen. Eine Diskriminierung durch KI ließe sich auch durch eine unabhängige Instanz verhindern, die die Entscheidungen von Lernenden Systemen kontrolliert und bewertet.

Schließlich könnte auch Fairness zum Ziel maschineller Lernverfahren werden. Dann ginge es nicht mehr nur darum, möglichst effiziente oder genaue Klassifikationen zu ermöglichen – sondern auch möglichst gerechte. Neben der technischen Umsetzbarkeit stellt sich hier allerdings natürlich die schwierige Frage nach einer allgemeingültigen und implementierbaren Vorstellung von Gerechtigkeit. Es bleibt festzuhalten: Die potenzielle Diskriminierung beim Einsatz von Künstlicher Intelligenz muss Teil einer größeren Debatte werden.

 

Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: