Ist meine KI ein Rassist?

Ein Expertenbeitrag von Johannes Schürmann, INVENSITY GmbH
Maschinelles Lernen (ML) und Künstliche Intelligenz (KI) zählen nicht ohne Grund heutzutage zu den Technologien, die die Chance haben nicht nur die Industrie, sondern das Umfeld der Menschen grundlegend zu verändern. Einige KI-Anwendungen haben sich bereits nahezu unbemerkt in unseren Alltag eingeschlichen und beeinflussen bereits unser Verhalten. Suchvorschläge bei Google, Musikauswahl bei Spotify und die „persönliche Facebook-Seite“ sind Beispiele dafür. Weitere Veränderungen wie halbautomatisierte Entwicklung, kontinuierlich optimierende Kraftwerke, Verbrechensvorhersage, Serviceroboter etc. werden noch kommen.

Johannes Schürmann ist stellvertretender Leiter des INVENSITY Technology Hubs. Nach einer Spezialisierung im Studium auf Maschinenwesen und Robotik an der Technischen Universität München, arbeitete er in der Medizintechnik und Halbleitertechnik. Bei INVENSITY berät er branchenübergreifend zu Realisierbarkeit und Umsetzung von KI-Lösungen. Darüber hinaus gehört die Entwicklung geeigneter Bewertungsmethoden für KI-Systeme zu den Aufgabengebieten. 
Privat evaluiert er den Einsatz moderner Mobilitätskonzepte und setzt auf eine enge Verknüpfung von Technologie und Stadtentwicklung.
Auf LinkedIn ist er zu finden unter: Johannes Schürmann


Eine KI-Bewertung kann Vertrauen schaffen

Während aktuell enorme Fortschritte bei der technischen Umsetzung der Künstlichen Intelligenz gemacht werden, bleiben grundlegende Fragen hinsichtlich der Themen Vertrauen, Transparenz und Ethik weitestgehend unberücksichtigt. Es hat sich noch keine eindeutige Lösung für die Bewertung Künstlicher Intelligenz herauskristallisiert. Standards, Normen oder Vorgaben existieren aktuell nicht und liefern somit noch keinen Wegweiser für die Entwicklung.
Es zeigt sich sehr schnell, dass die Bewertung einer KI eine besondere Herausforderung darstellt. Dies liegt insbesondere an den weit gefächerten Anwendungsmöglichkeiten für KI mit sehr unterschiedlichen Anforderungen an Zuverlässigkeit, Sicherheit, Privatsphäre etc.  Schon heute wird KI in unglaublich vielen Bereichen eingesetzt und es werden nach und nach immer neue Einsatzmöglichkeiten dazukommen. Wie sorgfältig und kritisch eine KI zu bewerten ist, hängt also davon ab, wofür genau die KI eingesetzt wird und in welchem Umfang die KI dabei eigenständig agiert.
 

Warum kann KI rassistisch sein und sogar unsere Gesellschaft prägen?

KI basierte Empfehlungen von Streaming-Anbietern scheinen hier zunächst vollkommen harmlos. Doch auch hier kommen bei genauerem Hinsehen kritische Fragen auf: Werden Serien oder Filme mit bestimmten Inhalten systematisch benachteiligt? Was auf den ersten Blick unbedeutend erscheint, könnte durchaus drastische auswirken haben.  Werden Produktionen mit gesellschaftskritischen Inhalten bei der Empfehlung systematisch benachteiligt, werden solche Inhalte auch weniger stark in Anspruch genommen und infolgedessen zukünftig vielleicht gar nicht mehr produziert.

Kommt die KI im Bereich der autonomen Mobilität oder im medizinischen Umfeld, beispielsweise bei der Diagnose von Krankheiten, zum Einsatz, sind die Risiken offensichtlicher, jedoch nicht unbedingt einfacher zu bewerten. Denn wie zuverlässig die Vorhersagen einer KI sind, hängt von vielen Faktoren ab. Ein entscheidender Faktor ist das Training einer KI. Häufig wird eine KI mit Daten trainiert, die in der Vergangenheit erhoben wurden. Doch sind diese Daten immer so repräsentativ, dass sie keine Bevölkerungsgruppe benachteiligen? Ist die Hautkrebsdiagnose mittels KI bei europäischen Frauen zuverlässiger als bei asiatischen Männern? Liegen zum Beispiel besonders wenige Informationen zu einer bestimmten Bevölkerungsgruppe vor, weil hier aus finanziellen Gründen in der Vergangenheit nur wenige Hautkrebsdiagnosen durchgeführt wurden, ist das Risiko vorhanden, dass bei genau dieser Bevölkerungsgruppe die KI bei der Krebsdiagnose weniger gut abschneidet. Ein klarer Nachteil für die Betroffenen. Die Vorhersagen einer KI basieren oft auf Trainingsdaten und grundsätzlich gilt: je mehr Daten, desto besser die Vorhersage. Da erscheint es logisch, dass der Durchschnittsbürger in Trainingsdaten besser repräsentiert wird als Angehörige von Minderheiten.

KI bietet uns großartige Chancen die Zukunft positiv zu gestalten. Damit diese Chancen auch fair verteilt werden und niemand benachteiligt wird, bedarf es besonderer Sorgfalt bei der Entwicklung von KI und eines geeigneten und unabhängigen Bewertungsmodells, welches auch die Datengrundlage der KI betrachtet.

 

Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: