„Künstliche Intelligenz“ – Fluch oder Segen?

Ein Expertenbeitrag von Jürgen Beetz
Viele unterschiedliche Meinungen oder Streitigkeiten entstehen durch unsinnige Fragen oder unpräzise Begriffe. So ist z. B. die Frage „Können Roboter Bewusstsein haben?“ unsinnig, denn Bewusstsein hat zwei Bedeutungen. Die erste ist, dass wir überhaupt etwas wahrnehmen und nicht bewusstlos sind. Die zweite, dass wir etwas bewusst wahrnehmen oder tun, also nicht ohne darüber nachzudenken. Weiterhin ist Bewusstsein keine Eigenschaft, die man hat oder nicht hat. Es gibt Abstufungen, je nach Definition. Präziser wäre also: Haben Roboter menschliches Bewusstsein?

Genauso ist „Fluch oder Segen?“ eine unsinnige Frage. Abgesehen von der unscharfen Definition dieser Begriffe ist natürlich jede Technik – wie viele andere kulturelle Errungenschaften – immer beides. Mathematiker würden sagen: Fortschritt ist gleich Segen minus Fluch. Beide entwickeln sich übrigens in der Menschheitsgeschichte exponentiell, also mit immer schnellerer Zunahme. Und die oft gehörte Behauptung, Technik sei wertfrei, ist ebenso Unsinn.

Jürgen Beetz Schüler des Johanneums in Hamburg und der Wöhlerschule in Frankfurt, studierte Elektrotechnik, Mathematik und Informatik an der Technischen Hochschule Darmstadt und der University of California, Berkeley mit dem Abschluss Diplom-Ingenieur. Bei IBM Deutschland war er 1968–1995 als Systemanalytiker und Dozent tätig, unter anderem am SCIC (Scientific & Cross Industry Center) in Amsterdam und am ESRI (European Systems Research Institute) in Genf. Er ist Autor mehrerer populärwissenschaftlicher Sachbücher.

Das Märchen von der wertfreien Technik

Technik ist nicht einfach nur Technik, sondern sie hat immer gesellschaftliche Konsequenzen. Ein Algorithmus, mit dem Internetnutzende etwa nach einer Klinik suchen, ist nicht neutral, wenn er nicht die beste anzeigt, sondern die, die am meisten für Werbung ausgeben kann. Bei Hotelsuchportalen, Ferienwohnungen und vielen anderen Seiten haben wir dasselbe Problem. Die Annahme einer wertneutralen Technik ist kompletter Unsinn. Aber viele behaupten genau das. Die amerikanische Waffenlobby NRA argumentiert gerne mit dem Satz, mit einem Hammer könnte man einen Nagel in die Wand schlagen, aber auch einen Menschen töten. Das ist eine Ausrede dafür, sich über die Folgen von technischen Entwicklungen keine Gedanken zu machen. Zweifellos gibt es viele Dinge, die sowohl zum Guten als auch zum Bösen verwendet werden können. Auf der anderen Seite ist der moralische Wert einer Atombombe von dem eines Rollators gut zu unterscheiden. Bei Kettensägen habe ich da schon meine Einordnungsprobleme. Da brauchen wir über Sturmgewehre in den Händen normaler Bürger gar nicht zu diskutieren.

Ähnlich verhält es sich mit der Behauptung von Facebook, es sei „nur eine Technologieplattform“. Aber es ist ein Medienunternehmen, eine Nachrichtenplattform, deren Inhalte in keiner Weise reguliert sind. Im Jahr 2017 nutzten 45 % der US-Amerikanerinnen und Amerikaner Facebook als Nachrichtenseite, und wiederum 50 % dieser Gruppe nutzen Facebook als einzige Nachrichtenquelle. Es selektiert die Nachrichten aufgrund seiner über 100 individuellen Merkmale der jeweiligen Nutzenden.

Zusätzlich sind aus Konsumenten von Nachrichten „Prosumenten“ geworden: Menschen, die zugleich Produzenten sind. Sie „malen selbst am düsteren Bild jener Welt mit, in der sie zu leben glauben“, wie es die Süddeutsche Zeitung formulierte. Diese intellektuelle Wolke der eigenen Überzeugungen, die durch die auf eben diese Überzeugungen zugeschnittenen Nachrichten noch verstärkt wird, wird inzwischen als „Echokammer“ oder „Filterblase“ bezeichnet. Dadurch wird das Netz zu einer Bestätigungsmaschine – man findet Bestätigung und Unterstützung für eine Meinung, die man ohnehin schon hat. News in Form eines neuen Blickwinkels bekommt man nicht zu sehen.

Fortschritt ohne Ziel und Richtung

Kritiker sagen, das Internet sei das größte soziale Experiment der Menschheitsgeschichte. Auch das ist ein schiefes Bild. Ein Experiment wird von Wissenschaftlerinnen und Wissenschaftlern durchgeführt, in einer kontrollierten Umgebung und unter kontrollierten Bedingungen. Das Internet ist – obwohl von einigen (auch militärischen) Akteuren angeschoben – ein sich selbst organisierendes System. Im „Internet der Dinge“ werden menschliche Akteure durch Milliarden von Apparaten und Geräten ergänzt. Es wächst unkontrolliert und unreguliert und immer schneller, und niemand steuert.

Seine Entwicklung hat weder eine klare Richtung (außer zu wachsen) noch gar ein Ziel im Sinne von „Nutzen für die Gesellschaft“. Wie alle komplexen Systeme kann es Instabilitäten und chaotisches Verhalten zeigen, also nicht vorhersehbare extreme Zustände. Dasselbe gilt für die Algorithmen, insbesondere die Künstliche Intelligenz (KI). Sie ist bis heute eigentlich nur Maschinelles Lernen, doch ohne echtes „Verständnis“. Nicht umsonst streiten namhafte Expertinnen und Experten über die Frage, ob das jemals dem menschlichen Bewusstsein und dem menschlichen Denkvermögen nahe kommt – oder es gar übertrifft.

Die sogenannte schwache KI bezieht sich auf bestimmte isolierte Anwendungen, z. B. Diagnosen von Röntgenbildern, Erkennung von Gesichtern, Spiele wie Schach oder Go. Diese Systeme lernen in einem eng begrenzten Gebiet mit Abertausenden von Beispielen u. a. Tumore zu erkennen. Sie sind dann oft treffsicherer als Fachleute. Die Entwicklerinnen und Entwickler allerdings verstehen oft nicht mehr, wie und warum die Maschine zu diesem oder jenem Ergebnis gekommen ist. Die Algorithmen sind völlig intransparent.

Die starke KI bedeutet dagegen, dass Maschinen auf allen Gebieten den Turing-Test bestehen, also hinsichtlich ihrer „Intelligenz“ von Menschen nicht zu unterscheiden sind. Von ihr sind wir noch Lichtjahre entfernt. Denn – unter anderem – Computer haben noch kein kognitives Konzept von Zeit, Raum und Kausalität. Sie können in einer Menschenmenge jede Person erkennen, stutzen aber nicht, wenn sie zweimal dieselbe finden. Das Konzept „Zwilling“ kennen sie nicht. Es ist auch nicht sicher, ob die KI-Software eines „selbstfahrenden Autos“ den jedem Autofahrer bekannten Kausalzusammenhang „Wenn Ball, dann Kind“ kennt.

Eine generelle, eine menschenähnliche oder gar übermenschliche KI ist noch utopisch. Denn wir wissen nicht, wohin sich das entwickelt, weil wir kaum darüber nachdenken. Wir (d. h. die uns repräsentierenden gesellschaftlichen Gruppen) sollten steuern, greifen aber nicht ein. Die Förderung der Digitalisierung ohne Technikfolgenabschätzung tötet jede gesellschaftliche Verantwortung. Wollte Konfuzius mit seiner fernöstlichen Weisheit „Der Weg ist das Ziel“ uns dorthin locken?

 

Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: