Innovation, Technik, Arbeit

Mensch oder Künstliche
Intelligenz – Wer hat die Nase vorn?

19.04.2022
Kurz und knapp

„Kluge“ Algorithmen stellen den Menschen in immer mehr Bereichen in den Schatten, vom Schachspiel über die Analyse großer Datenmengen bis zur Bilderkennung. Doch sie denken nicht wie wir. Sie sind Spezialisten, wir sind Generalisten. In welchen Bereichen kann der Mensch sich also bei fortschreitender Perfektion Künstlicher Intelligenz behaupten? Wir sollten sie als Werkzeug betrachten, das unsere Fähigkeiten ergänzt, nicht als Konkurrenz, die uns ersetzt.

Paradoxe Technik

Schon in den 1980er Jahren formulierten Forscher ein Paradox: Künstlicher Intelligenz fällt leicht, was Menschen schwerfällt und umgekehrt. Das, was wir mühsam lernen müssen und was uns Konzentration und Ausdauer kostet, etwa das Rechnen oder Schachspielen, können Algorithmen längst besser als wir. Auch darin, große Datenbestände nach Mustern zu durchforsten, sind sie uns überlegen. Bei vielem, was uns leichtfällt, Small Talk halten etwa, sind sie hingegen abgehängt. 

Noch deutlicher zeigt sich dieses Paradox bei Robotern: Ohne zu ermüden immer wieder dieselbe Bewegung auszuführen, ist kein Problem. Ein Baby zu wickeln hingegen, ist auch für die klügste Maschine jenseits des Vorstellbaren.

Spezialisten, nicht Generalisten

Die aktuellen KI-Systeme sind extreme Spezialisten: Sie können nur genau das, worauf sie programmiert oder trainiert wurden. Ein System, das den Weltmeister im Schach schlagen kann, kann eben nur Schach spielen. Es kann nicht Mensch-ärgere-dich-nicht spielen, einen Apfel nicht von einer Birne unterscheiden und keine Kochrezepte erfinden. Manchmal reicht es schon, wenn sich in einer Aufgabe Kleinigkeiten verändern, um ein solches System aus dem Konzept zu bringen.

Menschen hingegen sind Generalisten: Sie erbringen nicht überall Spitzenleistungen, können dafür aber sehr viel verschiedenes gut genug. Und diese Fähigkeit ist zentral, um im bunten Durcheinander der Welt zurechtzukommen.

Roboter simulieren Gefühle

Ein Bereich, der dem Menschen auf absehbare Zeit sicher vorbehalten bleiben wird, sind die Empfindungen. So ist es zwar möglich, Roboter dazu zu bringen, so zu tun als hätten sie Schmerzen oder als seien sie neugierig. Eine solche Programmierung kann dazu beitragen, dass Systeme sich besser in ihrer Umwelt zurechtfinden. Dabei wird aber nur die Funktion dieser Empfindungen nachgeahmt, die Systeme spüren tatsächlich aber nichts. Und auch wenn manche Forschende dies nicht für völlig ausgeschlossen halten, ist derzeit nicht erkennbar, wie Empfindungen und damit Bewusstsein in Schaltkreisen entstehen sollten.

Seltsame Fehler

Auch die besten künstlichen Systeme machen immer wieder seltsame Fehler, die zeigen, dass ihnen etwas ganz Zentrales fehlt: Sie verstehen die Welt nicht, wie Menschen sie verstehen. Ob sie dies lernen würden, wenn sie einen Körper hätten, mit dem sie Erfahrungen machen, ob sie vielleicht sogar eine Kindheit oder eine Evolution durchlaufen müssten, ist derzeit umstritten.

Das liegt auch daran, dass gar nicht genau genug verstanden ist, wie menschliche Intelligenz funktioniert, um sie in künstlichen Systemen nachzubauen. So zeigt die Künstliche-Intelligenz-Forschung, dass menschliche Intelligenz sich immer wieder als deutlich komplexer erweist, als Forschende sich das vorgestellt hatten.

Was uns bleibt

Künstliche Systeme haben keine eigenen Interessen, keine Motivation. Der Mensch bestimmt, welche Probleme gelöst werden sollen, wo KI-Verfahren zum Einsatz kommen und welche Lösungen, die Algorithmen vorschlagen, akzeptabel sind.

Das gilt auch für die viel diskutierte Frage, ob künstliche Systeme kreativ sein können. Es ist nach wie vor der Mensch, der ein System darauf ansetzt, zu komponieren, zu texten oder zu malen, der es einrichtet, korrigiert und darüber entscheidet, ob und welches Ergebnis eines Algorithmus gefällt, berührt oder weiterbringt.

Letztlich kommt es darauf an, wie Menschen sich die Stärken künstlicher Systeme möglichst gut zunutze machen.