Innovation, Technik, Arbeit

Was ist, wenn sich KI gegen uns wendet?

09.06.2022
Kurz und knapp

Das Thema Künstliche Intelligenz ist eine der großen „Fragen Deiner Zeit!“. Könnte sie sich gegen uns wenden? Dazu geben Fachleute Entwarnung: KI hat keine eigenen Ziele. Sie kommt nicht aus dem Nichts auf die Idee, uns zu schaden. Aber sie kann ausfallen, schlecht gemacht oder überfordert sein. Das kann durchaus zu massiven Schäden oder ungewollten Effekten führen. Deshalb ist es wichtig, genau zu überlegen, wo diese Technik zum Einsatz kommen kann und wo man auf andere Verfahren zurückgreifen sollte.

Algorithmen haben keine Absichten

Von der Antike bis zur Science-Fiction der Gegenwart begleiten uns Geschichten über künstliche intelligente Wesen. In den meisten spielen sie eine dunkle Rolle, oft entkommen sie der Kontrolle ihrer Schöpfer und richten Unheil an. Und oft zeigen sie dabei Ambitionen, wie wir sie von den unerfreulichen Vertretern unserer eigenen Spezies kennen: vor allem Gier und Machthunger. Heute sehen wir die Ergebnisse der KI-Forschung, seien es Algorithmen oder Roboter, unweigerlich durch die Brille all dieser Geschichten.

Tatsächlich ist das, was heute als intelligente Technik bezeichnet wird, gar nicht in der Lage, aus einer Aufgabe, für die sie programmiert oder trainiert wurde, auszubrechen und sich zu überlegen, dass sie lieber etwas anderes täte, zum Beispiel die Menschheit zu unterjochen. Lernende Algorithmen, Entscheidungsbäume, Bayessche Netze und all die anderen KI-Verfahren haben keine eigene Agenda, keine Absichten, keine Begierden. Sie können sich nicht von sich aus gegen uns wenden.

Gut gemeint ist nicht immer gut gemacht

Freilich können KI-Algorithmen oder -Systeme schlecht gemacht sein; sie können ausfallen oder manipuliert werden; sie können für Aufgaben verwendet werden, denen sie nicht gewachsen sind. Oder sie können auf eine unvorhergesehene Weise interagieren.

In all diesen Fällen kann es zu massiven Schäden, etwa einem großflächigen Stromausfall oder einem Börsencrash kommen, die aber nicht von den Systemen beabsichtigt wurden.

Immer wieder zeigt sich auch, dass es nicht einfach ist, die Ziele, auf die KI-Systeme optimiert werden, genau festzulegen. Manchmal kommen Systeme dabei zu unerwarteten und unerwünschten Lösungen: Zum Beispiel könnte es beim Schachspiel, mit dem Ziel niemals zu verlieren, einfach eine endlose Pause einlegen. Ziel erreicht.

In einem berühmten Gedankenexperiment des Philosophen Nick Bostrom ist ein System, das Büroklammern herstellen soll, nicht mehr zu bremsen und zerlegt schließlich auch die Menschen, um weitere Rohstoffe für neue Büroklammern zu gewinnen.

Wegen solcher Überlegungen befassen sich Forscherinnen und Forscher auch damit, wie man Systeme mit einer Art Not-Aus versehen kann, einen Befehl, der sie sicher dazu bringt, sich abzuschalten, und den auch das klügste System nicht austricksen kann.

Es kommt auf den Zusammenhang an

Oft stellt man erst in der Anwendung – etwa von Algorithmen, die Bewerbungen vorsortieren oder den Zugang zum Gesundheitssystem regeln sollen – fest, dass wichtige Aspekte übersehen wurden. So kann die Verwendung solcher Algorithmen Menschen oder Menschengruppen diskriminieren. Auch hier würde man aber nicht sagen, dass die Algorithmen sich gegen die betroffenen Menschen wenden, sondern dass ihr Einsatz nicht gut durchdacht war.

Dennoch wird auch an einer KI-Ethik geforscht und daran, wie man sicherstellen kann, dass auch noch viel leistungsfähigere zukünftige Systeme sich an unseren Werten und Zielen orientieren.

Gestaltung ist gefragt

Auf absehbare Zeit sind KI-Systeme nicht in der Lage, eigene Ziele zu entwickeln. Und wenn sie es wären, wäre nicht gesagt, dass sie dieselben gefährlichen und unersättlichen Gelüste entwickeln würden, wie manche Menschen. Bislang gilt: Wenn KI-Systeme zu schlechten Ergebnissen kommen, haben Menschen etwas falsch gemacht. Deshalb muss sorgfältig geprüft werden, wo welche Systeme zum Einsatz kommen und wie man sie, wenn nötig, korrigieren kann.

 

Mehr über das Institut für interdisziplinäre Forschung zu den Auswirkungen der KI erfahren Sie hier

Mehr über das Institut, das sich mit den Risiken neuer Technologien, darunter KI, befasst, lesen Sie hier