Gesellschaft, Politik, Wirtschaft, Sicherheit

Wie gefährlich ist die Künstliche Intelligenz?

21.04.2022
Kurz und knapp

„Künstliche Intelligenz“ steht für viele unterschiedliche computertechnische Verfahren. Ihnen allen gemeinsam ist, dass sie keine eigene Agenda haben. Wie gefährlich KI ist, hängt davon ab, was Menschen damit tun. Vor allem gilt es abzuwägen, wo welche Verfahren zum Einsatz kommen können.

KI zwischen Science-Fiction und Wirklichkeit

In der Science-Fiction wimmelt es von finsteren Robotern und fiesen Algorithmen, die sich selbständig machen und die Menschheit bedrohen. Wir neigen dazu, die echten Produkte der Künstliche-Intelligenz-Forschung durch die Brille dieser Geschichten zu betrachten. Tatsächlich bezeichnet „Künstliche Intelligenz“ keine bestimmte Technik, sondern umfasst viele unterschiedliche Verfahren. Sie alle haben eins gemeinsam: Sie haben keine eigene Agenda, keine Ziele oder Absichten, es sind Werkzeuge, deren Menschen sich bedienen.

Wie gefährlich Künstliche Intelligenz ist, hängt also – wie bei anderen Technologien auch – davon ab, was Menschen damit tun. Hier gibt es neben zahlreichen sinnvollen Verwendungen auch bedenkliche und gefährliche.

Muster in digitalen Spuren

Maschinelle Lernverfahren sind besonders gut darin, Muster in großen Datenmengen zu erkennen. In der Medizin und der Wissenschaft ist das sehr hilfreich. Mit ihrer Hilfe können aber zum Beispiel auch detaillierte Profile von Menschen erstellt werden, um sie für Werbung oder Manipulation zu verwenden. Auch in Kameras mit automatischer Gesichtserkennung, mit deren Hilfe öffentliche Räume überwacht werden können, kommen sie zum Einsatz.

Mithilfe lernender Algorithmen lassen sich Deep Fakes erzeugen, also gefälschte Bilder oder Filme, die schwer als solche zu erkennen sind. Diese können dazu beitragen, Verwirrung zu stiften.

Ein anderer Aspekt: Lernende Verfahren sind sehr datenintensiv. Das führt dazu, dass diejenigen, die viele Daten besitzen, in der Lage sind, bessere, weil genauer auf die Bedürfnisse der Menschen zugeschnittene, Produkte zu entwickeln. Damit begünstigen diese Verfahren die Bildung von Monopolen.

Undurchsichtige und überforderte Algorithmen

Ein weiteres Problem betrifft die Leistungsfähigkeit und Durchsichtigkeit von KI-Verfahren. Nichtregierungsorganisationen beklagen immer häufiger, dass benachteiligte Menschengruppen von automatisierten Entscheidungssystemen, die etwa den Zugang zum Gesundheits- oder Bildungssystem regeln, zusätzlich diskriminiert werden.

Generell übernehmen Algorithmen, die anhand von Beispielen lernen, neue Daten zu klassifizieren, die bestehenden Strukturen und verstärken sie. Und es ist oft nicht sofort zu erkennen, welche Folgen ihr Einsatz hat.

Auch Algorithmen, von denen behauptet wird, sie seien in der Lage, etwa den Charakter eines Menschen oder seine sexuelle oder politische Orientierung zu erkennen, sind zweifelhaft und können leicht missbraucht werden.

Zu den umstrittensten Verwendungen von KI-Verfahren gehören (teil-)autonome Waffensysteme: Sei es, weil sie dazu beitragen könnten, Kriege schneller zu beginnen, sei es, weil Systeme unterschiedlicher Herkunft einander missverstehen oder irritieren und so zu einer schnellen und ungewollten Eskalation von Konflikten führen.

Die gesetzliche Regulierung ist in Arbeit

Mit lernenden Algorithmen und anderen Verfahren der Künstlichen Intelligenz sind mächtige Werkzeuge entstanden, die zum Guten und zum Schlechten verwendet werden können. Die Arbeit daran, ihre Verwendung gesetzlich angemessen zu regeln, ist national und auf europäischer Ebene in vollem Gange.

Informationen zu der Frage, worin der Mensch den Maschinen überlegen bleiben wird, finden Sie hier

Inspirierende Fragen

Ideenlauf
1 Artikel  ·  Gesellschaft, Politik, Wirtschaft, Sicherheit
17.01.2022