Die Simulation der Kreativität: Können Maschinen kreativ sein?

Ein Expertenbeitrag von Ali Nikrang, Ars Electronica Futurelab, KI-ForscherIn den letzten Jahren gab es großes akademisches Interesse daran, Systeme der Künstlichen Intelligenz für kreative Aufgaben wie das Erzeugen von Texten, Bildern oder Musik anzuwenden, mit faszinierenden Ergebnissen.

Es wird angenommen, dass die Erzeugung von solchen Daten nur dann möglich ist, wenn das KI-System bereits existierende Texte, Bilder oder Musik “versteht”. Anders als beim Menschen heißt das bei einem KI-System, dass es aus einer großen Menge von eingegebenen Daten die entscheidenden Merkmale gelernt hat. Darauf aufbauend können schließlich neue, ähnliche Daten - und damit etwa neue Texte, Bilder oder Musik - erzeugt werden.

Ali Nikrang ist ein KI-Forscher am Ars Electronica Futurelab und beschäftigt sich u.a. mit kreativen Anwendungen von KI. Er studierte Computer Science an der Johannes Kepler Universität in Linz und Musik am Mozarteum in Salzburg. Bevor er 2011 zum Ars Electronica wechselte, arbeitete er am österreichischen Forschungsinstitut für Artificial Intelligence in Wien.

Wir konzentrieren uns in diesem Beitrag auf das automatische Komponieren von Musik, ein Feld, indem es in den letzten Jahren enorme Fortschritte gegeben hat. Gerade die Musik gilt als eine tief menschliche Kunstform, die unsere Empfindungen wie kaum eine andere Kunstform spiegeln kann.

Dass KI-Modelle mittlerweile auch höchst emotionale Stücke generieren können, wurde in dem in Kooperation zwischen Ars Electronica und Brucknerorchester Linz zu Stande gekommenen Projekt „Mahler Unfinished“ im September 2019 demonstriert. Gustav Mahler war ein äußerst bedeutender und bekannter Komponist. Das KI-System „MuseNet“ (von OpenAI) hat auf Basis des Themas seiner letzten, unvollendeten Sinfonie ein ausgesprochen gefühlvolles Musikstück komponiert. Diese KI-Komposition wurde dann von dem Orchester neben dem Original von Mahler gespielt. Das Thema der Sinfonie ist sehr ungewöhnlich: Es beginnt düster, ohne Begleitung, und folgt einem sehr speziellem Aufbau. Es kann daher zu Recht als Herausforderung für ein KI-System gesehen werden - und dennoch war es mit MuseNet möglich, diese düstere Stimmung aufzugreifen und innerhalb weniger Minuten zu einem triumphalen Schluss zu führen.

In der permanenten Ausstellung „AIxMusic am Ars Electronica Center“ in Linz werden mehrere solche Modelle gezeigt. Die Besucherinnen und Besucher können diverse Modelle miteinander und anhand verschiedener Musikstücke vergleichen.

Ist also die musikalische Kreativität etwas, das von einer Maschine erfolgreich simuliert werden kann?

Technisch gesehen können Deep Learning Modelle nur die Statistik jener Daten lernen, mit denen sie trainiert worden sind. Ein KI-System wie MuseNet wird mit hunderttausenden Musikstücken trainiert. Das Model lernt also ähnliche Daten zu erzeugen, welche eine hohe musikalische Qualität aufweisen und in uns starke Gefühle auslösen können. Das heißt aber nicht, dass die Maschine diese Emotionen „versteht“ bzw. etwas damit Aussagen will.

Das ist genau das, was bei der aktuellen Technologie - sei es im Bereich Musik - oder auch Textgenerierung fehlt: Die Aussage, die übergreifende Absicht oder Idee.

Nichtsdestotrotz befinden wir uns am Anfang einer großen Entwicklung, die unsere Vorstellung von Musik und deren Wahrnehmung stark verändern könnte, gleichzeitig aber füt Künstlerinnen und Künstler neue kreative Möglichkeiten bereitstellen wird.

Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: