Maschinen lernen, indem sie von Menschen geschriebene Texte analysieren

Künstliche Intelligenz wird in immer mehr Bereichen eingesetzt werden. Dazu muss sie auch lernen, Entscheidungen auf der Basis eines moralischen Wertesystems zu treffen. Ein Forschungsteam aus Darmstadt hat nun in einer Studie gezeigt, dass KI-Maschinen von uns Menschen Moral lernen können, und zwar mit Hilfe von Textanalysen.
Für einen Roboter sind Menschen und ihre Entscheidungen nicht leicht nachzuvollziehen. Woher soll er wissen, dass er Menschen nicht totschlagen darf, Zeit aber sehr wohl? Oder dass man Brot toastet, jedoch keine Hamster? Hier setzt die Studie der Forscherinnen und Forscher um Kristian Kersting und Constantin Rothkopf an, beide Professoren am Centre for Cognitive Science der Technischen Universität (TU) Darmstadt.

Das Team erstellte Listen von Frage-Antwort-Schemata für verschiedene Handlungen. Die Fragen lauteten zum Beispiel „Sollte ich Menschen töten?“ oder „Sollte ich Menschen ermorden?“, die möglichen Antworten beispielsweise „Ja, sollte ich“, „Nein, sollte ich nicht“. Durch die Analyse einer großen Menge von Texten menschlichen Ursprungs entwickelte das KI-System im Experiment dann eine menschenähnliche, moralische Ausrichtung. Es berechnete dazu die Einbettungen der Fragen und möglicher Antworten im Text und ermittelte, wie groß jeweils die Distanz zwischen einzelnen Begriffen ist. Daraus konnte es schließen, wie stark sie inhaltlich miteinander verknüpft sind. So lernte es, dass man nicht lügen sollte und dass es besser ist, seine Eltern zu lieben, als eine Bank auszurauben.

Auch interessant

Mensch, Maschine, Muße: Über Arbeit im digitalen Zeitalter

Ein Expertenbeitrag von Prof. Dr. Ruth Hagengruber

Zum Artikel

Die Arbeiten sind wichtig, weil KI in immer mehr Bereichen eingesetzt wird: Sie übersetzt Texte, optimiert Arbeitsabläufe, schlägt Behandlungen für Kranke vor und steuert Fahrzeuge. Bei vielen dieser Tätigkeiten sind Entscheidungen zu fällen. Moral ist der Kompass dafür.

Bereits 2017 hatte ein amerikanisch-britisches Forschungsteam gezeigt, dass Künstliche Intelligenz mit Hilfe von Textanalysen Zusammenhänge nachvollziehen kann. Allerdings ergab sich dabei auch, dass die KI Vorurteile und Stereotype aus Texten übernimmt. So verknüpfte sie weibliche Namen eher mit Kunst und männliche eher mit Technik.

Den Darmstädter Forscherinnen und Forschern gelang es mit ihrem Ansatz nun, die Roboter ethische Überlegungen über „richtiges“ und „falsches“ Handeln anstellen zu lassen. Die Ergebnisse zeigen, dass Maschinen menschliche Werte widerspiegeln können. Sie können Vorurteile übernehmen, aber durch das „Beobachten“ von Menschen geschriebener Texte auch Moralvorstellungen.

12.02.2019