Mit einem emotionalen, mobilen Avatar als Coaching-Assistent

Etwa 15 Prozent der Krankheitstage Erwerbstätiger gehen auf psychische Störungen zurück. Künstliche Intelligenz könnte künftig bei psychischer Belastung am Arbeitsplatz Hilfe leisten: Ein Forschungsteam arbeitet derzeit an der Entwicklung eines digitalen Coaching-Assistenten, der Berufstätige bei psychischer Be- und Überlastung individuell berät.

Arbeitgebende sind verpflichtet, eine Gefährdungsbeurteilung in Bezug auf psychische Faktoren durchzuführen und Gegenmaßnahmen zu treffen. Über diese Arbeitsschutzmaßnahme verfügt aber weniger als ein Viertel der Betriebe in ausreichendem Umfang – nicht zuletzt, weil geeignete Fachkräfte fehlen. Künstliche Intelligenz könnte den Mangel an psychologisch qualifiziertem Fachpersonal in Unternehmen abmildern.

„Uns geht es darum, ein interaktives, mobiles Assistenzsystem zu entwickeln, das bei psychischer Belastung individuell berät und darüber hinaus zur Gefährdungsbeurteilung am Arbeitsplatz sowie zur betrieblichen Wiedereingliederung nach einer psychischen Erkrankung genutzt werden kann“, erklärt die Computerwissenschaftlerin Elisabeth André, Inhaberin des Lehrstuhls für Multimodale Mensch-Maschine-Interaktion der Universität Augsburg. Die Hochschule ist Partnerin in dem Projekt „EmmA“ (Emotionaler mobiler Avatar).

Mit Hilfe von Sensoren im Smartphone soll „EmmA“ eine Echtzeitsensoranalyse bei den Nutzerinnen und Nutzern durchführen, deren physiologische und soziale Signale aufzeichnen und interpretieren. Darauf aufbauend wird ein sozio-emotionales Verhaltensmodell entwickelt und an einen virtuellen Avatar gekoppelt, der in schwierigen Lagen Hilfe anbieten soll.

Auch interessant

Wenn Roboter Gefühle erkennen

„Der Mensch muss die Entwicklungen leiten und gestalten“

Zum Artikel

In Augsburg arbeiten André und ihr Team an der Entwicklung neuer Ansätze und Verfahren zur automatischen Erkennung und Analyse des Nutzungsverhaltens. Dabei setzen sie auf ein bestimmtes Tool zur Sensordatenverarbeitung (SSJ Framework). Mit dessen Hilfe kann der Avatar auf Sprache, aber auch auf Gesten, Gesichtsausdrücke und emotionalen Zustand des Nutzers reagieren und sich selbstlernend kontinuierlich an ihn anpassen.

„EmmA“ ist ein Gemeinschaftsprojekt von Teilnehmden aus Wissenschaft und Industrie in Augsburg, Köln und Saarbrücken. Es startete im September und ist auf drei Jahre angelegt. Der Projektumfang beträgt 1,57 Millionen Euro, mehr als 70 Prozent davon übernimmt das Bundesforschungsministerium (BMBF).

09.10.2018