Kurz und Knapp

  • Ein Forschungsteam entwickelt Verfahren, das von Software gestellte medizinische Diagnosen besser begründen soll.
  • Ein Prototyp soll auf Videos Schmerz erkennen können bei Menschen, die sich nicht mitteilen können. Ein zweiter soll Darmkrebs auf der Basis von Bilddaten diagnostizieren.
  • Die KI arbeitet dabei eng mit Medizinern zusammen, die Korrekturen vornehmen können und in jedem Fall das letzte Wort haben.

Forschungsteam entwickelt medizinischen „Begleiter“

Zunehmend kommt Künstliche Intelligenz bei medizinischen Diagnoseverfahren zum Einsatz. Was aber, wenn die Maschine eine – womöglich schwere – Erkrankung diagnostiziert, diesen Befund jedoch nicht erklären kann? Hier setzt ein interdisziplinäres Forschungsprojekt an, das automatisierte Diagnosen anhand von einigen Beispielen transparent machen will.
Im Mittelpunkt des Projektes „Transparente Begleiter für Medizinische Anwendungen“, das von Thomas Wittenberg vom Fraunhofer-Institut für Integrierte Schaltungen IIS koordiniert wird, stehen zwei Prototypen: Der eine soll auf Videos Schmerzen bei Patienten erkennen, die sich selbst nicht mitteilen können. Der andere soll Darmkrebs auf der Basis von Bilddaten aus der Mikroskopie nachvollziehbar diagnostizieren. „Dank der interdisziplinären Zusammenarbeit ist es uns möglich, Begleiter für verschiedene medizinische Experten zu entwickeln, die wichtige Kriterien wie Transparenz und Erklärbarkeit erfüllen und dabei gute Diagnose-Ergebnisse liefern“, sagt Wittenberg, der als Diplom-Ingenieur am IIS in Erlangen arbeitet.

Die Forscherinnen und Forscher kombinieren verschiedene Methoden miteinander: Mithilfe von tiefen neuronalen Netzen, dem sogenannten „Deep Learning“, können große Mengen an Bildern klassifiziert werden. Diese Verfahren geben allerdings keine Auskunft darüber, wie sie zu ihrer Entscheidung gelangt sind. Also setzt das Wissenschaftsteam weitere Verfahren ein, die in den Bildern zum Beispiel auffällige Stellen in dem betroffenen Darmgewebe hervorheben oder erklären, warum ein bestimmter Ausschnitt der Gewebestruktur unter dem Mikroskop als krankhaft klassifiziert wurde.

Ein Team der Universität Bamberg beschäftigt sich damit, die Komponente zu programmieren, die die Entscheidung der tiefen neuronalen Netze verständlich erklärt. So meldet das System beispielsweise nicht nur, dass eine Person Schmerzen empfindet. Es zeigt zusätzlich auf einem Monitor an, warum es zu dieser Einschätzung kommt: Die Augenbrauen der Person sind gesenkt, die Wangen erhöht, die Augenlider zusammengezogen. Auf dem Bild werden die Gesichtspartien, die für die Entscheidung ausschlaggebend waren, durch Einfärbungen und Pfeile markiert. „Die behandelnden Mediziner entscheiden, ob sie die Einschätzung teilen“, betont Bettina Finzel von der Universität Bamberg. „Sie können die Algorithmen beeinflussen, indem sie Ergänzungen und Korrekturen im System vornehmen. Dadurch lernt die Software ständig dazu und bezieht das wertvolle Wissen der Experten mit ein.“

An dem Projekt, das bis August 2021 vom Bundesministerium für Bildung und Forschung mit 1,3 Millionen Euro gefördert wird, sind neben dem IIS und der Universität Bamberg auch das Fraunhofer Heinrich-Hertz Institut HHI in Berlin und die Universität Erlangen beteiligt.

 

26.03.2019

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: