Kurz und Knapp

  • Gefährliche Situationen voraussehen, bevor sie eintreten – das können autonome Autos bisher noch nicht. Ein Algorithmus der Universität Bonn soll das Problem lösen.
  • Der Algorithmus wurde mit einem Datensatz trainiert und getestet, der es in Zukunft erheblich einfacher machen soll, derartige Verfahren zu entwickeln und zu verbessern.
  • Am 1. November stellt das Forschungsteam den Algorithmus auf der International Conference on Computer Vision in Seoul vor.

Algorithmus interpretiert LiDAR-Daten

Gute Autofahrer sehen gefährliche Situationen voraus und stellen ihre Fahrweise darauf ein, bevor es wirklich brenzlig wird. Die Arbeitsgruppe „Computer Vision“ der Universität Bonn will diese Fähigkeit nun auch autonomen Autos beibringen.

Eine leere Straße, am Rand eine Reihe parkender Autos: nichts, was zur Vorsicht mahnen würde. Doch halt: Halb verdeckt von den parkenden Wagen mündet eine Straße ein. Vielleicht doch lieber den Fuß vom Gas nehmen! Beim Autofahren begegnen wir ständig Situationen wie diesen. Sie korrekt zu deuten erfordert eine Menge Erfahrung. Demgegenüber verhalten sich selbstfahrende Autos mitunter wie Fahranfänger. Ein Algorithmus der Arbeitsgruppe „Computer Vision“ und des Uni-Instituts für Photogrammetrie soll das Problem lösen.

„Wir haben einen Algorithmus weiterentwickelt, der LiDAR-Daten vervollständigt und interpretiert“, erklärt Teamleiter Jürgen Gall von der Universität Bonn. Bei LiDAR handelt es sich um einen rotierenden Laser, der auf dem Dach der meisten autonom fahrenden Autos angebracht ist. Der Laserstrahl wird von der Umgebung reflektiert. Das LiDAR-System misst, wann das reflektierte Licht auf den Sensor fällt, und berechnet aus der Laufzeit die Entfernung. „Pro Umdrehung erfasst das System auf diese Weise die Distanz zu rund 120.000 Punkten rund um das Fahrzeug“, erklärt der Informatiker.

Das Problem: Die Messpunkte „verdünnen“ sich mit steigender Entfernung – ihr Abstand untereinander nimmt zu. „Wir haben nun jeweils Sequenzen von mehreren Dutzend Scans genommen und diese überlagert“, erklärt Jens Behley vom Institut für Photogrammetrie. Die so gewonnenen Daten enthalten auch Punkte, die der Sensor erst erfasst hatte, als das Auto schon einige Dutzend Meter weiter gefahren war.

„Diese überlagerten Punktwolken enthalten wichtige Informationen wie die Geometrie der Szene und die räumliche Ausdehnung der darin enthaltenen Objekte, die in einem einzelnen Scan nicht verfügbar sind“, betont Martin Garbade vom Institut für Informatik. „Zusätzlich haben wir in ihnen jeden einzelnen Punkt beschriftet – also etwa: Dort ist ein Gehweg, da ein Fußgänger und da hinten ein Motorradfahrer.“ Die Software wurde anschließend mit mehreren tausend Datenpaaren gefüttert.

„In dieser Trainingsphase lernte der Algorithmus, einzelne Scans zu vervollständigen und zu interpretieren“, erklärt Gall. „Er konnte danach also fehlende Messwerte plausibel ergänzen und interpretieren, was in den Scans zu sehen war.“

Rund die Hälfte der fehlenden Daten kann das Verfahren korrekt vervollständigen. Bei der Schlussfolgerung, welche Objekte sich hinter den Messpunkten verbergen, kommt der Rechner auf eine Trefferquote von maximal 18 Prozent. „Bislang fehlte es schlicht an umfangreichen Datensätzen, mit denen sich entsprechende Verfahren aus der künstlichen Intelligenz trainieren lassen“, betont Gall. „Ich bin optimistisch, dass wir in den nächsten Jahren die Trefferquote bei der semantischen Interpretation deutlich steigern können.“

 

31.10.2019

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: