Kurz und Knapp

  • Endlich einen präzisen Einblick in die Vogelwelt erhalten: Die neue mobile App der TU Chemnitz hilft Vogelforscherinnen- und -forschern bei der Analyse von Vogelstimmen.
  • Mittels Künstlicher Intelligenz (KI) kann die App über 500 Arten unterscheiden und lernt durch die Audio-Daten der Nutzerinnen und Nutzer ständig weiter.
  • Die KI-gestützte App wird bereits von 180.000 Menschen weltweit genutzt und ist auch auf Französisch erhältlich. So wächst der Datensatz kontinuierlich.

Dank Künstlicher Intelligenz unterscheidet App Vogelarten

Darauf haben Vogelforscherinnen und -forscher weltweit gewartet: Eine mobile App, die Vogelstimmen erkennen kann. Die von der Technischen Universität (TU) Chemnitz entwickelte mobile App zur Aufzeichnung und Erkennung verschiedener Stimmen von Singvögeln ist fertig und kann im Google Play Store heruntergeladen werden.
Die KI-gestützte App zur Vogelerkennung wird bereits von 180.000 Menschen genutzt. Täglich kämen 3000 neue Nutzerinnen und Nutzer hinzu, sagt das Forschungsteam um Stefan Kahl von der TU Chemnitz. 30.000 Beobachtungen pro Tag zählt das Team durchschnittlich. Das ist für die Weiterentwicklung der App besonders wertvoll, denn die Audio-Daten der Userinnen und User verbessern die App aktiv.

Die Nutzerinnen und Nutzer der App übertragen Audio-Daten an den App-Server, wo sie durch die Künstliche Intelligenz (KI) „BirdNET“ analysiert werden und die entsprechende Vogelart identifiziert wird. „Wir verwenden die von unseren Nutzern eingespeisten Daten zur Verbesserung unseres Systems. So einen großen Datensatz aufzubauen ist nur durch die Hilfe der App-User möglich, denn nur so kommen wir an Aufnahmen von unterschiedlichen Geräten, Orten und Geräuschkulissen“, erklärt Stefan Kahl den „Citizen Science“-Ansatz der App.

Um die nötigen Daten für ihre App zu erhalten, legte das Forschungsteam das größte, vollständig annotierte Datenset von Geräuschkulissen (Soundscapes) an. „Neben den Vogelstimmen sind auch sehr viele anderen Geräusche wie Autos, Wind, Regen, andere Tiere wie Frösche und Insekten und natürlich auch Menschen enthalten“, so Kahl. Um diese Daten zu filtern, verwendet das Team Lernverfahren mit künstlichen neuronalen Netzen. Diese Netze trainierte das Forschungsteam vorab mit rund 50.000 Aufnahmen und über 350 Stunden Testmaterial bekannter Vogelarten.
Aktuell enthält die Datenbank die Stimmen der rund 500 häufigsten Vogelarten in Nordamerika und Europa. In diesen Regionen ist die App aktuell am weitesten verbreitet. Weitere Regionen können hinzukommen.

Darüber hinaus entwickelten die Forscherinnen und Forscher eine mobile und vollständig autonome Monitoring-Station zur Aufzeichnung von Vogelstimmen auf der Basis eines „Raspberry Pi“, einem einfach und flexibel zu programmierenden Mini-Computer. Die Anordnung steht aktuell in den USA und analysiert die Daten in Echtzeit.

Nach der Testphase soll diese Anordnung in Serienproduktion gehen und beispielsweise an Schulen aufgestellt werden; die ersten Anlagen könnten laut Kahl und seinem Team Ende dieses Jahres in Betrieb gehen.

Und noch einen weiteren Erfolg kann Kahl verzeichnen: Waren er und sein Team im letzten Jahr lediglich Teilnehmer an der „LifeCLEF Bird recognition challenge“, organisieren sie diese Veranstaltung nun. Die internationale Veranstaltung im Rahmen des „Conference and Labs of the Evaluation Forum, formerly known as Cross-Language Evaluation Forum“ (CLEF) ist die umfangreichste ihrer Art im Bereich der Vogelstimmenerkennung.

Beteiligt waren an der App auch Wissenschaftlerinnen und Wissenschaftler der Hochschule Mittweida und der Cornell University in Ithaca/New York. Der Europäische Sozialfond (ESF) förderte das Projekt über einen Zeitraum von drei Jahren mit insgesamt 57.600 Euro.

04.07.2019

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: