Detailseite
Projekt Druckansicht

Deep Animal Linguistic Analysis (DALA) - Dekodierung der Tierkommunikation mit einem Hybridansatz zwischen Bioakustik und maschinellem Lernen

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2020 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 441257918
 
Das heutige Verständnis der Tierkommunikation ist sehr begrenzt. Wir sind immer noch weit davon entfernt, detaillierte Muster von Tiergeräuschen und ihre möglichen Bedeutungen zu identifizieren. Um statistisch signifikante Beobachtungen zu bestimmen, ist es notwendig, große Mengen an tierischen Schall- und Verhaltensdaten zu analysieren. Um ausreichende Beobachtungsdaten zu generieren, werden zunehmend audiovisuelle Medien verwendet, um die Kommunikation und das Verhalten verschiedener Tierarten zu untersuchen. Aufgrund des Paradoxons des Betrachters muss die Aufnahme unauffällig erfolgen, um so wenig Ablenkung wie möglich für die Tiere zu schaffen. Infolgedessen enthalten solche Datensätze eine große Anzahl irrelevanter Signale und Umgebungslärm, mit nur einer geringen Menge von Tierinteraktionen.Robuste automatisierte Maschinenansätze ermöglichen die Analyse derart großer Datensammlungen. Ein Haupthindernis sind die technologischen Einschränkungen der heutigen Analysesoftware, die Bioakustikern zur Verfügung steht und die einen raschen Fortschritt in der Tierkommunikationsforschung behindern. Derzeit verfügbare bioakustische Analysewerkzeuge bieten nur grundlegende Funktionen, wie die Anzeige von Wellenformen, Spektrogrammen, einfachen Audioverarbeitungsoptionen und einigen Anmerkungen funktionen.Deep Animal Linguistic Analysis (DALA) bildet eine Brücke zwischen dem Forschungsbereich Bioakustik und maschinelles Lernen, um eine neue Generation von Open-Source-Analysewerkzeugen zu entwickeln, mit denen große Mengen komplexer Tierstimmen automatisch verarbeitet werden können. DALA verwendet neuere Deep-Learning- und andere Mustererkennungstechniken, um (1) Tierstimmen in großen und verrauschten Datensätzen zu erkennen, (2) automatisch ein Inventar aussagekräftiger und unterschiedlicher Stimmkategorien zu identifizieren, (3) statistische Sprachkenntnisse zu generieren (semantische und syntaktische) Muster und (4) ein tierspezifisches Sprachmodell erstellen. Auf diese Weise ermöglichen wir einen systematischen Vergleich des abgeleiteten Sprachmodells mit zugehörigen situationsbezogenen Videoaufzeichnungen und Verhaltensbeschreibungen, um erneut auftretende Übereinstimmungen zu isolieren, mit denen wiederum Informationen über potenziell bedeutsame Kommunikations- und Verhaltenskorrelationen ermittelt werden können.Durch das Schließen dieser technologischen und methodologischen Lücke haben die resultierenden Methoden ein realistisches Potenzial, das Gebiet der biologischen Forschung auf ein neues Niveau zu bringen. Während des gesamten Projekts werden wir eng mit dem Institut für Kognitionswissenschaften, Osnabrück und dem Leibniz-Institut für Zoo- und Wildtierforschung zusammenarbeiten. Das Projekt folgt dem Open-Science-Prinzip (Open Data, Open Source und Open Access).
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung