Detailseite
Projekt Druckansicht

Akustische Wahrnehmung, Orientierung und Navigation in Räumen

Antragsteller Dr. Stephan Ewert, seit 8/2021
Fachliche Zuordnung Allgemeine, Kognitive und Mathematische Psychologie
Akustik
Förderung Förderung von 2018 bis 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 406277157
 
Unsere Raumwahrnehmung und die darauf basierende Orientierung und Navigation im Raum wird vom visuellen System dominiert, welches eine hochauflösende topografische Darstellung des Raumes auf der Netzhaut unserer Augen liefert. Dennoch kann unser Hörsystem zur Raumwahrnehmung beitragen: Während sich unser Gesichtsfeld auf die Blickrichtung beschränkt, liefert räumliches Hören einen omnidirektionalen Eindruck und steuert häufig die Kopf- und Augenausrichtung. Während dieser auditorische Beitrag bei sehenden Personen eher gering sein kann, sind sehbehinderte Menschen sehr viel mehr auf auditorische Signale angewiesen. Ein extremes Beispiel stellt die Fähigkeit mancher blinden Menschen dar, mittels Echoortung zu navigieren. Aber selbst ohne dezidierte Laute selbst zu erzeugen (z.B. Zungenklicks für die Echoortung), können Menschen Informationen über ihren umgebenden Raum aus der Art und Weise extrahieren, wie externe Schalle durch Oberflächen und Objekte beeinflusst werden, welche frühe Reflexionen und späteren Nachhall in Räumen erzeugen.Ziel dieses Forschungsantrags ist die Quantifizierung der Fähigkeit von Menschen, sich im Raum zu orientieren und zu navigieren, mittels i) kombinierter audio-visueller Stimulation, ii) ohne visuelle Stimulation, aber mit normalen und übernormalen Audioinformation und iii) nur mit echoakustischer Information. Wir werden virtuelle audio-visuelle Umgebungen mit Lautsprecheraufbauten oder Kopfhörern und Head-Mounted-Displays für vollständig kontrollierte (echo)-akustische und visuelle Stimulation verwenden. Ausgehend von diesen Basisquantifizierungen werden wir Lösungen für akustische erweiterte Realität (acoustic augmented reality) entwickeln und deren Nutzen in virtuellen Umgebungen evaluieren, um die Darbietung von akustische Reizen, die räumliche Informationen vermittelt, zu optimieren.Das beantragte Projekt profitiert stark von der komplementären Expertise der Bewerber, insbesondere in den Bereichen raumakustische Simulation und Signalverarbeitung und Echoortung, sowie dem gemeinsamen Interesse am Verständnis des binauralen Hörens und seiner Rolle in realen akustisch herausfordernden Situationen. Die gemeinsame Expertise in Psychoakustik und Modellierung ermöglicht, zusammen mit den verwendeten Virtual-Reality-Techniken, die Beschreibung der auditorischen Wahrnehmungsmerkmale, die von den Probanden genutzt werden. Die für beide Labore vorgeschlagenen komplementären Arbeitsprogramme konzentrieren sich auf die virtuelle Akustik und die akustisch erweiterte Realität sowie Nachhall und menschliche Echoortung.Das Projekt wird neue Erkenntnisse darüber liefern, inwieweit die auditorische Analyse von Räumen die Mobilität von Sehbehinderten erleichtern kann und wird aufzeigen, welche Wahrnehmungsmerkmale von den Probanden dafür ausgenutzt werden. Darüber hinaus wird das Projekt rehabilitative und unterstützende akustische Technologien für Sehbehinderte bereitstellen.
DFG-Verfahren Sachbeihilfen
Ehemaliger Antragsteller Professor Dr. Lutz Wiegrebe, bis 8/2021 (†)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung