Detailseite
Projekt Druckansicht

Mechanismen der Aufmerksamkeit und Integration entlang der drei Dimensionen des auditiven Raums

Fachliche Zuordnung Akustik
Kognitive und systemische Humanneurowissenschaften
Förderung Förderung seit 2020
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 444873001
 
Unser auditorisches System verarbeitet akustische und nichtakustische Reize, um eine Orientierung in komplexen multimodalen Umgebungen zu ermöglichen und sich an Veränderungen in dieser Umwelt anzupassen. Je nachdem, in welchen räumlichen Dimensionen (Azimut, Höhe, Entfernung) und Modalitäten (auditiv, visuell, haptisch) sie sich unterscheiden, variieren diese Reize in ihrer Repräsentation im Gehirn, in der Zeit, in der sie dem auditorischen System zur Verfügung stehen, in ihrer räumlichen und zeitlichen Auflösung und Genauigkeit sowie in ihrer Rolle bei der Steuerung von Aufmerksamkeit. Um diese Effekte zu untersuchen, schlagen wir vor, multimodale virtuelle Umgebungen zu verwenden, um Szenen unterschiedlicher Komplexität zu generieren und Reize entweder isoliert oder in Kombination mit Reizen aus anderen räumlichen Achsen und Wahrnehmungs-modalitäten zu präsentieren. In diesen synthetischen Umgebungen werden wir Spatial unmasking, Lokalisierung und die Segregation von Sprache in Sprache bestimmen, also Phänomene, die bisher meist nur in der horizontalen Ebene untersucht wurden, und beobachten, wie Bewegungen von Target oder Masker diese Effekte beeinflussen. Wir werden neuronale Korrelate der Zuweisung von Aufmerksamkeit und der Integration von räumlichen und zeitlichen Reizen aus EEG-Aufzeichnungen identifizieren, und untersuchen, inwieweit ein visueller Input und Kopfbewegungen die Fähigkeit unterstützen, Aufmerksamkeit zu fokussieren und inwieweit die Sprachkommunikation durch multimodale Interaktionen akustischer, visueller und haptischer Art verbessert werden kann. In psychoakustischen Experimenten werden wir die Zuordnung von Aufmerksamkeit und die kognitive Belastung durch die Analyse von EEG-Signalen, Spatial release from masking und Listening effort werden wir durch Tests zur Sprachverständlichkeit und Pupillometrie bestimmen. Aufgrund ihrer Alltagsrelevanz werden wir uns auf Speech-in-speech-Szenarien konzentrieren. Wir gehen davon aus, dass sich die Zusammenarbeit zweier Gruppen mit sich teilweise überschneidenden und teilweise komplementären Expertisen in der Akustik und den Neurowissenschaften im vorgeschlagenen Projekt als ebenso fruchtbar erweisen wird wie im Projekt der ersten Phase. Wiederum sollen die binauralen Stimuli von der Berliner Gruppe generiert und EEG-Experimente, die auf diesen Stimuli basieren, von der Leipziger Gruppe durchgeführt werden. Die psychoakustischen Experimente sollen in Zusammenarbeit beider Gruppen in einer klassischen Laborumgebung und in speziell entworfenen interaktiven virtuellen Umgebungen durchgeführt werden. Darüber hinaus haben wir, in Zusammenarbeit mit zwei Arbeitsgruppen in Oldenburg, ein Arbeitspaket der Entwicklung von Werkzeugen gewidmet, die innerhalb von AUDICTIVE als wertvoll für die gesamte Community identifiziert wurden, etwa Entwicklung eines standardisierten Werkzeugs für das Rendering und den Austausch von räumlichen, auditiven Szenen und Stimuli.
DFG-Verfahren Schwerpunktprogramme
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung