Detailseite
Projekt Druckansicht

TRR 31:  Das aktive Gehör

Fachliche Zuordnung Biologie
Medizin
Förderung Förderung von 2005 bis 2017
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 14945932
 
Erstellungsjahr 2018

Zusammenfassung der Projektergebnisse

In der natürlichen Umwelt muss unser Hörsystem ständig mit der Situation zurechtkommen, dass sich der Schall verschiedener Quellen vermischt. Der Schall aus den unterschiedlichen Quellen variiert über die Zeit, was zu einer ständigen Veränderung der akustischen Eigenschaften der Signale führt. Eine Eigenheit des Schalls ist seine Vergänglichkeit: Hat er die Ohren erreicht, so ist er unmittelbar danach zu einer weiteren Analyse physikalisch nicht mehr verfügbar. Das Hörsystem muss daher für die Analyse von Schall über die Zeit und die Integration der Signale aus einer Quelle Gedächtnisprozesse einsetzen. Darüber hinaus muss es die Trennung des Schalls aus gleichzeitig aktiven Quellen für die Analyse leisten. All diese Mechanismen müssen robust funktionieren obgleich sich die akustische Szene immer wieder schnell verändert. Trotz all dieser Herausforderungen leistet das Hörsystem diese komplexe Aufgabe mit Bravour. Wie es dies beim Menschen und im Tiermodell schafft, war die zentrale Fragestellung in der Arbeit des SFB/TR 31 „Das aktive Gehör“. In dem im SFB zum Verständnis der Prozesse bei der auditorischen Szenenanalyse verfolgten Forschungsansatz wurden eine Reihe verschiedener Vorgehensweisen kombiniert: Untersuchungen mit neurophysiologischen Ableitungen, bildgebende Methoden, psychophysische Studien von Wahrnehmung und der Vergleich der Ergebnisse dieser Untersuchungen mit den Vorhersagen von Modellen, welche die der Wahrnehmung zugrunde liegenden Prozesse simulieren. Durch diesen Vergleich wird es möglich zu beurteilen, ob die im Experiment beobachteten Prozesse bei der auditorischen Szenenanalyse die separate Verarbeitung und Wahrnehmung des Schalls aus verschiedenen Quellen durch das Gehirn hinreichend erklären können. Eine Simulation der Verarbeitungsmechanismen des Hörsystems in der auditorischen Szenenanalyse kann darüber hinaus Möglichkeiten bieten, die Funktion technischer Hörhilfen und die Spracherkennung durch Computer zu verbessern. Die Forschungen konzentrierten sich unter anderem auf folgende intensiv untersuchte Fragen: (1) Wie wählt das Hörsystem beim aktiven Zuhören die relevanten Reizeigenschaften zur Analyse des Schalls einer bestimmten Quelle aus und gewichtet sie und wie sind diese in der Hörbahn des Gehirns repräsentiert? (2) Wie unterstützt das Hören mit beiden Ohren die Trennung ruhender und sich bewegender Schallquellen? (3) Wie werden die akustischen Reizeigenschaften dynamisch über die Zeit integriert? (4) Welchen Einfluss nimmt die Kombination visueller und auditorischer Reizverarbeitung auf die Quellenanalyse in komplexen akustischen Szenen? (5) Wie interagiert die Analyse in der aufsteigenden Hörbahn mit zentralen top-down Prozessen, d.h., wie beeinflussen die in der bottom-up Verarbeitung generierten Hypothesen und der augenblickliche Zustand des Gehirns die Wahrnehmung? (6) Wie wirken sich die Mechanismen der auditorischen Szenenanalyse auf die Sprachwahrnehmung normalhörender Menschen und bei Menschen mit Verarbeitungsdefiziten im Hörsystem aus? Der SFB/TR 31 hat beträchtliche Fortschritte in der Beantwortung dieser Fragen gemacht. Durch die Arbeit im SFB wurde die Relevanz verschiedener Reizeigenschaften in verschiedenen Hörsituationen deutlich. Viele mit einem Ohr analysierbare Reizeigenschaften, wie z. B. der synchrone Einsatz von Frequenzkomponenten eines Schalls oder ihre Harmonizität, interagieren in der Wahrnehmung und nehmen Einfluss auf die Bindung der Schallkomponenten aus einer Quelle. Die vergleichende Analyse der Signale von beiden Ohren, z. B. interauraler Zeit- und Pegeldifferenzen oder der interauralen Kohärenz, bestimmt die Fähigkeit zur Quellentrennung. Diese Prozesse in der Analyse von Reizeigenschaften laufen auf ganz verschiedenen Zeitskalen ab. Zeitskalen im Bereich von Millisekunden sind für die Trennung durch Analyse der Signale durch beide Ohren oder in der Analyse der zeitlichen Struktur über verschiedene Frequenzen hinweg relevant. Zeitskalen im Bereich von Sekunden sind für die Verarbeitung einer Sequenz von Signalen zur Quellentrennung, wie z. B. bei Sprache oder in Signalfolgen, relevant. Analyse mit mittleren Zeitskalen spielen für die auditorisch-visuelle Integration eine Rolle. Für die auf mittleren und langen Zeitskalen ablaufenden Prozesse ist charakteristisch, dass dabei die bottom-up Verarbeitung dynamisch durch top-down Einflussnahme angepasst wird. Direkte experimentelle Intervention, wie z. B. durch transkranielle elektrische Stimulation, ermöglichte dabei eine direkte Veränderung dieser Verarbeitung. Die zur Simulation der Verarbeitungsmechanismen entwickelten Modelle ermöglichen eine gute Vorhersage der Sprachwahrnehmung Normalhörender und von Menschen mit Hörproblemen. Diese Vorhersagen erlauben auch eine bessere Einstellung der Funktion technischer Hörhilfen. Durch die Verwendung der Kenntnis der physiologischen Mechanismen in der Entwicklung von Software für technische Hörhilfen konnten diese in ihrer Funktion weiter verbessert werden. Durch Berücksichtigung der relevanten physiologischen Mechanismen für die auditorische Szenenanalyse in der computergestützten automatischen Sprachanalyse konnten leistungsfähige robuste Systeme für die Mensch-Maschine Kommunikation entwickelt werden.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung