Detailseite
Projekt Druckansicht

SPACE-EYE: Räumliche und architektonische Erkenntnisse aus bewegungs- bewusstem Eye-Tracking

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung seit 2025
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 570734475
 
Das vorgeschlagene Projekt SPACE-EYE untersucht, wie Bewegung durch den Raum die visuelle Aufmerksamkeit in architektonischen Kontexten beeinflusst. Aktuelle Modelle der Mensch-Gebäude-Interaktion analysieren entweder visuelle Aufmerksamkeit unabhängig von Bewegung oder vereinfachen Bewegung, indem sie ein festes Blickfeld entlang der Bewegungsrichtung annehmen. Diese künstliche Trennung führt zu trivialen Erkenntnissen, die von Planer:innen oft ignoriert werden. Das Projekt integriert Theorien der visuellen Aufmerksamkeit (z. B. visuelle Salienz, Perception-Action-Loop, Embodied Attention) mit bewegungsbezogenen Daten, um ein rechnergestütztes Rahmenmodell zu entwickeln, das Blickverhalten und Lokomotion gemeinsam abbildet. Die zentrale Forschungsfrage lautet: Welchen Einfluss hat die Bewegung durch den Raum auf in der Mensch-Gebäude-Interaktion verwendete Aufmerksamkeitsmaße? Zur Beantwortung schlagen wir vier Arbeitspakete vor: AP1 entwickelt Methoden zur Messung, ob und wie Bewegung die Aufmerksamkeitsverteilung beeinflusst. Dies umfasst die Identifikation relevanter Bewegungs- und Blickmetriken, den Aufbau einer Synchronisationspipeline für Eye-Tracking- und Bewegungsdaten sowie deren Validierung an bestehenden Datensätzen. AP2 untersucht, wann Bewegung die Aufmerksamkeit beeinflusst, durch systematische Variation von Annäherungstrajektorien und Zielsalienz (visuell und strukturell) in Virtual-Reality-Szenarien. Sechzig Teilnehmende durchlaufen verschiedene architektonische Umgebungen (z. B. Flughafen, Einkaufszentrum). Ihr Blickverhalten wird mittels Bayes'scher Modelle analysiert, um die Erklärungskraft konkurrierender Theorien zu vergleichen. AP3 testet, wie Bewegung in realen, hochrelevanten Szenarien die Aufmerksamkeit beeinflusst, mithilfe von mobilem Eye-Tracking und Motion-Capture in einem rekonfigurierbaren Labor. Dies erlaubt die Validierung der VR-Ergebnisse, die Analyse individueller Unterschiede sowie den Einsatz unüberwachter Verfahren (z. B. UMAP), um Muster in hochdimensionalen Bewegungsdaten zu erkennen. AP4 verbreitet offene Datensätze und Software (FAIR, FAIR4RS), organisiert einen interdisziplinären Workshop, bindet die Öffentlichkeit durch eine Museumsveranstaltung ein und validiert die Methode mit einer externen Forschungsgruppe. Die Wirkung des Projekts liegt in der Verbindung zweier bislang getrennter Bereiche: Bewegungstheorien und Theorien visueller Aufmerksamkeit. Durch die Modellierung ihrer Wechselwirkung schaffen wir eine neue methodische Grundlage zur Vorhersage von Blickverhalten in dynamischen Umgebungen. Dies ist besonders relevant für die Modellierung der Mensch-Gebäude-Interaktion, spatial HCI, Geoinformatik und architektonisches Design. Wir reagieren auf die bekannte Schwäche architektonischer Simulationsmodelle – deren fehlende Verkörperung – mit einem körperlich verankerten Ansatz.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung