Project Details
Projekt Print View

Mehrbenutzerfähiges Virtual Reality System für kognitive Agenten

Subject Area Computer Science
Term Funded in 2013
Project identifier Deutsche Forschungsgemeinschaft (DFG) - Project number 234464405
 
Final Report Year 2017

Final Report Abstract

Das Großgerät diente der Simulation von neuro-kognitiven Agenten und ihrer Interaktion mit der Umwelt sowie mit menschlichen Nutzern. Die Professur Künstliche Intelligenz nutzte dabei das Gerät vorwiegend zur Simulation der neurokognitiven Agenten in virtueller Realität. Die erste wesentliche Komponente ist dabei die Entwicklung von Simulationswerkzeugen zur Simulation neuronaler Netze nach biologischem Vorbild auf paralleler Hardware. Hierzu wurde der Neurosimulator ANNarchy entwickelt. Eine Kooperation mit der Professur Rechnerarchitektur (Rehm) diente der Optimierung von „Thread Pipelining“ im ANNarchy-Framework. Aufbauend auf dieser Optimierung konnten für unterschiedliche Low-Latency-Umgebungen optimierte Kommunikationsmuster konfiguriert und verglichen werden. In weiteren Arbeiten untersuchten wir welche Datenstrukturen sich für welche Art der Parallelisierung optimal eignen. Diese Arbeiten werden in einem DFG geförderten Projekt aktuell weitergeführt. Im Rahmen des EU ICT 2011.9.11 FET Proactive: Neuro-Bio-Inspired Systems (NBIS) Projektes "Spatial Cognition" wurden Modelle der Raumkognition untersucht. Am Ende Projektes konnten wir demonstrieren wie ein menschanartiger Agent in Form eines Avatars sich in einer virtuellen Realität im Raum orientieren kann und Aufgaben, wie Objekte finden, erfüllen kann. Im Rahmen des DFG Graduiertenkollegs Crossworlds und im BMBF-Verbundprojekt InterEmotion / StayCentered haben wir das Gerät im wesentlichen für die Mensch-Maschine Kommunikation in Form von Mimik verwendet. Dazu wurden mit Algorithmen des maschinellen Lernens, wie Active Appearance Modelle sowie Deep Learning Architekturen, die Mimik des Menschen in ein Facial Action Coding (FACS) überführt, so dass der Agent seinerseits seine Mimik der Situation entsprechend anpassen kann. Die Professur Graphische Datenverarbeitung und Visualisierung hat das Gerät wie beantragt hauptsächlich zur Bearbeitung sensomotorischer Fragestellungen in virtualisierten Umgebungen im Rahmen des DFG Graduiertenkollegs Crossworlds eingesetzt. Zunächst erfolgte die technische Realisierung von zwei immersiven VR Systemen (Powerwall, L-Bench) als Experimentierplattform für VR Eingabegeräte, sodass Untersuchungen zu möglichst natürlichen Eingaben in VR Szenarien durchgeführt werden konnten. Es schloss sich die Erweiterung des Systems zu einer mehrbenutzerfähigen VR Umgebung an. Dabei standen die in einem Render-Cluster verteilte Generierung multipler Eigenperspektiven für jeden Nutzer und die Implementation eines Softwaresystems zur flexiblen Gestaltung von Interaktionsszenarien unter Einsatz unterschiedlicher VR-Peripherie im Mittelpunkt. Um die Wirkung von räumlichen Informationen in virtuellen Umgebungen auf das Nutzererleben und die Leistung zu untersuchen, wurden Studien in unterschiedlichen Anwendungskontexten am Gerät durchgeführt, bei denen sowohl Aufgabenkomplexität als auch Komplexität der räumlichen Informationen variierten. Parallel dazu fand das Gerät im DFG-Projekt „Entwicklung eines autonom agierenden Gegners in einer VR-Umgebung zur Untersuchung der Antizipationsfähigkeit in den Kampfsportarten“ Verwendung. Dabei wurde ein VR Trainingssystem für die Sportart Karate-Kumite entwickelt. Die Klassifikation der schnellen Probandenbewegungen löst die angepasste Bewegungsgenerierung des Avatars aus, welche als Großbild stereoskopisch projiziert und vom Probanden räumlich wahrgenommen wird. Das System ermöglicht durch seinen hohen Immersionsgrad und die geringe Latenz Antizipationsstudien in VR und die Praktizierung von Antizipationstraining für schnelle Sportarten wie Karate. Mittels der Motion Capture Komponente wurden im laufenden BMBF-Verbundprojekt InterEmotion / StayCentered Körperhaltungen und Gesten von Benutzerdyaden erfasst. Durch Rekonstruktion ihrer räumlichen Situierung und Proxemik wird ein dreidimensionaler Rahmen der Kommunikationssituation einer Dyade geschaffen, der im Kontext eines Fluglotsenarbeitsplatzes zur Validierung in einer VR Umgebung visualisiert werden kann. Die gewonnenen Informationen fusionieren mit anderen Sensordaten und fließen in ein emotionssensitives Assistenzsystem zur situativen Unterstützung der Dyade ein. Die stereoskopische Projektionskomponente wurde zur Validierung der Ergebnisse eines ZIM- Verbundprojektes verwendet. Dabei konnte eine als Eventgerät in einen Seecontainer prototypisch eingebaute vierseitige CAVE Installation durch die Professur GDV erfolgreich in Betrieb genommen werden. Als Kernkomponente diente das in früheren Projekten an der Professur GDV implementierte Kamera basierte Kalibriersystem für Multiprojektionsanlagen mit einer Bildfläche, welches im Projektverlauf umfassend weiterentwickelt worden ist, so dass es nun auch Systeme mit mehreren Bildflächen genutzt werden kann.

Publications

 
 

Additional Information

Textvergrößerung und Kontrastanpassung