Detailseite
Projekt Druckansicht

Online Rekonstruktion und Verstehen von 3D Szenen

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2018 bis 2021
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 392037563
 
3D-Szenen sind das Ergebnis der Digitalisierung von realen Umgebungen. Im Vergleich zu zweidimensionalen visuellen Medien wie Bildern und Videos tragen 3D-Szenen viel reiche "free-viewpoint" Informationen und sie können räumliche Beziehungen zwischen Objekten erfassen, auch wenn sie nicht aus dem gleichen Blickwinkel gesehen werden können. Dies macht 3D-Szenendarstellungen für eine breite Palette von Anwendungen nützlich, bei denen orts- und posenabhängige Informationen abgerufen werden müssen, z.B. für autonome Fahrzeuge oder mobile Augmented Reality Anwendungen. Während sich die 3D-Messtechnik dynamisch weiterentwickelt hat, sowie erhebliche Fortschritte bei effizienten 3D-Rekonstruktionsalgorithmen gemacht wurden, ist die Präzision und Qualität von 3D-Szenen, die mit heutigen consumer-level (tragbaren) Geräten erfasst wurden, noch nicht vollständig befriedigend. Dies gilt vor allem in Online-Szenarien, in denen die Szeneninformation ständig aktualisiert werden muss. Darüber hinaus sind in vielen Anwendungen geometrische low-level Darstellungen (z. B. Punktwolken) einer Umgebung nicht ausreichend, so dass Segmentierungs- und Klassifizierungsalgorithmen erforderlich sind, die robust gegen Rauschen, Verzerrungen und unvollständige Daten sein sollten. Schließlich wollen wir Agenten (Menschen oder Roboter) mit ihrer Umgebung interagieren lassen, was es notwendig macht, Interaktionsmuster der Agenten mit (segmentierten und markierten) Objekten in einer 3D-Szene zu analysieren und zu modellieren. Unsere Ziele sind:- Die Präzision und Qualität von Online-3D-Rekonstruktionen aus Datenströmen von Multisensor-Rohdaten deutlich zu verbessern, indem wir probabilistische Formulierungen verwenden, die sorgfältig alle Arten von Unsicherheiten im Capture-Prozess modellieren.- Durch Nutzung dynamisch wechselnder Kontextinformationen eine robuste Online-3D-Szenensegmentierung und -kennzeichnung durchzuführen. Auch hier werden probabilistische Formulierungen, aber auch maschinelle Lernmethoden angewendet.- Analyse von Interaktionsmustern durch die Entwicklung von Algorithmen für eine robuste Handverfolgung und Gestenklassifizierung sowie durch Ausnutzen großer Repositories von 3D-Szenen und Interaktionsdatensätzen für die datengetriebene Interaktionsmodellierung.
DFG-Verfahren Sachbeihilfen
Internationaler Bezug China
Kooperationspartner Professor Shi-Min Hu
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung