Detailseite
Hybride 3D Rekonstruktion für geometriebasiertes Free Viewpoint Video
Antragsteller
Professor Dr.-Ing. Thomas Sikora
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung von 2013 bis 2016
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 232339705
Das Ziel unseres Forschungsvorhabens ist die Entwicklung von Algorithmen für die Erfassung zeitlich veränderlicher 3D Geometrie im Kontext von Free Viewpoint Video Anwendungen. Für die Erfassung einer Szene wird ein Arbeitsbereich mit einer Größe von mindestens 2,5m x 2,5m x 3m benötigt. Unsere Strategie beinhaltet die Erzeugung eines grafischen 3D Models der Szene. Dieses Model wird empfängerseitig für die Synthese von stereoskopischem Free Viewpoint Video verwendet. Die Wiedergabe des zeit- und blickwinkelabhängigen 3D Inhalts der Szene auf stereoskopischen oder autostereoskopischen Multiview Displays bedarf dabei einer Echtzeitfähigkeit der Algorithmen. Zusätzlich wird eine 3D Rekonstruktion der Szene erfordert, die so genau und so vollständig wie möglich ist.Unsere Strategie hat zum Ziel die jeweiligen Schwächen aktiver und passiver 3D Rekonstruktionstechniken durch einen hybriden Sensor Fusion Ansatz zu kompensieren. Hierfür setzen wir ein Multi-Projektor Multi-Kamera System ein, dass die Szene aktiv mit strukturiertem Licht ausleuchtet, und wenden ein Phasenverschiebeverfahren an, welches Tiefen- und Texturinformation der Szene extrahiert. Der rein passive Teil des Multi-Kamera Systems wird zusätzlich zur Gewinnung von Disparitätskarten eingesetzt, was die Tiefen- und Texturrekonstruktion des 3D Modells der Szene verbessert. Um den Einfluss texturabhängiger Artefakte, welche von großen Aperturwerten des Kamerasystems herrühren, zu beseitigen, entwickeln wir Dekonvolutionsalgorithmen unter Verwendung einer analytisch zu bestimmenden und tiefenabhängigen Punktspreizfunktion.
DFG-Verfahren
Sachbeihilfen