Detailseite
Volloptische Off-Pixel-Resonanzdemodulation für Sehr Hochauflösende Time-of-Flight-Bildgebung
Antragstellerinnen / Antragsteller
Privatdozentin Dr.-Ing. Shanshan Gu-Stoppel; Privatdozent Dr.-Ing. Miguel Heredia Conde
Fachliche Zuordnung
Kommunikationstechnik und -netze, Hochfrequenztechnik und photonische Systeme, Signalverarbeitung und maschinelles Lernen für die Informationstechnik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung seit 2023
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 513531607
3D-Bildgebungssysteme sind in aufstrebenden Bereichen wie dem autonomen Fahren oder der mobilen Robotik von größter Bedeutung. Lidar-Systeme und Time-of-Flight (ToF)-Kameras, auch bekannt als Flash-Lidar, gehören zu den leistungsfähigsten Alternativen. Lidar nutzt einen oder mehrere Laserstrahlen, die so gelenkt werden, dass sie das gewünschte Sichtfeld (FoV) abdecken. Sequentielle Messungen für verschiedene Strahlrichtungen verlangsamen die Erfassung der Messungen. Im Gegensatz dazu leuchten ToF-Kameras das gesamte Sichtfeld dicht aus und nutzen ein Array von zeitauflösenden Pixeln, um Messungen für alle Szenenpunkte gleichzeitig zu erfassen. Leider schränkt die Verwendung spezieller Pixel die Auflösung der Tiefenbilder ein, die um bis zu zwei Größenordnungen geringer ist als bei herkömmlichen Kameras. In dieser Arbeit machen wir uns die Idee zunutze, dass sowohl Lidar als auch "Flash-Lidar" zwei Extremfälle einer abstrakteren Vielfalt möglicher Lösungen für die 3D-Erfassung sind. Lidar-Systeme basieren auf einzelnen schnellen Photodetektoren, während ToF-Kameras Pixel-Arrays verwenden. Ebenso nutzen Lidars die Bewegung, um den räumlichen Bereich zeitlich zu multiplexen, während ToF-Kameras kein bewegungsbasiertes Multiplexing nutzen. Anders als bei der herkömmlichen Lidar- und ToF-Bildgebung ist die Idee in diesem Projekt, schnelle oszillierende Bewegungen zu nutzen, um das Problem der Lichtdemodulation im ToF-Fall vom Zeitbereich in den räumlichen Bereich zu verlagern. Folglich müssen die ToF-Pixel nicht mehr als Korrelatoren im Zeitbereich fungieren, da dieser Prozess durch einen mechano-optischen Aufbau in den räumlichen Bereich übertragen wird. Dadurch können die komplexen zeitauflösenden ToF-Pixel durch herkömmliche Pixel ersetzt werden, die sehr hohe Auflösung (HR), z.B. 10-100 Mpix ermöglichen. Dafür wird die Entwicklung eines ultraschnellen MEMS-Spiegels notwendig. Dies erfordert analytische Modellierung und FEM-Simulationen. Der Betrieb bei Resonanzfrequenzen wird voraussichtlich eine ausreichende Verlagerung bei sehr hohen Frequenzen ermöglichen. Die Herstellung einer solchen Vorrichtung und die Entwicklung der zugehörigen Elektronik erfordern spezielles Know-how und Ausrüstung, die vom Fraunhofer ISIT bereitgestellt werden. Die räumliche Multiplexierung des Demodulationsprozesses eröffnet eine neue Art von inversem Problem, das es zu untersuchen gilt, nämlich die Gewinnung eines Tiefenbildes aus den Rohdaten der Kamera. Dies unterscheidet sich weitgehend von dem klassischen ToF-Bildgebungsproblem, da die Korrespondenz zwischen Pixeln und Szenenpunkten nicht mehr statisch ist. Durch Ändern der Schwingungsfrequenz des Mikrospiegels können ToF-Messungen bei verschiedenen Frequenzen erzielt werden. Dies wird genutzt, um mehrere Rückkanäle pro Pixel aufzulösen, aber auch für die Materialerkennung. Dies wird zur Demonstration der ersten "trimodalen HR-Kamera" verwendet, die Intensitäts-, Tiefen- und Materialbilder in Echtzeit liefert.
DFG-Verfahren
Sachbeihilfen