Detailseite
Lösungsverfahren für inverse Probleme basierend auf neuronalen Netzen: Expressivität, Generalisierung und Robustheit
Antragsteller
Professor Dr. Reinhard Heckel; Professor Dr. Felix Krahmer, Ph.D.
Fachliche Zuordnung
Mathematik
Kommunikationstechnik und -netze, Hochfrequenztechnik und photonische Systeme, Signalverarbeitung und maschinelles Lernen für die Informationstechnik
Kommunikationstechnik und -netze, Hochfrequenztechnik und photonische Systeme, Signalverarbeitung und maschinelles Lernen für die Informationstechnik
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 464123524
Tiefe neuronale Netze haben sich als äußerst erfolgreiche und universelle Werkzeuge für die Bildgebung und Bildverarbeitung erwiesen. Sie erzielen hervorragende Ergebnisse bei verschiedensten Aufgaben, von Bildentrauschung über Superauflösung bis hin zur Bildrekonstruktion aus wenigen und verrauschten Messungen. Infolgedessen werden sie zunehmend in wichtigen Bildgebungstechnologien eingesetzt, beispielsweise in den neuesten Computertomographen von GE. Es gibt verschiedene Möglichkeiten, neuronale Netze zur Lösung inverser Probleme zu verwenden, wobei die leistungsstärksten - sowohl hinsichtlich der Rekonstruktionsleistung als auch der Geschwindigkeit der Rekonstruktion - ein Neuronales Netz mit Faltungsstruktur trainieren, um ein Bild direkt aus Messdaten oder aus einer niedrigaufgelösten Version wiederherzustellen. Während die resultierenden Netzwerke empirisch sehr gut funktionieren, sind eine Reihe wichtiger theoretischer Fragen noch offen. Insbesondere ist es unklar i) warum neuronale Netze so erfolgreich Lösungsoperatoren für Bildwiederherstellungsprobleme darstellen können, ii) wie viele Beispiele erforderlich sind, um einen Lösungsoperator für ein Bildwiederherstellungsproblem zu lernen und iii) wie empfindlich das resultierende neuronale Netz gegenüber Störungen sein kann. Das übergeordnete Ziel dieses Projekts ist es, eine Lerntheorie zur Lösung linearer inverser Probleme mit neuronalen Netzen zu etablieren, indem die offenen Fragen i-iii beantwortet werden. Insbesondere werden wir i) charakterisieren, wie Netzwerke die Rekonstruktion einer strukturierten Signalklasse ermöglichen können, die reale Signale modelliert, ii) eine Theorie entwickeln, die das Lernen für eine für eine einfache Klasse von Netzwerken erklärt, und iii) Stabilitätsgarantien für neuronale Netze entwickeln, die für die Signalrekonstruktion trainiert wurden.
DFG-Verfahren
Schwerpunktprogramme
Teilprojekt zu
SPP 2298:
Theoretische Grundlagen von Deep Learning