Detailseite
Generative Modelle für Bayesche Inverse Probleme in der Bildverarbeitung
Fachliche Zuordnung
Mathematik
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 463409137
Mit diesem Folgeantrag möchten wir unsere Arbeit zu verallgemeinerten Normalizing Flows und neuronalen Gradientenflüsse im SPP fortsetzen. Basierend auf unseren bisherigen Ergebnissen wollen wir die Approximation von Posteriorverteilungen gut gestellter Bayesescher inverser Probleme durch bedingte Normalizing Flows untersuchen. Dabei sollen Ergebnisse zur Approximation glatterer Funktionen durch Normalizing Flows mit Kenntnissen über optimale Transportabbildungen gekoppelt werden. Bezüglich Gradientenflüssen werden wir drei Problemstellungen betrachten. Erstens interessiert uns die Konvergenz von Wasserstein-Gradientenflüssen der Maximum Mean Discrepancy (MMD) mit Riesz-Kernen, die verschiedene vorteilhafte Eigenschaften haben. Da die entsprechenden Funktionale nicht lambda-konvex entlang von Geodäten in Wasserstein-2 Räumen sind, können entsprechende Methoden nicht unmittelbar verwendet werden. Wir wollen kritische Punkte solcher MMD-Funktionale bestimmen. Ferner sollen aktuelle Ergebnisse zu Wasserstein Gradientenflüssen von Coulomb-Potentialen einbezogen werden. Zweitens werden wir MMD-regulierte f-Divergenzen betrachten. Diese haben den Vorteil, dass im Gegensatz zu f-Divergenzen mit unendlicher Rezessionkonstante, Bedingungen an die absolute Stetigkeit der Maße wegfallen. Basierend auf dem Kern-Mean Einbettungsoperator von Maßen in Hilberträume mit reproduzierendem Kern (RKHS) werden wir solche regulierten Funktionale als Moreau Einhüllende in RKHS interpretieren und bekannten Eigenschaften von Letzteren bei Wasserstein-Gradientenflüssen ausnutzen. Drittens werden wir uns mit uni- und multivariaten Kernen befassen, die durch ein Projektionsverfahren in gleichverteilte Richtungen auseinander entstehen. Sogenannte sliced Kerne können verwendet werden, um das Lernen neuronaler Netzwerke zu beschleunigen. Während die Beziehung zwischen Riesz-Kernen klar ist, interessieren wir uns jetzt für integrale positiv definite Kerne, die z.B. in Stein-Gradientenflüssen der Kullback-Leibler-Divergenz eine Rolle spielen. Sobald die Beziehung geklärt ist, werden wir sliced Kerne auch in entsprechenden Gradientenflüssen verwenden. Schließlich möchten wir Algorithmen für den optimalen Transport unter zusätzlichen Nebenbedingungen entwerfen und analysieren. Dabei sind wir vor allem an Momentenbedingungen interessiert. Genauer interessieren wir uns für die Klasse der verallgemeinerten iterativen Skalierungsverfahren, auch bekannt als blockiterative simultane multiplikative algebraische Rekonstruktionstechnik oder als besondere Form des Mirror Descent. Insbesondere hoffen wir einige seit langem offenen Konvergenzfragen zu Blockiterationen zumindest für unsere optimalen Transportprobleme zu beantworten.
DFG-Verfahren
Schwerpunktprogramme
Teilprojekt zu
SPP 2298:
Theoretische Grundlagen von Deep Learning