Detailseite
Adaptive Neuronale Tensor Netzwerke für parametrische Partielle Differentialgleichungen
Antragsteller
Privatdozent Dr. Martin Eigel; Professor Dr. Lars Grasedyck
Fachliche Zuordnung
Mathematik
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 463293876
Der Schwerpunkt des Projekts liegt auf der zertifizierten adaptiven Darstellung von hochdimensionalen parametrischen partiellen Differentialgleichungslösungen in einer adäquaten modell-agnostischen tiefen Neuronalen Netzwerkarchitektur (NN), die durch hierarchische Tensornetzwerke unterstützt wird. Aus vorhandenen Expressivitätsergebnissen wissen wir, dass solche Gleichungen im Prinzip eine NN-Darstellung der Lösung ermöglichen würden, aber der Engpass liegt in der Definition der Netzwerktopologie, der Anpassung an die Lösung und dem Finden der Darstellungsparameter während des Trainings. Ziel des Projekts ist es, die theoretischen und praktischen Grundlagen für adaptive und konvergierende NN-Näherungen parametrischer partieller Differentialgleichungen sowohl für Vorwärts- als auch für Inverse Probleme zu entwickeln. Die beiden Grundpfeiler des Fundaments sind 1) ein zuverlässiger und berechenbarer a posteriori Fehlerschätzer, der zu einem konvergenten Algorithmus für die (tiefe) NN-Approximation führt, und2) ein zuverlässiger arithmetischer Rahmen für das Finden der Darstellungsparameter der (tiefen) NN-Approximation mit Hilfe lokaler hierarchischer Tensornetzdarstellungen.Unsere Vision ist es, die tiefen NN zu einem zuverlässigen und effizienten Berechnungsansatz für diese Quantifizierungen zu machen, der schließlich die derzeitigen Best-of-Class-Methoden übertrifft und zu einem vielseitigen Werkzeug für ansonsten unlösbare Probleme wird. Darüber hinaus trägt das Projekt zu einem besseren Verständnis und einer besseren Nutzung der Beziehung zwischen tiefen Netzwerkdarstellungen und hierarchischen Tensornetzen bei. Die einfachere multilineare Struktur von Tensornetzwerken wird uns helfen, den Weg für die hochgradig nichtlineare Struktur von tiefen NN zu erkunden.
DFG-Verfahren
Schwerpunktprogramme
Teilprojekt zu
SPP 2298:
Theoretische Grundlagen von Deep Learning