Detailseite
Projekt Druckansicht

Effiziente Diskrete Optimierung für Strukturierte Vorhersage-Probleme in der Bildverarbeitung und im Maschinellen Lernen

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung seit 2023
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 524352575
 
Das Ziel dieses Projektes ist es, einen allgemein anwendbaren, schnellen und skalierbaren Löser für strukturierte Vorhersageprobleme aus der Bildverarbeitung und dem maschinellen Lernen zu entwickeln. Für strukturierte Vorhersageprobleme wird eine hoch-dimensionale Ausgabe berechnet, die einer Anzahl von Nebenbedingungen genügen muss. Beispiele dafür sind mehrere Objekt-Verfolgung, dessen Ausgabe eine Menge an nichtüberlappenden Trajektorien in einem Tracking-Graphen ist, sowie Clustering, für das eine Partitionierung einer Menge in nichtüberlappende Untermengen gesucht wird oder Korrespondenzprobleme, für die 1:1-Abbildungen zwischen Punkten gesucht wird. Ansätze, die nur auf neuronale Netzwerke aufbauen, sind für solche Probleme unter Umständen nicht ideal. Oft können die zugrundeliegenden Nebenbedingungen nur schwer oder umständlich erzwungen werden. Für Optimierungsprobleme hingegen können in natürlicher Weise Nebenbedingungen formuliert werden. Allerdings sind traditionelle Standardlöser aus der mathematischen Optimierung nur begrenzt für strukturierte Vorhersageprobleme anwendbar, da sie nicht hinreichend skalieren um sehr hoch-dimensionale Probleme schnell zu lösen. Skalierbare, spezialisierte Löser für einzelne Problemklassen müssen andererseits angepasst oder gar neu geschrieben werden, sobald neue Typen von Nebenbedingungen modelliert werden. Das Ziel dieses Projektes ist es, diesen Gegensatz zu überwinden und die allgemeine Anwendbarkeit traditioneller mit der Skalierbarkeit spezialisierter Löser zu verbinden. Dafür werden wir algorithmische Prinzipien effizienter spezialisierter Löser generalisieren und allgemein anwendbar machen. Dabei werden wir ein besonderes Gewicht auf GPU-Parallelisierung legen. Darüberhinaus wird unser Löser kombinierbar mit maschinellem Lernen sein. Das heißt erstens, dass der Löser trainierbar sein wird. Es wird möglich sein, den Löser zu verbessern, indem man ihn auf zuvor gesehenen Probleminstanzen trainiert. Zweitens wird es möglich sein, den Löser als differenzierbare Schicht in neuronale Netze für strukturierte Vorhersage-Probleme einzubetten und das neuronale Netz gemeinsam mit dem Löser zu trainieren. Dadurch wird die Leistung in den jeweiligen Anwendungen steigen.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung