Detailseite
Projekt Druckansicht

Algorithmen und Komplexitätsanalyse für Robuste Kombinatorische Optimierung

Fachliche Zuordnung Accounting und Finance
Theoretische Informatik
Förderung Förderung von 2020 bis 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 431609588
 
Erstellungsjahr 2023

Zusammenfassung der Projektergebnisse

Zur Lösung von Entscheidungsfindungsproblemen stehen inzwischen leistungsfähige und standardisierte algorithmische Werkzeuge zur Verfügung. Insbesondere bei der gemischt-ganzzahligen linearen Programmierung gibt es einen produktiven Kreislauf zwischen der Entwicklung neuer und anspruchsvoller Probleme, Lösungsmethoden und deren Umsetzung in kommerzieller und akademischer Software. Ein solcher Erfolg ist nur möglich, wenn die abstrakte Form der betrachteten Probleme wohldefiniert ist. Gleichzeitig fehlt diese Standardisierung bei Entscheidungsproblemen unter Unsicherheit weitgehend. Neben der Struktur der Menge der machbaren Lösungen müssen wir auch eines der vielen verfügbaren Entscheidungskriterien und Arten von Unsicherheitsmengen auswählen. Dies trägt dazu bei, dass die Landschaft der Benchmarking-Probleme, -Algorithmen und -Software sehr viel zerklüfteter ist. In diesem Projekt haben wir uns auf robuste kombinatorische Optimierungsprobleme konzentriert, die oft zur Klasse der schwierigen Probleme gehören. Um das Feld auf eine sicherere experimentelle Basis zu stellen, untersuchten wir verschiedene Methoden zur Konstruktion von harten Instanzen. Ein weit verbreiteter Standard ist die Auswahl von Parameterwerten aus einer Gleichverteilung. Mit einer breiteren Palette von Zufallsmethoden konnten wir Instanzen finden, die um mehrere Größenordnungen schwieriger zu lösen sind. Welche Methode zu wählen ist, hängt vom Entscheidungskriterium und natürlich von der Art der Unsicherheit ab. In den meisten Fällen können diese Instanzen durch die Anwendung eines Optimierungsmodells zur Modifizierung von Problemparametern noch schwieriger gemacht werden. Mit der Generierung von Instanzen ist das Problem der Reduzierung von Instanzen verbunden, um die wesentlichen Probleminformationen zu erhalten. Wenn zum Beispiel ein Szenario von einem anderen Szenario dominiert wird, kann es aus dem Problem entfernt werden. Wir haben dieses Szenarioaggregationsproblem als Optimierungsproblem formuliert, das eine Approximationsgarantie für die Qualität der Aggregation bietet. Dies führt zu einer Heuristik, die darauf basiert, ein großes Problem zunächst zu verkleinern, bevor es gelöst wird. Darüber hinaus haben wir datengesteuerte Methoden des maschinellen Lernens eingesetzt um Unsicherheitsmengen zu modellieren, die gut zu den historischen Daten passen, und um effektive Algorithmen auf der Grundlage einer Menge zuvor gelöster Problemen zu erlernen. Wir haben das derzeitige Wissen über Problemkomplexität erweitert, indem wir neue Arten von Unsicherheitsmengen und dynamische Entscheidungsprobleme mit mehr als einer Stufe untersucht und deren Komplexität bestimmt haben.

Projektbezogene Publikationen (Auswahl)

 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung