Detailseite
Optimale Aktionen und Stoppen im sequenziellen Lernen
Antragstellerinnen / Antragsteller
Professorin Dr. Alexandra Carpentier; Professor Dr. Markus Reiß
Fachliche Zuordnung
Mathematik
Förderung
Förderung seit 2021
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 460867398
Wir entwickeln die Methodik für sequentielle und statistische Lernverfahren weiter, die in den modernen Datenwissenschaften Standard sind. Typischerweise werden iterative Optimierungsverfahren eingesetzt, um ein statistisches Kriterium wie das empirische Risiko über einem hochdimensionalen oder sogar unendlich dimensionalen Parameterraum zu minimieren. Ein frühzeitiger Abbruch dieser Iterationen führt meistens zu einer impliziten Regularisierung. Wir entwickeln datengestützte Abbruchregeln, die nahe an die optimale (sogenannte Orakel-) Iterationszahl herankommen, und quantifizieren den statistischen Verlust anhand expliziter Orakel-Ungleichungen. Ein besonderer Fokus liegt dabei auf Klassifikationsverfahren und komplexe Lernalgorithmen, insbesondere Entscheidungsbäumen (CART) und (stochastischem) Gradientenabstieg. Für CART entwickeln wir zudem eine transparentere und leistungsfähigere Analyse unter der Annahme von Isotonie. Ebenso wichtig sind im Bereich des sequenziellen Lernens aktive Stichprobenstrategien, die wir in dem wichtigen Fall anisotroper Funktionsklassen untersuchen. In diesem Fall können Regressions- und Klassifikationsfunktionen bis zu einem gewissen Genauigkeitsniveau schneller erlernt werden, indem die Stichproben datengestützt in die Bereiche gelenkt werden, in denen die Funktion größere Schwankungen zeigt – oder die nahe an der Klassifikationsgrenze liegen. Insgesamt werden bedeutende Beiträge erwartet, die gleichzeitig statistische und rechnerische Effizienzgewinne ermöglichen.
DFG-Verfahren
Forschungsgruppen
