Detailseite
Projekt Druckansicht

Transzendierendes Tuning: Domänenübergreifendes plattformübergreifendes Transfer-Lernen und Auto-Tuning

Fachliche Zuordnung Rechnerarchitektur, eingebettete und massiv parallele Systeme
Förderung Förderung seit 2025
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 552689849
 
In der sich ständig weiterentwickelnden Computerlandschaft ist das Streben nach Leistung über verschiedene Bereiche und Plattformen hinweg zu einer Herausforderung geworden. Da sich Anwendungen und Systeme über mehrere Bereiche erstrecken, von künstlicher Intelligenz bis hin zu eingebetteten Systemen, und Plattformen von Cloud Computing bis hin zu Edge-Geräten, wird die Notwendigkeit eines einheitlichen Ansatzes für (Auto-)Tuning deutlich. Beim Tuning werden verschiedene Parameter, Einstellungen oder Konfigurationen angepasst, um die Effizienz einer Berechnung in Bezug auf Latenz, Ressourcennutzung oder Energieeffizienz zu verbessern. In den letzten Jahren haben Forscher erfolgreich Techniken des maschinellen Lernens eingesetzt, um die Qualität von Auto-Tunern zu verbessern. In diesem Projekt beabsichtigen wir, die letzten Fortschritte im Bereich des Transfer-Lernens zu nutzen, um ein so genanntes transzendierendes Tuning zu ermöglichen, d.h. einen Autotuning- Framework, der über Anwendungsdomänen und Zielsysteme hinweg angepasst werden kann. Ermöglicht wird dies durch Innovationen im Bereich der Repräsentationen von Code, die für maschinelles Lernen in Compilern geeignet sind, anpassbare und wiederverwendbare Kostenmodelle und eine neuartige Autotuning- Methodik, die auf Transfer Learning basiert.
DFG-Verfahren Sachbeihilfen
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung