Detailseite
Zuverlässige intelligente Regelung für elektrische Antriebe
Antragsteller
Professor Dr.-Ing. Armin Dietz
Fachliche Zuordnung
Elektrische Energiesysteme, Power Management, Leistungselektronik, elektrische Maschinen und Antriebe
Künstliche Intelligenz und Maschinelle Lernverfahren
Künstliche Intelligenz und Maschinelle Lernverfahren
Förderung
Förderung seit 2025
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 554851031
Energieeffiziente elektrische Antriebe sind eine Schlüsseltechnologie für das Erreichen der europäischen Klimaziele. Aufgrund der hohen Komplexität der Antriebssysteme werden in der Praxis häufig Betriebsstrategien eingesetzt, welche keine optimale Energieeffizienz erreichen. Verfahren aus dem Bereich der künstlichen Intelligenz, insbesondere des Reinforcement Learnings (RL), ermöglichen ein automatisiertes Erlernen der Regelung von anspruchsvollen elektrischen Antrieben und sind daher ein vielversprechender Ansatz für diese Problemstellung. Eigene Vorarbeiten sowie Arbeiten anderer Forschungsgruppen zeigen zwar auf der einen Seite die Leistungsfähigkeit der Verfahren, auf der anderen Seite jedoch auch Herausforderungen, vor allem für das angestrebte Training in der Endanwendung. Bedingt durch die Verfahren und charakteristischen Eigenschaften des Trainings existiert eine hohe Streuung bezüglich der Regelgüte bei den erlernten Reglern. Weiterhin hat sich gezeigt, dass das Training nicht immer zuverlässig zu einer stabilen, nutzbaren Betriebsstrategie führt. Deshalb soll in diesem Projekt zuverlässiges und sicheres RL-Training untersucht werden. Der Begriff „zuverlässig“ impliziert in diesem Kontext eine Senkung der Streuung der Regelgüte der erlernten Regler, die mit dem gleichen Setup trainiert werden, sodass fortwährend Regler mit optimaler Betriebsstrategie trainiert werden. Der Begriff „sicher“ impliziert, dass das Training am Prüfstand innerhalb der physikalischen Systemgrenzen (z. B. Temperatur, Stromgrenze, etc.) und ohne Beschädigung des Systems garantiert ist. Hierfür werden Möglichkeiten zur Steigerung der Zuverlässigkeit zunächst in Simulation erforscht. Ein RL-Training kann hierbei durch eine Vielzahl an Parametern beeinflusst werden. In diesem Projekt stehen vier Punkte im Fokus der Forschung: Die Einflüsse des RL-Algorithmus an sich, die Exploration, das Buffersampling sowie verschiedene Umgebungsparameter, wie die Reward-Funktion. Des Weiteren werden Strategien erforscht, die in verschiedenen Betriebsbereichen relevante Grenzen einhalten und die Regelstrategie unter Berücksichtigung weiterer betriebspunktabhängiger Vorgaben dynamisch adaptieren. Die in Simulation gewonnenen Erkenntnisse werden in Prüfstandsversuchen validiert und durch empirische Erkenntnisse erweitert. Hierfür werden eine Hardwarebeschleunigung, um die echtzeitfähige Regelung mittels neuronaler Netze sowie das Lernen am Prüfstand zu ermöglichen, und die vorteilhafte Umsetzung des Trainingsprozesses auf der Regelungsplattform erforscht. Das Projekt könnte RL-basierte Regelungsverfahren für elektrische Antriebe praxistauglich machen und damit erheblich zur Effizienzsteigerung und Energieeinsparung in der Industrie beitragen. Durch die geplante Open-Source-Veröffentlichung der Software wird eine breite Nutzung und Weiterentwicklung der Forschungsergebnisse ermöglicht.
DFG-Verfahren
Sachbeihilfen (Transferprojekt)
Anwendungspartner
Zohm Control GmbH
