Detailseite
Projekt Druckansicht

Untersuchung Künstlicher Neuronaler Netze zur Schätzung wichtiger Komponententemperaturen in elektrischen Motoren

Fachliche Zuordnung Elektrische Energiesysteme, Power Management, Leistungselektronik, elektrische Maschinen und Antriebe
Automatisierungstechnik, Mechatronik, Regelungssysteme, Intelligente Technische Systeme, Robotik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2017 bis 2022
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 388765580
 
Erstellungsjahr 2022

Zusammenfassung der Projektergebnisse

Gegenstand des Projekts war die Untersuchung von künstlichen neuronalen Netzen (KNNs) zur thermischen Modellierung von Elektromotoren anhand eines Prüfstandsdatensatzes, den es ebenfalls aufzunehmen galt. Das Anregungsprofil wurde derart entworfen, dass der Wertebereich von Drehmoment und Drehzahl möglichst gleichmäßig abgedeckt wird. Mithilfe dieses Profilgenerators wurden an einem Prüfstand uber 140 Stunden Sensoraufnahmen sichergestellt, die zusammen mit einer älteren Aufnahme einen Datensatz von etwa 185 Stunden repräsentieren. Dieser Datensatz wurde zur Förderung guter wissenschaftlicher Praxis uneingeschränkt veröffentlicht. Anhand des Datensatzes wurden mehrere Experimente mit verschiedenen KNN-Architekturen und alternativen ML-Algorithmen durchgeführt. Alle Experimente enthielten Kreuzvalidierungen nach gängiger Praxis zur fairen Gegenüberstellung verschiedener Algorithmen. Außerdem wurden umfassende Hyperparameteroptimierungen unter anderem auf verteilten Systemen zur parallelisierten Verarbeitung durchgeführt. Dabei wurde die Überlegenheit von linearen Modellen sowie KNN-basierten Topologien gegenüber alternativen ML-Methoden festgestellt. Jedoch konnte anhand der empirischen Untersuchungen keine uneingeschränkte Empfehlung gegenuber klassischen thermischen Netzwerken mit konzentrierten Parametern (LPTNs) ausgesprochen werden. Hierbei waren vor allem die hohe Parameterzahl, ein gut konditionierter Messdatensatz, die unkontrollierbare Anfangswertfestlegung bei der Schätzung, viele online zu berechnende gleitende Mittelwerte sowie physikalisch nicht interpretierbare Modellzustände als Nachteile hervorzuheben. Diese sind dem Vorteil gegenüberzustellen, kein Expertenwissen für die Auslegung als thermisches Modell zu benötigen. Überraschenderweise haben sich im Laufe des Projekts Synergien zwischen KNNs und dem LPTN-Ansatz ergeben, die in einem neuen hybriden Modell vereint wurden. Dieser datengetriebene Ansatz wurde ”thermisches neuronales Netz” (TNN) getauft. Das TNN wurde methodisch so verstetigt, dass es allgemein für jegliche Systeme anwendbar ist, wo auch LPTNs prinzipiell zum Einsatz kommen können (d.h. Systeme, die unter Annahme konzentierter Parameter modelliert werden können) und für die Messdaten vorliegen. Sind diese Voraussetzungen erfüllt, so kann das TNN eindeutig empfohlen werden, da es im Vergleich zu LPTNs weder Material- noch Geometriekenntnisse über das System erfordert. Im Vergleich zu ML-Methoden, die keine DGLs einbinden, erzielten TNNs eine höhere Schätzgenauigkeit bei weniger Parametern und weisen physikalisch interpretierbare Modellzustände, eine triviale Anfangswertfestlegung sowie keine Erfordernis für zusätzliche Eingangsmerkmale auf. Die Projektbearbeiter sehen in dem Prinzip der hier vorliegenden und durch automatisches Differenzieren ermöglichten Modellhybridisierung einen wegweisenden Forschungsansatz fur die Identifikation nichtlinearer dynamischer Systeme. Bei weiterer Untersuchung könnten interessante Transfermöglichkeiten in benachbarte Anwendungs- und Forschungsfelder aufgezeigt werden. Alle entwickelten Algorithmen wurden ebenfalls zum Austausch mit anderen Forschern in Form von Python-Quellcode uneingeschränkt auf GitHub veröffentlicht.

Projektbezogene Publikationen (Auswahl)

  • “Deep Residual Convolutional and Recurrent Neural Networks for Temperature Estimation in Permanent Magnet Synchronous Motors”. In: IEEE International Electric Machines Drives Conference. 2019, S. 1439–1446
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.1109/IEMDC.2019.8785109)
  • “Empirical Evaluation of Exponentially Weighted Moving Averages for Simple Linear Thermal Modeling of Permanent Magnet Synchronous Machines”. In: Proceedings of the 28th International Symposium on Industrial Electronics. 2019, S. 318–323
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.1109/ISIE.2019.8781195)
  • Estimating Electric Motor Temperatures with Deep Residual Machine Learning”. In: IEEE Transactions on Power Electronics 36.7 (2020), S. 7480–7488
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.1109/TPEL.2020.3045596)
  • “Data-Driven Permanent Magnet Temperature Estimation in Synchronous Motors with Supervised Machine Learning: A Benchmark”. In: IEEE Transactions on Energy Conversion 36.3 (2021), S. 2059–2067
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.1109/TEC.2021.3052546)
  • “Learning Thermal Properties and Temperature Models of Electric Motors with Neural Ordinary Differential Equations”. In: 2022 International Power Electronics Conference (IPEC- Himeji 2022- ECCE Asia). 2022, S. 2746–2753
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.23919/IPEC-Himeji2022-ECCE53331.2022.9807209)
  • “Thermal neural networks: Lumped-parameter thermal modeling with state-space machine learning”. In: Engineering Applications of Artificial Intelligence 117 (2023), S. 105537
    W. Kirchgässner, O. Wallscheid und J. Böcker
    (Siehe online unter https://doi.org/10.1016/j.engappai.2022.105537)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung