Detailseite
Entwicklung eines Gestaltungsmodells zur Steigerung der Datenqualität in der Produktionsplanung und -steuerung durch Anwendung von Data Mining Methoden
Antragsteller
Professor Dr.-Ing. Günther Schuh, seit 1/2017
Fachliche Zuordnung
Produktionssystematik, Betriebswissenschaften, Qualitätsmanagement und Fabrikplanung
Förderung
Förderung von 2015 bis 2018
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 277863437
Produzierende Unternehmen müssen sich heutzutage in einem turbulenten Wettbewerbsumfeld behaupten. Das Erreichen einer hohen Liefertermintreue gilt unter diesen Bedingungen als Differenzierungsmerkmal. Die Produktionsplanung und -steuerung (PPS) hat entscheidenden Einfluss auf diese logistische Zielerreichung und gehört unter den dynamischen Randbedingungen zu den anspruchsvollsten Aufgaben innerhalb des Auftragsabwicklungsprozesses eines Produktionsunternehmens. Trotz eines oftmals hohen planerischen Aufwands ist die logistische Zielerreichung von Unternehmen mit individueller Einzel- und Kleinserienfertigung nicht zufriedenstellend. Die Leistungsfähigkeit der PPS wird u.a. durch eine mangelnde Datenqualität beeinträchtigt. Bestehende Ansätze zur Erhöhung der Datenqualität sind bislang nicht geeignet, eine ausreichende Datenqualität zu garantieren, da sie entweder über systemseitig hinterlegte Regeln die Entstehung von mangelhaften Daten verhindern wollen oder aber an die Disziplin der Mitarbeiter bei der Datenerfassung plädieren.Hypothese des beantragten Forschungsvorhabens ist daher, dass sich die Entstehung von mangelhaften Daten in der PPS nie vollständig verhindern lassen wird, sondern vielmehr die fehlenden oder inkonsistenten Werte auch nachträglich noch bestimmt werden können.Ziel des beantragten Forschungsvorhabens ist daher die Entwicklung eines Gestaltungsmodells, dass die Behebung der kritischsten Fehler und Inkonsistenzen in produktionsrelevanten Stamm- und Bewegungsdaten durch die Anwendung von Data Mining Methoden unterstützt.Dazu werden zunächst die typischen Fehler und Inkonsistenzen in produktionsrelevanten Stamm- und Bewegungsdaten systematisch identifiziert und über die Bestimmung der Wirkungszusammenhänge klassifiziert. Für alle priorisierten Fehler und Inkonsistenzen können dann zielgerichtete Algorithmen entwickelt werden, die eine Abschätzung der fehlenden Werte ermöglichen. Eine Übertragung von bestehenden Algorithmen aus anderen Anwendungsbereichen, wie der Versicherungsbranche, ist dabei möglich und vorgesehen. Die Algorithmen werden in Form eines Softwaretools in einer experimentellen Produktionsumgebung validiert.
DFG-Verfahren
Sachbeihilfen
Ehemalige Antragstellerin
Dr.-Ing. Christina Reuter, bis 1/2017