top of page
AutorenbildDr. Stefan Stöckl

Data Science in der Fertigung

Aktualisiert: 18. Juli 2023


In den letzten Jahren ist ein Trend zu beobachten, dass die Data Science in verschiedene industrielle Anwendungen vorgedrungen ist. In der verarbeitenden Industrie löst Data Science bspw. die Hindernisse bei der Umsetzung der Just-in-Time-Fertigung (JIT). Bei JIT handelt es sich um ein Produktionsmodell, bei dem Artikel nach Bedarf hergestellt werden, was Fertigungsunternehmen hilft, Kosten zu senken, die Effizienz zu steigern und die Produktlieferung zu beschleunigen. (Robert Sheldon)


In den letzten 200 Jahren haben wir vier industrielle Revolutionen erlebt und die Geschwindigkeit der aktuellen Fortschritte ist ohne historischen Präzedenzfall. Wir erleben gerade die vierte industrielle Revolution, die sich nicht linear, sondern exponentiell entwickelt (vgl. Schwab, 2016). Die aktuelle industrielle Revolution hat die Industrie 4.0 (oder moderne Fertigung) hervorgebracht, welche die Art und Weise, wie Unternehmen ihre Produkte herstellen, vertreiben und verbessern, revolutioniert.


Was versteht man unter Industrie 4.0?


Industrie 4.0 ermöglicht es der Industrie, sich Just-in-Time anzunähern, da Daten von Maschinen, Produkten und der Umgebung gesammelt und analysiert werden, um präzise Ergebnisse zu erzielen. Die Data Science soll die Fertigungsindustrie grundlegend revolutionieren.


Nachfolgend sind Use Cases der Data Science in der Fertigung aufgeführt.


Predictive Analytics


Predictive Analytics ist die Analyse aktueller Daten zur Vorhersage und Vermeidung möglicher zukünftiger Probleme. Hersteller versuchen, Probleme wie Ausfallzeiten, Logistik, Überproduktion, Lagerbestände und Leerlaufzeiten zu lösen. Diese Anwendung bietet Lösungen für diese Probleme.


Störungsvorhersage und vorbeugende Wartung


Es gibt zwei Arten der vorbeugenden Wartung: zeit- und nutzungsabhängige Wartung. Vorbeugende Instandhaltung hilft bei der Planung, da sie Vorhersagen über mögliche künftige Ausfälle von Anlagen liefert. Um den Ausfall abzumildern, kann der Hersteller eine Abschaltung zur Reparatur oder eine Pause einplanen. Solche Pausen werden in der Regel eingelegt, um erhebliche Verzögerungen und Ausfälle zu vermeiden, die durch größere Pannen verursacht werden können.


Maschinenausfälle führen zu ungeplanten Ausfallzeiten und sind der größte Einzelverursacher von Gemeinkosten in der Produktion. Die durchschnittlichen Kosten für Ausfallzeiten sind beträchtlich, und jede Minute kostet durchschnittlich 9.000 US-Dollar, was die Ausfallkosten pro Stunde auf über 500.000 US-Dollar erhöht (vgl. Ponemon Institute, 2016). Vorausschauende Wartung und zustandsabhängige Überwachung können dazu beitragen, Maschinenausfälle einzudämmen und Ausfallkosten zu reduzieren.


Sensordaten von Maschinen werden kontinuierlich überwacht, um Anomalien zu erkennen (mithilfe von Modellen wie PCA-T2, Ein-Klassen-SVM, Autocodierern und logistischer Regression), Fehlermodi zu diagnostizieren (mithilfe von Klassifizierungsmodellen wie SVM, Random Forest, Entscheidungsbäumen und neuronalen Netzen), die Zeit bis zum Ausfall (TTF) vorherzusagen (mithilfe einer Kombination von Techniken wie Überlebensanalyse, Lagging, Kurvenanpassung und Regressionsmodellen) und die optimale Wartungszeit vorherzusagen (mithilfe von Operations-Research-Techniken) [vgl. (Nagdev Amruthnath, 2018) und (Amruthnath & Gupta, 2018)].


Data Science im Supply Chain Management


Eine Lieferkette (Supply Chain) umfasst mehrere Aktivitäten, die für die Herstellung und Lieferung von Produkten oder Dienstleistungen an Kunden erforderlich sind. Aufgrund der Anzahl der Akteure in einer Lieferkette kann diese komplex, unvorhersehbar und mit Risiken verbunden sein. Unternehmen des verarbeitenden Gewerbes verwenden typischerweise Rohstoffe, um diese zu fertigen Waren zu verarbeiten. Die Datenanalyse in der Materialwirtschaft kann helfen, Prozesse wie Beschaffung, Menge, Lagerung, Sicherheit und Qualitätskontrolle zu optimieren. Sie misst auch den Qualitätsstandard der Endprodukte und analysiert die Auswirkungen von Rohstoffen auf den Herstellungsprozess. Die Analytik hilft Unternehmen auch bei der Vorhersage potenzieller Verzögerungen und der Berechnung von Wahrscheinlichkeiten für problematische Aspekte. Sie helfen Unternehmen bei der Entwicklung von Notfallplänen und der Ermittlung von Ersatzlieferanten (vgl. Datenwissenschaftler im Lieferkettenmanagement, 2022).


Bildverarbeitungsanwendungen und KI-Technologien


Bildverarbeitungsanwendungen und KI-Technologien werden in der Fertigung in der Phase der Qualitätskontrolle eingesetzt. Diese Technologien ermöglichen eine effiziente Objektidentifizierung, Objekterkennung und -klassifizierung. Bis dato wurde die Qualitätskontrolle von Menschen durchgeführt, um Defekte wie Kratzer, Schrammen und Beulen zu erkennen. KI-Technologien wie CNN, RCNN und Fast RCNN haben allerdings ihre Genauigkeit im Vergleich zu Menschen bei der Qualitätsprüfung und -kontrolle unter Beweis gestellt und dadurch die Kosten gesenkt (vgl. Tian Weng, 2018).


Nachfrageprognosen und Bestandsmanagement


Nachfrageprognosen und Bestandsmanagement sind wichtige Komponenten der Data Science, da sie den Einsatz statistischer und maschineller Lernverfahren zur Analyse von Daten und zur Erstellung von Vorhersagen oder Entscheidungen über die künftige Nachfrage und den Lagerbestand beinhalten.


Bei der Nachfrageprognose können Datenwissenschaftler historische Verkaufsdaten, Markttrends und andere relevante Informationen nutzen, um die zukünftige Nachfrage nach einem Produkt oder einer Dienstleistung vorherzusagen. Die Nachfrageprognose verwendet Daten aus der Lieferkette und hat enge Beziehungen zur Bestandsverwaltung. Diese Wechselbeziehung besteht, weil die Daten der Lieferkette für die Nachfrageprognose verwendet werden. Dies kann einem Unternehmen helfen, Produktion, Marketing und andere Aktivitäten besser zu planen, um die Kundennachfrage zu befriedigen.


In der Bestandsverwaltung können Datenwissenschaftler Bedarfsprognosen und andere Datenquellen nutzen, um die Bestände zu optimieren und die Effizienz zu verbessern. Sie können zum Beispiel Daten zu Durchlaufzeiten, Sicherheitsbeständen und Nachfragemustern nutzen, um zu bestimmen, wie viel Bestand vorrätig gehalten werden soll und wann die Bestände wieder aufgefüllt werden müssen.


Insgesamt kann die Bedarfsprognose und Bestandsverwaltung Datenwissenschaftlern und Unternehmen helfen, fundiertere Entscheidungen über die Ressourcenzuweisung, die Produktion und andere Geschäftsabläufe zu treffen, was letztlich zu einer höheren Effizienz und Rentabilität führt.


Preisoptimierung


Bei der Preisoptimierung werden Daten und statistische Verfahren eingesetzt, um den optimalen Preis für ein Produkt oder eine Dienstleistung zu ermitteln. In der Data Science kann die Preisoptimierung durch eine Vielzahl von Methoden erreicht werden, einschließlich der Verwendung von Algorithmen des maschinellen Lernens und der statistischen Modellierung.


Ein gängiger Ansatz zur Preisoptimierung besteht darin, ein maschinelles Lernmodell zu erstellen, das eine Vielzahl von Faktoren berücksichtigt, die den Preis beeinflussen könnten, wie z. B. die Nachfrage nach einem Produkt, die Produktionskosten und die Preise der Wettbewerber. Das Modell kann dann anhand historischer Daten trainiert werden, um die Beziehungen zwischen diesen Faktoren und dem optimalen Preis zu lernen.


Ein anderer Ansatz zur Preisoptimierung besteht darin, statistische Modellierungstechniken, wie bspw. die Regressionsanalyse, einzusetzen, um Muster in den Daten zu erkennen und ein Modell zu erstellen, das den optimalen Preis auf der Grundlage dieser Muster vorhersagen kann.


In beiden Fällen besteht das Ziel darin, mithilfe von Data Science die Faktoren zu ermitteln, die den Preis am meisten beeinflussen, und ein Modell zu entwickeln, das den optimalen Preis auf der Grundlage dieser Faktoren genau vorhersagen kann. Dies kann Herstellern helfen, fundiertere Preisentscheidungen zu treffen und ihre Gewinne zu maximieren.


Die Data Science in der Fertigung ist im Vergleich zu anderen Disziplinen relativ neu. Bei Fertigungsprojekten (Kapitalinvestitionen) wird der ROI typischerweise in 5-7 Jahren erreicht. Erfolgreich eingesetzte Data-Science-Projekte haben einen ROI von weniger als einem Jahr. Data Science ist eines der Werkzeuge, welche die Fertigungsindustrie derzeit einsetzt, um ihr JIT-Ziel zu erreichen.


Unternehmen, die Data Science einsetzen, haben derzeit einen ROI von 4,4x und erwarten, dass dieser Wert in den nächsten zwei bis drei Jahren auf 6,7x ansteigt. Es gibt einen Unterschied zwischen dem ROI zwischen den frühen und den späten Anwendern von Data Science. Early Adopters sehen einen ROI von 5,8x, während Late Adopters derzeit nur einen ROI von 3,8x sehen. Jede Steigerung der Rendite ist vorteilhaft, aber der Unterschied von 2x spricht eindeutig dafür, Modelle so schnell wie möglich anzuwenden (vgl. Wie Innovatoren fortschrittliche Analytik, KI und maschinelles Lernen nutzen, um ROI und Wettbewerbsfähigkeit zu steigern, 2021).


Sollten Sie Fragen haben oder Unterstützung benötigen, sprechen Sie uns gerne an. Unsere Experten helfen Ihnen gerne weiter. Besuchen Sie auch unsere Homepage unter www.idea-bf.de und unseren Online-Shop unter idea-bf (elopage.com), in dem Sie u.a. praxisrelevante Online-Kurse und eBooks finden.


Quellen:


Amruthnath, N., & Gupta, T. (2018). A research study on unsupervised machine learning algorithms for early fault detection in predictive maintenance. 5th International Conference on Industrial Engineering and Applications (ICIEA). Singapore: IEEE.


Data Scientists in Supply Chain Management. (2022, June 27). Retrieved from Industry Today: https://industrytoday.com/data-scientists-in-supply-chain-management/


How Innovators Use Advanced Analytics, AI, and Machine Learning to Increase ROI & Competitiveness. (2021) Rapidminer. Retrieved from https://rapidminer.com/downloads/data-driven-transformation/


Nagdev Amruthnath, T. G. (2018, March). Fault class prediction in unsupervised learning using model-based clustering approach. International Conference on Information and Computer Technologies (ICICT). Dekalb, Illinois: IEEE. Retrieved from https://ieeexplore.ieee.org/document/8356831


Ponemon Institute. (2016). Cost of Data Center Outages. Ponemon Institute Research Report. Retrieved from https://www.vertiv.com/globalassets/documents/reports/2016-cost-of-data-center-outages-11-11_51190_1.pdf


Robert Sheldon. (n.d.). just-in-time manufacturing (JIT manufacturing). Retrieved November 10, 2022, from TechTarget: https://www.techtarget.com/whatis/definition/just-in-time-manufacturing-JIT-manufacturing


Schwab, K. (2016, January 14). The Fourth Industrial Revolution: what it means, how to respond. Retrieved November 10, 2022, from World Economic Forum: https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/


Tian Weng, Y. C. (2018). A fast and robust convolutional neural network-based defect detection model in product quality control. The International Journal of Advanced Manufacturing Technology, 94.


What is Industry 4.0? (n.d.). Retrieved November 10, 2022, from IBM: https://www.ibm.com/topics/industry-4-0





19 Ansichten0 Kommentare

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page