Big Data Analytics

Andrea Gillhuber,

Auf der Suche nach dem Datenschatz

Aus einer Fülle an Produktionsdaten die richtigen Schlüsse ziehen, gleicht einer Detektivarbeit. Denn obwohl jeder Prozessschritt Unmengen an Daten erzeugt, bleibt ihr volles Potenzial häufig ungenutzt. Data Analytics können hier Abhilfe schaffen. Dafür ist eine Kombination aus umfassender Datenexpertise und langjährigem Produktionswissen erforderlich. Nur gemeinsam lässt sich ein messbarer Mehrwert generieren. 

Mit Data Analytics lassen sich in der Produktion signifikante Mehrwerte erzielen. © Bosch Connected Industry

Wenn die Produktion nicht rund läuft, kann das die unterschiedlichsten Gründe haben. Logischerweise schaut man zuerst dorthin, wo der Prozess ins Stocken geraten ist oder die Grundursache vermutet wird. Häufig liegt die eigentliche Ursache jedoch an ganz anderer Stelle. Hier beginnt die Arbeit der Datendetektive, zu neudeutsch besser bekannt als „Data Scientists“. Mithilfe modernster Methoden zur Datenerfassung und -aufbereitung sowie intelligenter Algorithmen analysieren sie Prozesse systematisch und nachhaltig.

Die Fertigung ist ein komplexes Zusammenspiel aufeinanderfolgender Prozessschritte, bei denen unter anderem Rohstoffe, Produktionsmittel und Umwelteinflüsse auf die Qualität des Endprodukts einwirken. In der diskreten Fertigung zum Beispiel hat jedes Teil seine ganz individuelle Entstehungsgeschichte zu erzählen, die zunächst aus einem schier unüberschaubaren Meer aus Daten besteht – sofern eine eindeutige Zuordnung der Daten zum jeweiligen Produkt überhaupt möglich ist. Durch so genannte Traceability-Brüche, also eine im Prozess auftretende Desynchronisierung des realen und digitalen Pfades, verliert sich ihr Weg.

Anzeige

Gibt es innerhalb der Produktion nun ein Problem wie beispielsweise erhöhten Ausschuss, lässt sich die technische Grundursache oftmals nicht ohne Weiteres feststellen. Deshalb beginnt jedes Data-Analytics-Projekt idealerweise mit der Begehung der Fertigung und Gesprächen mit den verantwortlichen Mitarbeitern und Prozessexperten. Denn obwohl Daten der wichtigste Rohstoff von Industrie 4.0 sind, lässt sich das beste Ergebnis nur in Kombination mit einem tiefen Verständnis der jeweiligen Anlagen und Prozesse erzielen. Der Datendetektiv muss sich ein ganz genaues Bild von der Produktion machen und nicht nur die offensichtlichen Beweisstücke sichern, sondern auch die scheinbar unbedeutenden Details betrachten.

Mitunter ist es allerdings schwierig, überhaupt an diese Daten zu gelangen. Bestenfalls sind die betroffenen Maschinen und Prozesse bereits in eine homogene IT-Landschaft eingebunden. Doch die Realität sieht häufig noch anders aus: Derzeit ist fast jede Fertigung ein Mix aus alter und neuer Hard- beziehungsweise Software. Die benötigten Daten liegen je nach Quelle in den unterschiedlichsten Strukturen und Formaten vor – manchmal auch noch handschriftlich. Erst wenn alle Quellen identifiziert und die Daten vereinheitlicht sind, können die Datendetektive mittels Algorithmen die tiefgreifenden Ursache-Wirk-Zusammenhänge über die unterschiedlichen Datenquellen hinweg ermitteln. Dem Datenexperten kommt also die Aufgabe zu, alle Daten aufzuspüren, zu verstehen und in eine analysefähige Struktur zu überführen. Dabei hilft das Prozesswissen, neue Features aus den Daten zu generieren. Beispielsweise wird aus zwei Zeitstempeln eine Liegezeit oder aus mehreren Einflussgrößen ein erstes multidimensionales Modell.

Bis zu 40 Prozent höhere Produktqualität

Gibt es innerhalb der Produktion ein Problem wie beispielsweise erhöhten Ausschuss, lässt sich die technische Grundursache oftmals nicht ohne weiteres feststellen. Hier können Data Analytics helfen. © Bosch Connected Industry

Ein konkretes Beispiel aus der Herstellung von Spezialdraht zeigt, welche Komplexität – aber auch welche Wirkung – diesen Datenanalysen innewohnt: In 60 Prozessschritten wird das pulverförmige Rohmaterial chemisch, thermisch und mechanisch verpresst, gesintert, geglüht, gehämmert und gezogen, bis es als auf Spulen aufgewickelter Draht das Werk verlässt. Ein solcher Spezialdraht entsteht aus Rohstoffen unterschiedlicher Einzelchargen, die wiederum unterschiedliche Stationen durchlaufen – beispielsweise verschiedene Öfen. Bei den Prozessen handelt es sich sowohl um Sequenz- als auch um Parallelfertigung. Für Hersteller und Kunden ist vor allem wichtig, dass der Draht während der Produktion nicht abreißt und so ein möglichst langes, ununterbrochenes Drahtstück entsteht. Die Datenanalyse ergab, dass das sich erst viel später im Prozess manifestierende Qualitätsproblem seinen Ursprung unter anderem in der Liegezeit der zwischenbehandelten Pulverchargen hatte. Diese Erkenntnis zeigt, dass eine Zusammenarbeit der Datendetektive mit den Zeugen, also den Prozessexperten vor Ort, unerlässlich ist: Ohne die detaillierte gemeinsame Vorarbeit wären die relevanten Informationen gar nicht erst in die Analyse mit eingeflossen. Denn sie befanden sich nicht initial in den Daten, sondern wurden erst nach der Prozessbetrachtung zusätzlich als Differenz zwischen zwei Zeitstempeln identifiziert. So aber steht nach Abschluss des Projektes eine Steigerung der vom Kunden vorgegebenen Qualitätskennzahl um bis zu 40 Prozent zu Buche.

Manchmal fördert die Detektivarbeit auch gänzlich andere Ergebnisse zutage als erwartet. So geschehen bei einem Hersteller von Partikelsensoren: In der Serienproduktion liefen Sensorelemente mit stark schwankender Qualität einer bestimmten Sensorschicht vom Band. Die Ursache allerdings lag bei einer anderen Schicht, die auch nach monatelangen Verbesserungsprojekten mit etablierten Problemlösungsmethoden nicht in Verdacht stand. Erst die ganzheitliche Betrachtung des Prozesses und der Daten förderte diese Erkenntnis zutage. Und mehr noch: Quasi nebenher konnten die Detektive einen Fall von Pseudoausschuss aufdecken. Aufgrund eines Fehlers in der Maschinensteuerung wurden qualitativ einwandfreie Teile als Ausschuss identifiziert – was dank Data Analytics aufgedeckt und anschließend von den Mitarbeitern behoben wurde. Allein durch diesen Nebeneffekt
amortisierten sich für den Kunden dank Einsparungen von rund 1.000 Euro am Tag die Kosten der Analyse binnen einer einzigen Woche.

Wie das Beispiel zeigt, gibt es Prozessprobleme, die sich mit einer einmaligen Analyse lösen lassen. Die Mehrzahl der Fehlerquellen allerdings bedarf einer längerfristigen Vorgehensweise. In beiden Fällen lohnt es sich, externe Experten hinzuzuziehen. Sie bringen die Methoden und das analytische Know-how mit und können in kurzer Zeit vielschichtige Prozesse durchleuchten, ohne dass das Unternehmen Stillstände in Kauf nehmen oder Mitarbeiter für die Aufgabe abziehen müsste. Die Produktionsdaten werden im Hintergrund analysiert. Störungen, Unregelmäßigkeiten und sich abzeichnende Trends wie ein kontinuierlicher Leistungsabfall werden aufbereitet und an das Unternehmen zurückgespielt. Wenn benötigt, können über Optimierungsprojekte hinaus auch produktive Lösungen entstehen, wie etwa ein Dashboard oder Vorhersagemodelle. Doch letztlich ist das erklärte Ziel immer, das Problem zu verstehen und die technische Grundursache zu beseitigen.

OT und IT – ein unschlagbares Team

Ein Data-Analytics-Projekt beginnt mit der Begehung der Fertigung und Gesprächen mit den verantwortlichen Mitarbeitern. © Bosch Connected Industry

Um zu diesem Ziel zu gelangen, ist umfangreiche Detektivarbeit erforderlich. Vor allem aber bedarf es eines guten Zusammenspiels aller Parteien: Mit Nexeed Data Analytics bringt Bosch die notwendigen Software- und Analyse-Kompetenzen mit. Da das Unternehmen selbst in der Fertigung tätig ist, kann es zudem auf langjährige Erfahrung in den unterschiedlichsten Domänen zurückgreifen. Bei Bedarf lassen sich auch weitere Software-Bausteine aus dem Nexeed-Portfolio hinzuziehen, etwa wenn es um die Vernetzung von Linien oder Werken geht. Doch eines ist gewiss: Ohne die menschliche Komponente ist die ganze Datenflut nur halb so viel wert. Deshalb müssen die Prozessverantwortlichen aktiv in ein Data-Analytics-Projekt involviert werden.

Das gilt zunächst für die Bestandsaufnahme, also die Fehler- und Prozessbeschreibung. In der darauffolgenden Datensammlung wird der Faktor Mensch bewusst ausgeklammert. Selbst augenscheinlich nicht mit dem Fehler zusammenhängende Daten werden mit aufgenommen und analysiert. Hier zeigt sich einer der großen Vorteile dieser Methode im Gegensatz zu etablierten Verfahren der Prozessoptimierung: die Unvoreingenommenheit und die daraus resultierende Einbeziehung auch scheinbar irrelevanter Daten, die auch unerwartete Ergebnisse zu Tage fördern kann. Bei der Interpretation der Ergebnisse wiederum spielt der Prozessexperte eine elementare Rolle. So werden Datenanalysten und Prozessspezialisten im Nexeed-Data-Analytics-Projekt zu einem unschlagbaren Ermittlerteam.
Deniz Ercan, Leiter Nexeed Data Analytics bei Bosch Connected Industry / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige

Digitale Transformation

Mehr Nutzenargumentation, bitte

Wer den Debatten um die Industrie 4.0 und das Internet of Things folgt, der könnte den Eindruck gewinnen, dass der Erfolg dieser Initiativen rein von der eingesetzten Technologie abhängig wäre. Ein gefährlicher Trugschluss, der den Blick auf das...

mehr...

IT-Experten

Wissen als Dienstleistung

Egal ob Ingenieurbüros oder Freelancer, sie bieten die gleiche Leistung: Know-how. Im Zuge der digitalen Transformation sowie des Fachkräftemangels steigt die Bedeutung von externen Serviceleistungen; das zeigen Studien und das Angebot von...

mehr...
Anzeige
Anzeige
Anzeige

Ausblick 2018

Trends in der Prozessindustrie

Steigende Rohstoffpreise, smartes Equipment, nachhaltige Werkstoffe und vernetzte Anlagen – auch im kommenden Jahr sieht sich die Prozessindustrie vor branchenübergreifende Herausforderungen gestellt. 

mehr...
Anzeige
Anzeige
Anzeige

Smart Factory

Tasting the IIoT

Immer mehr Unternehmen setzen auf smarte Produktion. Für zögernde Mittelständler bietet Forcam, temporär in das digitale Fabrik-Zeitalter zu starten. 30 Tage lang können Mittelständler die Smart Factory mit Forcam Force unverbindlich testen. Dabei...

mehr...

ERP

Effizienzgewinne dank Echtzeitdaten

In der Vergangenheit war der Mensch „Datenquelle Nummer eins“. Das ändert sich gerade deutlich. Immer öfter helfen Sensoren, Mess- und Statusinformationen zu erfassen und über vernetzte Systeme weiterzuleiten. Kommen Unternehmen also an der...

mehr...

Blockchain-Technologie

Der unbekannte Trend?

Gerade einmal ein Drittel der Automobilhersteller und –zulieferer (34 Prozent) hat bislang von der Blockchain als Technologie für den Unternehmenseinsatz gehört. Damit ist einer der wichtigsten Technologie-Trends in der deutschen Automobilindustrie...

mehr...

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite