Inside the Smart Factory – Teil 2

Andrea Gillhuber,

Künstliche Intelligenz in der Smart Factory

Die Digitalisierung ist das beherrschende Thema in der fertigenden Industrie. Gleichzeitig herrscht große Verunsicherung aufgrund von unterschiedlichen Begriffsdefinitionen und unklaren Abgrenzungen. Die Artikelreihe „Inside the Smart Factory“ klärt über Missverständnisse und Hindernisse auf dem Weg zur digitalen Fabrik auf. In der zweiten Folge: Warum die denkende Maschine eine Illusion ist. 

Einblicke in die Smart Factory. © Shutterstock / julia.m

Als die Bundesregierung Mitte November erste Details ihrer KI-Strategie präsentierte, sah sich Peter Altmeier veranlasst, einen neuen Begriff zu kreieren, um den Einfluss der Technologie zu beschreiben: Künstliche Intelligenz sei „nicht irgendeine Innovation“, sondern „Basis-Innovation, die unsere Wirtschaft und unser Leben insgesamt verändern und verbessern wird“, so der Bundeswirtschaftsminister. Auch in der Industrie ist der Megatrend Künstliche Intelligenz längst angekommen. Und auch hier sind die Erwartungen enorm. Von bis zu 10 Milliarden Euro zusätzlichem Wachstum pro Jahr und einem Produktivitätsanstieg von einem Drittel ist in kühnen Prognosen die Rede – da scheint der Begriff Basis-Innovation beinahe untertrieben.

Eigentlich ist der Begriff künstliche Intelligenz bereits über 60 Jahre alt. Dass er gerade jetzt eine Renaissance erfährt, hat verschiedene Gründe: Zum einen wird durch den massiven Anstieg der zur Verfügung stehenden Rechenleistung die notwendige parallele Datenverarbeitung immer schneller und günstiger möglich, während gleichzeitig auch der verfügbare Speicherplatz durch weitestgehend frei skalierbares Cloud-Computing massiv zunimmt. Zum anderen ist es durch die günstige Ausstattung von Maschinenparks mit Sensoren sehr viel leichter geworden, Maschinendaten in der Fabrik überhaupt zu erfassen. Und schließlich stellen Anbieter wie Siemens, IBM oder GE mittlerweile Plattformen bereit, mit denen KI-Anwendungen dank Open API-Schnittstelle extrem leicht integriert werden können. Kurzum: KI ist fabriktauglich geworden und findet in der ein oder anderen Form immer häufiger Einzug in die Smart Factory.

Anzeige

Machine Learning, KI und neuronale Netze

Gleichzeitig jedoch sind die Ansätze, die oftmals unter dem Label KI firmieren, so breit und wenig trennscharf, dass Anspruch und Wirklichkeit von industriellen KI-Anwendungen oftmals weit auseinanderliegen. Um grobe Missverständnisse auszuräumen, sollten deshalb zunächst einige zentrale Ansätze unterschieden werden:

Schwache KI vs. starke KI: Ein zentrales Missverständnis in Bezug auf KI-Systeme betrifft die Annahme, diese würden über die gleichen intellektuellen Fähigkeiten verfügen wie der Mensch, also etwa logisches Denkvermögen, Entscheidungsfähigkeit auch bei Unsicherheit oder Planungs- und Lernfähigkeit. Eine solche sogenannte „starke KI“ ist allerdings bislang lediglich eine vage Vision, deren praktische Umsetzung noch nicht in Sichtweite ist. Heutige KI-Anwendungen lassen sich allesamt der „schwachen KI“ zuordnen. Sie sind ausgerichtet auf die Erfüllung einer klar definierten Aufgabe und greifen dabei auf gelernte Methoden zurück, ohne die Herangehensweise an Probleme zu variieren oder ein tieferes Verständnis für die Problemlösung zu erlangen. Typische Anwendungsfelder sind beispielsweise Text-, Bild- oder Spracherkennung, Automatisierte Übersetzungen oder Expertensysteme, die Handlungsempfehlungen auf Basis von Wissensdatenbanken geben.

Machine Learning: Die Begriffe KI, Machine Learning und Deep Learning werden im Alltag fälschlicherweise oft gleichgesetzt. Dabei sind Machine Learning und Deep Learning jeweils nur Teilgebiete der künstlichen Intelligenz beziehungsweise voneinander. Denn während KI als Oberbegriff die Gesamtheit aller Methoden und Ansätze zur Nachbildung der menschlichen Intelligenz beschreibt, bezeichnet maschinelles Lernen eine Sammlung von mathematischen Methoden der Mustererkennung, die einem System ermöglichen, selbstständig Wissen aus Erfahrungen zu generieren.

Deep Learning: Deep Learning wiederum ist ein Teilbereich des maschinellen Lernens unter Einsatz von sogenannten Neuronalen Netzen. Sie funktionieren nach dem Vorbild des menschlichen Gehirns mit mehreren Schichten beziehungsweise Layern zwischen der Eingabe und Ausgabe von Informationen. Der Vorteil von künstlichen neuronalen Netzen ist die schrittweise Abstraktion von Zusammenhängen in den Zwischenschichten. Statt eines deterministischen Algorithmus setzt Deep Learning also auf statistische Datenanalyse und ermöglicht dadurch selbstlernende und sich selbst optimierende Systeme. Fast alle aktuellen KI-Anwendungen nutzen die Methoden des Deep Learning beziehungsweise neuronaler Netze.

Zusammenfassend lassen sich heutige KI-Anwendungen somit als selbstlernende Verfahren der statistischen Datenanalyse beschreiben, die in der Lage sind, innerhalb großer Datenmengen Muster zu erkennen und daraus Handlungsempfehlungen abzuleiten.

Mehr als nur Predictive Maintenance

Machine Learning oder maschinelles Lernen bezeichnet eine Sammlung von mathematischen Methoden der Mustererkennung. © Shutterstock / Sammby

Für diese Form der Datenanalyse existieren in der Industrie heute verschiedene Einsatzfelder. Das bekannteste Beispiel für Anwendungen, die auf KI-Ansätze zurückgreifen, ist der Einsatz im Rahmen von Condition Monitoring oder Predictive Maintenance. Hierbei werden die Systeme darauf trainiert, bestimmte Verschleißmuster oder Werteabweichungen zu erkennen, die etwa auf den Ausfall einer Maschine hindeuten, noch bevor dieser tatsächlich eingetreten ist. Ebenfalls im Bereich Wartung und Instandhaltung angesiedelt ist eine Vielzahl von KI-basierten Bilddatenverarbeitungsprogrammen, die genutzt werden, um Störungsbilder mit Fehlerdatenbanken abzugleichen und dadurch Fernwartungen unterstützen.

Ein anderes Beispiel für die Verwendung von künstlicher Intelligenz im Produktionsprozess liefert Kamax Tools & Equipment. Der Hersteller von Werkzeugmaschinen zur Schraubenfertigung setzt eine ontologiebasierte Wissensdatenbank zum Variantenmanagement ein. Darin sind die Daten und Regeln abgelegt, die hinter den Bauteilen der verschiedenen Varianten stehen. Das gesamte Wissen von Konstrukteuren und Maschinenbedienern wird somit gewissermaßen in Algorithmen hinterlegt. Das ermöglicht es dem Nutzer, ein Bauteil frei zu konfigurieren und fertigen zu lassen, ohne die dahinterliegenden Spezifikationen einzeln berechnen oder eingeben zu müssen.

Der überwiegende Teil dieser Systeme stammt von großen Softwareherstellern, wie etwa IBM, Microsoft oder Nvidia. Jedoch gibt es auch immer mehr kleinere Anbieter, die schwache Intelligenzen für die Lösung bestimmter Probleme oder Aufgaben entwickeln.

Knackpunkt Datenkonsistenz

Gerade große Anbieter von KI-Softwarelösungen erwecken dabei immer wieder den Eindruck, dass sich KI-Anwendungen jederzeit problemlos in bestehende Produktionsumgebungen einbinden lassen und vernachlässigen dabei die erforderlichen infrastrukturellen Voraussetzungen zur Implementierung einer solchen Lösung. Denn der Erfolg von KI-Anwendungen steht und fällt mit der Menge und Qualität der zur Verfügung stehenden Daten.

Je nach Komplexität der Anwendung können die benötigten Datenmengen sehr hoch sein. Die Faustregel besagt, dass für jeden Parameter, den man in dem Modell anpassen kann, 10 Datenpunkte benötigt werden. In einem tieferen neuronalen Netz gibt es ungefähr 100.000 anpassbare Parameter, also 1 Million Datenpunkte, und die sind nicht aus jeder Anlage extrahierbar. Vor allem aber müssen Unternehmen überhaupt in der Lange sein, die Daten aus dem Produktionsprozess bereitzustellen.

Umsetzung von KI in der betrieblichen Praxis

Da in den Unternehmen das erforderliche Know-how heute oftmals noch nicht verfügbar ist und Plug-and-Play bei KI in der Regel nicht funktioniert, empfiehlt es sich, professionelle Unterstützung mit an Bord zu holen. Durch die gezielte Auswahl geeigneter Einsatzfälle in Kombination mit einer bewährten Vorgehensweise lässt sich auch in einem scheinbar komplexen Umfeld ein gutes Verhältnis von Aufwand und Nutzen erzielen. Selbst erfahrene Fachleute sind in vielen Fällen von dem Erkenntniszugewinn überrascht, der aus einer gut aufgesetzten KI gezogen werden kann.

In der aktuellen Diskussion wird KI jedoch allzu oft verkürzt auf die Thematik Jobkiller versus Allheilmittel. Beide Perspektiven sprechen für eine Überschätzung der Technologie, die nicht dem tatsächlichen Stand der Technik entspricht. Eine Portion Pragmatismus im Umgang mit künstlicher Intelligenz ist deshalb nur empfehlenswert. Das bedeutet vor allem, künstliche Intelligenz als mächtiges Instrument zu verstehen, das neue Möglichkeiten zur Steigerung der Effektivität und der Effizienz eröffnet. Entscheidend ist es, die potenziellen Einsatzfelder zu erkennen und diese dann auch konsequent anzugehen.

Prof. Dr.-Ing. Werner Bick, Generalbevollmächtigter der ROI Management Consulting AG und Professor an der OTH Regensburg / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige

Motek 2019

Schraubsysteme einfach vernetzen

Deprag Schulz zeigt auf der Motek seine Neuheiten zur Optimierung von Montageprozessen - wie die Softwarelösung Deprag Cockpit, mit der der Anwender den Überblick über beliebig viele und auch unterschiedliche Steuerungen der Schraubtechnik behält –...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Kongress "OT meets IT"

Wolfgang Dorst hält Keynote

Für den Kongress „OT meets IT“ konnten wir Wolfgang Dorst als Keynote-Sprecher gewinnen. Er gilt als Experte für Industrie 4.0 und ist Mitbegründer des Labs Network Industrie 4.0 e.V. und der Verbändeplattform Industrie 4.0.

mehr...

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite