Industrielle Bildverarbeitung

Andreas Mühlbauer,

Künstliche Intelligenz in Embedded-Systemen

Die industrielle Bildverarbeitung gilt als eine der wichtigsten Technologien für die Automatisierung von Produktionsprozessen im Rahmen von Industrie 4.0. Zunehmend an Bedeutung gewinnen dabei moderne Deep-Learning-Verfahren auf Basis von künstlicher Intelligenz. Diese lassen sich mittlerweile auch in großem Umfang auf Embedded-Systemen nutzen. 

Wertschöpfungsprozesse in der Industrie 4.0 sind hochgradig automatisiert. © MVTec Software / Shutterstock / Phonlamai Photo

Smart Factory und Industrie 4.0 verändern industrielle Wertschöpfungsprozesse tiefgreifend. Charakteristisch hierfür ist ein hoher Grad an Digitalisierung, Vernetzung und Automatisierung. Dabei sind alle beteiligten Komponenten durchgängig vernetzt und kommunizieren über verschiedenste Protokolle miteinander. Auch Innovationen in der Robotik verändern das Gesicht der industriellen Produktion. So prägen mittlerweile kleine, kompakte und mobile Roboter das Bild in hochautomatisierten Montagehallen. Die sogenannten Collaborative Robots (Cobots) arbeiten eng zusammen und teilen sich Arbeitsschritte mit ihren menschlichen Kollegen. Zudem lassen sie sich schnell und flexibel für verschiedene Aufgaben umrüsten.

Nicht mehr wegzudenken aus diesem automatisierten Fertigungsszenario ist die industrielle Bildverarbeitung (Machine Vision). Bildeinzugsgeräte wie Kameras, Scanner und 3D-Sensoren nehmen die Produktionsprozesse lückenlos auf. Eine integrierte Machine-Vision-Software verarbeitet dann die Bilddaten und stellt sie für zahlreiche Anwendungen in der Fertigungskette bereit. Die Software kann etwa verschiedenste Objekte anhand optischer Merkmale erkennen und Werkstücke präzise positionieren. Zudem unterstützt die Technologie bei der Fehlerinspektion. Mangelhaft gefertigte Produkte lassen sich sicher identifizieren und automatisiert aussortieren. Machine Vision überwacht das gesamte Fertigungsgeschehen und macht dadurch die Prozesse sicherer und effizienter.

Anzeige

Dies gilt insbesondere für das Zusammenspiel zwischen Cobots und in Interaktion mit Menschen. Dabei wird es immer wichtiger, Bildverarbeitungsalgorithmen für Embedded-Plattformen zu optimieren. Die Integration beider Technologie-Welten nennt man Embedded Vision. Im Rahmen von Industrie 4.0 nimmt der Einsatz von kompakten Geräten mit eingebundener Embedded-Software deutlich zu, insbesondere von Smart-Kameras, Vision-Sensoren, Smartphones, Tablets und Handhelds. Grund für deren wachsende Verbreitung im industriellen Umfeld ist, dass die Devices mit performanten, industrietauglichen und langzeitig verfügbaren Prozessoren ausgestattet sind. Daher lassen sich darauf auch komplexe Bildverarbeitungsaufgaben ausführen – vorausgesetzt, sie verfügen über eine leistungsfähige und robuste Machine-Vision-Software. Damit diese störungsfrei laufen kann, muss sie mit verschiedensten Embedded-Plattformen, wie etwa mit der weit verbreiteten Arm-Prozessor-Architektur kompatibel sein. Beispielsweise lässt sich die aktuelle Release 18.11 der Machine-Vision-Standardsoftware Halcon von MVTec problemlos auf diesen Plattformen betreiben, sowohl mit 64 als auch mit 32 Bit. Auch auf kompakten Devices lassen sich damit robuste Machine-Vision-Funktionen nutzen, die sonst nur auf stationären PCs laufen.

Embedded-Vision-Systeme können die hohen Anforderungen der Digitalisierung vor allem dann erfüllen, wenn sie mit künstlicher Intelligenz (KI) ausgestattet sind. Solche KI-basierten Technologien sind beispielsweise Deep Learning und Convolutional Neural Networks (CNN). Diese Methoden ermöglichen sehr hohe und robuste Erkennungsraten. Bei Deep-Learning-Prozessen werden zunächst große Mengen an Bilddaten für das Training eines CNN verwendet. Während dieses Prozesses werden spezielle Merkmale erlernt, die typisch für die jeweilige „Klasse“ sind. Anhand der Trainings-Ergebnisse lassen sich zu identifizierende Objekte präzise kategorisieren und erkennen. Auch die präzise Lokalisierung von Gegenständen und Fehlern ist im weiteren Verlauf möglich.

Deep Learning in Embedded-Vision-Anwendungen

Deep-Learning-Funktionen kommen bereits in vielen Em-bedded-Vision-Anwendungen zum Einsatz. Dabei fallen typischerweise große Datenmengen an. Oft handelt es sich um nicht-industrielle Szenarien wie beispielsweise autonomes Fahren. Entsprechende Fahrzeuge verfügen über eine Vielzahl von Sensoren und Kameras, die Daten vom aktuellen Verkehrsgeschehen sammeln. Eine integrierte Vision-Software analysiert mithilfe von Deep-Learning-Algorithmen die Datenströme in Echtzeit. So lassen sich Situationen erkennen und für die präzise Steuerung des Fahrzeugs nutzen. Deep-Learning-basierte Embedded-Vision-Technologien kommen auch im Smart-City-Umfeld zur Anwendung. Dort werden infrastrukturelle Abläufe wie Straßenverkehr, Beleuchtung oder Versorgung digital vernetzt, um so den Bewohnern einen besonderen Service zu bieten.

MVTec Halcon ermöglicht Deep Learning auf Embedded-Plattformen. © MVTec Software

Welche Vorteile bietet nun der Einsatz von Deep-Learning-Technologien im Embedded- und Machine-Vision-Umfeld? Deep-Learning-Algorithmen sind in der Lage, automatisch spezifische Unterscheidungsmerkmale wie Textur, Farbe oder Grauwert-Verlauf aus den Trainingsdaten zu lernen und nach Relevanz zu gewichten. Diese Aufgabe müssten ansonsten Bildverarbeitungsexperten von Hand übernehmen.

Objektmerkmale sind meistens äußerst komplex und für Menschen kaum zu interpretieren. Werden Unterscheidungskriterien hingegen automatisiert aus Trainingsdaten gelernt, lassen sich in hohem Maße Aufwand, Zeit und Kosten einsparen. Mit Deep Learning lassen sich auch abstraktere Objekte unterscheiden, während klassische manuelle Ansätze lediglich die Zuordnung von klar beschreibbaren Gegenständen ermöglichen. So lassen sich beispielsweise auch Objekte mit komplexen, filigranen Strukturen oder Dinge vor störenden oder sehr unruhigen Hintergründen erkennen. Ein Mensch könnte bei diesen Gegenständen in den meisten Fällen keine eindeutigen Unterscheidungsmerkmale wahrnehmen.

Da das Training eine sehr hohe Rechenleistung erfordert, werden komplexe, neuronale Netze auf entsprechend leis-tungsfähigen PCs mit High-End-Grafikprozessoren trainiert. Das fertig trainierte Netz kann dann aber auch auf Embedded-Geräten genutzt werden, wodurch kompakte und robuste Embedded-Vision-Lösungen von bestmöglichen Erkennungsraten profitieren. Gerade im hochautomatisierten Industrie-4.0-Umfeld erlangen KI-basierte Technologien wie etwa Deep Learning oder CNNs zunehmend Bedeutung. Daher sind sie bereits heute ein wesentlicher Bestandteil moderner Machine-Vision-Lösungen. Laufen die Algorithmen auch auf einschlägigen Embedded-Plattformen, lässt sich die ganze KI-Funktionsvielfalt robuster Bildverarbeitungs-Software auf kompakten Devices nutzen.

Christoph Wagner, Product Manager Embedded Vision, MVTec Software / am

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige

Gesamtanlageneffektivität auswerten und verbessern

Eine wichtige Kennzahl zur Messung der Wertschöpfung einer Produktionsanlage ist die Overall Equipment Effectiveness (OEE), die hierzulande Gesamtanlageneffektivität (GAE) genannt wird. Da erfolgreiche Verbesserungsansätze in der Produktion abhängig von einem zeitnahen Informationsaustausch über die GAE sind, bietet der Kennzeichnungsanbieter Bluhm Systeme seinen Kunden entsprechend vernetzte Soft- und Hardwarelösungen.

mehr...
Anzeige
Anzeige
Anzeige
Anzeige

Highlight der Woche

Kameragestützte Laserbeschriftung mit CPM
Der Einsatz von Vision-Systemen zur Bilderfassung und -verarbeitung ist ein wichtiges Werkzeug zur Prozesskontrolle und -optimierung. Entsprechend der Objektvielfalt bietet ACI kundenspezifisch angepasste Kameralösungen an.

 

Zum Highlight der Woche...
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite