Visionsysteme für Roboter

Andrea Gillhuber,

Serviceroboter intelligenter machen

Roboter sollen in Zukunft in Unternehmen und Haushalten als Helfer zum Einsatz kommen. Dafür müssen sie allerdings in der Lage sein, ihre Umgebung wahrzunehmen und zu interpretieren. Forscher der Universität Bayreuth haben dafür eine Lösung gefunden.

Eine auf dem beweglichen Arm eines Roboters montierte Kamera nimmt dieselbe Szene aus drei unterschiedlichen Perspektiven auf. © Dorian Rohner

Um dem Menschen von Nutzen sein zu können, müssen Serviceroboter über eine gewisse Intelligenz verfügen. Sie müssen in der Lage sein, Objekte eindutig zu identifizieren und verschiedene räumliche Ansichten aufeinander beziehen können. Genau dafür haben Forscher der Universität Bayreuth im Projekt „SeLaVi“ ein System entwickelt.

Roboter lernen sehen

„SeLaVi” steht für „Semantic and Local Computer Vision based on Color/Depth Cameras in Robotics”. Geleitet wird das Projekt von Prof. Dr. Dominik Henrich am Lehrstuhl für Robotik und Eingebettete Systeme. Ziel ist es, die Roboter in die Lage zu versetzen, auf Basis von wenigen charakteristischen Bildern zu erkennen, was sich in ihrer Umgebung abspielt. Eine zentrale Rolle spielen dabei Kameras, die wie Augen an den Armen der Roboter befestigt sind. Von den Objekten in ihrer Arbeitsumgebung erzeugen die Kameras Bilder, die in geometrische Modelle übersetzt werden. Für diese Modelle ist es charakteristisch, dass sie nur wenige, aber repräsentative Oberflächenstücke der Objekte abbilden. Sie heißen daher Boundary Representations (BReps) und beanspruchen geringere Speicher- und Rechenkapazitäten als die Punktwolken oder Dreiecksnetze, die bisher üblicherweise zur Objekterkennung verwendet werden. Die neuartigen Modelle werden mit zusätzlichen, in den Kamerabildern enthaltenen Farbinformationen zusammengeführt und in einer Datenbank gespeichert. Indem die Roboter neu hinzukommende Kamerabilder mit der Datenbank abgleichen, können sie Objekte in ihrer Umgebung fehlerfrei wiedererkennen. Dabei lassen sie sich nicht durch Bewegungen benachbarter Objekte irritieren.

Anzeige

Diese Fähigkeit der Roboter bildet die Grundlage für weitere Lernschritte, welche die Sinnzusammenhänge zwischen den statischen oder bewegten Objekten in ihrem Arbeitsumfeld betreffen. Roboter sollen diese „semantischen Relationen“ verstehen lernen, um dann mit ihren Armen auf zweckmäßige Weise in die jeweiligen Szenarien eingreifen zu können. Alle diese Fähigkeiten, wie sie derzeit in Bayreuth entwickelt und optimiert werden, können auf vielen Gebieten eingesetzt werden – angefangen von autonomen Servicerobotern bis hin zu Kooperationen zwischen Menschen und Robotern.

Nach Unterlagen der Universität Bayreuth / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige

Kamera-Sensoren

Hohe Effizienz beim Bin Picking

Der robotergeführte „Griff in die Kiste“ steigert den Automatisierungsgrad und die Flexibilität der industriellen Produktion. Ein  großer deutscher Zulieferer im Automobil-Bereich hat sich daher für das Bin Picking-System Powerpick3D von Isra Vision...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

3D-Kamera von GOM

Verformungen berührungslos erfassen

Die neue Aramis 3D Camera von GOM ist ein 3D-Bewegungs- und Verformungssensor für die punktuelle und flächenhafte Materialprüfung und Bauteilverformungsanalyse. Sie liefert präzise 3D-Koordinaten, 3D-Verschiebungen, 3D-Dehnungen, Geschwindigkeiten,...

mehr...

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite