Produktionssysteme

Erste ‚Gehversuche‘ mit Kinect sind vielversprechend

Ganz ohne Controller können mit der Gesten- und Sprachsteuerung Kinect von Microsoft Daten und damit auch Geräte manipuliert werden. Ursprünglich nur als Erweiterung der Spielekonsole Xbox 360 gedacht, hat die Technologie ein so großes Interesse ausgelöst, dass bald das erste Software-Entwicklungs-Kit auf den Markt kommt. Anwendungen sind inzwischen sowohl im Bereich der Virtuellen Realität denkbar, als auch bei der Interaktion mit Warenwirtschafts-Systemen.

„Was innerhalb von wenigen Monaten seit der Markteinführung der Kinect an Ideen generiert worden ist, und das sogar noch mit Open-Source-Treibern, übersteigt bei weitem alles, was wir uns je erträumt haben“, kommentiert Clemens Lutsch, User Experience Evangelist bei Microsoft Deutschland, ein Technologieberater innerhalb der Strategiegruppe von Microsoft. „Das Neue an der Kinect ist, dass man tatsächlich ein System mit Sprache, einer Geste oder dem ganzen Körper steuern kann – ohne einen Controller in der Hand zu haben.“ Der geringe Preis der Sensortechnik sowie ihr einfacher Anschluss per USB haben die Technologie jedoch weit über die Spieleindustrie hinweg für Entwickler in den verschiedensten Marktsegmenten interessant gemacht. Schon sind Anwendungen im Gesundheitsbereich sowie in der Bildung denkbar, aber auch technische Applikationen wie Virtuelle Realität (VR) oder Augmented Reality (AR) könnten davon profitieren. Highend-Sensoren würden dagegen vergleichbare Systeme fast unerschwinglich teuer machen.

Anzeige

Aufgrund der großen Nachfrage nach Anwendungen am PC, kündigte Microsoft entgegen seiner ursprünglichen Produktpolitik innerhalb weniger Monate nach der Markteinführung eine Entwicklungsumgebung für den PC an, also ein Software Development Kit (SDK). „Anders als einige bereits angebotene Treiber, die verschiedene Rohdaten abgreifen, wird das SDK eine Vollunterstützung anbieten, also die richtig komplexe Programmierung im Rahmen der vorhandenen Werkzeuge unterstützen“, so Lutsch weiter, dessen Arbeitsbereich unter anderem die Software-Ergonomie bei Mensch-Maschine-Interaktionen ist. Das genaue Release-Datum der ersten, nichtkommerziellen Version des SDK für F&E-Zwecke, die sich aber schon für Demonstratoren und öffentliche Präsentationen verwenden lässt, steht allerdings noch nicht fest. Doch soll es später auch eine kommerzielle Version geben.

„Die Gestensteuerung gelingt durch eine Kombination von optischen Sensoren, Infrarotsensoren, räumlich sensiblen Mikrofonen – die auch eine Tiefenerkennung von Geräuschen erlauben –, und der entsprechenden Software“, erläutert Lutsch. „Wir sehen bereits viele Ideen im Markt, die natürlich erst einmal ausloten, was technisch machbar ist und was überhaupt Sinn macht.“ Vorstellbar ist etwa, dass Kinect in Verbindung mit hochauflösenden Daten tatsächlich hilft, die Barriere zwischen dem Betrachter und dem virtuellen Raum zu überbrücken. Durch das Motion-Capturing – bei dem geplanten SDK ist die digitale Erfassung von bis zu zwei Usern gleichzeitig geplant – könnten zudem zwei Menschen tatsächlich einen virtuellen Raum begehen. Lutsch berichtet, dass „einige Partner gerade beginnen zu überlegen: Kann ich ein 3D-Modell eines Autos oder Flugzeuges virtuell mit der Hand anfassen und drehen, oder mich als virtuelles Abbild in VR-Umgebungen hineinversetzen und mich dann in der Simulation bewegen?“ Gearbeitet wird auch an alternativen Formen der komplexen Informationsdarstellung. So gibt es Versuche, ganz trockene Daten aus Warenwirtschafts- oder Human-Resource-Systemen noch einfacher interagierbar zu machen.

Erste anschauliche Beispiele zu möglichen Anwendungen der Kinect wurden im April auf der MIX11-Konferenz in Las Vegas gezeigt. Etwa die der beiden Konstanzer Studenten Stephan Huber und Michael Zöllner, die in ihrem Projekt ‚Navi‘ die Kinect sozusagen als Erweiterung für einen Blindenstab nutzen. Wenn auch noch weit von einem fertigen Produkt entfernt, so zeigt diese auf einen Bauhelm montierte Anwendung doch, wie diese Technik – wenn sie eines Tages miniaturisiert ist – etwa Sehbehinderten helfen könnte, Hindernisse im Weg besser zu erkennen. Das Besondere daran: Hier wird die Kinect quasi ‚verkehrt herum‘ eingesetzt. „Wir haben die Perspektive verändert und nutzen die Kinect nicht mehr, um den Benutzer abfilmen zu lassen, sondern um die Umgebung wahrzunehmen“, berichtet Huber vom Anfang des Projektes, das im Rahmen einer Vorlesung von Professor Harald Reiterer entstand, dessen Arbeitsgruppe Mensch-Computer-Interaktion neue Interaktionskonzepte erarbeitet.

„Für unsere Entwicklung haben wir noch den Open-Source-Treiber OpenNI benutzt“, so Huber. „Der liefert uns das Tiefenbild über die Infrarotsensoren.“ Die Konstanzer setzen große und nahe Objekte mit Gefahr für einen Sehbehinderten gleich. Damit dieser die Hindernisse umgehen kann, zerlegen sie das Tiefenbild in drei Bereiche: rechts, mittig und links. Je nachdem, wo und wie nah sich ein Objekt befindet, vibrieren dann ein oder zwei Motoren im Bauchgürtel – und weisen dem Träger so den Weg. Um auch in einem Gebäude als Navigationssystem zu funktionieren, wo keine GPS-Daten zur Verfügung stehen, wurde das System mit ARToolkit-Markern kombiniert. Dabei handelt es sich um eine frei verfügbare Software-Bibliothek, über die sich ohne Spezialkameras – hier wird die Standard-RGB-Kamera der Kinect verwendet – ein Tracking-System realisieren lässt. Auf diese Weise lassen sich zusätzliche Information unterbringen, wie: Du musst hier links abbiegen! oder Vorsicht, vor dir ist eine Türe, die du zum Öffnen ziehen musst. Auch hier liegen Anwendungen wie die Augmented Reality quasi ‚zum Greifen‘ nah.

An weiteren Ideen mangelt es den Studenten auch nicht. „Beliebige Flächen, wie etwa eine Schreibtischoberfläche oder eine Wand, lassen sich mittels Kinect touchfähig machen“, meint Stephan Huber. Denkbar sei auch, Roboter oder Maschinen mit dieser Sensortechnik auszustatten, um direkte Interaktionen mit Menschen zu ermöglichen. „Nur hochpräzise Anwendungen sind aufgrund der Bildqualität noch nicht umsetzbar“. Es bleibt also spannend, welche Anwendungen sich die Entwickler noch ausdenken – und welche es davon bis zur Marktreife schaffen. „Die Party geht erst mit der Veröffentlichung des eigentlichen SDKs los“, betont Microsoft-Mitarbeiter Clemens Lutsch.


Monika Corban, freie Mitarbeiterin, CAD-CAM REPORT

Microsoft Deutschland GmbH, Unterschleißheim Tel. 089/3176-0, http://research.microsoft.com/en-us/um/ redmond/projects/kinectsdk/
Universität Konstanz, Arbeitsgruppe Mensch-Computer-Interaktion, Konstanz Tel. 07531/88-2442, http://hci.uni-konstanz.de

Anzeige

Das könnte Sie auch interessieren

Anzeige

Echtzeitanalyse

Daten nutzbringend auswerten

Topsystem stellt für Anwender seiner Sprachassistentin Lydia das Business-Tool Lydia Warehouse Intelligence, kurz: LWI, zur Verfügung. Das System strukturiert und analysiert die beim Einsatz von Lydia Voice generierten Prozess-, Benutzer- und...

mehr...
Anzeige
Anzeige
Anzeige

Leitfaden

Hilfe bei ERP-Auswahl

Godesys bringt eine aktualisierte Version seines ERP-Knigge heraus. Ziel des Ratgebers ist es, Unternehmen bei der Wahl des richtigen ERP-Systems zu unterstützen. 

mehr...
Anzeige
Anzeige
Anzeige

MES

Die richtigen Daten in die Cloud

Das neue trendige „SaaS-Konzept“ (Software as a Service) ist ein kundenorientiertes Prinzip. Die Software liegt bei einem externen Dienstleister und der Kunde bezieht lediglich den Service der Dienstleistung, ohne sich um Hardware Gedanken machen zu...

mehr...