Forscher steuern UW-Roboter erstmals durch Zeichensprache

Teile:
03.12.2015 08:00
Kategorie: News

Taucher zeigen, wo es langgeht

Der UW-Roboter 'ARTU' wird mit Gesten gesteuert - © Prof. Andreas Birk / Jacobs University
Der UW-Roboter 'ARTU' wird mit Gesten gesteuert © Prof. Andreas Birk
Jacobs University

Zeichensprache ist für Taucher unter Wasser das Kommunikationsmittel der Wahl. Jetzt bringen  Forscher auch UW-Robotern bei, Gesten zu verstehen, Befehle zu empfangen und umzusetzen.

Normalerweise werden Unterwasser-Roboter über lange Kabel von Booten oder von Land aus gesteuert. Forschern der Jacobs University in Bremen ist nun ein Durchbruch in der Mensch-Maschine-Kommunikation gelungen: Erstmals konnten sie einen UW-Roboter mit Hilfe von Gesten navigieren. Eine spezielle Kamera half dabei, die Zeichensprache in Befehle umzusetzen. Die Feldtests fanden im Rahmen des EU-geförderten Projektes CADDY "Cognitive Autonomous Diving buddy" im kroatischen Biograd statt.

Archäologische Untersuchungen im Meer und andere Forschungsprojekte unter Wasser sind auf die Unterstützung von Robotern angewiesen, um in oftmals unwegsamem Gelände arbeiten zu können. Wie die Zusammenarbeit zwischen Tauchern und Robotern möglichst reibungslos und effektiv ablaufen kann, ist Gegenstand des EU-Projekts "CADDY", an dem Andreas Birk, Professor für Elektrotechnik und Informatik an der Jacobs University, mit seinem Team maßgeblich beteiligt ist. Bislang mussten Roboter mit Kabeln verbunden werden, damit sie entsprechende Signale mit Befehlen entgegen nehmen und darauf reagieren können. Die Forscher um Andreas Birk wollen das jetzt ändern. Hierfür haben sie ein spezielles 3D-Wahrnehmungssystem entwickelt und nun erfolgreich getestet.

Unterwasser-Roboter 'ARTU' - © Prof. Andreas Birk / Jacobs University
UW-Roboter 'ARTU' - © Prof. Andreas Birk / Jacobs University

Der Unterwasser-Roboter "Artu" vom italienischen Projektpartner Consiglio Nazionale delle Ricerche (CNR) wurde vom Forscherteam mit einer Stereokamera mit eigener Verarbeitungs- und Auswertungseinheit ausgestattet, die ihm ermöglicht, die Zeichensprache des menschlichen Tauchers zu verstehen und umzusetzen. Um trotz der für Mensch und Technik schwierigen Gegebenheiten den Taucher sowie insbesondere seine Hände erfassen und erkennen zu können, ist das 3D-System des Roboters mit robusten low-level Softwarekomponenten ausgestattet, die in Echtzeit die Bilder verarbeiten und die relevanten Körperteile erkennen und verfolgen. Damit der Roboter die Anordnung der Hände bei der Zeichensprache interpretieren kann, hat die Jacobs Robotics Group spezielle high-level Softwarekomponenten entwickelt, die aus der Anordnung der Finger, Hände und Arme einzelne Zeichen wie auch längere Sequenzen von Kommandos erkennen. So kann ein Taucher dem Roboter zum Beispiel signalisieren, dass er ein Foto eines Objekts anfertigen, ihm folgen oder auftauchen soll. Auch komplexere Anweisungen sind möglich wie etwa der Befehl, eine Karte über eine bestimmte Fläche zu erstellen.

Eine große Herausforderung für die Forschung sind naturgemäß die Sichtverhältnisse unter Wasser. Die verwendeten Algorithmen müssen sehr robust sein, das bedeutet, sie müssen auch noch mit qualitativ minderwertig und teilweise fehlerhaften Daten funktionieren. Gleichzeitig ist eine hohe Verarbeitungsgeschwindigkeit erforderlich, um die Interpretation der Gesten in Echtzeit zu ermöglichen. "Die Feldversuche in Biograd waren sehr erfolgreich", so Andreas Birk, "wir sind sehr stolz, dass unser System zur Erkennung von Taucher-Gesten die ersten Tests unter realen Bedingungen so gut bestanden hat. Das öffnet komplett neue Wege für die Unterwasser-Robotik."

Weitere Informationen: www.jacobs-university.de