18.11.2020

Auch Softes fest im Griff

Die durch den Berufsverband IEEE veröffentlichte Studie zu KI-Roboterhand-Forschungen am FZI zeigt, wie erfolgreich Spiking Neural Networks gestützte Systeme das Greifen verschiedener Objekte lernen.

Am 24. Oktober veröffentlichten die renommierten IEEE Robotics and Automation Letters die auf FZI-Forschungen beruhende Studie „Soft-grasping with an anthropomorphic robotic hand using spiking neurons“ von Juan Camilo Vasquez Tieck, Katharina Secker, Jacques Kaiser, Arne Rönnau und Professor Dr. Rüdiger Dillmann. Das IEEE-Webportal Spectrum griff die spannenden Studienergebnisse am 6. November zudem in einem Beitrag auf, in dem FZI-Forscher Vasquez Tieck detaillierter über die erreichten Ergebnisse spricht.

Die Studie beschäftigt sich mit anthropomorphen Greifern, deren Greiffähigkeiten durch Künstliche Intelligenz weiterentwickelt und auf den Prüfstand gestellt wurden.

Im Verlauf der Evolution erlangte der Mensch weitreichende Greiffähigkeiten dank eines ausgereiften neuronalen Netzwerkes, das die flexible Hand mit Fingern, Gelenken und Tastsinn steuert. Die Greifbewegungen des Menschen können sich so schnell adaptieren, dass auch bewegende oder sich verformende Objekte in der Nähe problemlos greifbar sind. Gerade für Roboter, die mit für Menschen geformten Objekten interagieren, ist das sanfte Greifen eine wichtige Fähigkeit. Doch Objekte wie Schwämme zu greifen, gelingt KI-gelenkten, anthropomorphen Roboterhänden nicht mühelos. Die Programmierung von humanoiden Robotern erweist sich als äußerst komplex, so Vasquez Tieck. Konventionelle Robotersysteme bzw. klassische Programmiermethoden seien hier nicht zielführend.

Spiking Neural Networks als Königsweg fürs Greifen

Die Verwendung von Spiking Neural Networks (SNN), gepulsten neuronalen Netzen, die das biologische System physikalisch imitieren, ist für die FZI-Forscher ein vielversprechender Weg. Ein Robotersystem, das sich auf SNN stützt, trainiert zunächst sein künstliches neuronales Netz, um Objektbewegungen besser modellieren zu können und greift dann Objekte autonomer und passt seine Reaktion in Echtzeit an die Bewegung an.

In der Studie lernte eine Roboterhand Objekte unterschiedlicher Form und Härte mit drei verschiedenen Greifbewegungen aufzunehmen. Dazu wurde nicht wie oft üblich ein 2-Finger- oder speziell angefertigte Greifer verwendet, sondern eine Schunk SVH 5-Finger-Hand. Angesteuert wurde der Greifer von einem SNN, welches sich aus mehreren Teilnetzwerken zusammensetzt. Je ein Subnetzwerk steuert einen Finger und weitere drei für je eine Art der verwendeten Greifbewegungen. Für jeden Finger erkennt ein neuronaler Schaltkreis den Kontakt mit einem Objekt. Dadurch ausgelöst wird der Controller aktiviert und es wird reguliert wie viel Kraft ein Finger ausübt. So werden generische Greifbewegungen an Gegenstände mit unterschiedlichen Formen, Steifigkeiten und Größen angepasst, ohne dass die Roboterhand zuvor die Eigenschaften kennt – ob Plastikflasche, Gummiente, Luftballon oder Stift.

Der nächste Schritt: Integration des visuellen und haptischen Feedbacks für mühelose Adaption

In einem nächsten Schritt sollen für die Verbesserung des Greifprozesses auch visuelle Informationen von ereignisbasierten Kameras (dynamic vision sensor (DVS)) einbezogen und die Roboterbewegungen in das SNN integriert werden. Auch haptische Sensoren werden zunehmend eine Rolle spielen. Ein langfristiges Ziel ist es für die Forscher, dass das Roboter-System, das Greifen ähnlich wie der Mensch durchführen kann, ohne dass eine intensive Planung der Kontaktpunkte oder Stabilitätsanalysen vorausgehen müssen.Vielmehr kann das System vor allem anhand von Gelerntem und gemachten Erfahrungen greifen. Das visuelle und haptische Feedback soll die mühelose Anpassung an Objekte ermöglichen.

Weitere spannende Robotik-Arbeiten am FZI

Zu Juan Camilo Vasquez Tieck ist mehr in einem Video auf dem FZI-Youtube-Channel zu erfahren: dort berichtet er, was für ihn die Forschungsarbeit mit Robotern am FZI so interessant macht.

Zur Person

Juan Camilo Vasquez Tieck