Roboter Justin greift intuitiv wie ein Mensch

Roboter Justin greift intuitiv wie ein Mensch und bewegt geschickt Gegenstände in der Hand. (Bild: DLR)

Der Demo-Roboter "Agile Justin" weiß, wie er Gegenstände richtig greift – sogar wenn er sie noch nicht kennt. Der humanoide Roboter kann Dinge in der Hand auch in jede gewünschte Richtung drehen – ohne dabei hinzusehen. Für Menschen ist das alltäglich, für Roboter extrem schwierig. Ein Team vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) hat jetzt Robotern diese hochkomplexen Fähigkeiten beigebracht. Dazu haben die Wissenschaftlerinnen und Wissenschaftler lernende künstliche Intelligenz (KI) eingesetzt und so einen Durchbruch in der KI-Robotik erzielt.

Agile Justin greift Gegenstände mit seiner vierfingrigen Hand
Agile Justin greift Gegenstände mit seiner vierfingrigen Hand (Bild: DLR)

Agile Justin ist mit Sensoren in seinen beiden vierfingrigen Roboterhänden ausgestattet: Damit „ertastet“ er Gegenstände. Seine Fähigkeiten hat er kürzlich auf der Messe automatica unter Beweis gestellt. Fingerfertigkeit gilt in der Robotikforschung als große Herausforderung. „Durch neue Verfahren der lernenden künstlichen Intelligenz ist es erstmals gelungen, mit der mechatronisch hochentwickelten DLR-Hand Fähigkeiten zu zeigen, die an die menschliche Fingerfertigkeit heranreichen: Insbesondere das blinde Drehen und Manipulieren von Objekten mit der nach unten offenen Hand war eine Herausforderung“, sagt Prof. Berthold Bäuml vom DLR-Institut für Robotik und Mechatronik in Oberpfaffenhofen. Berthold Bäumls KI-Forschung treibt den humanoiden Roboter Justin seit Jahren voran: Justin fängt zum Beispiel Bälle, die ihm zugeworfen werden, oder erkennt Materialien, indem er sie mit den Fingern abtastet. Jetzt hat die selbstständig lernende KI Justins Fähigkeiten entscheidend erweitert.

„Objekt drehen ist gut. Objekt fallen lassen ist schlecht“

Die Wissenschaftlerinnen und Wissenschaftler nutzen das sogenannte Deep Reinforcement Learning. Das heißt, Justin lernt selbstständig, was richtig und falsch ist. In dieser Anwendung heißt das zum Beispiel: „Den Gegenstand in Richtung des Ziels zu drehen ist gut” und „Den Gegenstand fallen zu lassen ist schlecht“. Das maschinelle Lernen von Fertigkeiten dauert in einer Simulation nur zwei bis drei Stunden. Dann beherrscht Justin die Aufgabe. Die Bewegungsstrategie für die Finger entwickelt er durch Ausprobieren, ähnlich wie ein Mensch. „Der Roboter kann seine Lösungen dann direkt in der realen Umgebung umsetzen. Selbst wir Forscher sind oft überrascht. Die Möglichkeiten unserer neuen lernenden KI-Methoden sind faszinierend“, sagt Berthold Bäuml.

Tausende Beispiele für zehntausende Dinge

Darüber hinaus ist eine weitere Premiere in der KI-Robotik gelungen: Justin greift mit seiner mehr fingrigen Hand nach beliebigen Gegenständen. Hier haben die Forscher zwei wesentliche Probleme mit KI gelöst. Aus 50.000 Beispielen hat der Roboter ein sogenanntes „Foundational Model“ gelernt, mit dem er von der sichtbaren Vorderseite auf die Form der Rückseite schließen kann. Justin hat also ein Verständnis für 3D-Formen erworben. Zweitens kann Justin eine optimale Handhaltung finden und seine insgesamt zwölf Fingergelenke entsprechend einstellen. Menschen greifen intuitiv. Um diese Intuition auch auf den Roboter zu übertragen, wurde eine weitere KI mit Tausenden von Beispielen für Zehntausende von Objekten gefüttert. „Die Berechnung hat einige Tage gedauert. Aber jetzt kann der Roboter in Sekundenbruchteilen den richtigen Griff abrufen“, erklärt Berthold Bäuml. Auf der automatica hat Justin seine Fingerfertigkeit bereits mit Gegenständen aus dem Publikum unter Beweis gestellt.

„Die Arbeiten zur KI-gestützten geschickten Manipulation stellen weltweit einen wissenschaftlichen Durchbruch dar. Noch nie waren Roboter-Hände in der Lage, eine so große Vielfalt von Objekten so schnell und präzise zu manipulieren. Der Erfolg war nur durch die Kombination neuester KI-Methoden mit modellbasierten methodischen Ansätzen und langjähriger Robotik-Erfahrung möglich“, sagt Prof. Alin Albu-Schäffer, Direktor des DLR-Instituts für Robotik und Mechatronik. „Bisher ging man oft davon aus, dass man sehr große Datenmengen benötigt, um Roboterhänden den geschickten Umgang mit Objekten beizubringen. Im Gegensatz zu Daten für große Sprachmodelle sind Experiment-Daten in der Robotik, selbst wenn sie durch Simulation erzeugt werden, sehr teuer. Das DLR-Forschungsteam hat nun einen Weg gefunden, weniger Daten zu benötigen, indem es mehr Robotik-Wissen und eine neue Lernarchitektur nutzt. So kann das Team diese Modelle auch auf einfachen Computern trainieren und benötigt keine großen Cluster.

Chancen für die industrielle Produktion und die Pflege

Der nächste große Schritt der Robotik könnte in der industriellen Fertigung erfolgen. Mehr fingrige Roboterhände könnten hochkomplexe und kleine Teile montieren, wenn sie die flexible und intelligente Manipulation von Grund auf beherrschen. Daran arbeiten DLR-Forscherinnen und -Forscher zum Beispiel im Projekt „SmartHand“.

Auch in der Pflege sind Roboterassistenten ein Thema. Sie könnten in Zukunft Pflegekräfte entlasten und Menschen mit Einschränkungen wieder mehr Selbstständigkeit im Alltag ermöglichen. Auch dafür sind die im DLR erarbeiteten Fähigkeiten zur intelligenten Manipulation grundlegend. Zum Beispiel, wenn es darum geht, Tassen, Schüsseln, Dosen oder andere unterschiedlich geformte Haushaltsgegenstände sicher zu greifen.

Sie möchten gerne weiterlesen?