Auch wenn es nicht allzu spektakulär aussieht, aber das hier ist ein Meilenstein der Robotik und KI - es ist das erste Mal, dass es einem Roboter in einer Sportart gelingt, mit einem Menschen gleichzuziehen und sie stellenweise sogar zu besiegen.
In einer Studie der KI-Schmiede Google DeepMind, die die Forscher:innen bereits auf Arxiv zur Verfügung gestellt haben, berichtet das Team von 29 Spielen gegen menschliche Gegner mit unterschiedlichem Leistungsniveau. Davon gewann der Roboterarm 13 Spiele mit einem 3D-gedruckten Schläger. Der Tischtennisroboter konnte zwar alle menschlichen Gegner auf Anfängerniveau schlagen und sich gegen 55 Prozent der Spieler auf Amateurniveau durchsetzen. Gegen fortgeschrittene Spieler hatte er jedoch keine Chance. Highlights von Spielen und Spiele in voller Länge haben die Forscher in Video zur Verfügung gestellt.
„Noch vor wenigen Monaten dachten wir, dass der Roboter realistischerweise nicht in der Lage sein würde, gegen Menschen zu gewinnen, gegen die er noch nie gespielt hatte. Das System hat unsere Erwartungen bei weitem übertroffen“, sagt Pannag Sanketi, Software-Ingenieur bei Google DeepMind, der das Projekt leitete. „Die Art und Weise, wie der Roboter selbst starke Gegner ausmanövriert hat, war beeindruckend“.
Aber wie bringt ein Tischtennis spielender Roboter die Menschheit voran? Die Idee ist, dass Roboter auf diese Weise (besser) lernen, nützliche Aufgaben in realen Umgebungen wie Wohnungen und Lagerhallen präzise und sicher auszuführen - das lange verfolgte Ziel der Robotik.
Die Forscher:innen stellten einen Datensatz von Tischtennisballzuständen zusammen, einschließlich Daten zu Position, Spin und Geschwindigkeit. Das System nutzte diese Bibliothek in einer simulierten Umgebung, die die Physik eines Tischtennisspiels genau widerspiegelt, um Fähigkeiten wie das Zurückschlagen eines Aufschlags, das Schlagen eines Vorhand-Topspins oder eines Rückhandschlags zu erlernen. Allerdings mit einer Einschränkung: Da der Roboter aufgrund seiner „Physis“ den Ball nicht selbst aufschlagen konnte, wurden die realen Spiele entsprechend angepasst.
Lernen beim Spielen
Während der Spiele gegen Menschen sammelt der Roboter Daten über seine Leistung, um sein Spiel zu verbessern. Mithilfe von zwei Kameras behält er den Ball im Auge. Der Spielstil des menschlichen Gegners wird durch ein Motion-Capture-System erfasst, das LEDs am Schläger des Gegners verwendet. Die Balldaten werden in die Simulation zurückgespielt, sodass eine kontinuierliche Feedbackschleife entsteht.
Dieses Feedback ermöglicht es dem Roboter, neue Fähigkeiten auszuprobieren, um seinen Gegner zu besiegen, d.h. er kann seine Taktik und sein Verhalten wie ein Mensch anpassen. Das bedeutet, dass er sowohl während eines Spiels als auch mit der Zeit, je mehr Spiele er spielt, immer besser wird.
Der Roboterarm hatte vor allem dann Probleme, den Ball zu treffen, wenn dieser zu schnell war, sich außerhalb seines Sichtfeldes befand (mehr als 1,80 Meter über dem Tisch) oder sehr tief auf den Roboter zukam, da er laut Protokoll Schläge vermeiden sollte, die den Tischtennisschläger beschädigen könnten. Auch mit rotierenden Bällen hatte die Maschine ihre Schwierigkeiten: Der Roboter konnte den Drall nicht direkt messen - was die fortgeschrittenen Gegner schnell herausfanden und als Vorteil für sich nutzten.