Besucherinnen und Besucher auf der Cebit 2017 erleben unmittelbar, wie Handlungen eines Menschen an einem Ort zu einer direkten Aktion eines Roboters an anderer Stelle führen. Ergänzt wird die Präsentation durch Displays, auf denen die Mixed Reality-Egoperspektive des HoloLens-Trägers dargestellt wird.
Gezeigt wird wie drei baugleiche Roboter auf dem DFKI-Stand (Halle 6, Stand B48) durch einen Operator auf einer Exponatsinsel auf dem benachbarten BMBF-Stand über eine HoloLens-Brille telemanipuliert werden. Ergänzt wird die Präsentation durch die Telemanipulation von zwei Robotern (Universal Robotics UR, MiR 100) via Live-Schaltung in das MRK4.0-Innovationslabor des DFKI am Standort Saarbrücken.
Mit dem Roboter interagieren
Mit Hilfe des Mixed-Reality-Systems ist es möglich, Objekte in einer dreidimensionalen virtuellen Repräsentation des Kollaborationsszenarios in Echtzeit zu manipulieren. Der Benutzer kann dabei mit dem Roboter interagieren, indem er auf die virtuelle Repräsentation des Zielobjekts blickt und durch eine Geste die gewünschte Aktion auslöst.
Zusätzlich demonstriert wird die Telemanipulation in der unmittelbaren Umgebung. Auf der Exponatsinsel am BMBF-Stand (Halle 6, Stand A34) werden drei Roboter – ein ABB Yumi, ein Universal Robotics UR und ein Mobilitätsroboter MiR 100 – zusammen mit dem Operator gemeinsam Aktionen ausführen. Der Operator steuert die Abläufe in einer Mixed-Reality Umgebung (HoloLens) mit Gesten. Die Roboter führen die Befehle aus, greifen und bewegen Objekte auf einem Tisch bzw. einer Ablage, die auf dem Mobilitätsroboter montiert ist. Das Objekt wird so sicher zwischen den Leichtbaurobotern transportiert. Ziel ist die Einübung des fehlerfreien Handlings der Roboter in der Remote-“Gefahrgut”-Situation.
Praktische Einsatzgebiete im Produktions- und Industriekontext sind zum Beispiel Fernwartung, Telepräsenz, Teleproduktion beziehungsweise Teleoperation sowie Mensch-Roboter-Kollaboration. hei