Drohnenforscher der TU Delft haben sich von Erkenntnissen inspirieren lassen, wie Ameisen ihre Umgebung visuell erkennen und dies mit dem Zählen ihrer Schritte kombinieren, um sicher nach Hause zu kommen. Sie haben diese Erkenntnisse genutzt, um eine autonome Navigationsstrategie für winzige, leichte Roboter zu entwickeln.
Diese Strategie ermöglicht es solchen Robotern, nach langen Strecken wieder nach Hause zu kommen. Dabei wird extrem wenig Rechenleistung und Speicherplatz benötigt. Eingesetzt werden könnten die winzigen autonomen Roboter für ein breites Spektrum an Aufgaben, von der Überwachung von Lagerbeständen bis zur Suche nach Gaslecks in Industrieanlagen.
Bleiben Sie informiert
Diese Themen interessieren Sie? Mit unserem Newsletter sind Sie immer auf dem Laufenden. Gleich anmelden!
Winzige Roboter für viele Anwendungen
Winzige Roboter mit einem Gewicht von einigen Dutzend bis einigen hundert Gramm haben das Potenzial für interessante Anwendungen in der realen Welt. Durch ihr geringes Gewicht sind sie extrem sicher, selbst wenn sie versehentlich mit jemandem zusammenstoßen. Da sie klein sind, können sie auch in engen Bereichen navigieren. Und wenn sie billig hergestellt werden können, können sie in größerer Zahl eingesetzt werden, so dass sie schnell ein großes Gebiet abdecken können, zum Beispiel in Gewächshäusern zur Früherkennung von Schädlingen oder Krankheiten.
Es ist jedoch schwierig, solche winzigen Roboter autonom zu betreiben, da sie im Vergleich zu größeren Systemen nur über äußerst begrenzte Ressourcen verfügen. Ein großes Hindernis ist, dass sie in der Lage sein müssen, selbst zu navigieren. Hierfür können die Roboter auf externe Infrastrukturen wie etwa GPS-Satelliten zurückgreifen. Oft ist es jedoch nicht wünschenswert, sich auf eine solche Infrastruktur zu verlassen. GPS ist in Innenräumen nicht verfügbar und kann in Umgebungen wie etwa Straßenschluchten sehr ungenau werden.
Die KI, die für eine autonome Navigation nur mit bordeigenen Ressourcen erforderlich ist, wurde für große Roboter wie selbstfahrende Autos entwickelt. Einige Ansätze stützen sich auf schwere, stromfressende Sensoren wie LiDAR (Light Detection and Ranging), die von kleinen Robotern einfach nicht getragen werden können. Andere Ansätze nutzen sehr detaillierte 3D-Karten der Umgebung. Dies erfordert große Mengen an Rechenleistung und Speicherplatz.
Autonome Navigation mit einfachen Mitteln
Um diese Hürde zu überwinden, haben sich Forschende an der TU Delft in den Niederlanden von der Natur inspirieren lassen. Insekten sind besonders interessant, da sie über Entfernungen operieren, die für viele reale Anwendungen relevant sein könnten, und dabei sehr knappe Sensor- und Verarbeitungsressourcen nutzen.
Dazu kombinieren Insekten die Verfolgung ihrer eigenen Bewegung (Odometrie) mit visuell gesteuerten Verhaltensweisen, die auf ihrem niedrig auflösenden, aber nahezu omnidirektionalen visuellen System basieren (Blickgedächtnis). Während die Odometrie - quasi das Zählen von Schritten - gut erforscht ist, sind die Mechanismen, die dem Blickgedächtnis zugrunde liegen, noch weniger gut bekannt.
Eine der Theorien, wie dies funktioniert, geht von einem "Schnappschuss"-Modell aus. Es wird vermutet, dass ein Insekt wie eine Ameise gelegentlich Schnappschüsse von seiner Umgebung macht. Später, wenn es in der Nähe des Schnappschusses ankommt, kann das Insekt seine aktuelle visuelle Wahrnehmung mit dem Schnappschuss vergleichen und sich bewegen, um die Unterschiede zu minimieren. Auf diese Weise kann das Insekt zum genauen Standort des Schnappschusses navigieren, wodurch die Drift beseitigt wird, die sich unweigerlich einstellt, wenn nur Odometrie durchgeführt wird.
Anleihen bei Hänsel und Gretel
"Die Navigation auf der Grundlage von Schnappschüssen ist vergleichbar mit dem Märchen von Hänsel und Gretel. Wenn Hänsel Steine auf den Boden warf, konnte er nach Hause zurückkehren. In unserem Fall sind die Steine die Schnappschüsse", sagt Tom van Dijk, Erstautor der Studie. "Wie bei einem Stein muss der Roboter nahe genug am Ort des Schnappschusses sein, damit der Schnappschuss funktioniert."
Wenn sich die visuelle Umgebung zu sehr von der Position des Schnappschusses unterscheidet, bewegt sich der Roboter möglicherweise in die falsche Richtung und kommt nicht mehr zurück. "Daher muss man genügend Schnappschüsse verwenden", so Van Dijk. Andererseits führt bei einem Roboter die Verwendung zu vieler Schnappschüsse zu einem hohen Speicherverbrauch.
"Unsere Haupterkenntnis ist, dass man Schnappschüsse viel weiter auseinander halten kann, wenn der Roboter zwischen den Schnappschüssen auf der Grundlage der Odometrie fliegt", sagt Guido de Croon, Professor für bioinspirierte Drohnen und Mitautor des Artikels, "Homing funktioniert, solange der Roboter nahe genug am Ort des Schnappschusses landet, also solange die Odometrie-Drift des Roboters in den Einzugsbereich des Schnappschusses fällt."
Diese Strategie ermöglichte es einer 56 Gramm schweren "CrazyFlie"-Drohne, die mit einer Rundumkamera ausgestattet ist, Entfernungen von bis zu 100 Metern mit nur 0,65 Kilobyte Speicherbedarf zurückzulegen. Die gesamte visuelle Verarbeitung erfolgte auf einem einfachen Mikrocontroller, der in vielen billigen elektronischen Geräten zu finden ist.
Das folgende Video zeigt Flugversuche mit der winzigen Drohne:
Guido de Croon: "Die Funktionalität der vorgeschlagenen Strategie ist eingeschränkter als die der modernen Navigationsmethoden. Sie erzeugt keine Karte und erlaubt es dem Roboter nur, zum Ausgangspunkt zurückzukehren. Für viele Anwendungen könnte dies jedoch mehr als ausreichend sein." Bei der Bestandsverfolgung in Lagern oder der Ernteüberwachung in Gewächshäusern könnten Drohnen beispielsweise ausfliegen, Daten sammeln und dann zur Basisstation zurückkehren. Sie könnten einsatzrelevante Bilder auf einer kleinen SD-Karte speichern, um sie auf einem Server nachzubearbeiten.