KI-gestützte Roboternavigation: Visual-SLAM-Technologie von ABB setzt neue Maßstäbe

Jan Stefan Zernickel, ASTI Mobile Robotics Copyright: Christian Kielmann
Gefällt mir
Bookmark
Intro

Die autonome Steuerung fahrerloser Transportsysteme (FTS) ist eine Schlüsseltechnologie, die vor allem mit Blick auf die Erfordernisse der Industrie 4.0 von zentraler Bedeutung ist. Doch in „dynamischen Umgebungen“ – also jenseits von speziell für sie reservierten Fahrspuren, hatten fahrerlose Transportfahrzeuge bislang oft Schwierigkeiten, sich zurechtzufinden. Inzwischen eröffnet der Einsatz der sogenannten Visual-SLAM-Technologie den mobilen Robotern aber ganz neue Möglichkeiten. Wie genau das funktioniert – und welche Rolle künstliche Intelligenz (KI) dabei spielt, darüber haben wir mit Jan Stefan Zernickel, Engineering & R&D Director AMR bei ABB Robotics, gesprochen.

Schon heute können Kunden aus dem ABB-Portfolio zwischen verschiedenen autonomen mobilen Robotern (AMR) wählen, die für das Ziehen, Heben und Transportieren von Paletten, Containern und Racks eingesetzt werden können. Wie orientieren sich die Maschinen eigentlich im Raum?

Autonome mobile Roboter bzw. die oft synonym verwendeten AGV-Transportsysteme (autonomous guided vehicles) nutzen verschiedene Methoden zur Lokalisation und Navigation. Für isolierte Bereiche genügen im Prinzip auch einfachere Lösungen wie Ultraschall oder eine durch ein am Boden angebrachtes Magnetband vorgegebene Route. Beim fortschrittlicheren SLAM-Verfahren (simultaneous localization and mapping), das gegenwärtig in den Flexley-Modellen von ABB eingesetzt wird, tastet ein LiDAR-basierter Scanner mittels Laserstrahlen mehrmals in der Sekunde einen Ebenenbereich ab. Die Entfernungsdaten der so gewonnenen Orientierungspunkte werden mit einer im System hinterlegten Umgebungskarte abgeglichen und ermöglichen es dem AMR, seine Position zu bestimmen und anzupassen. Auf diese Weise lassen sich Genauigkeiten in der Größenordnung +/- 1 cm erzielen. Und ab sofort bieten wir das noch einmal deutlich leistungsfähigere Visual-SLAM-Verfahren.

Worin unterscheidet sich die Visual-SLAM-Methode von diesen Lösungen?

Die Visual-SLAM-Technologie arbeitet anstelle eines LiDAR-Scanners mit mehreren Kameras, die dem Roboter eine stereoskopische Wahrnehmung ermöglichen. Im Gegensatz zum zweidimensionalen SLAM-Verfahren werden also nicht nur Punkte auf einer Ebene erfasst, sondern eine 3D-Punktwolke erzeugt.

Welche Vorteile bringt das gegenüber dem SLAM-Verfahren?

Bei Visual-SLAM kommen bis zu acht Kameras zum Einsatz, die deutlich mehr Umgebungscharakteristiken erfassen können. Es stehen dadurch wesentlich mehr Bildpunkte zur Verfügung, und mit deren Zahl erhöht sich auch die Güte und Stabilität der Selbstlokalisierung. Dies erschließt einen bislang unerreichten Genauigkeitsbereich von unter 1 cm. Die erhöhte Präzision resultiert auch aus der geringeren Beeinflussbarkeit der Visual-SLAM-Methode durch Dynamiken, denen die in Bodennähe arbeitenden LiDAR-Systeme bauartbedingt ausgesetzt sind. Störende Einflüsse wie Füße, Beine, Werkzeugwägen oder Paletten müssen hier zunächst rechnerisch eliminiert werden, um einen möglichst statischen Kontext für die Kartenerstellung zu erhalten. Ab einer bestimmten Obergrenze ist das aber nicht mehr möglich.

Stellt die zusätzliche dritte Dimension beim Visual-SLAM nicht ebenfalls gesteigerte Anforderungen an die Rechenleistung?

In der Tat erfordern die permanent erzeugten Multikamera-Bildfolgen der Visual-SLAM-Methode eine deutliche höhere Rechenkapazität als die 2D-Verfahren. Um die generierte 3D-Punktwolke auf ein überschaubares Maß zu bringen, sind spezielle Algorithmen erforderlich. Hier sind wir in der aktuellen Version technologisch ein großes Stück vorangekommen.

Was bedeutet das konkret und inwiefern grenzt sich die von ABB eingesetzte Visual-SLAM-Technologie von anderen Systemen im Markt ab?

Die bisherigen Visual-SLAM-Algorithmen und darauf aufbauende Lösungen wurden hauptsächlich zur Lokalisierung herangezogen. Inzwischen nutzen wir nun neue Algorithmen, die eine deutlich effizientere Bild-Fusion ermöglichen. Die Überblendung der Kamerabilder zur Generierung des räumlichen Abbilds wird dabei ganz maßgeblich durch KI-Methoden unterstützt, um die Robustheit und Güte der Ergebnisse zu erhöhen. Das Ergebnis ist eine dem menschlichen Vorbild entlehnte natürliche Navigation zwischen zwei Punkten inklusive Pfadplanung und Kollisionsvermeidung.

Sie hatten bereits das Thema Industrietauglichkeit angesprochen. Wie sieht es mit der Integrierbarkeit der neuen Visual-SLAM-Funktionalitäten in bestehende Prozesse aus?

Die Technologie ist so ausgelegt, dass sie branchenunabhängig einsetzbar ist, um individuell und kosteneffizient produzieren zu können. Die eben beschriebene Navigationsart muss daher nicht ausschließlich genutzt werden, denn der AMR kann auch einer virtuellen Spur folgen. Das ist zum Beispiel in der Automobilproduktion entscheidend, wo getaktete Prozesse im Vordergrund stehen. Die AMR können somit als elementare Bestandteile von Fertigungen in den unterschiedlichsten Industriebereichen dienen. Das kann etwa durch Milkruns erfolgen, um eine unterbrechungsfreie Produktion sicherzustellen oder als flexible Bindeglieder zwischen mehreren Roboterstationen. So lassen sich auch variable Produktionsabläufe realisieren, die mit stationärer Fördertechnik nur sehr schwierig darstellbar wären.