Welche Vorteile bringt das gegenüber dem SLAM-Verfahren?
Bei Visual-SLAM kommen bis zu acht Kameras zum Einsatz, die deutlich mehr Umgebungscharakteristiken erfassen können. Es stehen dadurch wesentlich mehr Bildpunkte zur Verfügung, und mit deren Zahl erhöht sich auch die Güte und Stabilität der Selbstlokalisierung. Dies erschließt einen bislang unerreichten Genauigkeitsbereich von unter 1 cm. Die erhöhte Präzision resultiert auch aus der geringeren Beeinflussbarkeit der Visual-SLAM-Methode durch Dynamiken, denen die in Bodennähe arbeitenden LiDAR-Systeme bauartbedingt ausgesetzt sind. Störende Einflüsse wie Füße, Beine, Werkzeugwägen oder Paletten müssen hier zunächst rechnerisch eliminiert werden, um einen möglichst statischen Kontext für die Kartenerstellung zu erhalten. Ab einer bestimmten Obergrenze ist das aber nicht mehr möglich.
Stellt die zusätzliche dritte Dimension beim Visual-SLAM nicht ebenfalls gesteigerte Anforderungen an die Rechenleistung?
In der Tat erfordern die permanent erzeugten Multikamera-Bildfolgen der Visual-SLAM-Methode eine deutliche höhere Rechenkapazität als die 2D-Verfahren. Um die generierte 3D-Punktwolke auf ein überschaubares Maß zu bringen, sind spezielle Algorithmen erforderlich. Hier sind wir in der aktuellen Version technologisch ein großes Stück vorangekommen.
Was bedeutet das konkret und inwiefern grenzt sich die von ABB eingesetzte Visual-SLAM-Technologie von anderen Systemen im Markt ab?
Die bisherigen Visual-SLAM-Algorithmen und darauf aufbauende Lösungen wurden hauptsächlich zur Lokalisierung herangezogen. Inzwischen nutzen wir nun neue Algorithmen, die eine deutlich effizientere Bild-Fusion ermöglichen. Die Überblendung der Kamerabilder zur Generierung des räumlichen Abbilds wird dabei ganz maßgeblich durch KI-Methoden unterstützt, um die Robustheit und Güte der Ergebnisse zu erhöhen. Das Ergebnis ist eine dem menschlichen Vorbild entlehnte natürliche Navigation zwischen zwei Punkten inklusive Pfadplanung und Kollisionsvermeidung.