QBIIK greift mit Hilfe von neuartigen Sensoren
Mit QBIIK soll ein System entwickelt und erprobt werden, das die Technologie autonomer Systeme mit den Fähigkeiten des Menschen nutzbringend verbindet: Das dezentral gesteuerte Fahrzeug orientiert sich selbst im Raum, navigiert autonom zum Ziel und greift nach der benötigten Ware.
Falls das System aufgrund von unbekannten Verhältnissen die Ware dennoch nicht erkennen oder greifen kann, fordert es menschliche Unterstützung an. Mit einem Mensch-Maschine-Interface (engl.: Human-Machine-Interface, HMI), das per Cloud angebunden ist, wird die räumliche Distanz überbrückt, so dass der Bediener – für kurze Zeit – die Kontrolle übernehmen und den Erkennungs- und Greifprozess durchführen kann. QBIIK lernt dabei vom Menschen und führt die Arbeitsschritte in Zukunft selbständig durch.
Dieses Forschungs- und Entwicklungsprojekt wird mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) innerhalb des Technologieprogramms "PAICE Digitale Technologien für die Wirtschaft" gefördert und vom Projektträger „Informationstechnologien / Elektromobilität“ im Deutschen Zentrum für Luft- und Raumfahrt, Köln betreut.
QBIIK soll eine einfache und kostengünstige Inbetriebnahme und Integration durch den Anwender ermöglichen. Hierfür sollen Lokalisierungs- und Navigationsmethoden entwickelt werden, die sich möglichst an natürlichen Landmarken orientieren. Hierbei werden von 3D-Sensoren erfasste Daten genutzt, um eine Karte zu erstellen. Statt langwieriger Inbetriebnahmephasen durch den Hersteller soll QBIIK durch den Anwender selbst in Betrieb genommen und bei Bedarf angepasst werden.
Ziel ist die Entwicklung von Lokalisierungs- und Navigationsalgorithmen, die die Nutzung kostengünstiger bildgebender Sensorik zulassen. QBIIK soll als autonom agierende Logistik-Instanz Änderungen in der Umgebung selbst erfassen. Der Austausch von Kartenmaterial untereinander ermöglicht kollaborative Planung und dynamische Reaktionen auf Änderungen.
In QBIIK soll ein multimodaler Sensor entwickelt werden, der Berührungen kraftauflösend erfasst und das annähern von Objekten detektieren kann. Mehrere Sensoren bilden zusammen eine künstliche Haut, mit der der Manipulator bzw. der Greifer flächendeckend ausgekleidet wird. Insbesondere für den Greifer werden Szenario spezifische Auslegungen konzipiert und aufgebaut. Die Industrietauglichkeit wird ein Schwerpunkt der Entwicklung sein, im Sinne der mechanischen Robustheit und der Rauschbeständigkeit.
Im Gegensatz zu herkömmlichen Assistenzsystemen, bei denen die Maschine für die Bereitstellung von entschei-dungsrelevanten Informationen für den Menschen verantwortlich ist, soll die Assistenzfunktion im Projekt QBIIK dem Menschen zugeschrieben werden. Ziel ist die Entwicklung einer Remote-Assistance Schnittstelle, die in Abhängigkeit der verwendeten Hardware, zugeschnittene Aufgaben an Bediener verteilt. Hierbei sollen zum einen der Einsatz von gängigen Technologien wie Tablets und PC-Workstations untersucht werden, zum anderen stellt der industrielle Einsatz von neuen Technologien im Augmented Reality (AR) und Virtual Reality (VR) Bereich ein Hauptziel von QBIIK dar.
Autonom greifende Systeme bergen eine Vielzahl von Problemen, wie die Objekterkennung oder die Greifpunktbe-stimmung. Für beides müssen Klassifikatoren mit einer Vielzahl von Testdaten trainiert werden. Beim Betrieb stellen sich zwei Probleme: Nicht klassifizierte Objekte, also unbekannte Artikel, und falsch klassifizierte Objekte, also Artikel die nicht erkannt werden. Beides wird mithilfe der Remote-Assistance gelöst. Erwünscht wäre nicht nur das Problem zu lösen, sondern zu verhindern. Hierfür werden die Daten der Remote-Assistance: was wird gegriffen, wie wird gegriffen, usw. benutzt, um bestehende Klassifikatoren zu verbessern und neue zu erstellen. So wird einerseits das System robuster und andererseits wird das Systemkönnen stetig erweitert, ohne den Betrieb zu unterbrechen. Somit passt sich das System automatisch an eine sich stetig ändernde Artikelpalette an.