free html5 templates












Features


Autonome Navigation

QBIIK navigiert autonom und selbstständig im Raum


Autonomes Greifen mit taktilen Näherungssensoren

QBIIK greift mit Hilfe von neuartigen Sensoren


Mensch - Maschine - Schnittstelle


Virtual-Reality Fernleitstand erlaubt direkte Steuerung


Lernen


QBIIK lernt aus seinen Herausforderungen

Mit QBIIK soll ein System entwickelt und erprobt werden, das die Technologie autonomer Systeme mit den Fähigkeiten des Menschen nutzbringend verbindet: Das dezentral gesteuerte Fahrzeug orientiert sich selbst im Raum, navigiert autonom zum Ziel und greift nach der benötigten Ware. 

Während des Greifvorgangs wird die Autonomie des Roboters mit verschiedenen Sensoren unterstützt: Neben der Verwendung einer 3D-Kamera erkunden taktile Näherungssensoren die Umgebung des Manipulators und gewährleisten ein kollisionsfreies Greifen bzw. Ablegen. 

Falls das System aufgrund von unbekannten Verhältnissen die Ware dennoch nicht erkennen oder greifen kann, fordert es menschliche Unterstützung an. Mit einem Mensch-Maschine-Interface (engl.: Human-Machine-Interface, HMI), das per Cloud angebunden ist, wird die räumliche Distanz überbrückt, so dass der Bediener – für kurze Zeit – die Kontrolle übernehmen und den Erkennungs- und Greifprozess durchführen kann. QBIIK lernt dabei vom Menschen und führt die Arbeitsschritte in Zukunft selbständig durch.

Partner

BÄR Automation GMBH

STILL GMBH

AUDI Sport GMBH

Karlsruher Institut für Technologie (KIT)

Institut für Fördertechnik und Logistiksysteme (IFL)

Institut für Intelligente Prozessautomation und Robotik (IPR)



Dieses Forschungs- und Entwicklungsprojekt wird mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) innerhalb des Technologieprogramms "PAICE Digitale Technologien für die Wirtschaft" gefördert und vom Projektträger „Informationstechnologien / Elektromobilität“ im Deutschen Zentrum für Luft- und Raumfahrt, Köln betreut.

Autonome Navigation

QBIIK soll eine einfache und kostengünstige Inbetriebnahme und Integration durch den Anwender ermöglichen. Hierfür sollen Lokalisierungs- und Navigationsmethoden entwickelt werden, die sich möglichst an natürlichen Landmarken orientieren. Hierbei werden von 3D-Sensoren erfasste Daten genutzt, um eine Karte zu erstellen. Statt langwieriger Inbetriebnahmephasen durch den Hersteller soll QBIIK durch den Anwender selbst in Betrieb genommen und bei Bedarf angepasst werden.
Ziel ist die Entwicklung von Lokalisierungs- und Navigationsalgorithmen, die die Nutzung kostengünstiger bildgebender Sensorik zulassen. QBIIK soll als autonom agierende Logistik-Instanz Änderungen in der Umgebung selbst erfassen. Der Austausch von Kartenmaterial untereinander ermöglicht kollaborative Planung und dynamische Reaktionen auf Änderungen.

Autonomes Greifen mit taktilen Näherungssensoren

In QBIIK soll ein multimodaler Sensor entwickelt werden, der Berührungen kraftauflösend erfasst und das annähern von Objekten detektieren kann. Mehrere Sensoren bilden zusammen eine künstliche Haut, mit der der Manipulator bzw. der Greifer flächendeckend ausgekleidet wird. Insbesondere für den Greifer werden Szenario spezifische Auslegungen konzipiert und aufgebaut. Die Industrietauglichkeit wird ein Schwerpunkt der Entwicklung sein, im Sinne der mechanischen Robustheit und der Rauschbeständigkeit. 

Mensch - Maschine - Schnittstelle

Im Gegensatz zu herkömmlichen Assistenzsystemen, bei denen die Maschine für die Bereitstellung von entschei-dungsrelevanten Informationen für den Menschen verantwortlich ist, soll die Assistenzfunktion im Projekt QBIIK dem Menschen zugeschrieben werden. Ziel ist die Entwicklung einer Remote-Assistance Schnittstelle, die in Abhängigkeit der verwendeten Hardware, zugeschnittene Aufgaben an Bediener verteilt. Hierbei sollen zum einen der Einsatz von gängigen Technologien wie Tablets und PC-Workstations untersucht werden, zum anderen stellt der industrielle Einsatz von neuen Technologien im Augmented Reality (AR) und Virtual Reality (VR) Bereich ein Hauptziel von QBIIK dar.

Lernen

Autonom greifende Systeme bergen eine Vielzahl von Problemen, wie die Objekterkennung oder die Greifpunktbe-stimmung. Für beides müssen Klassifikatoren mit einer Vielzahl von Testdaten trainiert werden. Beim Betrieb stellen sich zwei Probleme: Nicht klassifizierte Objekte, also unbekannte Artikel, und falsch klassifizierte Objekte, also Artikel die nicht erkannt werden. Beides wird mithilfe der Remote-Assistance gelöst. Erwünscht wäre nicht nur das Problem zu lösen, sondern zu verhindern. Hierfür werden die Daten der Remote-Assistance: was wird gegriffen, wie wird gegriffen, usw. benutzt, um bestehende Klassifikatoren zu verbessern und neue zu erstellen. So wird einerseits das System robuster und andererseits wird das Systemkönnen stetig erweitert, ohne den Betrieb zu unterbrechen. Somit passt sich das System automatisch an eine sich stetig ändernde Artikelpalette an.