ErgoBot
Dynamische und ergonomische Adaption von Roboterbewegungen an den Menschen in Kollaborations-Szenarien durch maschinelles Lernen und Bewegungsanalyse.
Projektbereich: Intelligente vernetzte Systeme
Cluster: Neue Materialien und Produktionsprozesse
Unternehmensführung und -steuerung
X Intelligente vernetzte Systeme
Innovation in Lehr-/Lernprozessen
X Industrie 4.0 und die Digitalisierung der Lebensbereiche sowie ihre Auswirkungen
Auftraggeber/Mittelgeber: BMWI
Projektträger: AiF
Kooperationspartner: Artiminds
Projektkoordinator: DHBW, Artiminds
Projektleiter
Erzbergerstraße 121, Raum C551
- Telefon:
- +49.721.9735-924
- marcus.strand @dhbw-karlsruhe.de

Mitarbeiter
Erzbergerstraße 121, Raum D324
- Telefon:
- +49.721.9735-623
- silvan.mueller @dhbw-karlsruhe.de

Erzbergerstraße 121, Raum D324

Projektlaufzeit: 01.11.2018-30.04.2020
Projektbeschreibung + Zielsetzung: Ziel dieses FuE-Projektes ist es, einen ersten Software-Prototypen zu entwickeln, der es ermöglicht, in Mensch-Roboter-Kollaboration die Roboter-Kinematiken dynamisch an die Bedürfnisse der Menschen zu adaptieren. Dabei sollen insbesondere die individuellen biomechanischen Eigenheiten, ergonomische und sicherheitstechnische Anforderungen, psychologische Komponenten sowie betriebswirtschafliche Zielgrößen berücksichtigt werden. Eine Optimierung soll mit Hilfe von Methoden maschinellen Lernens erfolgen und sowohl die einzelne Mensch-Maschine-Interaktion als auch die Produktion über den gesamten Tagesverlauf hinweg im Blick behalten. Dabei gilt es, eine geeignete Balance zwischen der Erwartbarkeit der Roboterbewegung und flexibler Adaption zu finden.
Zielgruppe: keine Angaben
Vorgehensweise/Methodik: keine Angaben
Status/Stadium des Projekts: geschlossen
Ansprechpartner: Prof. Dr. Marcus Strand
Publikationen
-
(2018) : Towards a Stair Climbing Robot System Based on a Re-configurable Linkage Mechanism. Proceedings of the 15th International Conference IAS-15 In: Strand, Marcus; Dillmann, Rüdiger; Menegatti, Emanuele; Ghidoni, Stefano (Hg.): Intelligent Autonomous Systems 15: Proceedings of the 15th International Conference IAS-15: Springer International Publishing (Advances in Intelligent Systems and Computing), S. 278-288
-
(2018) : Simulation and Transfer of Reinforcement Learning Algorithms for Autonomous Obstacle Avoidance In: Strand, Marcus; Dillmann, Rüdiger; Menegatti, Emanuele; Ghidoni, Stefano (Hg.): Proceedings of the 15th International Conference IAS-15: 15th International Conference on Intelligent Autonomous Systems IAS-15: Baden-Baden, Germany: Cham: Springer (Advances in Intelligent Systems and Computing)
-
(2018) : Unsupervised Hump Detection for Mobile Robots Based on Kinematic Measurements and Deep-Learning Based Autoencoder In: Strand, Marcus; Dillmann, Rüdiger; Menegatti, Emanuele; Ghidoni, Stefano (Hg.): Proceedings of the 15th International Conference IAS-15: 15th International Conference on Intelligent Autonomous Systems IAS-15: Baden-Baden, Germany: Cham: Springer (Advances in Intelligent Systems and Computing)
-
(2018) : Which deep artificial neural network architecture to use for anomaly detection in Mobile Robots kinematic data? In: ML4CPS – Machine Learning for Cyber Physical Systems and Industry 4.0: Proceedings of the Conference Machine Learning for Cyber Physical Systems and Industry 4.0 ML4CPS Fraunhofer IOSB: 5th Conference on Machine Learning for Cyber Physical Systems: Karlsruhe: 2018. ML4CPS – Machine Learning for Cyber Physical Systems and Industry 4.0
-
(2017) : I Believe I Can Fly—Gesture-Driven Quadrotor Control Based on a Fuzzy Control System In: Chen, Weidong; Hosoda, Koh; Menegatti, Emanuele; Shimizu, Masahiro; Wang, Hesheng (Hg.): Intelligent Autonomous Systems 14: Proceedings of the 14th International Conference IAS-14, 531: Cham: Springer International Publishing (Advances in Intelligent Systems and Computing), S. 177-184
DOI: https://doi.org/10.1007/978-3-319-48036-7_13 Abstract: Conventionally, drones and robots are controlled using joysticks and remote controls. Here is a new idea: to approximate the feeling of “being the bird”, we introduce 3D fly-gestures and add VR-technology to stimulate our eyes. We chose a quadrotor and the combination of a Kinect, Virtual Reality Glasses and a Fuzzy-Controller as interface for processing instructions.