Startseite » M2M-Kommunikation/HMI »

Intuitive Bedienkonzepte für Werkzeugmaschinen im Trend

Eine vereinfachte Mensch-Maschine-Interaktion
Intuitive Bedienkonzepte für Werkzeugmaschinen

Intuitive Bedienkonzepte für Werkzeugmaschinen
Intuitive Bedienkonzepte wie Wearables erleichtern die Steuerung von Maschinen und machen das Arbeiten effizienter und produktiver Bild: ra2 studio/Fotolia.com
Werkzeugmaschinen werden immer komplexer. Maschinenbediener verlangen daher nach intuitiven Steuerungskonzepten wie sie bei Smartphones oder Tablets üblich sind. Im Angebot sind Multitouch-Panels, Virtual oder Augmented Reality, Gestensteuerung oder auch Spracherkennung. Viele Ansätze kommen aus der Spielewelt und selbst an der Steuerung von Maschinen via Gedankenkraft arbeiten Forscher und Unternehmen bereits. Der Nutzen für Anwender ergibt sich durch eine vereinfachte Mensch-Maschine-Interaktion.

Johannes Gillar, stellvertretender Chefredakteur elektro AUTOMATION

Inhaltsverzeichnis

1. Steuern mit Gedanken und Biosignalen
2. „Visualisierungen sind oft Vorreiter“
3. Gesten- und Multitoucheingaben de facto Standard
4. Augmented Reality erleichtert Arbeit
5. Mensch-Maschine-Interaktion vereinfachen

 

Maschinen mithilfe von Gedankenkraft steuern – reine Science Fiction? Nicht unbedingt: Zwar gibt es noch keine praxistauglichen Technologien, über die man auf diese Weise beispielsweise eine Werkzeugmaschine bedienen oder steuern kann. Doch Forscher erproben diesbezüglich bereits erste Ansätze. So beschäftigen sich Experten des Robotics Innovation Center am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und der Arbeitsgruppe Robotik der Universität Bremen mit der Frage: Wie lassen sich unsere Gedanken für die Interaktion mit Robotern nutzen? Gemeinsam entwickeln sie Schlüsseltechnologien, die sogenanntes echtzeitfähiges und adaptives embedded Brain Reading (eBR) ermöglichen. Dadurch sind Roboter auf Basis der Gehirnaktivitäten des Menschen nicht nur intuitiv und effektiv steuerbar. Die Systeme können zugleich menschliche Gedanken interpretieren und daraus lernen. Genutzt wird dafür die Brain-Computer-Interface-Technologie (BCI). Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potenzialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Forschern entwickelte ganzheitliche Ansatz eBR jedoch noch einen Schritt weiter: Gehirnaktivität lässt sich nicht nur messen, sondern auch interpretieren. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher zum Beispiel bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.

Steuern mit Gedanken und Biosignalen

Auch der Automatisierungsspezialist Festo beschäftigt sich mit dem Thema Gedankensteuerung und entwickelte für das Spiel CogniGame eine kognitive Spielsteuerung basierend auf einem BCI und EEG. Für das Spiel entwickelte das Unternehmen zudem die Softwarelösung CogniWare, die das Steuern des Schlägers mit Gedanken und Biosignalen realisiert. Sie stellt einen Kommunikationskanal zwischen Gehirn und Hardware her, ohne dass der Anwender dabei mittels Sprache oder Eingabegeräten interagieren muss. So werden über das BCI und die Software die Gehirnmuster des Spielers erfasst, verarbeitet und von der Software an die Hardware geleitet.

Tatsächlich nutzen Unternehmen und Forschungsinstitute Technologien aus der Spielewelt, um der zunehmenden Komplexität von Maschinen zu begegnen. Das Institut für Steuerungstechnik der Werkzeugmaschinen und Fertigungseinrichtungen (ISW) in Stuttgart etwa entwickelt flexible und 3D-gestützte Bedienoberflächen. Hierbei werden aktuelle Technologien aus der Spielebranche, wie die Unity3D- oder die Unreal-4-Entwicklungsumgebung, mit den Erkenntnissen aus dem Bereich der Gamification – der Nutzung von Spielmechanismen im Produktiveinsatz – vereint. Das Ergebnis ist ein Bedienkonzept, das auf direkter Interaktion mit dem virtuellen Abbild der Maschine beruht. Beispielsweise lassen sich die Kurvenscheiben für eine Transferpresse mit dem neuen Konzept – ähnlich dem Teach-in-Verfahren bei Robotern – durch direktes Verschieben der virtuellen Achsen programmieren.

„Visualisierungen sind oft Vorreiter“

„Visualisierungen aus der Spielewelt sind oft Vorreiter für die Bedienung von Smartphones. Was sich dort durchsetzt, strahlt in der Regel auf weitere Technologien ab“, ist Hansjörg Sannwald, Leiter Markt- und Produktmanagement CNC-Systeme bei Bosch Rexroth, überzeugt. Man beobachte solche Trends sehr genau und nutze die eigene Anwendungserfahrung bei der Entwicklung von Bedienoberflächen. „Das reicht von virtuellen Reglern über Fortschrittsbalken bis hin zu integrierten Videos als Anleitung für bestimmte Aufgaben“, verdeutlicht er. Auch Siemens beschäftigt sich mit diesem Thema: „Spieletechnologien sind in Form von Physics-Engines schon seit einigen Jahren in unseren Mechatronics Concept Designer eingeflossen“, berichtet Dr. Michael Kaever, Leiter Technology Management bei der Siemens Business Unit Motion Control. Er gibt aber zu bedenken, dass „Gamification häufig auf soziales Ranking setzt, das gemäß Studien nicht zu mehr Arbeitszufriedenheit des Bedieners führt“. Hingegen trage Feedback über den Beitrag zu übergeordneten Zielen sowie Anerkennung und Wertschätzung zu einer höheren Arbeitsmotivation und -zufriedenheit bei. Anregungen aus der Spielebranche seien hier sicherlich sinnvoll.

Das Fraunhofer IOSB-INA – genauer der Institutsteil für industrielle Automation – konzentriert sich in diesem Zusammenhang auf Gestensteuerung. Sascha Jenderny, wissenschaftlicher Mitarbeiter am Institut: „In unserer Entwicklung sind insbesondere die technologischen Möglichkeiten der Gesteninteraktion der Spieleindustrie interessant, welche ursprünglich für Spielekonsolen entwickelt wurden.“ Der Grund: im industriellen Umfeld sind laut Jenderny vor allem die Bedienkonzepte Augmented Reality und Gestensteuerung von primärer Bedeutung. „So nutzt die sich bereits im Einsatz befindliche Assistenzplattform XTEND beispielsweise die Anzeige digitaler Informationen per Projektion, Tablet oder Datenbrille im unmittelbaren Arbeitsumfeld“, verdeutlicht er. Durch Gestensteuerung könne man zudem Arbeitsschritte überprüfen (zum Beispiel Bauteilentnahme) oder neue Interaktionsformen (digitale Buttons) schaffen.

Gesten- und Multitoucheingaben de facto Standard

Für Frank Saueressig, Produktmanager CNC bei Beckhoff Automation in Verl ist Hardware, die Gesten- und Multitoucheingaben ermöglicht, de facto Standard. „Deutlich wird dies angesichts eines Anteils von über 80 % Multitouch-Geräten an den verkauften Beckhoff-Control-Panels. Dies ist ein sehr hoher Anteil einer relativ jungen Technologie, vor allem in Anbetracht der weiter verfügbaren Vorgänger-Produkte mit Singletouch-Sensoren“, betont er. Diese Ansicht teilt Siemens-Experte Kaever, für den Multitouch-Bedienpanels mit Gestensteuerung, die Informationen aus Kameras und CAD-Systemen einbinden, ebenfalls state-of-the-art sind. „Wearables haben es in ersten Pilotanwendungen an die Werkzeugmaschine geschafft: Im BMBF-Projekt MaxiMMI entwickelte Applikationen zur Maschinenstatusanzeige auf einer Smartwatch und zum mobilen Werkzeughandling mittels Tablet haben Maschinenhersteller und Anwender überzeugt“, betont Kaever. Auch Hansjörg Sannwald von Bosch Rexroth geht davon aus, dass sich Multitouch-Panel in der Werkzeugmaschine durchsetzen werden. „Mit Multitouch-Panels können Anwender beispielsweise die Oberflächen individualisieren“, nennt er einen Vorteil der Technologie. „Je nach Berechtigung sehen die Bediener nur die Funktionen, die sie nutzen und auch bearbeiten sollen.“ Die Integration mobiler Endgeräte in solche Konzepte sei ein logischer Schritt. Maschinenbediener und Instandhalter wären damit beispielsweise in der Lage, Diagnoseinformationen unabhängig vom Standort abzurufen. Die Steuerung von realen Bewegungen in der Maschine über mobile Endgeräte werde erst in einem nächsten Schritt folgen. Hier müsse man schon allein aufgrund der Maschinensicherheit zuerst bestimmte Hardware-Funktionen erfüllen. In diesem Zusammenhang bietet Bosch Rexroth Sannwald zufolge etwa einen Funktionsrahmen für handelsübliche Tablet-PCs mit integriertem Not-Aus-Knopf und Zustimmtaster.

Dass Multi-Touch im Bereich der Maschinenbedienung gerade zum Standard wird, davon ist auch Jürgen Siefert, Vice President Industry DACH bei Schneider Electric überzeugt. Der französische Automatisierungsspezialist biete heute schon Multi-Touch Human Machine Interfaces (HMI) für alle Maschinentypen an. Der Maschinenbediener profitiert dabei von der intuitiven Nutzung, die er bereits von seinem Tablet gewöhnt ist, und zahlreichen Komfortfunktionen“, erklärt er. Weniger überzeugt ist er dagegen von Eingabetechnologien wie Gestensteuerung und Spracherkennung. „Sie eignen sich nur begrenzt für industrielle Anwendungen. Die Gestenerkennung ist heute schon recht gut, müsste aber noch ausgereifter sein, um einen zuverlässigen Produktionsablauf zu gewährleisten“, zeigt er sich skeptisch. Bei der Spracherkennung/-eingabe werde es noch komplizierter. Im industriellen Umfeld herrsche ein mitunter extremer Geräuschpegel. Dadurch, so Siefert weiter, „ergeben sich Fragen in puncto Sicherheit: Wie lässt sich sicherstellen, dass ausschließlich die Stimme des Maschinenbedieners erkannt wird? Wie werden fremde Stimmen und Hintergrundgeräusche interpretiert?“ Dagegen bietet das Unternehmen mit seinem EcoStruxure Augmented Operator Advisor eine Augmented-Reality-Lösung (AR) zur Unterstützung von Maschinenbedienern und Servicepersonal an. „Der Clou: Die App, lauffähig auf iOS- und Android-Geräten, muss nicht mehr programmiert werden, sondern lässt sich nach kurzer Einweisung einfach konfigurieren“, betont er. Mit Hilfe der AR-App könne man Schaltschrank, Maschine oder Anlage mit aktuellen Daten und Objekten – in Form von sogenannten Points of Interest – überlagert auf dem Tablet darstellen. Dabei ließen sich auch einzelne Wartungs- und Arbeitsschritte anzeigen. „Dies erleichtert dem Anwender das Handling im Servicefall, reduziert das Fehlerpotenzial und erhöht die Maschinenverfügbarkeit“, nennt er weitere mögliche Vorteile.

Augmented Reality erleichtert Arbeit

Augmented und Virtual Reality (VR) gehören also ebenfalls in die Reihe innovativer Bedientechnologien, die derzeit von Automatisierungstechnikunternehmen und Maschinenbauern erprobt werden. „In Studien konnte Beckhoff zeigen, inwieweit Datenbrillen den Einsatz von Servicetechnikern erleichtern, wenn diese bei der Arbeit direkt an der Maschine auf sämtliche verfügbaren Daten aus dem Kontext der Maschine zugreifen können“, erklärt Fabio Innocenti, Produktmanagement Industrie-PC bei den Verlern. Mit Produkten wie dem Twincat IoT Communicator in Verbindung mit aktuellen Datenbrillen für Augmented Reality biete man die Möglichkeit, den Blick des Bedieners auf die Maschine um zusätzliche Informationen zu ergänzen. Auch außerhalb der Maschine lasse sich AR nutzen, zum Beispiel um die Erweiterung einer Maschinenhalle mit neuen Anlagen zu planen. „Die Nutzung von AR kann sowohl die Effizienz der Arbeit als auch den Komfort durch kognitive Entlastung der Mitarbeiter und Mitarbeiterinnen erhöhen“, ist sich Fraunhofer-Forscher Jenderny sicher. Die Anzeige digitaler Informationen im direkten Sichtfeld fördere zudem eine fokussierte Arbeitsweise, in welcher sich Fehler durch potenzielle Datenbrüche verhindern ließen. Die digitale Darstellung der Arbeitsinhalte ermögliche des Weiteren eine erhöhte Flexbilität im Fall sich ändernder Anforderungen an die Instandhaltung der Maschinen. Für Dr. Michael Kaever von Siemens wird durch Augmented- oder Mixed-Reality-Technologien der Arbeitsplatz insbesondere für Digital Natives attraktiver. „Die Maschinenbediener profitieren, da direkt an der benötigten Stelle dargestellte Informationen Laufwege oder Blickwechsel verringern. Usability-Untersuchungen einer 2D-Lösung aus dem Projekt MaxiMMI zeigen, dass die Bedienung intuitiver und weniger fehleranfällig wird“, argumentiert er. Dennoch befinden sich AR, transparente Displays und Voice User Interfaces seiner Meinung nach noch im Forschungsstadium.

Mensch-Maschine-Interaktion vereinfachen

Ob schon in der Praxis verfügbar noch im Forschungsstadium oder erst ein Gedankenspiel – moderne, intuitive Bedienkonzepte spielen eine immer wichtigere Rolle bei der Steuerung von Werkzeugmaschinen. Denn die steigende Bedien-Komplexität heutiger Werkzeugmaschinen erfordert zwingend neue, innovative Ansätze. Technologien wie sie Nutzer aus der Spielewelt oder von ihren Smartphones und Tablets kennen, helfen dabei die Mensch-Maschine-Interaktion zu vereinfachen, das Arbeiten attraktiver zu machen und dabei gleichzeitig Flexibilität, Effizienz und Produktivität der industriellen Fertigung zu steigern.

www.beckhoff.de

www.boschrexroth.com

www.fraunhofer-owl.de

www.schneider-electric.com

www.siemens.com

Mehr zum Thema embedded Brain Reading (eBR)
hier.pro/DFwVL


„In Studien konnte Beckhoff zeigen, inwieweit Datenbrillen den Einsatz von Servicetechnikern erleichtern.“

Fabio Innocenti, Produktmanagement Industrie-PC, Beckhoff Automation
Bild: Beckhoff

„Im industriellen Umfeld sind insbesondere die Bedienkonzepte Augmented Reality und Gestensteuerung von primärer Bedeutung.“

Sascha Jenderny, Wissenschaftlicher Mitarbeiter, Fraunhofer IOSB-INA
Bild: Fraunhofer IOSB

„Webbasierte Bedienlösungen bieten eine mobile Verfügbarkeit der Informationen und Interaktionen und damit ortsunabhängiges Arbeiten.“

Dr. Michael Kaever, Leiter Technology Management der Siemens Business Unit Motion Control
Bild: Siemens

„Mit Multitouch-Panels können Anwender die Oberflächen individualisieren.“

Hansjörg Sannwald, Leiter Markt- und Produktmanagement CNC-Systeme, Bosch Rexroth
Bild: Bosch Rexroth

„Die Hardware, die Multitouch- und
Gesteneingaben
ermöglicht, ist de facto Standard.“

Frank Saueressig, Produktmanager CNC, Beckhoff Automation
Bild: Beckhoff

„Spracherkennung und Gestensteuerung sind bei Schneider Electric noch kein Thema.“

Jürgen Siefert, Vice President Industry DACH, Schneider Electric
Bild: Schneider Electric


Hier finden Sie mehr über:
Newsletter

Abonnieren Sie unseren Newsletter

Jetzt unseren Newsletter abonnieren

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper

Videos

Hier finden Sie alle aktuellen Videos


Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de