Human Centered Design : Künstliche Intelligenz wird ein zentrales HMI-Thema
Aktive Mitgliedschaft erforderlich
Das WEKA PRIME Digital-Jahresabo gewährt Ihnen exklusive Vorteile. Jetzt WEKA PRIME Mitglied werden!
Sie haben bereits eine PRIME Mitgliedschaft?
Bitte melden Sie sich hier an.
Ihr Slogan lautet „Wir verbinden Menschen mit Maschinen.“ Worauf kommt es dabei an, wie verbindet man Menschen und Maschinen?
Arnim Jepsen: Für uns ist der Schlüssel zu innovativen HMIs – Mensch-Maschine-Schnittstellen - die Nutzerzentrierung. Dabei ist es entscheidend ein gutes Verständnis für die Aufgaben, Ziele und Bedürfnisse der Anwender zu entwickeln. Was braucht der Operator, um die Maschine bestmöglich bedienen zu können, in welchen Arbeitszusammenhängen tut er das, was ist die persönliche Motivation? Gerade in der industriellen Automatisierung ist es eine große Chance „Human Centered“ vorzugehen. Nicht zuletzt weil hier ein zentraler Hebel liegt, um dem „Team Mensch & Maschine“ zu besserer Performance zu verhelfen.
Macio gibt es nun seit 20 Jahren. Was waren die Anfänge?
Jepsen: Bereits die Gründungsidee war es durch das Gesamtpaket aus exzellentem UI/UX-Design und Software Engineering zur Entwicklung erstklassiger Produkte beizutragen. Heute haben wir ergänzende Standbeine, um diese Idee auch umfassend in moderne Produktlandschaften einzubringen. Dazu gehören auch Beratungsleistungen rund um Digitalisierung und Innovation, sowie vielfältige technologische Expertisen von Low-level embedded bis zu vernetzten Cloud-Systemen und KI-Lösungen.
Höhere Komplexität und sinkende Ausbildungsgrade
Was hat sich an der Mensch-Maschine-Schnittstelle stärker verändert: Die Anforderungen bei den Anwendungen, oder die zur Verfügung stehende Technologie? Und was hat die Weiterentwicklung stärker getrieben?
Jepsen: Die Anforderungen. Wir erleben eine ständige Erhöhung der Komplexität, es wird mehr Effizienz verlangt, bei gleichzeitig immer weniger Personen, die mehr Maschinen bedienen. Wir erleben auch dass die Ausbildungsgrade der Maschinenbediener sinken, weniger Fachpersonal zur Verfügung steht. Das führt dazu das man niederschwellig komplexe Maschinenwelten bedienen können muss. Technologie als Lösung ist dabei nie ein Selbstzweck, oder sollte es nicht sein. Beispiel: Augmented Reality. Eine Zeitlang hat man geglaubt, wir werden überall AR-Brillen zum Einsatz bringen. Doch es hat sich gezeigt, dass AR in ausgesuchten Anwendungsfälle eine fantastische Lösung ist – in anderen Fällen diese Technologie nicht zum Alltag passt.
AR war offenbar nicht die zentrale Lösung, an die viele geglaubt haben. Warum ist es so schwierig, eine Lösung zu finden, mit der alle zufrieden sind?
Jepsen: One-Size-Fits-All Lösungen sind immer ein Kompromiss. Besonders in komplexen HMI-Welten, in denen beispielsweise verschiedene Bedienergruppen gemeinsam an einem System arbeiten, ist es ratsam die Rollen individuell zu betrachten. Ein Top-Experte braucht etwas anderes an die Hand, als ein Nutzer mit rudimentären Ansprüchen und Kenntnissen. Die passgenaue Adressierung mündet in einer vielfach höheren Effizienz in der Bedienung und nicht zuletzt hohen Zufriedenheit der Anwender.
Sie unterscheiden zwischen UI-Design und UX-Design. Was ist der Unterschied, und warum ist der wichtig?
Jepsen: Die User Experience, UX, ist genau diese gerade genannte Zufriedenheit. Es geht um das gesamte Bedienerlebnis, dass ein Anwender bei der Interaktion mit einem Produkt hat. Dieses Erlebnis basiert darauf die richtige Funktionalität in der richtigen Weise anzubieten. Verstanden zu haben welche Bedienabläufe benötigt werden und diese so zu konzipieren, dass sie zielführend und zufriedenstellend sind. Dazu braucht es unter anderem ein fundiertes Verständnis für die abzubildenden Prozesse.
Das User Interface Design, also UI, ist Mittel zur Erreichung einer guten User Experience. Hier liegt die Betrachtung vor allem auf der Ausgestaltung der - oft grafischen – Benutzerschnittstelle. Wie „verpacke“ ich meine Bedienabläufe so in einem Screendesign, dass eine gute Usability, und natürlich auch ein attraktives Erscheinungsbild, erreicht wird. Da spielt das gestalterische Handwerk eine große Rolle. Das UI-Design trägt also nur einen Teil zu einer herausragenden User Experience bei.
One-Size-Fits-All Lösungen sind immer ein Kompromiss.Arnim Jepsen, macio
Künstliche Intelligenz und Natural User Interfaces
Welche technologischen Trends sind für Sie derzeit besonders relevant?
Jepsen: Künstliche Intelligenz wird ein zentrales Thema. Wir gehen in Richtung mitdenkender Systeme, die antizipieren wie sie dem Operator bestmöglich unter die Arme greifen und ihn proaktiv unterstützen können. Was muss ich als System dem Bediener im nächsten Schritt anbieten, basierend auf einer kontinuierlichen Bewertung des aktuellen Jobs, des Anlagenstatus, der Umgebungsparameter, …?
Darüber hinaus werden HMIs nicht mehr nur visuell sein. Sogenannte Natural User Interfaces (NUI) werden als Ergänzung zu reinen Graphical User Interfaces (GUI) verstärkt aufkommen. Da werden alle Sinne genutzt, zum Beispiel Sprache, Gesten, haptisches Feedback.
Sie sprechen Sprachsteuerung an: Sehen Sie dafür eine Zukunft? Gerade in lauten Werkshallen hat es sich als schwierig herausgestellt, damit zu arbeiten.
Jepsen: Technisch lässt sich dem begegnen, etwa mittels Noise Cancelling. Aber Sie haben recht, wir machen die Beobachtung, dass der richtige Anwendungsfall sorgsam ausgewählt werden will. Zwischen einfachen Sprachkommandos wie „Maschine Start / Stop“ am einen Ende und ausgewachsenen, intelligenten Dialogsystemen am anderen Ende, gibt es einen großen Lösungsraum. Es wird nicht das eine Voice Interface geben. Vielversprechend sind Systeme, die auf der cleveren Kombination mit anderen Technologien basieren. Denkbar ist etwa die sprachgestützte Auswahl des nächsten Maschinenauftrags, gepaart mit visuellem Feedback und intuitiver Editiermöglichkeit per Smart Device.
Ein anderer Trend, der auch von Ihnen heuer vorgestellt wurde, sind holografische Bedienelemente. Wo kann diese Technologie sinnvoll angewendet werden?
Jepsen: Für uns ist das derzeit ein spannendes Forschungsfeld. Die Technologie hat Stärken, sie macht zum Beispiel berührungslose Interaktion – auch mit Handschuhen – möglich. Zu berücksichtigen ist dabei, dass den Bedienern das Feedback fehlt, eine Taste gedrückt zu haben. Meine persönliche Einschätzung ist, dass holografische Bedienelemente unter anderem im medizinischen Bereich Einsatz finden werden.
Mehrmaschinenbedienung, Safety and Security
Mehrmaschinenbedienung wird immer wichtiger. Worauf kommt es dabei an?
Jepsen: Der Operator wird verstärkt als Überwacher vom modularen Leitstand aus agieren. Hier ist Entscheidungsunterstützung, durch entsprechende Informationsaufbereitung und Visualisierungen wichtig. Komplexe Zusammenhänge müssen situativ passend und schnell erfassbar aufbereitet werden. Auf dem Shopfloor zeigen sich mobile oder abgesetzte Bedienlösungen als hilfreiche Werkzeuge. Kombiniert mit Indoor-Lokalisierung können dem Anwender ortsabhängig Informationen zur Verfügung gestellt werden. Ein Beispiel: Am vorderen Maschinenteil werden dem Wartungsmitarbeiter ohne weiteres Zutun die hier notwendigen Maintenance-Aufgaben angeboten, am hinteren Maschinenteil automatisch die dortigen. Das kann sogar so weit gehen, dass der Mitarbeiter die kürzesten Wege zwischen verschiedenen Aufgaben vorgeschlagen bekommt, um Zeit zu sparen.
Mehrmaschinenbedienung und der Trend zu modularen Anlagen stellen größere Anforderungen an Safety and Security. Wie lässt sich das übers HMI lösen?
Jepsen: Das beginnt bei der Betrachtung, inwieweit es wünschenswert und sinnvoll ist, dass jemand via Remote Control übers Handy die Maschine aus der Kantine fernsteuern kann. Hier können Fangradio via Bluetooth oder aktives Einchecken via NFC angewandt werden. Bei sicherheitskritischen Anwendungen wird es weiterhin klassische Lösungen wie Beidhandbedienung geben, dann zeitgemäß durch Verfahren wie Kameratracking oder Gestenerkennung unterstützt.
Beim Thema Security steht Awareness im Vordergrund: Wie mache ich dem Anwender klar, ob ein System korrumpiert sein könnte, und helfe ihm bei der Entscheidung? Via HMI können wir ihm mitteilen, worauf er achten muss, ob vielleicht schon etwas auffällig ist im System. Auch hier wird das Zusammenspiel zwischen unterstützender KI als Security Agent und dem Bediener stärker werden.
Als Lösung für den Personalmangel und die Effizienzanforderungen werden zunehmend Assistenzsysteme für Einschulung und Unterstützung der Bediener gesehen. Teilen Sie das?
Jepsen: Absolut. Für uns sind Assistenzsysteme bereits heute Teil vieler Bedienanwendungen. Gute UI-Lösungen helfen beim Onboarding der Bediener, machen ihn mit den Funktionen vertraut, und eröffnen ihm parallel zur Lernkurve progressiv mehr Anwendungsmöglichkeiten. Auch Hilfe-Systeme sind integriert, damit Anwender unmittelbar Lösungen für auftauchende Probleme finden. Diese Mechanismen gibt es längst, und die braucht es im HMI auch. Assistenzsysteme sind für mich eine Teilfunktion der Bediensysteme selbst. Das wird wichtig, da wir – gerade im globalen Kontext – verstärkt erleben, dass ein Maschinenführer auch als Quereinsteiger, ohne viel Einschulung zu seinen Aufgaben befähigt werden muss. Gutes UX-Design ist da die erste Lösung.
Entdecken Sie jetzt
- Lesen
- Videos
-
Über den Gesprächspartner
Arnim Jepsen hat einen Master in Interaction Design and Technologies der Universität Göteborg. Nach Berufserfahrungen in Forschungseinrichtungen und der Innovationsabteilung von VW ist er seit 9 Jahren als Head of User Experience Design bei macio für die Gestaltung des Bedienerlebnisses verantwortlich.