Vom Maschinendisplay zum persönlichen Interface
Im BMWI-Projekt »Appsist« (2014-2016) wurde eine dynamische Tablet-App mit Augmented Reality-Fuktionalität entwickelt. Als wir zu Beginn des Projekts in den Produktionshallen mehrerer Unternehmen unterwegs waren, fiel auf, dass die grafische Mensch-Maschine-Schnittstelle in den allermeisten Fällen ein Display an der Maschine war. Das hätte sich im Laufe des Projekts mit der Tablet-App zumindest teilweise ändern sollen. Da aber nicht alle Shop-Floor-Mitarbeitenden ihr eigenes Tablet hatten, hing dieses am Ende doch wieder an der Maschine. Und dennoch: Seit Jahren ist zu beobachten, wie Smartphones und Tablets zu fancy Fernbedienungen und Dashboards für alle möglichen Maschinen (i.w.S.) werden. Nicht nur in Produktionshallen, auch zuhause: Das betrifft den Staubsaugerroboter oder auch die Waschmaschine. In meinen VW T5 Baujahr 2009 wurde kürzlich ein neues Batterie-Steuergerät eingebaut, das ich per Bluetooth mit einer iOS-App einstellen kann.
Von Smartphone und Tablet zu »Hands-free«
Schon im Appsist-Projekt hatten wir diskutiert, ob wir für die AR-Funktionalität wirklich »nur« ein Tablet und nicht doch eine AR-Brille nutzen wollen. Zu diesem Zeitpunkt war die verfügbare Hardware für die Anwendung noch nicht weit genug. Das war die Zeit der ersten EPSON Moverios und Google Glass. Die erste Microsoft HoloLens kam erst 2016. Diejenigen, die sich an die EPSON Moverio BT-100 oder an Google Glass erinnern, fragen sich vielleicht jetzt, ob diese wirklich als Augmented Reality-Brillen bezeichnet werden können.
XR-Headsets, SmartGlasses und das Dazwischen
Heute, in Zeiten von Produkten wie bspw. Apple Vision Pro und Samsung Galaxy XR auf der einen sowie Meta RayBan und Even G2 auf der anderen Seite, gibt es »XR-Headsets«, »SmartGlasses« und – das ist das Entscheidende: Auch schon Einiges dazwischen. Ein Proof-Of-Concept von Meta zur Weiterentwicklung der Meta RayBan Display zeigt, wie der attraktive Formfaktor von SmartGlasses und die Funktionalität von XR-Headsets, die das Potential hat, Smartphones als One-for-All-Benutzungsschnittstelle abzulösen, zusammenkommen können. Wir sprechen im Team hier von der »Post-Smartphone-Ära«, die eingeläutet wird.
Stellt euch vor mit einer Brille herumzulaufen, die kaum größer ist als eine normale Sonnenbrille und trotzdem alle Smartphone- und AR-Funktionalitäten hat. Wir könnten uns Navigationspfeile dezent in der Brille und trotzdem auf dem Asphalt anzeigen lassen, in der S-Bahn Videos schauen oder uns am Obststand Infos zu jeder Apfelsorte einblenden lassen. Und wir hätten dabei die Hände frei. Die Eingabe erfolgt über Touch, Handgesten oder Sprache (mit voller KI-Konnektivität), oder, wie im Falle der Even G2, über neuartige Eingabegeräte wie einem Ring.
»SmartGlasses als alltagsnahes Interface: Informationen genau dort, wo sie gebraucht werden.« Bildquelle: Bild generiert von Anja Enderle 2026 mit Nano Banana Pro
Metaverse heißt: digitale Informationen dort, wo wir sind
Es werden u. a. solche neuartigen Mensch-Maschine-Schnittstellen sein, die Internet-Virtualität und Realität miteinander verschmelzen lassen. Meine Anwendungsbeispiele oben beziehen sich auf Alltagssituationen. Wenn wir uns wieder an den Shop-Floor eines produzierenden Unternehmens erinnern, sehen wir in solchen Brillen Human-Machine-Interfaces für das Industrial Metaverse. Stellen wir uns vor, dass ein Mitarbeiter der Stadtwerke durch seine Brille sehen kann, wo welche Leitungen im Boden liegen, können wir von einer Urban Metaverse-Anwendung sprechen.
Ausblick: Wenn Inputs noch direkter werden
Und wie geht’s danach weiter? Geht der Trend weiter und die Interfaces kommen uns noch näher? In dieser Blogreihe wird es damit weitergehen, dass Anna Vorreuther über ihre Arbeit mit Brain Computer Interfaces berichtet und darüber, wie in Zukunft jetzt schon die eigenen neuronalen Signale zu Inputs für die Benutzungsschnittstelle werden. Klingt abgefahren? Laut Ray Kurzweil werden wir 2045 mit der KI verschmelzen können, indem wir unsere Gehirne durch Schichten virtueller Neuronen in der Cloud erweitern.
Metaverse, Extended Reality, virtuelle Welten – was steckt eigentlich dahinter? Und wie verändern diese digitalen Räume unsere Arbeitswelt? Die Blogreihe beleutet, wie Unternehmen immersive Technologien gezielt einsetzen – von kollaborativer Produktentwicklung bis zur datenbasierten Entscheidungsunterstützung.
Leselinks:
- »Metaverse – Vielfalt erleben, Innovation gestalten« Kampagne des Fraunhofer IAO mit Veranstaltungen, Angeboten, aktuellen Möglichkeiten
-
Projektseite »APPsist« – Wissens- und Assistenzsysteme in der smarten Produktion
-
Publikation »AUTONOMIK für Industrie 4.0« (PDF; nennt u.a. APPsist)
- Kurzüberblick »Brain-Computer-Interfaces« (Fraunhofer-Publica)