Mensch-Maschine-Interaktion

Mensch-Maschine-Interaktion in stationären Anwendungen

Im Zuge des zunehmenden Informationsangebots wird in vielen Anwendungsbereichen die Datenvisualisierung auf immer mehr und großflächigere Anzeigen räumlich verteilt. Beispiele hierfür sind Lagezentren und industrielle Leitwarten oder auch Besprechungsräume, in denen unterschiedliche Informationskanäle zusammen fließen und zum Teil mehreren Menschen interaktiv zur Verfügung gestellt werden.
Herkömmliche Eingabegeräte wie Maus und Tastatur sind für die Interaktion in solchen Interaktionsräumen aus mehreren Gründen nicht geeignet. Einerseits ist die Erfassung von Eingaben meist auf einen Benutzer beschränkt, andererseits lassen sich meist nur speziell angeordnete Anzeigen (z. B. Doppelmonitorsysteme) damit gut bedienen. Um eine ergonomisch gute Interaktion in verteilten Displayumgebungen u. U. durch mehrere Benutzer gleichzeitig zu ermöglichen, werden in diesem Projekt geeignete neuartige Eingabegeräte und -techniken entwickelt.

 

Mensch-Maschine-Interaktion in mobilen Anwendungen

Mittlerweile rückt die Mensch-Maschine-Interaktion weiter in den Bereich mobiler Anwendungen vor. In naher Zukunft wird es kopfgetragene brillenähnliche Augmented-Reality (AR) Systeme geben, die von einer Vielzahl von Anwendungen dazu genutzt werden, den Benutzer mit visuellen oder akustischen AR-Inhalten derart zu versorgen, dass sie als nützliche Information in der jeweiligen Situation dienen. Dabei besteht die Herausforderung in der Auswahl und Anpassung dieser AR-Inhalte. Hierzu soll die Analyse des Blickverhaltens weiterhelfen, um für den Benutzer relevante Objekte der Umgebung zu erkennen. Des Weiteren soll eine Handgestenerkennung für mobile Anwendungen entwickelt werden, um dem Nutzer die Möglichkeit der Interaktion mit dem System und AR-Inhalten zu ermöglichen.