Home | english  | Impressum | Sitemap | KIT

Interaktionstechniken für Augmented-Reality (AR) Umgebungen

Interaktionstechniken für Augmented-Reality (AR) Umgebungen
Ansprechpartner:

Dipl.-Inform. Jan Hendrik Hammer

Projektgruppe:

Interaktive Analyse und Diagnose

Projektbeschreibung

Kopfgetragene brillenähnliche Augmented-Reality (AR) Systeme (sog. AR-Brillen) sind für eine Vielzahl von Anwendungen von hohem Interesse und die Entwicklung solcher Systeme schreitet weiter voran. Sie bieten die Möglichkeit, Anwendungen zu realisieren, die den Benutzer mit visuellen oder akustischen AR-Inhalten versorgen, welche ihm als nützliche Information in der jeweiligen Situation dienen sollen oder aber sogar seine Entscheidungen und Verhaltensweise beeinflussen können. Die größte Herausforderung besteht in der zweckmäßigen Auswahl und Anpassung dieser AR-Inhalte.


Visuell darstellbare AR-Inhalte werden von oben angesprochenen AR Brillen optisch im Sichtfeld des Benutzers eingeblendet. Diese Methodik wird optical see-through AR genannt. Im Gegensatz dazu gibt es die sogenannte virtual see-through AR, bei der die Umgebung auf einem Display dargestellt wird und visuelle Inhalte in das Bild eingebettet werden. Optical see-through AR bietet den Vorteil, dass die Wahrnehmung der Umgebung ohne Umwege (z.B. über Displays wie bei virtual see-through AR) geschieht, wodurch die freie Bewegung im Raum nicht behindert wird.
Zusätzlich können diese AR-Brillen mit einer Szenenkamera und einer Blickerfassung ausgestattet werden. Über die Szenenkamera kann die Position und Ausrichtung des Kopfes berechnet werden, welche zusammen mit der Blickerfassung und einem 3D-Modell der Umgebung dazu benutzt werden können, die visuell relevanten Objekte im Raum zu bestimmen. Die Erforschung von Verfahren zur 3D-Blickbewegungsmessung und Analyse von Blickmustern soll hier der Auswahl der darzustellenden AR-Inhalte dienen.


Des Weiteren muss in AR-Anwendungen die Möglichkeit der Interaktion mit dem System aber auch AR-Inhalten möglich sein. Da der menschliche Blick zur Wahrnehmung und nicht zur Interaktion vorgesehen ist, wird hierfür die Erkennung von dynamischen Handgesten im mobilen Anwendungskontext untersucht. Die Handbewegungen werden dafür im Sichtfeld der Szenenkamera vor dem Körper des Nutzers durchgeführt.

Veröffentlichungen
TitelAutorenQuelle
Hammer, J. H.; Qu, C.; Voit, M.; Beyerer, J.20th International Conference on Image Processing, Computer Vision, & Pattern Recognition, 2016.
Hammer, J. H.; Voit, M.; Beyerer, J.2016 19th International Conference on Information Fusion (FUSION), S. 1743-1750, 2016.
Maurus, M.; Hammer, J. H.; Beyerer, J.Proceedings of the Symposium on Eye Tracking Research and Applications, S. 295--298, ACM, 2014.
Hammer, J. H.; Maurus, M.; Beyerer, J.Proceedings of the 2013 Conference on Eye Tracking South Africa, ETSA '13, S. 75-78, ACM, 2013.
Hammer, J. H.; Beyerer, J.Human-Computer Interaction. Interaction Modalities and Techniques, S. 252-261, Springer Berlin Heidelberg, 2013.
Maier, S.; Hammer, J. H.Fortschrittliche Anzeigesysteme für die Fahrzeug- und Prozessführung, 2012.