Home | english  | Impressum | Datenschutz | Sitemap | KIT

Kontakt
Karlsruher Institut für Technologie
Lehrstuhl für Interaktive Echtzeitsysteme

Prof. Dr.- Ing. Jürgen Beyerer
c/o Technologiefabrik
Haid-und-Neu-Str. 7
76131 Karlsruhe

Tel:  +49 721 - 608 45910
Fax: +49 721 - 608 45926

Willkommen am Lehrstuhl für Interaktive Echtzeitsysteme

IES

Prof. Dr.-Ing. J. Beyerer

Aktuell

*Die ASB Vorlesung am Montag 23.12.19 findet nicht statt.

 

Klausur Automatische Sichtprüfung und Bildverarbeitung

Die schriftliche Prüfung im Fach ASB wird am Montag, 24.02.2020 - 14:00 bis 16:00 Uhr in Hörsaal Gerthsen stattfinden.

Klausur Mensch-Maschine-Wechselwirkung
•    Schriftlich Prüfung: Prüfungsdauer 60 Minuten, Gesamtdauer 90 Minuten
•    Ort: Gaede-Hoersaal
•    Termine:
        o    31. März 2020, 11 Uhr (Anmeldung über Campus-Management bis 24. März)
        o    29. Juli 2020, 11 Uhr (Nachholtermin, Anmeldung über Campus-Management bis 22. Juli)

Probabilistiche Planung

Bitte beachten Sie, dass die Vorlesung Probabilistische Planung nicht länger angeboten wird. Die Unterlagen zur letzten Vorlesungsreihe finden sie hier.

Neue Adresse

Der Lehrstuhl ist an einen neuen Standort in der Technologiefabrik umgezogen.

Lehrbuch zur Mustererkennung

Am 11. Dezember 2017 erschien das Lehrbuch "Beyerer, Richter, Nagel: Pattern Recognition: Introduction, Features, Classifiers and Principles". Weitere Information finden Sie auf der Seite des De Gruyter Verlags.

Vorlesungsangebot
Das Vorlesungsangebot des Lehrstuhls finden Sie hier.

Lehrbuch zur Automatischen Sichtprüfung
Am 30. September 2012 erschien das Lehrbuch "Beyerer, Puente León, Frese: Automatische Sichtprüfung, Grundlagen, Methoden und Praxis der Bildgewinnung und Bildauswertung". Weitere Information finden Sie auf der Lehrbuch-Seite oder auf der Seite vom Springer-Verlag.

Karlsruher Zentrum für Materialsignaturen
Der Lehrstuhl für Interaktive Echtzeitsysteme hat sich mit anderen Instituten des KIT und dem Fraunhofer IOSB zum Karlsruher Zentrum für Materialsignaturen KCM zusammengeschlossen. Weitere Informationen finden Sie auf der Seite des KCM.

Bachelor-, Master-, Studien- und Diplomarbeiten zu vergeben: Weitere Informationen finden Sie hier.

 
 
Visuelle Odometrie: Bildgestützte Bestimmung der Eigenbewegung über Grund
Typ:

Diplomarbeit

Betreuer:

Prof. Dr.-Ing. Jürgen Beyerer
Dipl.-Math. Günter Saur

Status:

abgeschlossen

Abgabedatum:

Februar 2007

Eine entscheidende Aufgabe von autonomen Agenten, wie z.B. Fahrzeugen auf dem Mars oder intelligenten Lenkflugkörpern, ist ihre Lokalisierung bzw. die Bestimmung ihrer Bewegung in einer unbekannten Umgebung. In dieser Arbeit werden für diese Aufgabe bildgestützte Verfahren zur Berechnung der Eigenbewegung eines Einkamerasystems bei bekannter und fester Kalibrierung untersucht. Die untersuchten Verfahren basieren auf der Berechnung der relativen Kameralage aus Punktkorrespondenzen von Bildmerkmalspaaren aufeinanderfolgender Bilder. Untersucht werden ein 8-Punkt-Verfahren, eine LM-Minimierung des Sampson-Fehlers, ein 5-Punkt- und ein Homographie-basiertes Verfahren. Dabei werden anhand von Simulationen und realen Bildfolgen die Eigenschaften, die Einsatzmöglichkeiten und die erreichbare Genauigkeit dieser Verfahren untersucht. Der Schwerpunkt der Untersuchungen liegt auf den Verfahren zur Berechnung der relativen Kameralage. Bei den Simulationsexperimenten werden zwei Szenarien untersucht, die einem Bodeneinsatz und einem existierenden Flugsystem entsprechen. Dabei wird der Einfluss der Szenentiefe, des Rauschens im Bild, des Translationsbetrages und der Kameraneigung auf die Translations- und Rotationsfehler der ermittelten Bewegungschätzung untersucht. Für die Auswertung realer Bildfolgen wurde eine Verarbeitungskette implementiert, die die Bildmerkmalsextraktion, die Bildmerkmalszuordnung und die Berechnung der relativen Kameralage umfasst. Anhand von Untersuchungen des Bildflusses konnte hergeleitet werden, welche Kamerabewegungen besser als andere aus Punktkorrespondenzen bestimmt werden können. Diese Ergebnisse werden durch die Auswertung einer realen Bildfolge bestätigt. Aus diesen Untersuchungen konnten Empfehlungen für die optimale Kameraorientierung abgeleitet werden, die die zuverlässigste Bewegungsschätzung ermöglicht. Bei der Auswertung einer realen Bildfolge, die mit einer IR-Kamera während eines Helikopterfluges aufgezeichnet wurde, konnte gezeigt werden, dass die bildgestützten Verfahren die Kamerabewegung bei dieser Bildfolge gut bestimmen können, obwohl die Kamera ein kleines Sichtfeld hat und während des Fluges ständig geneigt und geschwenkt wurde. Aus den Untersuchungen dieser Arbeit wurde ersichtlich, dass das 5-Punkt-Verfahren unabhängig von der Szenentiefe in den meisten Fällen eine verlässliche Bewegungsschätzung ermöglicht. Jedoch konnte auch gezeigt werden, dass das LM-Verfahren bei einer großen Szenentiefe und das Homographie-basierte Verfahren für eine planare Szene die Kamerabewegung vergleichbar oder deutlich besser als das 5-Punkt-Verfahren ermitteln.