Programmierbare Beleuchtungssysteme in der automatischen Sichtprüfung
- Contact:
- Project Group: Sichtprüfsysteme
Projektbeschreibung
Neben der Aufnahmeoptik spielt die Beleuchtung eine zentrale Rolle bei der Bilddatengewinnung für die automatische Sichtprüfung. Geeignete Beleuchtungsparameter ermöglichen es, robuste Merkmale aus Bildern oder Bildserien des Prüfobjektes zu gewinnen und so die anschließende Mustererkennung und Bildauswertung effizient zu gestalten. Wie dabei systematisch Parameter gewählt werden können um möglichst aussagekräftige Informationen über ein Prüfobjekt zu gewinnen, ist ein aktuelles Forschungsthema im Bereich des Maschinellen Sehens.
Am Lehrstuhl für Interaktive Echtzeitsysteme werden in Zusammenarbeit mit der Abteilung Sichtprüfsysteme (SPR) des Fraunhofer-Institutes für Informations- und Datenverarbeitung (IITB) programmierbare Beleuchtungssysteme entwickelt und untersucht, die eine variable Bildgewinnung- und Verarbeitung mit verschiedenen Beleuchtungsparametern ermöglichen. Als Lichtquelle dienen hier digitale Videoprojektoren, die in den letzten Jahren durch fallende Preise und neue Technologien (z. B. LED-Projektoren mit langer Lebensdauer) auch für den industriellen Einsatz attraktiv geworden sind. Durch Kopplung mit einer Kamera zu einem Projektor-Kamera-System können damit programmierbare Beleuchtungssystem realisiert werden, deren emittiertes Lichtfeld rechnergesteuert kontrolliert werden kann.
Ziel des Projektes ist es, die Möglichkeiten programmierbarer Beleuchtungssysteme für eine robuste Merkmalsextraktion zu erforschen und im Rahmen konkreter Aufgabenstellungen der automatischen Sichtprüfung experimentell umzusetzen. Das nachfolgende Beispiel soll den Nutzen eines solchen Beleuchtungssystems für die automatische Sichtprüfung verdeutlichen. Mit Hilfe eines Videoprojektors kann ein angepasstes Lichtfeld erzeugt werden, welches den Sollzustand eines Prüfobjektes möglichst „neutralisiert“. Durch diese inverse Beleuchtung besitzt das von der Kamera aufgenommene Bild ein besonders einfaches Aussehen und die Bildauswertung kann auf effiziente und schnelle Algorithmen beschränkt werden. Dies bietet vor allem bei Anwendungen Vorteile, bei denen eine echtzeitfähige Bildauswertung benötig wird.
Beispiel einer inversen Beleuchtung. Links: zu prüfendes Objekt. Mitte: inverse Beleuchtung. Rechts: resultierendes Kamerabild.
Title | Authors | Source |
---|---|---|
Reflectance Modeling in Machine Vision: Applications in Image Analysis and Synthesis | Gruna, R.; Irgenfried, S. | Solari, F.; Chessa, M.; Sabatini, S. (eds.), Machine Vision - Applications and Systems, pp. 227-246, InTech, 2012. |
Optical feature extraction with illumination-encoded linear functions | Gruna, R.; Beyerer, J. | Bingham, P. R.; Lam, E. Y. (eds.), Image Processing: Machine Vision Applications V, Proc. SPIE, vol. 8300, 2012. |
Acquisition and Evaluation of Illumination Series for Unsupervised Defect Detection | Gruna, R.; Beyerer, J. | Proc. IEEE Instrumentation and Measurement Technology Conference, pp. 192-197, 2011. |
Ein objektangepasstes Beleuchtungsverfahren für die automatische Sichtprüfung | Gruna, R.; Beyerer, J. | Puente León, F.; Heizmann, M. (eds.), Forum Bildverarbeitung, pp. 313-324, KIT Scientific Publishing, 2010. |
An Illumination Device for the Acquisition of Image Series under Variable Illumination Directions | Gruna, R. | Technical report IES-2010-10. In: Beyerer, J.; Huber, M. (eds.), Proceedings of the 2010 Joint Workshop of Fraunhofer IOSB and Institute for Anthropomatics, Vision and Fusion Laboratory, Karlsruher Schriften zur Anthropomatik, vol. 7, pp. 135-150, KIT Scientific Publishing, 2010. |
On Scene-Adapted Illumination Techniques for Industrial Inspection | Gruna, R.; Beyerer, J. | Proc. IEEE Instrumentation and Measurement Technology Conference, pp. 498-503, 2010. |
An Inverse Illumination Technique for Automated Visual Inspection | Gruna, R. | Technical report IES-2009-05. In: Beyerer, J.; Huber, M. (eds.), Proceedings of the 2009 Joint Workshop of Fraunhofer IOSB and Institute for Anthropomatics, Vision and Fusion Laboratory, pp. 63-77, KIT Scientific Publishing, 2009. |