Kamera-Tracking und Mapping (Master-Thesis)

Zeitraum: 05/2012 - 11/2012    Technik: C++, OpenCV, Qt, libmv, SBA
Beschreibung: Beim Kamera-Tracking wird die relative Kamerapose, dass heißt der Standpunkt und die Ausrichtung der Kamera, zum Raum bestimmt. Dadurch können im nächsten Schritt virtuelle Objekte im Bild platziert werden, um die reale Szene mit zusätzlichen Inhalten zu erweitern. Damit man die Kamerapose für jedes Bild fortlaufend bestimmen kann, wird parallel eine grobe 3D-Karte der Umgebung generiert. Die bekannten 3D-Punkte der Umgebung werden in jedem Bild wiedererkannt. Durch die Informationen welche 3D-Punkte auf welche Pixelkoordinaten abgebildet werden, kann man die Kamerapose bestimmen. Die 3D-Karte wird noch während der Aufnahme erweitert plus optimiert, sodass die Betrachtung der erweiterten Szene aus unterschiedlichen Standpunkten und Blickwinkeln möglich ist. Mehr Details finden Sie in meiner Thesis bei den Downloads.
Herausforderungen: Die größte Herausforderung stellte der hohe Rechenaufwand für das Kameratracking dar. Hierfür musste eine geeignete Lösung gefunden werden, die den Echtzeitanforderungen gerecht wurde und trotzdem ein robustes System garantierte.
Downloads:
Master-Thesis (PDF)

Bilder

Vorschaubild des Projekts Kamera-Tracking. Vorschaubild des Projekts Kamera-Tracking. Vorschaubild des Projekts Kamera-Tracking.

Video