In diesem Beitrag wird die automatische relative Orientierung zwischen den Kameras und den Laserscannern eines Mobile Mapping Systems untersucht. Dadurch entfällt einerseits der Zeitaufwand einer manuellen Kalibrierung. Zugleich wird damit, aufgrund der Vielzahl von Bildern, erreicht, dass die Kalibrierparameter trotz Fehler in der GNSS/INS-Trajektorie mit ausreichender Genauigkeit geschätzt werden können.
Dazu wird die Zuordnung von Intensitätsbildern (aus der Punktwolke) zu optischen Bildern (der
Kameras) mittels Interestpunkten vorgenommen. Als Interestpunkte dienen SURF-Features, welche sowohl in den Scandaten anhand der Intensitätsbilder als auch in den optischen Bildern extrahiert werden. Anhand der bekannten 3D-Koordinaten der Interestpunkte wird die Orientierung der Kamera mittels Rückwärtsschnitt bestimmt. Hieraus ergibt sich in Verbindung mit der bekannten Orientierung des Systems zum Aufnahmezeitpunkt die relative Orientierung zwischen Kamera und Laserscanner. Diese wird über mehrere Standpunkte berechnet, um Fehler in der GNSS/INS-Trajektorie auszugleichen.
Der Beitrag erläutert die Vorgehensweise und zeigt die Ergebnisse, welche mit einem RIEGL VMX-250-CS6 Mobile Mapping Datensatz der Innenstadt von Hannover erzielt wurden.
