Flächenhafte Messmethoden wie Laserscanning und (Stereo-)Photogrammetrie gewinnen im Bereich geodätischer Überwachungsmessungen zunehmend an Bedeutung. Jedes dieser Verfahren birgt dabei individuelle Vor- und Nachteile bei der Erfassung von Objektbewegungen. In 3D-Punktwolken von Laserscannern sind Bewegungen in Blickrichtung einfach identifizierbar. Das Erkennen von Bewegungen senkrecht zur Blickrichtung des Scanners ist hingegen nur unter bestimmten Bedingungen möglich. Im Gegensatz dazu besitzen hochaufgelöste Bilder die größte Sensitivität für Objektbewegungen senkrecht zur Blickrichtung und zeigen Schwächen bei reinen Distanzänderungen. Mit der hier vorgestellten Fusionierung von Bild- und Laserscandaten zu sogenannten RGB+D-Bildern lassen sich die Schwächen der Einzelsysteme für die Deformationsanalyse beheben und die Vorteile vereinen. Dazu wird die 3D-Punktwolke in einen Tiefenkanal (D) umgewandelt und mit dem Farbbild (RGB) verschmolzen. In den kombinierten RGB+D-Bildern kann jedes Pixel direkt in 3D-Koordinaten umgerechnet werden. Die notwendige relative Orientierung zwischen Scanner und Kamera ist sowohl im Voraus durch eine sorgfältige Kalibrierung der Sensoren als auch nachträglich aus den Messdaten selbst bestimmbar. Durch das Auffinden korrespondierender Punkte in den RGB+D-Bildern aufeinanderfolgender Messepochen ist die direkte Bestimmung von 3D-Verschiebungsvektoren möglich. Diese Ergebnisse können in eine strenge Deformationsanalyse mit Signifikanztest eingebunden werden. Korrespondierende Punkte zwischen den Epochen lassen sich über etablierte Bildverarbeitungsalgorithmen ermitteln. Bekannte Vertreter zur Extraktion von Bildmerkmalen sind z. B. der SIFT-Algorithmus oder der binäre Deskriptor BRISK. Diese Algorithmen beschreiben den zu untersuchenden Bildausschnitt über numerische Werte, welche epochenübergreifend verglichen und einander zugeordnet werden können. Die kombinierte Auswertung wird an einem künstlichen Versuchsaufbau detailliert beschrieben und mit herkömmlichen Methoden zur Auswertung von Laserscandaten verglichen. Es zeigt sich, dass die Ergebnisse des vorgestellten Ansatzes leichter und klarer zu interpretieren sind und Scheindeformationen vermieden werden. Es lassen sich Daten unterschiedlichster Aufnahmesysteme – wie z.B. moderner scannender Totalstationen, Mobile-Mapping-Systemen, UAV oder Roboterplattformen – auswerten und ihr volles Potenzial für die Deformationsanalyse nutzen.