Hunderte Fernerkundungssatelliten liefern täglich wertvolle Aufnahmen unseres Planeten. Jedoch hat jeder Satellitensensor nicht nur die viel gepriesenen Stärken, sondern auch – meist weniger bekannte – Schwächen. Um aus der Fülle an Aufnahmen optimale Informationsprodukte zu generieren, empfiehlt es sich, die Daten verschiedener Sensoren synergetisch zu kombinieren. So lassen sich die Schwächen des einen mit den Stärken des anderen ausgleichen und beispielsweise auch Beobachtungslücken schließen. So mannigfaltig wie die Sensoren sind auch die Ansätze zur Fusion ihrer Aufnahmen auf verschiedenen Ebenen. Dieser Beitrag gibt einen Überblick zu den heutzutage gebräuchlichen Verfahren zur Bilddatenfusion und ordnet die einzelnen Ansätze bezüglich Verarbeitungsebene, Methodik sowie Anwendung in einem dreidimensionalen Diagramm an. Aus jeder Gruppe werden exemplarische Ansätze und ihre Anwendungen vorgestellt und kritisch beleuchtet. Das Beispiel einer Wassermaske aus Sentinel-1 und Sentinel-2 illustriert die unterschiedlichen Fusionsebenen. In Summe ergibt sich ein Leitfaden für den praktischen Einsatz von Bildfusionsmethoden in der Fernerkundung: Wenn bereits adäquate Methoden zum Informationsgewinn aus Einzelaufnahmen vorhanden sind, empfiehlt sich die Fusion auf Entscheidungsebene für die großflächige Anwendung, wobei explorative Studien unbedingt die Informationsfülle auf Pixelebene fusionierter Bilddaten nutzen sollten.