Ein Ziel dieses Projektes war die Entwicklung der Ehlers Fusion, diese steht nun hier zum Download für ERDAS IMAGINE bereit. Die Grundidee einer Spektralwert erhaltenden Bildfusion ist, dass das räumlich höher aufgelöste Bild die Auflösung des geringer aufgelösten multispektralen bzw. hyperspektralen Bildes verbessern soll, ohne neue Informationen und damit Farbveränderungen im Multispektralbild hinzuzufügen. Als Basis der Ehlers Fusion wird daher die IHS (Intensity-Hue-Saturation) Transformation benutzt, da diese Transformation die Farbwerte separiert. Diese Technik wurde erweitert, sodass mehr als nur 3 Spektralbänder genutzt werden können. Zusätzlich wurde eine adaptive Filtermethode entwickelt, die den Effekt der Farbveränderung durch die hoch auflösende Komponente auf ein Minimum reduziert. Eine ideale Fusionsmethode würde die hoch aufgelösten Informationen hinzufügen (wie Kanten, Straßen oder Objekte), ohne die aktuellen Grauwerte der multi- oder hyperspektralen Daten zu verändern. Diese ideale Informationsebene wird durch eine isotrope Filterung im Frequenzraum approximiert. Eine Fouriertransformation (FT) transformiert die Bilder in das Frequenzspektrum (Intensitäts- und Phasenspektrum) . Im Intensitätsspektrum kann die Verteilung der Information der Bildinhalte entlang der räumlichen Frequenzachsen analysiert werden. Dadurch ist es möglich, ein adaptives Filterdesign durchzuführen, welches an den Bildinhalt angepasst ist. Der erste Schritt dieser Fusion ist die Auswahl von zunächst drei Kanälen aus dem geringer aufgelösten Multispektralbild. Diese werden dann mit Hilfe der IHS Transformation vom RGB Farbraum in den IHS (Intensity-Hue-Saturation) Farbraum transformiert. Dadurch wird das Bild in seine räumlichen (I) und spektralen Bestandteile (H und S) zerlegt. Die IHS Transformation ist daher eine optimale Basis für eine Spektralwert erhaltende Fusion. Die Intensitätskomponente (I) wird nun durch eine Fast Fourier Transformation (FFT) in den Frequenzraum überführt. Das hoch aufgelöste Bild wird zunächst an den Grauwertbereich der Intensitätskomponente angepasst und dann ebenfalls in den Frequenzraum überführt. Das Frequenzspektrum wird nun genutzt, um angepasste isotrope Filter für die Bilddaten zu entwerfen. Das hoch aufgelöste Bild wird dann mittels eines Hochpassfilters gefiltert, der die gewünschten Strukturen (Kanten, etc.) erhält und die unerwünschte Bildinformation entfernt. Parallel dazu wird die Intensitätskomponente mit einem komplementären Tiefpass gefiltert, der die gewünschten spektralen Informationen erhält. Nach der Rücktransformation in den Ortsraum werden die beiden gefilterten Komponenten addiert, an die ursprüngliche Intensität angepasst und ersetzen diese schließlich. Das neue IHS Bild wird dann durch eine inverse IHS Transformation in den RGB Farbraum zurück transformiert; als Ergebnis erhält man das fusionierte Bild (siehe Abb. 1 im Anhang B). Dieser Prozess wird wiederholt, wenn das Bild mehr als 3 Kanäle besitzt, um auch die anderen Kanäle zu fusionieren. Abschließend kann aus den jeweiligen Dreikanal-Kombinationen wieder ein vollständiges Bild zusammengestellt werden (Ehlers & Klonus 2004). Da die Spektralwerte nur minimale Änderungen erfahren, ist diese Multikanalfusion unabhängig von der Auswahl oder Reihenfolge der verwendeten Farbkanäle (Klonus 2005). Dieses Fusionsverfahren erfüllt die Bedingung der Spektralwerterhaltung auch dann, wenn multitemporale und/oder multisensorale Daten fusioniert werden (Klonus & Ehlers 2006).
Meinungen zur Ehlers Fusion Rene Griesbach von Rapideye: Die Ergebnisse sind wirklich um Größenordnungen besser als das mit den anderen getesteten Methoden erreichbare. Tipps um bessere Resultate zu erzielen - Verwende ein Bild ohne Hintergrundwerte und Nullen, denn dies kann Effekte produzieren, die das Ergebnis verschlechtern
- Die räumliche Auflösung des multispektralen Bildes sollte vor der Fusion auf die Auflösung des panchromatischen Bildes formatiert werden
- Die Pixelgröße in x und y sollte eine Potenz von zwei sein, andernfalls erweitert Erdas Imagine das Raster automatisch zu einer Potenz von zwei. Dies wird erreicht durch hinzufügen von Nullen, was wiederum Artefakte im Ausgabebild erzeugt.
Lösen von Problemen, die bei der Ehlers Fusion auftreten können - Probleme die durch geringen Plattenspeicherplatz verursacht werden
Problem können durch zu geringen Platttenspeicherplatz verursacht werden. Verwendet man eine 8 bit panchromatische Szene mit einer Pixelgröße von 16384 x 16384 Pixel , dann verbraucht die 263 MB an Speicherplatz und eventuell noch Speicherplatz für die Pyramidenlayer. Ein multispektrales Bild mit 3 Kanälen, welches auf die gleich Auflösung reformatiert wird benötigt 789 MB. Während des Fusionsprozesses (IHS und FFT) is es notwendig das Bild in Float zu codieren. Das panchromatische Bild braucht daher nun 1.1 GB an Speicherplatz, das multispektrale Bild aus dem gleichen Grund 3.3 GB. Bei der weiteren Fortführung des Prozesses, werden weitere temporäre Bilddaten erzeugt. Ein IHS Bild (3.3 GB), ein normalisierter panchrmatischer Kanal (1.1 GB), das panchromatische Frequenzspektrum (1.1 GB), das Frequenzspektrum der Intensitätskomponente (1.1 GB), eine gefilterte panchromatische Komponente (1.1 GB) und eine gefilterte Intensitätskomponente. 3 Kanäle brauchen daher schon 7.7 GB an temporären Plattenspeicherplatz. Werden mehr als 3 Kanäle verwendet erhöht sich der Speicherplatzbedarf entsprechend. Als Lösung für dieses Problem könnten dahe die Eingangsdaten gekachelt werden. - Performanz Probleme
Durchgeführte Performanztests haben gezeigt das ein Bild mit einer Pixelgröße von 4096 x 4096 Pixeln auf einem Intel Pentium IV Prozessor mit 2.40 Gigahertz und 2 GB RAM 4:50 Minuten braucht um ein fusioniertes Bild zu erzeugen. Für eine Fusion eines Bildes mit einer Pixelgröße von 16384 x 16384 benötigt der selbe Prozessor 100:32 Minuten. Gründe für diese Performanzprobleme sind folgende: - Für jedes temporäre Bild werden Pyramidenlayer berechnet (Es kann bei ERDAS in der Ehlers Fusion nur durch den Nutzer verhindert werden [Preferences/Compute Pyramid Layers ausschalten], nicht durch Veränderung des eml Skriptes)
- Für alle temporären Bilder werden Statistiken berechnet
- Das gesamte Bild wird prozessiert im Gegensatz zu einer reihenbasierten Berechnung unter c++
- Implementation durch eml und sml Skripte und nicht Implementation in c++
|