
Digitale Filter: Dekorrelation bei großen Ausgleichsproblemen
Dokumentinformationen
Autor | Christian Siemes |
instructor/editor | Prof. Dr. Techn. W.-D. Schuh |
school/university | Rheinische Friedrich-Wilhelms-Universität Bonn |
subject/major | Geodäsie und Geoinformation |
Dokumenttyp | Inaugural-Dissertation |
city_where_the_document_was_published | München |
Sprache | German |
Format | |
Größe | 7.16 MB |
Zusammenfassung
I.Modellierung der Kovarianzmatrix mit digitalen Filtern für die GOCE Mission
Diese Arbeit befasst sich mit der effizienten Lösung großer Kleinste-Quadrate-Probleme, wie sie bei der Auswertung der GOCE-Mission (Gravity Field and steady-state Ocean Circulation Explorer) auftreten. Der GOCE-Satellit sammelt ca. 100 Millionen hoch korrelierte Schweregradienten-Beobachtungen (SGG). Die daraus resultierende Kovarianzmatrix ist enorm groß (72.760 Terabytes) und kann nicht direkt berechnet werden. Die Lösung besteht in der Modellierung der Kovarianzmatrix mit digitalen Filtern, insbesondere ARMA-Filtern, um eine sparsame Darstellung zu erreichen. Dies ermöglicht die Verarbeitung der riesigen Datenmengen mit vertretbarem Rechenaufwand. Die Arbeit untersucht verschiedene Implementierungen von digitalen Filtern hinsichtlich ihrer Rechenzeit und adressiert dabei den sogenannten Warm-up-Effekt und das Problem von Datenlücken.
1. Herausforderungen der GOCE Datenverarbeitung
Die GOCE-Mission zur Bestimmung des Erdschwerefeldes generiert ca. 100 Millionen hoch korrelierte Beobachtungen. Die Modellierung des Erdschwerefelds erfordert etwa 70.000 sphärisch harmonische Koeffizienten. Die daraus resultierende Kleinste-Quadrate-Anpassung führt zu einer riesigen Designmatrix (51 Terabytes) und einer noch größeren Kovarianzmatrix (72.760 Terabytes). Während die Designmatrix durch parallele Berechnungen auf Supercomputern wie dem JUMP in Jülich (Deutschland) verarbeitet werden kann, ist dies für die Kovarianzmatrix aufgrund der enormen Größe nicht praktikabel. Die Arbeit untersucht daher die Nutzung der Eigenschaften der Beobachtungen (z.B. als stationäre Zeitreihe) zur effizienteren Repräsentation der Kovarianzmatrix mittels digitaler Filter. Diese Methode der Dekorrelation ist zentral für die Bewältigung des enormen Rechenaufwands.
2. Bedingungen für die Anwendung digitaler Filter
Zunächst werden die notwendigen Bedingungen für die Anwendung digitaler Filter zur Darstellung der Kovarianzmatrix analysiert. Die Beobachtungen müssen bestimmte Eigenschaften erfüllen, um eine solche Modellierung zu ermöglichen. Dies beinhaltet die Interpretierbarkeit als stationäre Zeitreihe, was eine effiziente, sparsame Darstellung der Kovarianzmatrix durch digitale Filter ermöglicht. Die Arbeit untersucht diese Voraussetzungen detailliert und legt den Grundstein für die nachfolgende Entwicklung und den Vergleich verschiedener Filtermethoden. Die Auswahl geeigneter Filter hängt entscheidend von den Eigenschaften der Beobachtungsdaten ab und wird im Kontext der GOCE-Mission diskutiert. Die hohe Korrelation der Daten sowie die große Anzahl an Beobachtungen und Parametern stellen besondere Herausforderungen dar, die durch die Anwendung der digitalen Filter adressiert werden.
3. Vergleich und Entwicklung effizienter Filterimplementierungen
Der Fokus liegt auf dem Vergleich verschiedener Implementierungen digitaler Filter hinsichtlich ihrer Rechenzeit. Es werden sowohl rekursive als auch nicht-rekursive Filter betrachtet. Die Arbeit vergleicht verschiedene Methoden, von direkten Implementierungen der Filtergleichungen bis hin zu Ansätzen, die die Faltungseigenschaft der Filterung ausnutzen. Besonders im Mittelpunkt stehen Blockmethoden, die optimierte Bibliotheken wie ATLAS verwenden oder die Rechenkomplexität reduzieren (z.B. Overlap-Add-Methode). Dies ist wichtig, da die große Designmatrix in vielen Anwendungen mindestens einmal gefiltert werden muss. Die Effizienz der verschiedenen Ansätze wird detailliert untersucht und verglichen, um optimale Algorithmen für die GOCE-Datenverarbeitung zu identifizieren. Die Arbeit betrachtet AR und ARMA Prozess Ansätze und deren Vor- und Nachteile.
4. Behandlung des Warm up Effekts und von Datenlücken
Ein besonderes Problem bei der Verwendung digitaler Filter ist der Warm-up-Effekt, der zu einem Informationsverlust am Anfang der Filterung führt. Die Arbeit entwickelt erstmalig Methoden zur Bestimmung der Länge dieses Effekts und zur Vermeidung des Informationsverlustes. Ein weiterer wichtiger Aspekt ist der Umgang mit Datenlücken in den Beobachtungszeitreihen. Es werden verschiedene Strategien verglichen, darunter das Anhalten und Neustarten der Filterung an Datenlücken und das Auffüllen der Lücken mit geeigneten Werten. Die Arbeit präsentiert einen neuen Algorithmus zur Berechnung von Füllwerten für kurze Datenlücken, der den stochastischen Anteil der Beobachtungen berücksichtigt und so die Genauigkeit der Kleinste-Quadrate-Lösung verbessert. Dieser Ansatz vermeidet die hohen Rechenkosten alternativer Methoden, die in der Literatur beschrieben sind (Klees und Ditmar, 2004).
5. Auswahl optimaler Filtermethoden für die GOCE Mission
Schließlich wird untersucht, welche Filtermethoden am besten für die GOCE-Anwendung geeignet sind. Dazu werden numerische Simulationen mit simulierten GOCE-Daten durchgeführt. Die Arbeit liefert Erkenntnisse zu den optimalen Filterdesigns im Kontext der Schweremessung und untersucht den Einfluss verschiedener Parameter und Methoden auf die Genauigkeit der Ergebnisse. Die Ergebnisse der Simulationen helfen dabei, die beste Filtermethode für die GOCE-Datenverarbeitung auszuwählen und die Effizienz der entwickelten Algorithmen für den Umgang mit dem Warm-up-Effekt und Datenlücken zu bewerten. Der Fokus liegt auf der Genauigkeit der Erdschwerefeld-Rekonstruktion.
II.Effiziente Implementierung digitaler Filter
Es werden verschiedene Implementierungsmethoden für digitale Filter verglichen, darunter die direkte Methode, die Blockmethode und die Overlap-Add-Methode. Die Blockmethode erweist sich, besonders in Verbindung mit optimierten Bibliotheken wie ATLAS, als besonders effizient für die Filterung der großen Designmatrix. Die Arbeit präsentiert die ARMA-Blockfiltermethode, einen neuen Algorithmus zur schnellen und speichersparenden Filterung. Dieser Algorithmus minimiert den Rechenaufwand, insbesondere bei der Verarbeitung großer Matrizen, wie sie in der Kleinste-Quadrate-Anpassung vorkommen. Die optimale Blockgröße sollte empirisch bestimmt werden. Die Arbeit untersucht auch die Reduzierung von Quantisierungsrauschen durch geschickte Filtersektionierung.
1. Vergleich verschiedener Filterimplementierungen
Die Arbeit untersucht verschiedene Implementierungen digitaler Filter für die effiziente Verarbeitung großer Datenmengen, insbesondere im Kontext der GOCE-Mission. Dabei werden sowohl rekursive als auch nicht-rekursive Filter betrachtet. Die untersuchten Methoden reichen von direkten Implementierungen der Filtergleichungen bis hin zu Ansätzen, die die Faltungseigenschaft der Filterung ausnutzen. Besondere Aufmerksamkeit wird Blockmethoden gewidmet, die entweder für die Verwendung optimierter Bibliotheken wie der ATLAS-Bibliothek geeignet sind oder die Rechenkomplexität reduzieren, wie beispielsweise die Overlap-Add-Methode. Die Wahl der optimalen Methode hängt von verschiedenen Faktoren ab, unter anderem von der Filterlänge und den verfügbaren Ressourcen. Die Effizienz der verschiedenen Implementierungen wird anhand der Rechenzeit verglichen, wobei die Notwendigkeit der Filterung der großen Designmatrix mindestens einmal pro Kleinste-Quadrate-Anpassung hervorgehoben wird. Die autoregressive (AR) und autoregressive moving average (ARMA) Prozess Ansätze werden ebenfalls untersucht.
2. Die ARMA Blockfiltermethode
Ein Schwerpunkt der Arbeit liegt auf der Entwicklung und Analyse der ARMA-Blockfiltermethode. Diese Methode basiert auf den grundlegenden Ideen von Burrus (1972), wurde aber erweitert, um einen schnellen und speichersparenden Filteralgorithmus zu schaffen. Die Optimierung mittels der BLAS/ATLAS-Bibliothek ist besonders wertvoll für die Filterung großer Matrizen, wie sie bei der GOCE-Datenverarbeitung auftreten. Es werden klare Regeln für die Bildung von Filterabschnitten formuliert, um Quantisierungsrauschen zu reduzieren. Die Arbeit beschreibt schnelle Algorithmen zur Berechnung der Filtermatrizen und des Filterprozesses selbst. Die optimale Blockgröße für die ARMA-Blockmethode wird untersucht und es wird empfohlen, diese empirisch zu bestimmen, um die Rechenzeit zu minimieren. Der Einfluss der Blockgröße auf die Rechenzeit wird anhand von Diagrammen veranschaulicht und diskutiert.
3. Direkter vs. Dekorrelationsansatz und Speicheroptimierung
Bei der Integration der Filter in iterative Anpassungsverfahren wie den konjugierten Gradientenalgorithmus werden zwei Hauptansätze unterschieden: der direkte Ansatz und der Dekorrelationsansatz. Der direkte Ansatz verwendet die Filter direkt zur Multiplikation der inversen Kovarianzmatrix mit dem Beobachtungsvektor und der Designmatrix. Der Dekorrelationsansatz filtert die Beobachtungsgleichungen, um die Beobachtungen zu dekorrelieren. Die Arbeit vergleicht beide Ansätze und diskutiert ihre Implementierungseffizienz. Ein wichtiger Aspekt ist die Vermeidung der zweifachen Berechnung der Designmatrix. Die Arbeit analysiert den Einsatz synchroner Filtermethoden, um sowohl Vorwärts- als auch Rückwärtsfilterung gleichzeitig durchzuführen, was unter der Voraussetzung ausreichenden Speichers die Rechenzeit reduzieren kann. Speziell für den Fall eines zeilenweisen Zugriffs auf die Designmatrix werden die Anwendbarkeit und die Effizienz der verschiedenen Methoden detailliert untersucht und bewertet.
III.Warm up Effekt und Umgang mit Datenlücken
Der Warm-up-Effekt bei rekursiven Filtern führt zu ungenutzten Anfangsdaten. Die Arbeit entwickelt Methoden zur Bestimmung der Länge des Warm-up-Effekts und zur Vermeidung dieses Effekts. Das Problem von Datenlücken in den Zeitreihen wird durch die Entwicklung eines Algorithmus zur Berechnung von Füllwerten adressiert. Diese Füllwerte berücksichtigen sowohl den deterministischen als auch den stochastischen Anteil der Beobachtungen, um die Genauigkeit der Kleinste-Quadrate-Lösung zu gewährleisten. Der entwickelte Algorithmus vermeidet den hohen Rechenaufwand alternativer Methoden.
1. Der Warm up Effekt bei digitalen Filtern
Ein zentrales Problem bei der Anwendung rekursiver digitaler Filter ist der sogenannte Warm-up-Effekt. Dieser Effekt führt dazu, dass die ersten Beobachtungen einer Zeitreihe nach der Filterung nicht direkt für die Kleinste-Quadrate-Anpassung verwendet werden können, da sie durch den initialen Zustand des Filters verfälscht sind. Die Länge dieses Warm-up-Effekts ist entscheidend, da bei vielen Datenlücken und langem Warm-up-Effekt ein erheblicher Verlust an Beobachtungen entsteht. Die vorliegende Arbeit präsentiert erstmalig Methoden zur genauen Bestimmung der Länge des Warm-up-Effekts. Darüber hinaus werden Verfahren entwickelt, um diesen Effekt zu vermeiden und somit den Informationsverlust zu minimieren. Die entwickelten Verfahren basieren auf einer genauen Analyse des Filterverhaltens und ermöglichen eine effizientere Nutzung der Beobachtungsdaten. Der Fokus liegt darauf, die Genauigkeit der Ergebnisse der Kleinste-Quadrate-Anpassung zu verbessern, indem der Einfluss des Warm-up-Effekts reduziert wird.
2. Umgang mit Datenlücken in Beobachtungszeitreihen
Die Filterung von Beobachtungszeitreihen mittels digitaler Filter setzt im Idealfall ununterbrochene Daten voraus. In der Praxis treten jedoch oft Datenlücken auf, was die Anwendung der Filter erschwert. Eine einfache Strategie besteht darin, die Filterung an jeder Datenlücke anzuhalten und nach der Lücke neu zu starten. Dieser Ansatz ist jedoch ungenau, besonders bei kurzen Lücken und stark korrelierten Beobachtungen. Ein alternativer Ansatz besteht im Auffüllen der Datenlücken. Die Berechnung geeigneter Füllwerte ist jedoch schwierig (Klees und Ditmar, 2004). Die Arbeit schlägt deshalb einen neuen Algorithmus vor, der speziell für kurze Datenlücken entwickelt wurde und Füllwerte berechnet, welche den stochastischen Anteil der Beobachtungen berücksichtigen. Ziel ist es, die Kleinste-Quadrate-Lösung nicht zu beeinflussen und gleichzeitig die Dekorrelationseigenschaften des Filters aufrechtzuerhalten. Der Algorithmus stellt somit eine effiziente Lösung für das Problem von Datenlücken dar und verbessert die Genauigkeit der Ergebnisse. Die Methode unterscheidet sich von anderen Ansätzen (Klees und Ditmar, 2004), die einen höheren Rechenaufwand benötigen.
IV.Filterdesign und Anwendung auf GOCE Daten
Die Arbeit konzentriert sich auf die Anwendung der entwickelten Methoden auf simulierte GOCE-Daten. Die Auswahl der Filtermethoden wird durch die Eigenschaften des Schweregradientenrauschens beeinflusst, das geographisch abhängige Fehler aufweist. Der Vergleich verschiedener Filterdesigns (z.B. einfacher gleitender Durchschnitt, gleitender Durchschnitt, aggressiver Filter) zeigt, dass ein aggressives Down-Weighting geographisch abhängiger Fehler zu den besten Ergebnissen bei der Erdschwerefeld-Rekonstruktion führt. Die Simulationen umfassen Szenarien mit kurzen und langen Datenlücken, um die Robustheit der entwickelten Algorithmen zu testen. Die Ergebnisse zeigen, dass die entwickelten Methoden für den Umgang mit Datenlücken effektiv sind.
1. Beschreibung des Anwendungsszenarios und der Testdaten
Dieser Abschnitt beschreibt detailliert das Anwendungsszenario der Arbeit: die Verarbeitung von Daten der GOCE-Mission. Die GOCE-Mission liefert ca. 100 Millionen hoch korrelierte Satelliten-Schweregradienten (SGG)-Beobachtungen pro Jahr, welche zur Bestimmung des Erdschwerefeldes genutzt werden. Die hohe Anzahl an Beobachtungen und deren starke Korrelationen erfordern speziell angepasste numerische Algorithmen. Die verwendeten Testdaten stammen aus einem End-to-End-Simulator und dienen der Evaluierung der entwickelten Methoden. Die Arbeit untersucht verschiedene Filtermethoden hinsichtlich ihrer Eignung für diese Daten und die Anforderungen an die Datenverarbeitung werden detailliert beschrieben. Die hohen Korrelationen der SGG-Beobachtungen und die damit verbundenen Speicheranforderungen machen die Wahl der Filtermethode entscheidend für die Effizienz der Datenverarbeitung.
2. Auswahl und Integration der Filtermethoden
Aufgrund der hohen Korrelationen und der großen Datenmenge der GOCE-Beobachtungen wird die ARMA-Blockfiltermethode als die einzige praktikable Methode identifiziert. Die Arbeit begründet diese Auswahl und diskutiert die Vor- und Nachteile alternativer Methoden. Die Integration der Filterung in den iterativen Kleinste-Quadrate-Anpassungsprozess, konkret den PCGMA-Algorithmus, wird detailliert beschrieben. Es wird hervorgehoben, dass aufgrund der komplexen Filterdesigns die Filterung der Designmatrix innerhalb der Iterationen vermieden werden sollte, um die Rechenzeit zu reduzieren. Die Arbeit diskutiert Strategien für ein effizientes Lastenbalancing bei der Berechnung der Präkonditionsmatrix. Die Wahl der ARMA-Blockfiltermethode wird durch die Speicheranforderungen und die Korrelationsstruktur der Daten gerechtfertigt.
3. Numerische Simulationen und Ergebnisanalyse
In diesem Abschnitt werden die Ergebnisse numerischer Simulationen vorgestellt, die mit den entwickelten Filtermethoden und simulierten GOCE-Daten durchgeführt wurden. Verschiedene Filterdesigns (z.B. einfacher gleitender Durchschnitt, gleitender Durchschnitt, aggressiver Filter) werden verglichen. Die Güte der Ergebnisse wird anhand der geschätzten Quasi-Geoidhöhen und der sphärisch harmonischen Koeffizienten bewertet. Die Simulationen zeigen, dass ein aggressives Filterdesign, welches geographisch abhängige Fehler in den Beobachtungen ausreichend dämpft, die besten Ergebnisse liefert. Die Ergebnisse werden detailliert analysiert und diskutiert, wobei der Einfluss der Filter auf die Genauigkeit der Erdschwerefeld-Rekonstruktion im Vordergrund steht. Der Einfluss von Datenlücken auf die Ergebnisse wird ebenfalls untersucht und die Effektivität der entwickelten Methoden zur Behandlung von Datenlücken wird bewertet.