Analyse der Konfiguration bei der Approximation ungleichmäßig abgetasteter Oberflächen auf Basis von Nivellements und terrestrischen Laserscans

Oberflächenapproximation: Konfigurationsanalyse

Dokumentinformationen

Autor

Christoph Holst

instructor/editor Univ.-Prof. Dr.-Ing. Heiner Kuhlmann
school/university Hohe Landwirtschaftliche Fakultät der Rheinischen Friedrich-Wilhelms-Universität zu Bonn
subject/major Ingenieurgeodäsie
Dokumenttyp Inaugural-Dissertation
city_where_the_document_was_published München
Sprache German
Format | PDF
Größe 3.78 MB

Zusammenfassung

I.Motivation und Zielsetzung Analyse der Konfiguration bei der Oberflächenapproximation

Diese Dissertation untersucht die Konfigurationsanalyse bei der Oberflächenapproximation mit räumlich ungleichmäßig verteilten Messpunkten, basierend auf Nivellements und terrestrischen Laserscans (TLS). Die Motivation liegt in der Verbesserung der Genauigkeit und Zuverlässigkeit von Deformationsanalysen, insbesondere bei Anwendungen wie der Analyse von Bodensenkungen (am Beispiel des Rheinischen Braunkohlenreviers) und der Deformationsanalyse großer Strukturen (am Beispiel des Radioteleskops Effelsberg). Ziel ist die Beurteilung, Analyse und Optimierung der Konfiguration zur Erzeugung zuverlässiger Ergebnisse bei flächenhaften Modellierungen.

1.1 Motivation Ungleichmäßige Oberflächenabtastung bei Nivellement und TLS

Die vorliegende Dissertation wird durch den Wandel in der Ingenieurgeodäsie motiviert, der sich durch eine zunehmende Fokussierung auf flächenhafte Erfassung von Objekten und deren Geometrien auszeichnet. Im Mittelpunkt steht die Analyse und Optimierung der Konfiguration bei der Approximation von Oberflächen, die mit Nivellement und terrestrischem Laserscanning (TLS) erfasst werden. Beide Methoden liefern ungleichmäßig verteilte Messpunkte: beim Nivellement aufgrund von wirtschaftlichen Aspekten und der Siedlungsstruktur, beim TLS aufgrund der polaren Abtastung. Diese ungleichmäßige Abtastung stellt eine Herausforderung für die Erstellung von flächenkontinuierlichen Aussagen dar. Als Anwendungsbeispiele werden die Analyse von Bodenbewegungen (Bodensenkungen) mittels Nivellement im Rheinischen Braunkohlenrevier und die Deformationsanalyse des Radioteleskops Effelsberg mittels TLS genannt. Die ungleichmäßige Abtastung in beiden Fällen dient als Ausgangspunkt für die Untersuchung der Konfigurationsanalyse und -optimierung bei der Oberflächenapproximation. Die Analyse der Konfiguration im Kontext von flächenhaften Modellierungen und deren Auswirkungen auf die Genauigkeit und Zuverlässigkeit der Ergebnisse sind von besonderer Bedeutung.

1.2 Zielsetzung Analyse und Optimierung der Konfiguration

Das Hauptziel der Dissertation ist die Erforschung der Konfiguration bei der Approximation von räumlich ungleichmäßig abgetasteten Oberflächen. Dabei sollen Methoden zur Beurteilung, Analyse und gegebenenfalls Optimierung dieser Konfiguration entwickelt und angewendet werden. Die zugrundeliegenden Messungen basieren auf Nivellements und terrestrischen Laserscans (TLS). Die Dissertation fokussiert sich auf den Einfluss der Messpunktverteilung, der Geometrie der Objektoberfläche und des stochastischen Modells der Beobachtungen auf die Oberflächenapproximation. Ungünstige, unbemerkte Konfigurationen können zu verzerrten, uneindeutigen und unzuverlässigen Approximationen führen. Die Analyse der Konfiguration ist daher unerlässlich, um bei Anwendungen mit hohen Genauigkeitsanforderungen zuverlässige Ergebnisse zu erzielen. Die Arbeit wird exemplarisch am Beispiel der Bodenbewegungsanalyse im Rheinischen Braunkohlenrevier und der Deformationsanalyse des Radioteleskops Effelsberg veranschaulicht. Es geht also darum, die Zuverlässigkeit und Genauigkeit von flächenhaften Modellierungen durch eine gezielte Analyse und Optimierung der Messdaten und des Modellierungsprozesses zu verbessern.

II.Methoden Nivellement TLS und Ausgleichungsrechnung

Die Arbeit vergleicht die Methodik von Nivellement (eindimensionale Höhenmessung) und TLS (dreidimensionale Polarkoordinaten). Beide Verfahren liefern ungleichmäßig abgetastete Oberflächen. Für die flächenhafte Parametrisierung werden Polynommodelle eingesetzt. Die Ausgleichungsrechnung und die Konfigurationsanalyse (betrachtet Redundanzanteile und deren relative Unterschiede) bilden die methodische Grundlage. Die Auswirkung der Punktverteilung, der Objektgeometrie und des stochastischen Modells auf die Schätzergebnisse wird untersucht.

3.1 Nivellement Methodik und Anwendungen

Der Abschnitt beschreibt die Methodik des Nivellements, das eindimensionale Höhenunterschiede misst. Im Gegensatz zum terrestrischen Laserscanning (TLS), welches dreidimensionale Polarkoordinaten liefert, erzeugt das Nivellement meistens Höhen- oder Höhenänderungen des Bodens. Ein Beispiel ist die Dokumentation von sümpfungsbedingten Bodensenkungen im Rheinischen Braunkohlenrevier zur Risikobewertung von Setzungsschäden an Gebäuden. Die Auswertung der Nivellements zielt auf die Detektion bewegungs-homogener Bereiche und bewegungsaktiver tektonischer Störungen. Die flächenhafte Approximation der nivellierten Höhenänderungen ermöglicht eine räumliche Betrachtung dieser Phänomene. Die ungleichmäßige Verteilung der Messpunkte resultiert aus wirtschaftlichen Erwägungen und der Siedlungsstruktur der Untersuchungsgebiete. Polynommodelle werden als geeignetes Mittel zur Flächenapproximation der Höhenänderungen erwähnt, um Aussagen zum generellen Senkungsverhalten zu treffen. Die Wahl der Polynomordnung muss an die Komplexität des Bodensenkungsverhaltens angepasst werden, wobei ein datenadaptiver Ansatz empfohlen wird.

3.2 Terrestrisches Laserscanning TLS Methodik und Anwendungen

Der Abschnitt erläutert die Methodik des terrestrischen Laserscanning (TLS), das im Gegensatz zum Nivellement dreidimensionale Daten liefert. Die polare Abtastung führt zu einer ungleichmäßigen Punktverteilung im kartesischen Raum. Als Anwendungsbeispiel dient die Deformationsanalyse des Radioteleskops Effelsberg. Aufgrund seiner Größe und seines Gewichts verformt sich der Hauptreflektor (Durchmesser 100m) abhängig von der Elevationsstellung. Ziel ist die Prüfung der Annahme einer homologen Deformation (Beschreibung durch ein Rotationsparaboloid mit variabler Brennweite) und die Quantifizierung der Brennweitenvariationen. Diese Informationen sind essentiell zur Optimierung des Antennengewinns und zur Korrektur von geodätischen VLBI-Messungen. Auch hier wird die flächenhafte Approximation der Oberfläche als Methode zur Analyse der Deformation beschrieben. Die ungleichmäßige Punktverteilung stellt eine Herausforderung bei der Oberflächenmodellierung dar.

3.3 Ausgleichungsrechnung und Konfigurationsanalyse

Dieser Abschnitt behandelt die Ausgleichungsrechnung als mathematische Grundlage der Datenverarbeitung. Im Gegensatz zu traditionellen Ansätzen, die sich auf die Auswirkung einzelner Beobachtungen konzentrierten (geringe Überbestimmung), liegt der Fokus hier auf der Analyse der räumlichen Punktverteilung und deren Einfluss auf das Schätzergebnis (hohe Überbestimmung). Die Konfigurationsanalyse untersucht die Punktverteilung, die Geometrie der Objektoberfläche und das stochastische Modell der Beobachtungen als bestimmende Faktoren der Konfiguration bei der Oberflächenapproximation. Die Analyse der Redundanzanteile und deren relative Unterschiede erlaubt die Beurteilung der Zuverlässigkeit und Genauigkeit der Schätzung, selbst bei hoher Überbestimmung. Methoden zur Analyse und Optimierung der Konfiguration sind aus der Ausgleichungsrechnung und der geodätischen Netzoptimierung bekannt, werden aber im Kontext der hohen Datenmenge und ungleichmäßigen Punktverteilungen neu angewendet. Die flächenhafte Abtastung und die damit verbundene große Datenmenge verändern die Betrachtungsweise von der Analyse einzelner Beobachtungen hin zur Analyse räumlicher Verteilungen.

III.Analyse der Konfiguration Nivellement und TLS

Die Konfigurationsanalyse zeigt, dass selbst bei hoher Überbestimmung im Ausgleich (viele Messpunkte), die ungleichmäßige Punktverteilung zu ungünstigen Konfigurationen führen kann. Bei Nivellements werden Strategien zur Optimierung der Messpunktverteilung (Hinzufügen von Zwillingspunkten) vorgestellt. Bei TLS-Daten wird der Einfluss der Messgeometrie (Scannerposition) auf die Schätzungen untersucht und gezeigt, wie durch Punktausdünnung zu einem nahezu regelmäßigen Raster die Zuverlässigkeit verbessert werden kann. Die Arbeit adressiert auch die Verzerrung von Parameterschätzungen aufgrund unbekannter Deformationen und methodische Ansätze zur Minderung dieser. Das Radioteleskop Effelsberg dient als Fallstudie für die TLS-basierte Deformationsanalyse, wobei die Ermittlung elevationsabhängiger Brennweitenänderungen ein Ergebnis darstellt.

5.1 Konfigurationsanalyse auf Basis von Nivellements

Die Analyse der Konfiguration bei der flächenhaften Approximation von Nivellementsdaten zeigt, dass selbst bei einer scheinbar günstigen Situation (hohe Überbestimmung) die ungleichmäßige Punktverteilung zu einer suboptimalen Konfiguration führen kann. Die Analyse der Redundanzanteile zeigt starke Variationen, besonders an den Rändern des Untersuchungsgebiets. Eine Betrachtung der relativen Redundanzanteilunterschiede ist daher sinnvoller als die Betrachtung der Absolutwerte. Die Untersuchung konzentriert sich auf die Analyse von Bodensenkungen im Rheinischen Braunkohlenrevier, wobei das Ziel die Detektion von bewegungs-homogenen Bereichen und tektonischen Störungen ist. Die ungleichmäßige Punktverteilung der Nivellements (bedingt durch Wirtschaftlichkeit und Siedlungsstruktur) beeinflusst die Zuverlässigkeit der Oberflächenapproximation. Die Arbeit zeigt, dass selbst bei hoher Überbestimmung eine Konfigurationsanalyse notwendig ist, um die Zuverlässigkeit der Ergebnisse zu beurteilen. Die Konfigurationsanalyse wird mit Hilfe von Redundanzanteilen durchgeführt und zeigt den ungleich grösseren Einfluss von Randpunkten auf die Schätzung.

5.2 Konfigurationsanalyse auf Basis von TLS Daten

Bei der Konfigurationsanalyse von terrestrischen Laserscandaten (TLS) wird ebenfalls der Einfluss der ungleichmäßigen Punktverteilung auf die Genauigkeit und Zuverlässigkeit der Oberflächenapproximation untersucht. Auch hier zeigt sich, dass trotz hoher Überbestimmung die Konfiguration kritisch für die Ergebnisse ist. Die Analyse der Redundanzanteile zeigt eine starke Abhängigkeit vom Laserscanner-Standpunkt. Die Punktverteilung, die Objektgeometrie und das stochastische Modell beeinflussen die Redundanzanteile. Der Einfluss der Punktverteilung überwiegt den des stochastischen Modells. Als Beispiel dient die Approximation einer Ebene und des Hauptreflektors des Radioteleskops Effelsberg. Die Analyse der Redundanzanteile und der Einflussfaktoren (1-Redundanzanteil) zeigt, dass selbst geringe Variationen einen signifikanten Einfluss auf die Parameterschätzung haben können. Die Arbeit betont die Wichtigkeit der Analyse der relativen Redundanzanteilunterschiede anstatt der Absolutwerte.

5.3 Optimierungsstrategien für Nivellement und TLS

Der Abschnitt befasst sich mit Strategien zur Optimierung der Konfiguration bei Nivellement und TLS. Für Nivellements wird ein Verfahren vorgestellt, das weniger relevante Messpunkte identifiziert und eliminiert, während Randpunkte unter Berücksichtigung der Objektgeometrie wieder eingefügt werden. Die Einführung von Zwillingspunkten an den Rändern soll die Zuverlässigkeit verbessern. Für TLS-Daten wird die Punktausdünnung zu einem nahezu regelmäßigen Raster als Methode zur Verbesserung der Konfiguration vorgeschlagen. Diese reduziert die Abhängigkeit der Parameterschätzung vom Laserscanner-Standpunkt. Zusätzlich werden robuste Ausgleichungsverfahren wie RANSAC und BIBER erwähnt, um den Einfluss von Ausreißern und unbekannten Deformationen zu reduzieren. Die Einbindung von Korrelationen zwischen Messpunkten und die Balancierung des Ausgleichs werden ebenfalls als mögliche Optimierungsansätze diskutiert. Die Ergebnisse der Konfigurationsanalyse und -optimierung sollen die Genauigkeit und Zuverlässigkeit der flächenhaften Modellierungen deutlich verbessern.

IV.Optimierung der Konfiguration und Weiterentwicklung bestehender Konzepte

Für die Optimierung der Konfiguration bei Nivellements wird eine datenadaptive Strategie mit Eliminierung weniger relevanter Punkte und Hinzufügen von Randpunkten (Zwillings-Punkte) vorgeschlagen. Bei TLS-Daten wird die Punktausdünnung als effektive Methode zur Reduzierung der standpunktabhängigen Variation der Parameterschätzungen hervorgehoben. Die Arbeit untersucht auch den Einfluss von robusten Ausgleichungsverfahren (RANSAC, BIBER) und Modellunsicherheiten auf die Ergebnisse. Zusätzlich wird die Scannerkalibrierung mit Hilfe eines einzigen Scans eines Objekts untersucht und die Herausforderungen bei der Entwicklung geeigneter Kalibrierfunktionen diskutiert. Die Berücksichtigung räumlicher Korrelationen im stochastischen Modell von TLS-Daten wird als weiterer wichtiger Aspekt betrachtet.

5.2 Optimierung der Konfiguration bei Nivellements

Die Optimierung der Konfiguration bei der flächenhaften Approximation von Nivellementsdaten zielt auf die Verbesserung der Genauigkeit und Zuverlässigkeit der Ergebnisse ab. Ausgehend von einer ungleichmäßigen Punktverteilung, die zu stark variierenden Redundanzanteilen führt, wird eine Strategie zur Optimierung der Messpunktverteilung vorgestellt. Diese umfasst die Eliminierung von weniger relevanten Messpunkten, die dennoch als unabhängige Kontrollbeobachtungen zur Modellverifizierung dienen können. Zusätzlich werden gezielt Randpunkte, unter Berücksichtigung der Objektgeometrie, wieder in die Berechnung einbezogen. Die Einführung von sogenannten Zwillingspunkten in der Nähe bereits vorhandener Messpunkte wird als ökonomisch sinnvolle Maßnahme zur Verbesserung der Konfiguration und damit der Zuverlässigkeit der Approximation beschrieben. Das Verfahren führt zu einer homogenisierten Punktverteilung und erhöht die Güte der flächenhaften Approximation der gemessenen Höhenänderungen. Die Analyse der Residuen zeigt, dass auch die eliminierten Punkte (Kontrollbeobachtungen) die Schätzung unterstützen. Das Beispiel der Analyse von Bodensenkungen im Rheinischen Braunkohlenrevier veranschaulicht die praktische Anwendung.

5.3 Optimierung der Konfiguration bei TLS Daten

Die Optimierung der Konfiguration bei der flächenhaften Approximation von terrestrischen Laserscandaten (TLS) konzentriert sich auf die Reduktion der Abhängigkeit der Parameterschätzung vom Laserscanner-Standpunkt. Die ungleichmäßige Punktverteilung, bedingt durch die polare Abtastung, führt zu verzerrten und standpunktabhängigen Schätzungen. Als Hauptstrategie wird die Punktausdünnung vorgeschlagen, um eine gleichmäßigere Punktverteilung zu erreichen. Die Analyse der Redundanzanteile vor und nach der Punktausdünnung zeigt eine deutlich geringere Abhängigkeit der Schätzergebnisse vom Standpunkt. Neben der Punktausdünnung werden auch die Einführung von Korrelationen zwischen Messpunkten und die Balancierung des Ausgleichs als alternative Optimierungsansätze diskutiert. Die Anwendung von robusten Ausgleichungsverfahren wie RANSAC und BIBER wird als weitere Möglichkeit erwähnt, um den Einfluss unbekannter Deformationen und Ausreißer zu minimieren. Das Beispiel der Deformationsanalyse des Radioteleskops Effelsberg wird zur Veranschaulichung der Optimierungsstrategie verwendet. Die Optimierung zielt auf eine höhere Genauigkeit und Zuverlässigkeit der Deformationsanalyse ab.

5.4 Weiterentwicklung der Scannerkalibrierung

Ein weiterer Aspekt der Arbeit ist die Weiterentwicklung bestehender Konzepte zur Scannerkalibrierung im Kontext der flächenhaften Deformationsanalyse mit TLS. Die Scannerkalibrierung ist wichtig für hochgenaue Formanalysen. Die Dissertation untersucht das Potential einer Kalibrierung basierend auf einem einzigen Scan eines Objekts (Radioteleskop Effelsberg), was eine Neuheit darstellt. Die Verwendung eines Tachymetermodells für die Kalibrierung zeigt sich als nur bedingt geeignet, da die geschätzten Kalibrierparameter nicht immer geometrisch interpretierbar sind. Die Analyse der Konfiguration mittels Redundanzanteilen, Standardabweichungen und Korrelationen zeigt eine ungünstige Konfiguration für die Scannerkalibrierung. Die Arbeit betont die Notwendigkeit einer geeigneten Vorwärtsmodellierung systematischer, scannerinterner Abweichungen, um eine verbesserte Kalibrierung zu ermöglichen. Die Berücksichtigung von Modellwissen und die Nutzung der gesamten Punktwolke werden als wichtige Aspekte für eine erfolgreiche Kalibrierung hervorgehoben. Die Ergebnisse zeigen, dass eine Analyse der Konfiguration auch bei großer Überbestimmung im Ausgleich essentiell ist.

V.Semantik der Punktwolke und Erweiterte Unsicherheitsmodellierung

Der letzte Abschnitt thematisiert die Semantik der Punktwolke, den Unterschied zwischen der gezielten Vermessung einzelner Punkte mit bekannter Semantik (Tachymetrie) und der flächenhaften Erfassung mit TLS. Hier wird die Notwendigkeit einer erweiterten Unsicherheitsmodellierung hervorgehoben, die sowohl messtechnische als auch modellbedingte Unsicherheiten berücksichtigt (z.B. unbekannte Deformationen, vernachlässigte Objektdetails). Methoden wie Intervallmathematik und Fuzzy-Theorie werden als Ansätze zur Berücksichtigung dieser Unsicherheiten diskutiert.

6.4 Erweiterte Unsicherheitsmodellierung Berücksichtigung von Modellunsicherheiten

Der Abschnitt diskutiert die Notwendigkeit einer erweiterten Unsicherheitsmodellierung, die über die Berücksichtigung von messtechnischen Unsicherheiten hinausgeht. Bisherige Modelle konzentrieren sich auf messtechnische Aspekte, sowohl scannerintern als auch -extern. Die Arbeit betont aber die Bedeutung der Modellunsicherheit, die aus Unschärfe und Unvollständigkeit des Objektmodells resultiert. Unbekannte Deformationen und vernachlässigte Objektdetails werden als Beispiele für Modellunsicherheiten genannt. Zur Berücksichtigung dieser Unsicherheiten werden die Intervallmathematik und die Fuzzy-Theorie als Alternativen zur klassischen kleinsten Quadrate Schätzung (kQS) vorgeschlagen. Diese Methoden ermöglichen eine realistischere Modellierung der Unsicherheiten und liefern neben den Parametern auch Intervallradien bzw. Spreizungen, die die Genauigkeit der geschätzten Parameter repräsentieren. Der Vorteil liegt in der realistischeren Darstellung der Unsicherheit, nicht in der Veränderung der Parameterschätzung selbst. Die Arbeit argumentiert, dass die bisherigen Ansätze zur Unsicherheitsmodellierung um die Aspekte der Modellunsicherheit erweitert werden müssen, um eine realistischere Bewertung der Ergebnisse zu ermöglichen.

6.5 Semantik der Punktwolke Unterschiedliche Ansätze bei der Datengewinnung

Der Abschnitt vergleicht die Semantik von Punktwolken aus verschiedenen Messverfahren. Bei der tachymetrischen Vermessung werden einzelne Punkte mit bekannter Semantik (z.B. Eckpunkte eines Gebäudes) explizit gemessen und mit Modellwissen kombiniert (z.B. Annahme einer ebenen Wandfläche). Im Gegensatz dazu liefert die flächenhafte Abtastung mit Laserscanning eine wesentlich detailliertere und umfassendere Punktwolke, deren Semantik nicht vor der Messung definiert ist. Die höhere Dichte an Messpunkten ermöglicht es, bisherige Annahmen (z.B. Ebenheit einer Fläche) zu hinterfragen und zusätzliche Informationen (z.B. Fenster, Türen) zu extrahieren. Eine automatisierte Segmentierung der Punktwolke wird als notwendiger Schritt zur Analyse einzelner Objekte (z.B. Hauswand getrennt von Fenstern) erwähnt. Die Komplexität der semantischen Zuordnung nimmt mit zunehmender Detailliertheit des Objekts zu. Die flächenhafte Abtastung mit Laserscanning wirft damit neue Fragen zur erweiterten Unsicherheitsmodellierung auf, da die Daten selbst zusätzliche Informationen über die Modellunsicherheit enthalten.