Integration of Digital Photogrammetry and Terrestrial Laser Scanning for Cultural Heritage Data Recording

Kulturerbe-3D-Modellierung: Photogrammetrie & Laserscanning

Dokumentinformationen

Autor

Wassim Moussa

instructor Prof. Dr.-Ing. habil. Dieter Fritsch
Schule

Universität Stuttgart

Fachrichtung Luft- und Raumfahrttechnik und Geodäsie
Ort München
Dokumenttyp Dissertation
Sprache German
Format | PDF
Größe 7.94 MB

Zusammenfassung

I.Digitale Oberflächenrekonstruktion mittels Photogrammetrie und Laserscanning

Diese Arbeit untersucht die Kombination von digitaler Photogrammetrie und terrestrischem Laserscanning (TLS) zur effizienten und präzisen 3D-Oberflächenrekonstruktion, insbesondere für die Dokumentation von Kulturgütern. Die Methode nutzt die Vorteile beider Techniken: TLS für die schnelle Erfassung großer Flächen und Photogrammetrie für detailreiche, hochpräzise Ergebnisse in der Nahbereichserfassung. Ein Schwerpunkt liegt auf der automatischen Registrierung von Punktwolken und der Überwindung von Datenlücken durch die Integration von Bildinformationen. Dense Image Matching Algorithmen verbessern die Genauigkeit und Details der Modelle. Die Entwicklung automatischer Verfahren zur Datenfusion steht im Vordergrund.

1. Kombination von Photogrammetrie und TLS

Die Arbeit untersucht die Vorteile der Kombination von digitaler Photogrammetrie und terrestrischem Laserscanning (TLS) für die 3D-Oberflächenrekonstruktion. Lange Zeit wurde angenommen, dass TLS aufgrund seiner Geschwindigkeit und Effizienz die Nahbereichsphotogrammetrie ersetzen würde. Viele Forscher betonten jedoch, dass photogrammetrische Verfahren mithilfe von Algorithmen zur dichten Bildzuordnung (Dense Image Matching) ähnliche Ergebnisse zu deutlich geringeren Kosten liefern können. Um höchste Effizienz und Flexibilität zu erreichen, hat sich der kombinierte Einsatz beider Techniken als optimal erwiesen, insbesondere bei komplexen Objekten wie Kulturgütern. Time-of-Flight (TOF) TLS-Systeme eignen sich für die Erfassung großflächiger Punktwolken aus mittleren Entfernungen, während bildbasierte Oberflächenrekonstruktionsmethoden flexible und hochpräzise Erfassungen im Nahbereich ermöglichen. Diese Kombination erlaubt es, die Vorteile beider Messprinzipien optimal zu nutzen, um vollständige und konsistente Resultate zu erzielen. Die Arbeit konzentriert sich daher auf das Potential dieser Kombination für Nahbereichsanwendungen, besonders für die 3D-Datenerfassung zur Konservierung von Kulturgütern. Es wird ein automatisches Verfahren vorgestellt, das eine vollständige digitale Repräsentation der Szene anstrebt und gleichzeitig Probleme aufzeigt, die weiterer Forschung bedürfen, wie das Füllen von Datenlücken in den TLS-Daten, die Erfassung weiterer Details in höherer Auflösung und die zielmarkenfreie Registrierung mehrerer Scans.

2. Herausforderungen und Lösungsansätze

Die Arbeit befasst sich mit verschiedenen Herausforderungen bei der 3D-Oberflächenrekonstruktion. Die Auflösung von Laser-Punktwolken kann für die Rekonstruktion kleiner Details, scharfer Kanten oder Bruchlinien unzureichend sein. Bei räumlich komplexen Objekten und schwieriger Topografie, wie sie häufig bei Kulturgütern vorkommen, ist eine vollständige Datenerfassung aus verschiedenen Blickwinkeln erforderlich, um durch die Objekte verursachte Verdeckungen (Occlusion) zu vermeiden. Die Datenerfassung mit TLS kann daher relativ zeitaufwendig und arbeitsintensiv sein. Im Gegensatz dazu bieten moderne bildbasierte Rekonstruktionsalgorithmen eine flexiblere Datenerfassung und ermöglichen je nach gewählter Bildskala eine höhere Auflösung und Präzision. Die vorgeschlagene Lösung ist ein vollautomatischer Fusionsansatz, der auf einer Bündelblockausgleichung zur Orientierungsschätzung von Kamerabildern und synthetischen Bildern basiert, die aus Laserscannerdaten mittels einer Structure-from-Motion (SfM)-Rekonstruktionsmethode erstellt werden. Das Hinzufügen von Kamerabildern zur Registrierung von Bildern aus TLS kann die Blockgeometrie verbessern, besonders bei Laserscans aus stark veränderten Blickwinkeln mit geringer Überlappung oder bei teilweise verdeckten Szenenteilen, sowie bei vollständig nicht überlappenden Laserscans. Neben der Verbesserung der Überlappung und der Blockgeometrie können die registrierten Kamerabilder verwendet werden, um die durch den Scanner erfasste Geometrie mit Texturen zu versehen. Darüber hinaus können Lücken in den Punktwolken durch Punktwolken aus dichtem Bildmatching gefüllt werden, wobei eine höhere Auflösung auch verwendet werden kann, um mehr Details wiederherzustellen als mit TLS möglich. Dieser Ansatz kann bei verschiedenen Anwendungen die Genauigkeit der Datenregistrierung so weit verbessern, dass ein Optimierungsschritt vernachlässigt werden kann.

3. Verbesserung der Ergebnisse durch kombinierten SfM Prozess

Die Integration von synthetischen und Kamerabildern in einem gemeinsamen SfM-Prozess führt zu genauen Bildorientierungen und dünn besetzten Punktwolken, die anfänglich in einem beliebigen Koordinatensystem vorliegen. Dies ermöglicht eine implizite Bestimmung von 3D-3D-Korrespondenzen zwischen der dünn besetzten Punktwolke und den TLS-Daten unter Verwendung der 2D-3D-Korrespondenzen in den generierten Bildern. Alternativ können die dünn besetzten Punktwolken mittels der Kollinearitätsgleichung auf die virtuellen Bilder projiziert werden, um die Messredundanz zu erhöhen. Anschließend werden die Parameter einer Helmert-Transformation berechnet. Die Verfügbarkeit dieser Parameter ermöglicht eine automatische Registrierung mehrerer Laserscans, insbesondere solcher mit stark unterschiedlichen Sichtfeldern oder ohne Überlappung. Durch die dichte Bildzuordnung können zusätzliche Oberflächeninformationen aus den Bildern extrahiert werden. Diese verbesserte Methode kombiniert die Vorteile der synthetischen und der Kamerabilder, um sowohl die geometrische als auch die visuelle Qualität des 3D-Modells zu verbessern. Die automatische Bestimmung der Skalierungsinformationen und die Reduktion von Verzerrungen durch Kameraparameter (Brennweite, Hauptpunkt, Linsenverzeichnung) sind weitere Vorteile dieses Ansatzes. Die Reduzierung des manuellen Eingriffs auf ein Minimum stellt eine effiziente Lösung für die Datenregistrierung und -kombination dar.

II.Generierung von 3D Modellen Datenaufnahme und geometrische Rekonstruktion

Die Erzeugung fotorealistischer 3D-Modelle, insbesondere für den Schutz des Kulturerbes, erfordert präzise Datenaufnahme und geometrische Rekonstruktion. Dabei werden Verfahren wie Structure-from-Motion (SfM) und Bundle Adjustment eingesetzt, um Kamerapositionen und dichte Punktwolken zu berechnen. Die Arbeit vergleicht verschiedene Ansätze, inklusive kommerzieller Software wie Agisoft Photoscan, und untersucht die Herausforderungen bei der Erfassung komplexer Objekte und großer Distanzen. Die Genauigkeit der 3D-Modellierung wird durch die Verwendung von Merkmalserkennung (z.B. SIFT, ASIFT) und Ausreißerentfernung (z.B. RANSAC) verbessert.

1. Der Bedarf an 3D Modellen und die Anforderungen an die Qualität

Der Bedarf an dreidimensionalen (3D) digitalen Modellen steigt stetig. In verschiedenen Bereichen wie Visualisierung, Animation, Navigation und virtuellen Stadtmodellen sind sie mittlerweile finanziell erschwinglich geworden. Besonders im Bereich der Dokumentation und Erhaltung von Kulturgütern ist die Erstellung fotorealistischer 3D-Modelle von großer Bedeutung. Diese Modelle spielen eine essentielle Rolle bei Verlusten oder Beschädigungen, im Tourismus und für Museumszwecke. Die Anforderungen an solche 3D-Modelle, insbesondere für die 3D-Aufzeichnung, umfassen hohe Qualität in Bezug auf Vollständigkeit, geometrische Genauigkeit und fotorealistisches Aussehen. Die Erstellung dieser Modelle umfasst vier Schritte: Datenerfassung und geometrische Rekonstruktion, Oberflächengenerierung, Texturzuordnung und Visualisierung. Dieses Kapitel gibt einen Überblick über die relevantesten Methoden, die in dieser Arbeit aus verschiedenen Blickwinkeln betrachtet werden. Die 3D-Modellierung von Kulturgütern ist essentiell für deren Erhalt angesichts des weltweiten Verlusts architektonischen und archäologischen Erbes, wie vom Getty Conservation Institute hervorgehoben. Die digitale 3D-Konservierung sollte leicht zugänglich und öffentlich nutzbar gemacht werden.

2. Automatisierte 3D Rekonstruktion mit Structure from Motion SfM

In der Computer Vision sind vollautomatisierte 3D-Rekonstruktionsmethoden basierend auf Structure-from-Motion (SfM)-Algorithmen weit verbreitet. Diese Algorithmen schätzen gleichzeitig die Kameraorientierungen und erstellen dünn besetzte 3D-Punktwolken aus einer Reihe von Bildkorrespondenzen. Sowohl kalibrierte als auch unkalibrierte Kameras können verwendet werden, da die Berechnung des Kameramodells üblicherweise im SfM-Prozess unter Verwendung der tatsächlichen Objektvermessungen integriert ist. SfM-Methoden werden auch kommerziell eingesetzt (z.B. ARC3D, Microsoft Photosynth, Autodesk 123DCatch, Agisoft PhotoScan). Diese Methoden erfordern in der Regel sehr kurze Intervalle zwischen aufeinanderfolgenden Bildern, um eine konstante Beleuchtung und Skalierung zwischen aufeinanderfolgenden Bildern zu gewährleisten. Daher eignen sie sich in erster Linie für Visualisierung, objektbasierte Navigation, Objekterkennung, Roboterbewegungsplanung und Bilddurchsicht, nicht aber für metrisch genaue 3D-Aufzeichnungen und -Modellierungen. Der Automatisierungsgrad hat sich jedoch erheblich weiterentwickelt, mit der Fähigkeit, große Mengen an Bildern zu orientieren. Ein typischer Ansatz zur Schätzung der sechs äußeren Orientierungsparameter und/oder der Netzwerkgeometrie, mit oder ohne Selbstkalibrierung und einer Anzahl von Kontrollpunkten, ist die Durchführung einer Bündelblockausgleichung basierend auf den Kollinearitätsgleichungen als funktionelles Modell.

3. Merkmalsextraktion und Multi View Stereo MVS

Für die automatische 3D-Rekonstruktion sind zuverlässige Merkmalsextraktoren unerlässlich. Es werden verschiedene lokale invariante Merkmaldetektoren (Interest Points, Regionen oder Kantensegmente) diskutiert, wobei Kriterien wie Deutlichkeit, Invarianz, Stabilität, Eindeutigkeit und Interpretierbarkeit der Merkmale entscheidend sind. Beispiele hierfür sind der Harris-Interest-Point-Operator, der MSER-Regionenoperator und der Canny-Kantendetektor. Multi-View-Stereo (MVS)-Matching- und Rekonstruktionstechniken dienen der Erstellung von 3D-Objektmodellen aus einer Reihe von Bildern mit bekannten inneren und äußeren Kameraorientierungen. Pro Pixel wird ein Sichtstrahl berechnet. MVS zielt darauf ab, die Entfernungen (Tiefen) für jedes Pixel zu berechnen, was zur Generierung dichter 3D-Objekt-Oberflächenpunkte führt. Es wird nach der Tiefe gesucht, für die die projizierten Positionen in allen beteiligten Bildern möglichst ähnlich aussehen. Ähnlich wie beim Korrespondenzproblem bestimmt die MVS-Methode die Tiefe, für die die resultierenden entsprechenden Patches (kleine Bereiche in den Bildern um die projizierten Positionen) konsistent sind. In den letzten Jahren wurden verschiedene hochwertige MVS-Techniken eingeführt und schnell verbessert. Terrestrische Laserscanner bestimmen direkt die 3D-Koordinaten aller Punkte in der Szene innerhalb ihres Sichtfelds (FOV). Jeder gemessene Punkt hat eine Entfernungsdistanz zur Scanstation, einen horizontalen Winkel, einen vertikalen Winkel und entsprechende radiometrische Informationen (Reflektanzen und/oder RGB-Werte).

4. Terrestrische Laserscanner Arten und Herausforderungen

Die Arbeit beschreibt verschiedene Arten von aktiven TLS-Systemen und Scanmechanismen. Hybrid-Scanner verwenden oszillierende oder rotierende polygonale Spiegel, um den Laserstrahl abzulenken, und erreichen ein volles horizontales, aber ein begrenztes vertikales Sichtfeld. Panoramische Scanner verwenden einen Monogon-Spiegel und erreichen ein fast volles vertikales Sichtfeld. Die Rekonstruktion eines 3D-Objekts mit einem Laserscanner erfordert die Einrichtung der Scanstation an mehreren Positionen. Die erfassten Punktwolken müssen in einem gemeinsamen Referenzsystem registriert werden. Die Scanregistrierung erfolgt in zwei Schritten: (i) manuelle oder automatische Scan-Ausrichtung unter Verwendung von Zielmarken oder der Daten selbst, und (ii) die endgültige globale Ausrichtung basierend auf dem ICP-Algorithmus oder Least-Squares-Matching-Verfahren. Drei Arten der Scanregistrierung werden unterschieden: zielmarkenbasiert, entfernungsbasiert und bildbasiert. Die Registrierung von TLS-Daten unter Verwendung von SIFT-Merkmalen, die sowohl aus Entfernungsinformationen als auch aus co-registrierten Kamerabildern extrahiert werden, wird ebenfalls diskutiert. Auch die Verwendung von Reflexionsbildern, die direkt aus den Reflexionswerten der TLS-Daten generiert werden, zur Merkmalsextraktion wird betrachtet.

III.Erstellung von Reflexions und RGB Bildern aus Laserscandaten

Um die Merkmalsextraktion aus 3D-Punktwolken zu vereinfachen, werden aus den TLS-Daten synthetische Reflexions- und RGB-Bilder erzeugt. Diese werden dann zusammen mit aufgenommenen Kamerabildern in einem gemeinsamen SfM-Prozess verarbeitet. Die Methode adressiert Herausforderungen wie unterschiedliche Blickwinkel und Datenlücken, die durch die Kombination von Bildern und Laserscandaten geschlossen werden können. Die Generierung qualitativ hochwertiger synthetischer Bilder, die mit den Kamerabildern vergleichbar sind, ist entscheidend für den Erfolg des Verfahrens. Dabei werden Verfahren zur Bildverbesserung, wie Histogrammausgleich, eingesetzt.

1. Vereinfachung der Merkmalsextraktion durch 2D Bilder

Die automatische Extraktion von Merkmalen aus 3D-Punktwolken ist schwierig und rechenintensiv. Daher wird die Erzeugung von Reflexions- oder RGB-Bildern aus den 3D-Daten vorgeschlagen, um die Merkmalsextraktion auf ein 2D-Problem zu reduzieren. Zusätzliche Informationen wie Entfernungsdaten, Reflexionswerte und RGB-Daten (von integrierten oder zusätzlichen Kameras) können dabei genutzt werden. Die Registrierung von digitalen Bildern und Laserscannerdaten erfolgt dann durch ein Matching zwischen den generierten und den Kamerabildern. Dieser Ansatz ist besonders vorteilhaft, wenn Laserscans aus sehr unterschiedlichen Blickwinkeln aufgenommen werden, da herkömmliche Matching-Verfahren mit 2D-Bildmerkmalen in solchen Fällen anfällig für Fehler sind. Die relative Position zwischen Sensoren (Scanner und Kamera) ist dabei oft limitierend. Eine Lösung, die große Änderungen der Blickwinkel bei Laserscans bewältigen kann, ist daher wünschenswert. Die Methode der Bildgenerierung aus der Punktwolke wird als effizienter Ansatz zur Merkmalsextraktion präsentiert. Die Generierung solcher Bilder ermöglicht die Nutzung von etablierten Computer Vision Algorithmen wie SfM und Bundle Adjustment.

2. Nachteile der direkten Verwendung von Scan Matrizen als Bilder

Die direkte Verwendung der Scan-Matrix als Bild hat Nachteile. Grundsätzlich wird eine Bildmatrix als ein Bild interpretiert, was je nach Mechanismus und Design des Laserscanners einen Scanabschnitt erfordert, der eine Bildmatrix umfasst. Diese Methode ist daher limitiert und unflexibel, insbesondere bei mehreren Scanabschnitten oder gruppierten Punktwolken aus verschiedenen Scanstationen. In dieser Darstellung verlaufen die Bildlinien nicht gerade, sondern gekrümmt. Im Gegensatz dazu werden Kamerabilder mit Zentralperspektivlinsen erzeugt; unter Vernachlässigung von Linsenverzerrungen werden gerade Linien als gerade Linien abgebildet. Dies führt zu Veränderungen der Grauwerte entlang der Objektlinien, nicht nur aufgrund unterschiedlicher Beleuchtungen, sondern auch aufgrund unterschiedlicher Geometrien. Die resultierenden Reflexions- und/oder RGB-Bilder benötigen eine visuelle Verbesserung (Histogrammausgleich, Farbanpassung usw.) aufgrund des schlechten Kontrasts und der niedrigen Auflösung der im Laserscanner integrierten Kamera. Die Qualität der generierten Bilder ist also entscheidend für die Zuverlässigkeit des Matching-Prozesses.

3. Zentralprojektion der Laserscanner Koordinaten Vorteile und Nachteile

Eine alternative Methode zur Bildgenerierung basiert auf der Zentralprojektion der Laserscanner-Kartesischen Koordinaten. Ein signifikanter Vorteil dieser Darstellung ist die Möglichkeit, leistungsstarke Algorithmen aus der Computer Vision zu verwenden, z.B. SfM und Bundle Adjustment, die ein Lochkamera-Modell benötigen. Die Ähnlichkeit zwischen den resultierenden Bildern und den Kamerabildern, bei denen gerade Linien erhalten bleiben, ermöglicht die Verwendung von nicht nur Merkmalsoperatoren, sondern auch Linienoperatoren auf den generierten Bildern. Die Nachteile beziehen sich auf die Eigenschaften der generierten Bilder: Sie zeigen kleine Lücken aufgrund der Auflösung der Punktwolke, die sich über das gesamte Bild ändert. Diese Lücken können das Merkmalsmatching stören und sollten durch Interpolationsprozesse und die Auswahl der richtigen Punktabtastung bei der Bildgenerierung vermieden werden. Bei der Generierung der virtuellen Bilder ist es wichtig, das 3D-virtuelle Kamerakoordinatensystem zu definieren und die Radiometrie sowie die Geometrie der generierten Bilder zu verbessern. Auch diese Bilder können eine visuelle Verbesserung benötigen. Die Qualität der synthetischen Bilder ist für den Erfolg des Verfahrens essenziell, da diese mit den Kamerabildern verglichen werden.

IV.Datenintegration und Zielmarkenfreie Registrierung von Laserscans

Die Integration der synthetischen Bilder und Kamerabilder erfolgt über einen Bundle Block Adjustment, der zu präzisen Kameraorientierungen und dünn besetzten Punktwolken führt. Eine Sieben-Parameter-Transformation ermöglicht die Skalierung und absolute Orientierung der Bilddaten im Bezugssystem der Laserscandaten. Das Verfahren ermöglicht die zielmarkenfreie Registrierung mehrerer Laserscans, auch bei stark unterschiedlichen Blickwinkeln oder fehlenden Überlappungen. Die Genauigkeit der Registrierung wird durch den Einsatz von ICP (Iterative Closest Point) Algorithmen weiter verbessert. Methoden zur Verbesserung der Übereinstimmung von Merkmalen, wie Delaunay-Triangulation und Triangle-Constraint (T-C), werden angewendet.

1. Datenintegration mittels genauer räumlicher Resektionsmethoden

Ein Verfahren zur Datenintegration nutzt genaue räumliche Resektionsmethoden. Dabei wird ein kd-Baum-Ansatz verwendet, um effizient nächste Nachbarn in einer Datenbank von Merkmalsdeskriptoren zu finden. Das Abstandsverhältnis zwischen den ersten beiden Kandidaten bestimmt die Übereinstimmung. Dieser Ansatz ist schnell, aber approximativ. Ein quadratisches Matching-Verfahren mit einem Abstandsverhältnis von etwa 0,63 wird verwendet, um eine gute Robustheit zu gewährleisten. Bei Objekten mit begrenzter Textur (z.B. Gebäude mit vielen Glasfenstern) ist es wichtig, mehr gute Merkmalspaare zwischen den Kamera- und PEM-Merkmalsdatenbanken zu finden. Dies kann durch die Verwendung der übereinstimmenden Merkmale als Startpunkte erreicht werden, die dann mit dem Delaunay-Triangulationsalgorithmus organisiert werden. Anschließend wird Triangle-Constraint (T-C) angewendet, um sowohl die Anzahl der korrekten Übereinstimmungen als auch das Verhältnis zwischen der Anzahl der korrekten Übereinstimmungen und der Gesamtzahl der Übereinstimmungen (Matching-Score) zu erhöhen. Der Einsatz von RANSAC zur Entfernung von Fehlzuordnungen wird beschrieben. Die Genauigkeit der räumlichen Resektion ist entscheidend für die Qualität der Datenintegration.

2. Datenintegration mit räumlicher Resektion und SfM Rekonstruktion

Die Integration von Daten mittels räumlicher Resektion und SfM-Rekonstruktion wird diskutiert. Der MVS-Rekonstruktionsschritt liefert dichte Punktwolken, die grob mit den Laserdaten registriert sind. Diese Punkte liefern eine gute Vorregistrierung für einen weiteren globalen Registrierungsschritt mit ICP. Die Qualität dieser anfänglichen Ausrichtung wird durch die Qualität der geschätzten Kameraorientierungen beeinflusst, die wiederum von der Anzahl und der Verteilung der korrigierten 2D-zu-3D-Korrespondenzen abhängen. Daher spielt die Minimierung von Reprojektionsfehlern (im Bild- und Objektraum) während der Berechnung der Orientierungen unter Verwendung der Ausreißerentfernung eine wichtige Rolle für eine genaue Orientierung und eine gute anfängliche Ausrichtung. Darüber hinaus wird ein Filterungsschritt erwartet, um Rauschpunkte zu entfernen, die sich auf die Qualität der Feinregistrierung auswirken können. Die Anwendung von ICP verbessert die Registrierungsgenauigkeit. Die Qualität der initialen Ausrichtung durch die SfM-Rekonstruktion hat einen grossen Einfluss auf die nachfolgende globale Registrierung. Minimierung von Reprojektionsfehlern und die Entfernung von Rauschpunkten sind daher zentral.

3. Der vorgeschlagene allgemeine Workflow und die Sieben Parameter Transformation

Der vorgeschlagene allgemeine Workflow zur Datenintegration wird vorgestellt. Die Kombination von aus 3D-Laserdaten generierten Bildern und von einer kalibrierten oder unkalibrierten Kamera aufgenommenen Bildern wird in den SfM-Prozess einbezogen. Bei hohen Genauigkeitsanforderungen (z.B. bei der Aufzeichnung von Kulturgütern) und einer Kamera mit hoher Stabilität und fester Brennweite werden zuvor durch Standardkalibrierungsmethoden bestimmte Kalibrierungsparameter für Kamerabilder verwendet. Die virtuellen Kameras, die zum Projizieren der Laser-Punktwolken auf virtuelle/synthetische Bilder verwendet werden, werden als kalibriert angenommen, außer dem Hauptpunkt (P), der verschoben werden muss. Die Bildabmessungen müssen entsprechend angepasst werden, da in den SfM- und Bündelblockausgleichsmethoden davon ausgegangen wird, dass sich der Hauptpunkt jedes Bildes (generiert und aufgenommen) in der Mitte befindet. Die generierten Bilder können daher nicht direkt in dem Algorithmus verwendet werden, es sei denn, der Rezentrierungsprozess wird angewendet. Diese Verschiebungen werden in Pixeln berechnet. Die relative Orientierung der generierten Bilder wird im SfM-Schritt bestimmt und automatisch in das absolute Koordinatensystem transformiert. Das Verfahren bietet eine effiziente Lösung für die direkte Registrierung von Bild- und Laserscanner-Punktwolken und ermöglicht eine zielmarkenfreie Registrierung mehrerer Laserscans, auch bei teilweise verdeckten Bereichen und nicht überlappenden Scans. Ein zusätzlicher Schritt zur Verbesserung der Registrierungsgenauigkeit durch ICP ist möglich.

V.Fallstudien Kulturgüterdokumentation

Die entwickelten Methoden werden an verschiedenen Fallstudien angewendet, darunter die Dokumentation eines historischen Gebäudes (Abtei Hirsau) und des Tempels von Heliopolis. Dabei kommen verschiedene TLS-Systeme (z.B. Leica ScanStation HDS 3000, Faro Focus 3D) und Kameras (z.B. Nikon D2X, Nikon D3100) zum Einsatz. Die Ergebnisse zeigen die erfolgreiche Registrierung von Laserscans, auch bei stark unterschiedlichen Blickwinkeln und fehlenden Überlappungen, mit einer Genauigkeit im Zentimeterbereich. Die Software SURE wird für Dense Image Matching verwendet. Die Abtei Hirsau und der Tempel von Heliopolis dienen als konkrete Beispiele für die Anwendung der Technologie zur Kulturgüter-Dokumentation und -erhaltung.

1. Handgefertigtes Modell der Abtei Hirsau

Die vorgestellten Methoden werden anhand eines handgefertigten 3D-Modells der Ruinen der Abtei Hirsau getestet. Das Modell wurde in einem kleinen Raum auf einem Tisch in ca. 1,5 m Höhe platziert und mit einem Faro Focus 3D Laserscanner an acht Scanstationen (4 Eckaufnahmen und 4 orthogonale Aufnahmen) erfasst, um eine ausreichende Messredundanz zu gewährleisten. Die Winkelauflösung wurde auf die volle vom Hersteller angegebene Auflösung eingestellt (ca. 1,534 mm/10 m Entfernung). Die Registrierung der Scans erfolgte entweder automatisch mit einer der bildbasierten Methoden unter Verwendung der aus den Laserdaten generierten Bilder oder manuell mithilfe künstlicher Zielmarken (schwarz-weiße Papiere). Die Laserscanmessung diente hauptsächlich dazu, Lücken in der bildbasierten 3D-Geometrie zu schließen und Skaleninformationen zu erhalten. Zur Skalierung des rekonstruierten Modells wurden zwei Methoden verwendet: Die erste Methode folgte der allgemeinen Integrationslösung, indem die generierten RGB-Bilder aus den TLS-Daten in den SfM-Prozess integriert wurden, um die Transformationsparameter zu erhalten. Diese Parameter führten zur Registrierung beider Datensätze (TLS-Daten und dichte Bildpunktwolken des handgefertigten Modells). Die zweite Methode minimierte unbekannte Fehler durch eine direkte Transformation oder Registrierung zwischen den dichten Bildpunktwolken und dem realen Modell der bestehenden Ruinen der Abtei Hirsau, die bereits mit TLS-Systemen erfasst wurden. Dies erfolgte durch die manuelle Messung von mindestens 3 Punkten in beiden Datensätzen, um eine anfängliche Ausrichtung zu erhalten. Der gleiche Ansatz wurde auf die TLS-Daten des handgefertigten Modells angewendet. Beide Methoden benötigten einen anschließenden Verfeinerungsschritt mittels ICP.

2. Der Tempel von Heliopolis als Fallstudie

Als weitere Fallstudie wurde der Tempel von Heliopolis in Ägypten untersucht. Heliopolis, „Stadt der Sonne“, war eine der ältesten Städte des alten Ägypten und etwa 2400 Jahre lang (2700-300 v. Chr.) das Zentrum der ägyptischen Religion. Heute ist die Stadt größtenteils zerstört; ihre Tempel und Gebäude wurden für den Bau des mittelalterlichen Kairo verwendet. Einige antike Stadtmauern aus Rohziegeln sind noch in den Feldern zu sehen, und einige Granitblöcke mit dem Namen Ramses II. sind erhalten geblieben. Die Position des großen Tempels von Re-Atum ist durch den Obelisken von Al-Masalla gekennzeichnet, der sich im Al-Matariya-Museum befindet. Dieser 20,7 Meter hohe rote Granitobelisk wiegt 120 Tonnen. Die Fallstudie zeigt die Anwendung der entwickelten Methoden auf die Rekonstruktion eines stark zerstörten antiken Ortes. Die Datenerfassung erfolgte mittels verschiedener Sensoren, darunter terrestrische Laserscanner (TLS) als zuverlässige Technologie für die Erfassung von 3D-Oberflächenpunkten. Die Vorteile von TLS liegen in der schnellen und effizienten Datenerfassung einer grossen Anzahl von 3D-Punkten. Im Gegensatz dazu erfordert die klassische Photogrammetrie mindestens zwei Bilder, gefolgt von einer Reihe von Verarbeitungsschritten, um die 3D-Punktwolken zu erhalten. Die Auswahl des geeigneten Scanners ist anwendungsabhängig; Outdoor-Scanner können bis zu hundert Metern eingesetzt werden, während Indoor-Scanner eine begrenzte Reichweite haben.

3. Anwendungsbeispiel Abtei Hirsau und die eingesetzten Sensoren

An der Abtei Hirsau wurden zwei Gebäude als Fallstudien untersucht. Es kamen verschiedene Laserscanner (Leica ScanStation HDS 3000, Faro Focus 3D, Leica ScanStation C10) und Kameras (Nikon D2X, Nikon D3100) zum Einsatz. Der Faro Focus 3D ist ein phasenbasierter Laserscanner mit einem Sichtfeld von 360° x 305° und einer hohen Messgeschwindigkeit (bis zu 976.000 Punkte pro Sekunde). Die Fallstudien demonstrieren die Registrierung von vollständig nicht überlappenden Laserscans aus sehr unterschiedlichen Blickwinkeln. Bei Gebäude 1 der Abtei Hirsau wurden 2 RGB-Bilder aus 2 Scans und nur 5 dazwischen aufgenommene Kamerabilder für die SfM-Rekonstruktion verwendet. Die Orientierungen und die Geometrie aller Bilder wurden erfolgreich mit Agisoft PhotoScan ermittelt. Die Korrespondenzen zwischen den dünn besetzten Punktwolken aus SfM und den Laserdaten wurden mithilfe der in den generierten Bildern gespeicherten 3D-Daten bestimmt. Diese Korrespondenzen ermöglichten die Schätzung der Helmert-Transformationsparameter, um die Orientierungen in einem absoluten Koordinatensystem zu berechnen. Bei Gebäude 2 wurden 2 generierte RGB-Bilder und 30 dazwischen aufgenommene Kamerabilder verwendet. Auch hier gelang die erfolgreiche SfM-Rekonstruktion und die anschließende präzise Ausrichtung der Punktwolken. Diese Fallstudien unterstreichen die Fähigkeit des Verfahrens, auch komplexe Szenarien mit minimalen Überlappungen zu verarbeiten.

VI.Schlussfolgerung und Ausblick

Die Arbeit zeigt das große Potenzial der Kombination von Photogrammetrie und TLS für die 3D-Rekonstruktion und den Schutz von Kulturgütern. Die entwickelten automatischen Verfahren ermöglichen eine effiziente und präzise Datenintegration, selbst bei komplexen Szenarien. Zukünftige Arbeiten könnten sich auf die Verbesserung der Robustheit des Verfahrens und die Erweiterung auf weitere Anwendungsgebiete konzentrieren. Die erzielte Genauigkeit im Zentimeterbereich erfüllt die Anforderungen für viele Anwendungen im Bereich der Kulturgüterdokumentation.

1. Zusammenfassung der Ergebnisse

Die Arbeit präsentiert eine Methode zur Kombination von digitaler Photogrammetrie und terrestrischem Laserscanning (TLS) für Nahbereichsanwendungen, insbesondere zur Dokumentation und Erhaltung von Kulturgütern. Die vorgeschlagene Lösung nutzt synthetische Bilder, die aus den TLS-Daten erstellt werden, um die Extraktion von 3D-Informationen zu vereinfachen. Diese Integration zielt darauf ab, Lücken in Laser-Punktwolken aufgrund von Verdeckung oder schwacher Reflektivität des Objektmaterials zu schließen, mehr Objektdetails in höherer Auflösung zu erfassen und mehrere Laserscans zu registrieren, insbesondere bei teilweise oder vollständig nicht überlappenden Scans. Die Methode ermöglicht die Verwendung von Dense Image Matching-Algorithmen wie SURE für die Bilder und deren Orientierungsparameter, um korrekt skalierte Punktwolken im Laserscan-Koordinatensystem zu erhalten. Die Genauigkeit der Registrierung wurde in Fallstudien an der Abtei Hirsau und am Tempel von Heliopolis evaluiert und zeigt Ergebnisse im Zentimeterbereich. Die Verwendung von verschiedenen Laserscannern (z.B. Leica ScanStation HDS 3000, Faro Focus 3D) und Kameras (z.B. Nikon D2X, Nikon D3100) wird in den Fallstudien dokumentiert.

2. Bewertung der Genauigkeit und Ausblick auf zukünftige Arbeiten

Die Genauigkeit der Methode wurde durch einen Vergleich der aus Laserscanner- und Bilddaten gewonnenen Punktwolken mit der Software CloudCompare ermittelt. Die Standardabweichung der Differenz betrug ca. 3,9 cm, die mittlere Abweichung ca. 1,5-1,8 cm. Diese Ergebnisse erfüllen die Anforderungen der Anwendung, wobei ein nachfolgender Verfeinerungsschritt mit ICP optional ist. Die Fallstudien an der Abtei Hirsau zeigen die erfolgreiche Registrierung auch bei vollständig nicht überlappenden Scans. Die Abtei Hirsau (mit Referenz auf die Große Kreisstadt Calw und Oberfinanzdirektion Karlsruhe, Copyright 1991) sowie der Tempel von Heliopolis dienen als konkrete Beispiele. Der Tempel von Heliopolis, einst Hauptstadt des 13. unterägyptischen Noms, wurde im Detail beschrieben; seine Zerstörung und die Überbauung für das mittelalterliche Kairo werden thematisiert. Der Al-Masalla-Obelisk im Al-Matariya-Museum ist als Überrest erwähnt (Petrie et al., 1915; Dobrowolska & Dobrowolski, 2006). Die Arbeit zeigt das Potenzial der kombinierten Nutzung von Photogrammetrie und TLS, wobei zukünftige Arbeiten die Robustheit und die Anwendung auf weitere Gebiete verbessern könnten. Die erreichte Genauigkeit im Zentimeterbereich ist für viele Anwendungen im Bereich der Kulturgüterdokumentation ausreichend.