- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2024
Abschlussarbeiten 2024
Comparison of Tropospheric Delay Modeling Approaches in VLBI Analysis
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm, Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna
Kurzfassung/Abstract
In VLBI analysis, the tropospheric signal delay is modeled using so-called mapping functions and gradients. They relate a delay in zenith direction to the delay at the elevation and azimuth at which an observation takes place. The objective of this thesis is to investigate how different settings for modeling of the tropospheric delays and for the estimation of tropospheric parameters in the Vienna VLBI and Satellite Software (VieVS) affect the results of VLBI analysis. To do this, 3296 legacy S/X sessions from 2000 until 2020 and 36 VGOS sessions from 2017, 2019 and 2020 are analyzed. A main focus of investigation are baseline length repeatabilities (BLRs), which serve as a good measure of the accuracy achievable with a specific setting. The first part of the thesis deals with testing different choices of mapping functions for the hydrostatic and wet delays. It is found that the differences between any combination of the Vienna Mapping Functions (VMF1 and VMF3) are negligible when comparing baseline length repeatabilities. However, it is further revealed that using VMF3 for the hydrostatic and VMF1 for the wet delay component will introduce a bias to the estimated stations heights of about one to two millimeters height decrease on average, compared to either using VMF1 or VMF3 consistently for both delay components. This result is important because this inconsistent approach was used as default by the Vienna Analysis Center at the start of this investigation. A section of the thesis is then dedicated to the differences between VMF1 and VMF3 which give rise to this bias in a mixed application. In the second part, the influence of the estimation intervals for zenith wet delays and gradients on baseline length repeatabilities are investigated. A small influence is observed. Here, shorter estimation intervals improved average baseline length repeatabilities for S/X sessions, while longer intervals did so for VGOS sessions.
In VLBI analysis, the tropospheric signal delay is modeled using so-called mapping functions and gradients. They relate a delay in zenith direction to the delay at the elevation and azimuth at which an observation takes place. The objective of this thesis is to investigate how different settings for modeling of the tropospheric delays and for the estimation of tropospheric parameters in the Vienna VLBI and Satellite Software (VieVS) affect the results of VLBI analysis. To do this, 3296 legacy S/X sessions from 2000 until 2020 and 36 VGOS sessions from 2017, 2019 and 2020 are analyzed. A main focus of investigation are baseline length repeatabilities (BLRs), which serve as a good measure of the accuracy achievable with a specific setting. The first part of the thesis deals with testing different choices of mapping functions for the hydrostatic and wet delays. It is found that the differences between any combination of the Vienna Mapping Functions (VMF1 and VMF3) are negligible when comparing baseline length repeatabilities. However, it is further revealed that using VMF3 for the hydrostatic and VMF1 for the wet delay component will introduce a bias to the estimated stations heights of about one to two millimeters height decrease on average, compared to either using VMF1 or VMF3 consistently for both delay components. This result is important because this inconsistent approach was used as default by the Vienna Analysis Center at the start of this investigation. A section of the thesis is then dedicated to the differences between VMF1 and VMF3 which give rise to this bias in a mixed application. In the second part, the influence of the estimation intervals for zenith wet delays and gradients on baseline length repeatabilities are investigated. A small influence is observed. Here, shorter estimation intervals improved average baseline length repeatabilities for S/X sessions, while longer intervals did so for VGOS sessions.
Bestimmung und Verbesserung von Höhenmodellen aus Crowd-Sensed GNSS-Trajektorien
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka-Schremmer
Kurzfassung/Abstract
Der Anstieg des Geländes spielt bei Langstreckenrennen von professionellen Radsportlern eine zentrale Rolle. Aber auch bei der Tourenplanung im Freizeit- und Amateursport ist dieser Aspekt relevant, besonders für Mountainbiker. Daher greifen gängige Smartphone-Anwendungen für Radfahrer auf Höhenmodelle zurück, um die zu erwartende Steigung bereits bei der Routenplanung abzuschätzen zu können. Viele der Anwendungen streben eine weltweite Abdeckung an. Daher werden dazu meist globale Modelle wie SRTM (Shuttle Radiometry Topography Mission) verwendet. Im Vergleich zu nationalen digitalen Höhenmodellen, die mit Hilfe von Airborne Laser Scanning (ALS) erstellt wurden, haben solche globalen Modelle den Nachteil einer groben Auflösung und einer begrenzten Genauigkeit, was eine korrekte Schätzung der zu erwarteten Höhenmeter erschwert. Heutzutage zeichnen viele Radfahrer ihre Aktivitäten mit Hilfe von globalen Satellitennavigationssystemen (GNSS) mit Smartphones oder Fitnesscomputern auf, welche die aufgezeichneten Daten zum Zweck der Trainingsdokumentation speichern. In dieser Arbeit wird die Nutzung solcher mobiler GNSS-Daten für die Modellierung digitaler Straßenhöhen vorgeschlagen, um die Planung von Radtouren zu verbessern. Da die Genauigkeit mobiler GNSS in Bezug auf Lage und Höhe variiert, ist es wichtig, diese Daten kritisch zu prüfen, um statistische Sicherheit und Integrität zu gewährleisten. Als Eingabedaten wurden über 23000 von Nutzern aufgezeichnete Trajektorien verwendet, die aus über 40 Millionen GNSS Punktmessungen bestehen, die im Zeitraum von drei Jahren zwischen 2019 und 2021 aufgezeichnet wurden. Diese Arbeit stellt verschiedene Methoden vor, um die Homogenität und Qualität dieser Daten zu verbessern, wobei die Beseitigung grober Fehler und die Korrektur systematischer Fehler im Mittelpunkt steht. Die entwickelten Methoden aggregieren die Daten zu einem rasterbasierten Straßenhöhenmodell, welches in sich eine globale Anwendbarkeit und eine statistische Robustheit gegenüber Ausreißern vereint. Auch wenn sich das berechnete Modell in seiner Ausdehnung auf das Gebiet der Stadt Wien beschränkt, wurden die Methoden im Hinblick auf eine globale Anwendbarkeit entwickelt. Da sich die von Nutzern generierten Daten zu einem Großteil auf Straßen und Radwegen befinden, sie aber zusätzlich eine inhomogene Verteilung über das Gebiet der Studie hinweg aufweisen, hängt die statistische Sicherheit des resultierenden Modells stark von der räumlichen Verteilung und Qualität der Daten ab. Ein Vergleich mit Referenzdaten in Bezug auf Lage und Höhe hat gezeigt, dass unser Modell die Straßen mit einer signifikant besseren Genauigkeit als SRTM repräsentieren kann. Unser Modell zeigt gegenüber SRTM Verbesserungen in der mittleren Höhenabweichung um 22% (von 1,09m auf -0,15m), bezugnehmend auf ein ALS Höhenmodell. Die Standardabweichung verbessert sich diesbezüglich sogar um 36% (von 5,84m auf 2,11m). Da die aufgezeichneten Daten von Radfahrern stammen, konzentriert sich das entwickelte Modell hauptsächlich auf Straßen und Radwege und kann daher etwa 25-30% aller Straßen im untersuchten Gebiet abdecken. Obwohl unser Modell in erster Linie für die Verbesserung der Routenplanung in einer mobilen Fahrradanwendung entwickelt wurde, könnte es auch in ortsbezogenen Diensten oder Stadtplanungsanwendungen großen Nutzen bringen.
Der Anstieg des Geländes spielt bei Langstreckenrennen von professionellen Radsportlern eine zentrale Rolle. Aber auch bei der Tourenplanung im Freizeit- und Amateursport ist dieser Aspekt relevant, besonders für Mountainbiker. Daher greifen gängige Smartphone-Anwendungen für Radfahrer auf Höhenmodelle zurück, um die zu erwartende Steigung bereits bei der Routenplanung abzuschätzen zu können. Viele der Anwendungen streben eine weltweite Abdeckung an. Daher werden dazu meist globale Modelle wie SRTM (Shuttle Radiometry Topography Mission) verwendet. Im Vergleich zu nationalen digitalen Höhenmodellen, die mit Hilfe von Airborne Laser Scanning (ALS) erstellt wurden, haben solche globalen Modelle den Nachteil einer groben Auflösung und einer begrenzten Genauigkeit, was eine korrekte Schätzung der zu erwarteten Höhenmeter erschwert. Heutzutage zeichnen viele Radfahrer ihre Aktivitäten mit Hilfe von globalen Satellitennavigationssystemen (GNSS) mit Smartphones oder Fitnesscomputern auf, welche die aufgezeichneten Daten zum Zweck der Trainingsdokumentation speichern. In dieser Arbeit wird die Nutzung solcher mobiler GNSS-Daten für die Modellierung digitaler Straßenhöhen vorgeschlagen, um die Planung von Radtouren zu verbessern. Da die Genauigkeit mobiler GNSS in Bezug auf Lage und Höhe variiert, ist es wichtig, diese Daten kritisch zu prüfen, um statistische Sicherheit und Integrität zu gewährleisten. Als Eingabedaten wurden über 23000 von Nutzern aufgezeichnete Trajektorien verwendet, die aus über 40 Millionen GNSS Punktmessungen bestehen, die im Zeitraum von drei Jahren zwischen 2019 und 2021 aufgezeichnet wurden. Diese Arbeit stellt verschiedene Methoden vor, um die Homogenität und Qualität dieser Daten zu verbessern, wobei die Beseitigung grober Fehler und die Korrektur systematischer Fehler im Mittelpunkt steht. Die entwickelten Methoden aggregieren die Daten zu einem rasterbasierten Straßenhöhenmodell, welches in sich eine globale Anwendbarkeit und eine statistische Robustheit gegenüber Ausreißern vereint. Auch wenn sich das berechnete Modell in seiner Ausdehnung auf das Gebiet der Stadt Wien beschränkt, wurden die Methoden im Hinblick auf eine globale Anwendbarkeit entwickelt. Da sich die von Nutzern generierten Daten zu einem Großteil auf Straßen und Radwegen befinden, sie aber zusätzlich eine inhomogene Verteilung über das Gebiet der Studie hinweg aufweisen, hängt die statistische Sicherheit des resultierenden Modells stark von der räumlichen Verteilung und Qualität der Daten ab. Ein Vergleich mit Referenzdaten in Bezug auf Lage und Höhe hat gezeigt, dass unser Modell die Straßen mit einer signifikant besseren Genauigkeit als SRTM repräsentieren kann. Unser Modell zeigt gegenüber SRTM Verbesserungen in der mittleren Höhenabweichung um 22% (von 1,09m auf -0,15m), bezugnehmend auf ein ALS Höhenmodell. Die Standardabweichung verbessert sich diesbezüglich sogar um 36% (von 5,84m auf 2,11m). Da die aufgezeichneten Daten von Radfahrern stammen, konzentriert sich das entwickelte Modell hauptsächlich auf Straßen und Radwege und kann daher etwa 25-30% aller Straßen im untersuchten Gebiet abdecken. Obwohl unser Modell in erster Linie für die Verbesserung der Routenplanung in einer mobilen Fahrradanwendung entwickelt wurde, könnte es auch in ortsbezogenen Diensten oder Stadtplanungsanwendungen großen Nutzen bringen.
Comparing snow melt methods from multi-temporal Sentinel-1 SAR backscatter data
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Claudio Navacchi
Kurzfassung/Abstract
Niederschlag zählt zu den wichtigsten Klimavariablen und ist von der GCMO mit Unterstützung der WMO definiert worden. Dies betont die Bedeutung von Forschungsfragen im Zusammenhang mit Schnee, insbesondere in Zeiten des Klimawandels. Weltweit sind zahlreiche Menschen auf Schmelzwasser aus höher gelegenen hydrologischen Einzugsgebieten angewiesen. Trotzdem gibt es bisher nur wenige Ansätze zur Analyse der Schneeschmelze mit Fernerkundungsdaten. Die bestehenden Ansätze konzentrieren sich hauptsächlich auf punktuelle in-situ Messungen als Groundtruth. Ziel dieser Arbeit ist es daher, Sentinel-1 Rückstreudaten mit Oberflächenpegeldaten für vier aufeinanderfolgende hydrologische Jahre zu vergleichen. Dazu wurden zwei verschiedene Ansätze gewählt, um den Tag der Schmelzwasserfreisetzung für das jeweilige hydrologische Einzugsgebiet in der Schneedecke zu ermitteln. Diese Ansätze unterscheiden sich hauptsächlich durch die Schwellwertklassifikation von Nassschnee und in der Analyse der mathematischen Ableitung der jeweiligen Zeitreihe. Es wurden 35 verschiedene Einzugsgebiete analysiert und festgestellt, dass die Definition des absoluten Minimums der Zeitserie besser geeignet ist, um den Tag der Schmelzwasserfreisetzung zu bestimmen. Zusätzlich wurde versucht, einen Höhenschwellwert einzuführen, um den Unterschied des Tages der Schmelzwasserfreisetzung in verschiedenen Höhen zu untersuchen. Dabei zeigt sich in den Fernerkundungsdaten deutlich, dass höher gelegene Einzugsgebiete weitaus später Nassschnee erkennen als niedriger gelegene Einzugsgebiete.
Niederschlag zählt zu den wichtigsten Klimavariablen und ist von der GCMO mit Unterstützung der WMO definiert worden. Dies betont die Bedeutung von Forschungsfragen im Zusammenhang mit Schnee, insbesondere in Zeiten des Klimawandels. Weltweit sind zahlreiche Menschen auf Schmelzwasser aus höher gelegenen hydrologischen Einzugsgebieten angewiesen. Trotzdem gibt es bisher nur wenige Ansätze zur Analyse der Schneeschmelze mit Fernerkundungsdaten. Die bestehenden Ansätze konzentrieren sich hauptsächlich auf punktuelle in-situ Messungen als Groundtruth. Ziel dieser Arbeit ist es daher, Sentinel-1 Rückstreudaten mit Oberflächenpegeldaten für vier aufeinanderfolgende hydrologische Jahre zu vergleichen. Dazu wurden zwei verschiedene Ansätze gewählt, um den Tag der Schmelzwasserfreisetzung für das jeweilige hydrologische Einzugsgebiet in der Schneedecke zu ermitteln. Diese Ansätze unterscheiden sich hauptsächlich durch die Schwellwertklassifikation von Nassschnee und in der Analyse der mathematischen Ableitung der jeweiligen Zeitreihe. Es wurden 35 verschiedene Einzugsgebiete analysiert und festgestellt, dass die Definition des absoluten Minimums der Zeitserie besser geeignet ist, um den Tag der Schmelzwasserfreisetzung zu bestimmen. Zusätzlich wurde versucht, einen Höhenschwellwert einzuführen, um den Unterschied des Tages der Schmelzwasserfreisetzung in verschiedenen Höhen zu untersuchen. Dabei zeigt sich in den Fernerkundungsdaten deutlich, dass höher gelegene Einzugsgebiete weitaus später Nassschnee erkennen als niedriger gelegene Einzugsgebiete.
Visualisierung von Deformationsmessungen: Evaluierung von kommerzieller Software und normenkonforme Eigenentwicklung
Diplomarbeit: Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Diese Masterarbeit untersucht drei verschiedene kommerzielle Softwarepakete: rmGEO, Canary Sytems und GeoMoS Now!. Hierbei spielt nicht nur der Vergleich eine Rolle, sondern der Fokus liegt auch auf der Überprüfung der Einhaltung der Normen und Prinzipien des Information Designs. Weiteres geht die Arbeit über die reine Analyse hinaus, indem eigene Entwicklungen präsentiert werden. Dazu werden zwei Datensätze verwendet: eine Deformationsmessung einer simulierten Mauer am Dach des Geodäsie Gebäudes, Steyrergasse 30 in Graz, und der Bruch der linken Wehrwange des KW Palten in Rottenmann aus dem Jahr 2020. Die Motivation der Arbeit liegt in der kritischen Überprüfung und Verbesserung von bereits bestehenden Lösungen in der Software. Eine klar verständliche Darstellung von Deformationsmessungen ist wichtig, um frühzeitig Risiken zu erkennen. Mithilfe der Normen und Prinzipien des Information Designs gibt es die Möglichkeit, bestehende Lösungen zu optimieren beziehungsweise neue Entwicklungen zu generieren. Die Arbeit gliedert sich in den Stand der Technik, einer Analyse der Visualisierungsmöglichkeiten kommerzieller Softwarelösungen, eigene Entwicklungen sowie eine abschließende Schlussfolgerung. Beim Vergleich der Softwarepakete wurden verschiedene Stärken und Schwächen offenbart. Die eigenen Entwicklungen, die mit Python umgesetzt wurden, ermöglichen eine grafische Darstellung von Monitoringdaten mit dem Fokus auf die Normen und dem Information Design. Insgesamt bietet das entwickelte Programm eine aussagekräftige Visualisierung von Deformationsmessungen. Die Wahl, welches kommerzielle Softwarepaket am besten geeignet ist, hängt von den individuellen Anforderungen ab.
Diese Masterarbeit untersucht drei verschiedene kommerzielle Softwarepakete: rmGEO, Canary Sytems und GeoMoS Now!. Hierbei spielt nicht nur der Vergleich eine Rolle, sondern der Fokus liegt auch auf der Überprüfung der Einhaltung der Normen und Prinzipien des Information Designs. Weiteres geht die Arbeit über die reine Analyse hinaus, indem eigene Entwicklungen präsentiert werden. Dazu werden zwei Datensätze verwendet: eine Deformationsmessung einer simulierten Mauer am Dach des Geodäsie Gebäudes, Steyrergasse 30 in Graz, und der Bruch der linken Wehrwange des KW Palten in Rottenmann aus dem Jahr 2020. Die Motivation der Arbeit liegt in der kritischen Überprüfung und Verbesserung von bereits bestehenden Lösungen in der Software. Eine klar verständliche Darstellung von Deformationsmessungen ist wichtig, um frühzeitig Risiken zu erkennen. Mithilfe der Normen und Prinzipien des Information Designs gibt es die Möglichkeit, bestehende Lösungen zu optimieren beziehungsweise neue Entwicklungen zu generieren. Die Arbeit gliedert sich in den Stand der Technik, einer Analyse der Visualisierungsmöglichkeiten kommerzieller Softwarelösungen, eigene Entwicklungen sowie eine abschließende Schlussfolgerung. Beim Vergleich der Softwarepakete wurden verschiedene Stärken und Schwächen offenbart. Die eigenen Entwicklungen, die mit Python umgesetzt wurden, ermöglichen eine grafische Darstellung von Monitoringdaten mit dem Fokus auf die Normen und dem Information Design. Insgesamt bietet das entwickelte Programm eine aussagekräftige Visualisierung von Deformationsmessungen. Die Wahl, welches kommerzielle Softwarepaket am besten geeignet ist, hängt von den individuellen Anforderungen ab.
Erstellung einer Visualisierung und Prozessierung Software Struktur für analoge Mars Simulationen
Diplomarbeit: Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2024
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Masterarbeit analysiert den Ansatz der Erstellung eines WebGIS und einer Prozessierung Software für die Amadee 20 Mars Simulation des ÖWFs in Israel, unter Verwendung von Open Source Technologien. Als Teil des Team Exoscot müssen verschiedene Aufgaben der Geoinformatik auf Basis von Raster und Vektordaten erfüllt werden. Hierfür wird der Ablauf der Amadee 20 Mission und die Einbindung der erstellen Software, unter Beachtung aller Aspekte und Möglichkeiten, genauer beschrieben. Eine passende Softwarearchitektur für die Applikationen und dem Datenprovider wird erstellt um eine nahtlose Interaktion von Mission Support zu gewährleisten. Zwei Hauptaufgaben werden hierbei genauer beleuchtet: Während der Zeit der Simulation visualisiert und analysiert Mission Support verschiedene räumliche Datensätze, auf deren Basis eine Vielzahl von verschiedenen Aufgaben geplant wird. Um die Produktivität von Mission Support in Innsbruck zu maximieren, muss die Applikation für nicht GIS Experten designed werden. Um eine nahtlose Interaktion und ein sauberes Design der Software zu gewährleisten werden verschiedene Probleme von GIS Interfaces betrachtet und Ansätze für das Design der erstellten Software, welchen den Gegebenheiten der Mission entsprechen, werden im Detail diskutiert. Räumliche Daten, welche während der Mission aufgenommen oder direkt in der Applikation erstellt werden, müssen in Visualisierung und Analyse nahtlos integriert werden. Kartierungs- und Visualisierungsdienste werden in die Software miteingebunden um eine Performance orientierte Visualisierung von großen Rasterdatensätzen und eine sofortige Manipulierung von Vektordaten gewährleisten zu können. Die Interaktion mit verschiedenen Datentypen geschieht über den GeoServer des Österreichischen Weltraum Forums. Hierfür werden verschiedene Open Source Technologien im Feld der räumlichen Visualisierung und der Analyse im Detail beschrieben. Im praktischen Teil der Arbeit wir die Integration dieser Open Source Technologien erläutert. Eine separate Applikation für eine detaillierte Analyse von digitalen Geländemodellen wird erstellt. Die zur Verfügung gestellten Rasterdatensätze werden mithilfe der erstellten Software analysiert um ein genaueres Bild über das Missionsgebiet zu erhalten. Die Einbindung verschiedener Werkzeuge für die Analyse der Rasterdaten wird beschrieben. Um Mission Control die Möglichkeiten der Routenplanung für den Rover von Team Exoscot zu geben, wird ein Routing Algorithmus auf Basis eines digitalen Geländemodells erstellt.
Diese Masterarbeit analysiert den Ansatz der Erstellung eines WebGIS und einer Prozessierung Software für die Amadee 20 Mars Simulation des ÖWFs in Israel, unter Verwendung von Open Source Technologien. Als Teil des Team Exoscot müssen verschiedene Aufgaben der Geoinformatik auf Basis von Raster und Vektordaten erfüllt werden. Hierfür wird der Ablauf der Amadee 20 Mission und die Einbindung der erstellen Software, unter Beachtung aller Aspekte und Möglichkeiten, genauer beschrieben. Eine passende Softwarearchitektur für die Applikationen und dem Datenprovider wird erstellt um eine nahtlose Interaktion von Mission Support zu gewährleisten. Zwei Hauptaufgaben werden hierbei genauer beleuchtet: Während der Zeit der Simulation visualisiert und analysiert Mission Support verschiedene räumliche Datensätze, auf deren Basis eine Vielzahl von verschiedenen Aufgaben geplant wird. Um die Produktivität von Mission Support in Innsbruck zu maximieren, muss die Applikation für nicht GIS Experten designed werden. Um eine nahtlose Interaktion und ein sauberes Design der Software zu gewährleisten werden verschiedene Probleme von GIS Interfaces betrachtet und Ansätze für das Design der erstellten Software, welchen den Gegebenheiten der Mission entsprechen, werden im Detail diskutiert. Räumliche Daten, welche während der Mission aufgenommen oder direkt in der Applikation erstellt werden, müssen in Visualisierung und Analyse nahtlos integriert werden. Kartierungs- und Visualisierungsdienste werden in die Software miteingebunden um eine Performance orientierte Visualisierung von großen Rasterdatensätzen und eine sofortige Manipulierung von Vektordaten gewährleisten zu können. Die Interaktion mit verschiedenen Datentypen geschieht über den GeoServer des Österreichischen Weltraum Forums. Hierfür werden verschiedene Open Source Technologien im Feld der räumlichen Visualisierung und der Analyse im Detail beschrieben. Im praktischen Teil der Arbeit wir die Integration dieser Open Source Technologien erläutert. Eine separate Applikation für eine detaillierte Analyse von digitalen Geländemodellen wird erstellt. Die zur Verfügung gestellten Rasterdatensätze werden mithilfe der erstellten Software analysiert um ein genaueres Bild über das Missionsgebiet zu erhalten. Die Einbindung verschiedener Werkzeuge für die Analyse der Rasterdaten wird beschrieben. Um Mission Control die Möglichkeiten der Routenplanung für den Rover von Team Exoscot zu geben, wird ein Routing Algorithmus auf Basis eines digitalen Geländemodells erstellt.
Informatikaspekt der Geoinformationswissenschaft
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2024
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Geoinformationswissenschaft (GIScience) ist ein sich schnell entwickelnder Bereich, der sich stark auf Informatikwerkzeuge und -techniken stützt, um Geodaten zu sammeln, zu verarbeiten und zu analysieren. Durch eine gründliche Durchsicht der Literatur zu diesem Thema soll in dieser Studie untersucht werden, wie die Informatik die GIS-Wissenschaft beeinflusst hat. In der Studie werden die wichtigsten Informatikwerkzeuge und -methoden, die in der GIS-Wissenschaft verwendet werden, identifiziert und ihre Auswirkungen auf die GIS-Forschung und -Anwendungen untersucht. Darüber hinaus wird die Studie die Zukunft der Informatik in diesem Bereich untersuchen und ihr Potenzial für die Bewältigung wichtiger Herausforderungen der GIS-Wissenschaft bewerten. Die Ergebnisse dieser Studie werden zum wachsenden Wissensbestand über die Rolle der Informatik in den GIS-Wissenschaften beitragen und Einblicke in die Art und Weise geben, wie die Informatik genutzt werden kann, um unser Verständnis komplexer georäumlicher Phänomene zu verbessern.
Die Geoinformationswissenschaft (GIScience) ist ein sich schnell entwickelnder Bereich, der sich stark auf Informatikwerkzeuge und -techniken stützt, um Geodaten zu sammeln, zu verarbeiten und zu analysieren. Durch eine gründliche Durchsicht der Literatur zu diesem Thema soll in dieser Studie untersucht werden, wie die Informatik die GIS-Wissenschaft beeinflusst hat. In der Studie werden die wichtigsten Informatikwerkzeuge und -methoden, die in der GIS-Wissenschaft verwendet werden, identifiziert und ihre Auswirkungen auf die GIS-Forschung und -Anwendungen untersucht. Darüber hinaus wird die Studie die Zukunft der Informatik in diesem Bereich untersuchen und ihr Potenzial für die Bewältigung wichtiger Herausforderungen der GIS-Wissenschaft bewerten. Die Ergebnisse dieser Studie werden zum wachsenden Wissensbestand über die Rolle der Informatik in den GIS-Wissenschaften beitragen und Einblicke in die Art und Weise geben, wie die Informatik genutzt werden kann, um unser Verständnis komplexer georäumlicher Phänomene zu verbessern.
Risikoabschätzung für mechanische Störungen an Strom-Freileitungsinfrastrukturen für ein Energieversorgungsunternehmen auf Basis von Airborne-Laserscandaten
Diplomarbeit: Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2024
Betreuer: Univ.-Prof.i.R. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Das Ziel der Masterarbeit ist es, Methoden für Risikoabschätzung für mechanische Störungen entlang von Strom-Freileitungsinfrastruktur auf Basis von Airborne-Laserscandaten zu entwickeln. Im Fokus stehen dabei insbesondere die durch Vegetation entlang der Trassen verursachten Störungen. Um dieses Ziel zu erreichen, wurden auf Basis von ALS (Airborne-Laserscan)-Daten für zwei Testgebiete Funktionen zur Risikoabschätzung generiert. Die ausgewählten Testgebiete umfassen sowohl einen homogenen Nadelwald als auch einen Laubmischwald. Zuerst mussten die ALS-Punktwolkendaten aufbereitet werden, um ein normalisiertes digitales Oberflächenmodell (nDOM) zu generieren. Anschließend erfolgte auf Basis des erstellten nDOM die Detektion von Baumkronenspitzen. Für die Kronenspitzendetektion im Laubwald kamen zwei unterschiedliche Methoden zum Einsatz. Einerseits wurde die Bibliothek lidR aus der Software R genutzt, andererseits wurde eine Segmentierung mittels eines Watershed-Algorithmus mit anschließender Suche der lokalen Maxima in den erhaltenen Segmenten durchgeführt. Für Nadelwald wurde mit einer Methode, die in der Software lidR zur Verfügung stand, gearbeitet. Anhand der identifizierten Kronenspitzen wurde eine Baumfall-Simulation durchgeführt. Auch hier wurden zwei verschiedene Ansätze verglichen. Zum einen wurde die euklidische Distanz zwischen Baumfußpunkt und nächstgelegenem Leiterseil ermittelt und als Risiko gewertet, wenn die Baumhöhe größer war als die berechnete euklidische Distanz. Zum anderen wurde eine vertikale Risikoanalyse unter Einbeziehung von Abstandsberechnungen durchgeführt. Des Weiteren wurde eine Bewuchs-Analyse implementiert, welche auf einer Höhendifferenzberechnung zwischen dem Bewuchs und dem Leiterseil basiert. Unter Berücksichtigung eines definierten Schwellenwerts visualisiert diese Analyse grafisch, ob Vegetation innerhalb eines festgelegten Pufferbereichs unterhalb der Leitung eine potenzielle Gefahr für den betreffenden Abschnitt der Freileitung darstellen könnte. Die erzielten Ergebnisse bieten wertvolle Einblicke und zeigen auch Potenzial für weitere Entwicklungen und Verbesserungen.
Das Ziel der Masterarbeit ist es, Methoden für Risikoabschätzung für mechanische Störungen entlang von Strom-Freileitungsinfrastruktur auf Basis von Airborne-Laserscandaten zu entwickeln. Im Fokus stehen dabei insbesondere die durch Vegetation entlang der Trassen verursachten Störungen. Um dieses Ziel zu erreichen, wurden auf Basis von ALS (Airborne-Laserscan)-Daten für zwei Testgebiete Funktionen zur Risikoabschätzung generiert. Die ausgewählten Testgebiete umfassen sowohl einen homogenen Nadelwald als auch einen Laubmischwald. Zuerst mussten die ALS-Punktwolkendaten aufbereitet werden, um ein normalisiertes digitales Oberflächenmodell (nDOM) zu generieren. Anschließend erfolgte auf Basis des erstellten nDOM die Detektion von Baumkronenspitzen. Für die Kronenspitzendetektion im Laubwald kamen zwei unterschiedliche Methoden zum Einsatz. Einerseits wurde die Bibliothek lidR aus der Software R genutzt, andererseits wurde eine Segmentierung mittels eines Watershed-Algorithmus mit anschließender Suche der lokalen Maxima in den erhaltenen Segmenten durchgeführt. Für Nadelwald wurde mit einer Methode, die in der Software lidR zur Verfügung stand, gearbeitet. Anhand der identifizierten Kronenspitzen wurde eine Baumfall-Simulation durchgeführt. Auch hier wurden zwei verschiedene Ansätze verglichen. Zum einen wurde die euklidische Distanz zwischen Baumfußpunkt und nächstgelegenem Leiterseil ermittelt und als Risiko gewertet, wenn die Baumhöhe größer war als die berechnete euklidische Distanz. Zum anderen wurde eine vertikale Risikoanalyse unter Einbeziehung von Abstandsberechnungen durchgeführt. Des Weiteren wurde eine Bewuchs-Analyse implementiert, welche auf einer Höhendifferenzberechnung zwischen dem Bewuchs und dem Leiterseil basiert. Unter Berücksichtigung eines definierten Schwellenwerts visualisiert diese Analyse grafisch, ob Vegetation innerhalb eines festgelegten Pufferbereichs unterhalb der Leitung eine potenzielle Gefahr für den betreffenden Abschnitt der Freileitung darstellen könnte. Die erzielten Ergebnisse bieten wertvolle Einblicke und zeigen auch Potenzial für weitere Entwicklungen und Verbesserungen.
Positionsänderung der nördlichsten VLBI-Teleskopen in Ny-Alesund, Spitzbergen
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuer: Ass.Prof. Dipl.-Ing.in Dr.in Hana Krasna, Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is a space geometric observing technique, the goal of which is to monitor the kinematics of interest points on Earth and in space. The observing instruments of VLBI are approximately 40 radio telescopes distributed throughout the world that simultaneously receive electromagnetic radiation emitted by compact objects in space, such as quasars. This technique has applications in geodesy, astrometry and astronomy (Nothnagel et al., 2023). This master thesis aimed to analyze time series data from two of the northernmost VLBI telescopes, namely Nyales20 and Nyale13s, which are located in Svalbard, Norway. The thesis provided position time series data for both stations, which helped us to understand their position over the study period; to determine whether they exhibit discrepancies, especially in height biases; and finally, to analyze whether these changes could be related to factors such as glacier melting. Furthermore, this thesis evaluated the availability of sufficient parallel sessions for transferring velocity information from the legacy system (Nyales20) to the VGOS new generation (Nyale13s); then, it analyzed whether extending the working time of the legacy telescope Nyales20 is beneficial even though its working timespan has surpassed 30 years. Finally, this thesis compared the observed uplift trends from the VLBI and GNSS time series. The analysis was conducted using the Vienna VLBI Software (VieVS), which is a VLBI analysis software for geodesy and astrometry. Additionally, Vienna Scheduling software (VieSched++), which is part of VieVS, was used to generate and simulate IVS-R1 and IVS-R4 schedules, to address the objective of this study concerning the prolongation consideration of the legacy telescope Nyales20. The real data sets were directly downloaded in open-source vgosDB format, which is the IVS standard format for storing, transmitting, and archiving VLBI data (Webiste: NASA Earth Data). The results revealed height biases in the VLBI and GNSS time series data with respect to a priori catalog positions. This supported geophysical processes (e.g., glacier melting) as potential contributing factors. Furthermore, based on the velocities obtained for both stations, while also considering the number of parallel sessions (77 sessions), we were able to confirm that the transfer of velocities from the legacy telescope Nyales20 to the VGOS telescope Nyale13s can be achieved. Finally, addressing the impact of the Nyales20 telescope, our analysis revealed that excluding Nyales20 telescope led to an increase in mean formal error and repeatability values of several percent for Earth orientation parameters. This suggests that maintaining both telescopes within the network enhances accuracy. However, economic concerns and safety reasons influenced the decision to dismantle Nyales20 on August 14, 2023 (Garcia-Espada et al., 2022). Despite its positive impact on quality of the data, the practical implications encourage its cancellation.
Very Long Baseline Interferometry (VLBI) is a space geometric observing technique, the goal of which is to monitor the kinematics of interest points on Earth and in space. The observing instruments of VLBI are approximately 40 radio telescopes distributed throughout the world that simultaneously receive electromagnetic radiation emitted by compact objects in space, such as quasars. This technique has applications in geodesy, astrometry and astronomy (Nothnagel et al., 2023). This master thesis aimed to analyze time series data from two of the northernmost VLBI telescopes, namely Nyales20 and Nyale13s, which are located in Svalbard, Norway. The thesis provided position time series data for both stations, which helped us to understand their position over the study period; to determine whether they exhibit discrepancies, especially in height biases; and finally, to analyze whether these changes could be related to factors such as glacier melting. Furthermore, this thesis evaluated the availability of sufficient parallel sessions for transferring velocity information from the legacy system (Nyales20) to the VGOS new generation (Nyale13s); then, it analyzed whether extending the working time of the legacy telescope Nyales20 is beneficial even though its working timespan has surpassed 30 years. Finally, this thesis compared the observed uplift trends from the VLBI and GNSS time series. The analysis was conducted using the Vienna VLBI Software (VieVS), which is a VLBI analysis software for geodesy and astrometry. Additionally, Vienna Scheduling software (VieSched++), which is part of VieVS, was used to generate and simulate IVS-R1 and IVS-R4 schedules, to address the objective of this study concerning the prolongation consideration of the legacy telescope Nyales20. The real data sets were directly downloaded in open-source vgosDB format, which is the IVS standard format for storing, transmitting, and archiving VLBI data (Webiste: NASA Earth Data). The results revealed height biases in the VLBI and GNSS time series data with respect to a priori catalog positions. This supported geophysical processes (e.g., glacier melting) as potential contributing factors. Furthermore, based on the velocities obtained for both stations, while also considering the number of parallel sessions (77 sessions), we were able to confirm that the transfer of velocities from the legacy telescope Nyales20 to the VGOS telescope Nyale13s can be achieved. Finally, addressing the impact of the Nyales20 telescope, our analysis revealed that excluding Nyales20 telescope led to an increase in mean formal error and repeatability values of several percent for Earth orientation parameters. This suggests that maintaining both telescopes within the network enhances accuracy. However, economic concerns and safety reasons influenced the decision to dismantle Nyales20 on August 14, 2023 (Garcia-Espada et al., 2022). Despite its positive impact on quality of the data, the practical implications encourage its cancellation.
VODCA2GPPv2 - An updated global model for estimating GPP from microwave satellite observations with enhanced cross-biome consistency
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dr. Wouter Arnoud Dorigo MSc, Dipl.-Ing. Ruxandra-Maria Zotta
Kurzfassung/Abstract
The monitoring of Gross Primary Production (GPP) on a global scale is essential for understanding the role of terrestrial ecosystems in the carbon cycle. Over the past few decades, significant progress has been made in the ability to globally monitor GPP using process-based models and remote sensing techniques. Despite these advancements, there are still substantial differences between GPP products and large uncertainties in GPP estimates. Recently, Vegetation Optical Depth (VOD) has emerged as a useful indicator for deriving GPP from microwave satellite observations. The carbon-sink driven approach developed by Teubner et al. (2019) utilizes VOD as a proxy for the carbon-sink strength of terrestrial ecosystems to derive GPP. Wild et al. (2022) further adapted this approach, creating a global long-term GPP dataset called VODCA2GPP, based on VOD observations from the Vegetation Optical Depth Climate Archive (VODCA). This approach has shown promising results with good agreements with in-situ GPP observations and independent GPP datasets. However, the model still exhibits limited performance in certain regions and biomes, particularly in arid regions and the tropics, where in-situ data is scarce. This study builds on the VODCA2GPPv1 model by Wild et al. (2022) and tries to make it more consistent across biomes. This was done by employing a new random forest machine learning model, by merging three different eddy covariance datasets to more than double the training data in comparison with VODCA2GPPv1 and by adding two new predictors: Land Cover and low frequency VOD. Validation with in-situ GPP observations showed significant improvements in comparison with VODCA2GPPv1. Median correlations increased from 0.67 to 0.78 r, RMSE decreased from 2.81 to 2.25 gC/m2/d, and bias decreased from 0.25 to -0.04 gC/m2/d. Analyzing the cross-validation results based on land cover demonstrated a more consistent performance of the model, making it better suited for diverse regions. Comparisons with the independent FLUXCOM, MODIS and TRENDY GPP datasets revealed good temporal agreement with mean global correlations of 0.56, 0.62 and 0.42 r respectively, which could mostly be improved in comparison to VODCA2GPPv1 (+0.06, -0.02 and +0.03 r). Furthermore, the new model reduced global overestimation with respect to these datasets (bias to FLUXCOM and MODIS could be reduced by 0.44 and 0.45 gC/m2/d respectively). However, the new model still has limitations. It still tends to globally overestimate GPP, particularly in tropical regions. Additionally, it exhibits limited performance in arid environments, highlighting the importance of accounting for water limitation in future models. Overall, the inclusion of new predictors and additional in-situ data has resulted in a model that aligns better with in-situ GPP observations and independent GPP datasets. It also demonstrates improved consistency across different biomes and land cover classes. VODCA2GPPv2 complements existing GPP products and its long temporal availability makes it a valuable tool for studying the carbon cycle over extended time periods.
The monitoring of Gross Primary Production (GPP) on a global scale is essential for understanding the role of terrestrial ecosystems in the carbon cycle. Over the past few decades, significant progress has been made in the ability to globally monitor GPP using process-based models and remote sensing techniques. Despite these advancements, there are still substantial differences between GPP products and large uncertainties in GPP estimates. Recently, Vegetation Optical Depth (VOD) has emerged as a useful indicator for deriving GPP from microwave satellite observations. The carbon-sink driven approach developed by Teubner et al. (2019) utilizes VOD as a proxy for the carbon-sink strength of terrestrial ecosystems to derive GPP. Wild et al. (2022) further adapted this approach, creating a global long-term GPP dataset called VODCA2GPP, based on VOD observations from the Vegetation Optical Depth Climate Archive (VODCA). This approach has shown promising results with good agreements with in-situ GPP observations and independent GPP datasets. However, the model still exhibits limited performance in certain regions and biomes, particularly in arid regions and the tropics, where in-situ data is scarce. This study builds on the VODCA2GPPv1 model by Wild et al. (2022) and tries to make it more consistent across biomes. This was done by employing a new random forest machine learning model, by merging three different eddy covariance datasets to more than double the training data in comparison with VODCA2GPPv1 and by adding two new predictors: Land Cover and low frequency VOD. Validation with in-situ GPP observations showed significant improvements in comparison with VODCA2GPPv1. Median correlations increased from 0.67 to 0.78 r, RMSE decreased from 2.81 to 2.25 gC/m2/d, and bias decreased from 0.25 to -0.04 gC/m2/d. Analyzing the cross-validation results based on land cover demonstrated a more consistent performance of the model, making it better suited for diverse regions. Comparisons with the independent FLUXCOM, MODIS and TRENDY GPP datasets revealed good temporal agreement with mean global correlations of 0.56, 0.62 and 0.42 r respectively, which could mostly be improved in comparison to VODCA2GPPv1 (+0.06, -0.02 and +0.03 r). Furthermore, the new model reduced global overestimation with respect to these datasets (bias to FLUXCOM and MODIS could be reduced by 0.44 and 0.45 gC/m2/d respectively). However, the new model still has limitations. It still tends to globally overestimate GPP, particularly in tropical regions. Additionally, it exhibits limited performance in arid environments, highlighting the importance of accounting for water limitation in future models. Overall, the inclusion of new predictors and additional in-situ data has resulted in a model that aligns better with in-situ GPP observations and independent GPP datasets. It also demonstrates improved consistency across different biomes and land cover classes. VODCA2GPPv2 complements existing GPP products and its long temporal availability makes it a valuable tool for studying the carbon cycle over extended time periods.
Azimuthale Anisotropie in ASCAT Rückstreumessungen
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Sebastian Hahn
Kurzfassung/Abstract
Bei Scatterometer-Beobachtungen der Landoberfläche der Erde wird der Rückstreukoeffizient (σ0) erheblich von der Abbildungsgeometrie des Satelliteninstruments beeinflusst, unter der die Messungen durchgeführt werden. Um geophysikalische Parameter wie die Bodenfeuchte genau bestimmen zu können, ist es wichtig, die Auswirkungen der azimutalen Signalabhängigkeit zu berücksichtigen und zu korrigieren. In dieser Arbeit wird eine dynamische azimutale Korrekturmethode im Vergleich zur traditionellen statischen Korrekturmethode für C-Band-Rückstreumessungen des Advanced Scatterometers (ASCAT) an Bord der Metop-Satelliten vorgestellt und bewertet. Durch die Ermittlung der geschätzten Standardabweichung (Estimated Standard Deviation, ESD) von σ0 analysieren wir die Wirksamkeit beider Korrekturmethoden bei der Abschwächung der azimutalen Variabilität. Darüber hinaus entwickeln wir drei Indikatoren, um die zeitlichen Veränderungen der ESD sowie die geometrische und zeitliche Variabilität der Korrekturpolynome zu untersuchen. Unsere Analyse zeigt, dass die dynamische Korrekturmethode nicht nur azimutale Fehler deutlich verringert, sondern auch zeitliche Rückstreuungstrends beibehält und Signale, die durch Funkfrequenzstörungen (Radio Frequency Interference, RFI) beeinträchtigt werden, besser korrigiert. Daher plädieren wir für die Integration dieser Methode in den TU Wien Soil Moisture Retrieval (TUW-SMR) Algorithmus. Neben der Verbesserung der Bodenfeuchtebestimmung unterstreichen wir das Potenzial von ESD für die Kartierung von Sanddünen. Außerdem bieten unsere neu entwickelten zeitlichen Indikatoren zusätzliche Einblicke in Landoberflächen, die strukturellem Wandel unterliegen, von der Vegetationsdynamik in der Sahelzone bis hin zu den Mustern der städtischen Expansion in China.
Bei Scatterometer-Beobachtungen der Landoberfläche der Erde wird der Rückstreukoeffizient (σ0) erheblich von der Abbildungsgeometrie des Satelliteninstruments beeinflusst, unter der die Messungen durchgeführt werden. Um geophysikalische Parameter wie die Bodenfeuchte genau bestimmen zu können, ist es wichtig, die Auswirkungen der azimutalen Signalabhängigkeit zu berücksichtigen und zu korrigieren. In dieser Arbeit wird eine dynamische azimutale Korrekturmethode im Vergleich zur traditionellen statischen Korrekturmethode für C-Band-Rückstreumessungen des Advanced Scatterometers (ASCAT) an Bord der Metop-Satelliten vorgestellt und bewertet. Durch die Ermittlung der geschätzten Standardabweichung (Estimated Standard Deviation, ESD) von σ0 analysieren wir die Wirksamkeit beider Korrekturmethoden bei der Abschwächung der azimutalen Variabilität. Darüber hinaus entwickeln wir drei Indikatoren, um die zeitlichen Veränderungen der ESD sowie die geometrische und zeitliche Variabilität der Korrekturpolynome zu untersuchen. Unsere Analyse zeigt, dass die dynamische Korrekturmethode nicht nur azimutale Fehler deutlich verringert, sondern auch zeitliche Rückstreuungstrends beibehält und Signale, die durch Funkfrequenzstörungen (Radio Frequency Interference, RFI) beeinträchtigt werden, besser korrigiert. Daher plädieren wir für die Integration dieser Methode in den TU Wien Soil Moisture Retrieval (TUW-SMR) Algorithmus. Neben der Verbesserung der Bodenfeuchtebestimmung unterstreichen wir das Potenzial von ESD für die Kartierung von Sanddünen. Außerdem bieten unsere neu entwickelten zeitlichen Indikatoren zusätzliche Einblicke in Landoberflächen, die strukturellem Wandel unterliegen, von der Vegetationsdynamik in der Sahelzone bis hin zu den Mustern der städtischen Expansion in China.
Evaluierung einer Software für die semi-automatische Detektion und 3D-Modellierung von Dachlandschaften
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka-Schremmer
Kurzfassung/Abstract
The 3D models of buildings and their roofs are very common in today’s architectural planing and analysing tasks. There are three main groups of software for 3D roof and building modeling: manual, semi-automatic and automatic. This study presents a comprehensive review and evaluation of the semi-automatic stand-alone module, CityGRID Shaper, integrated within the CityGRID software framework. A notable advantage of this module is its additional support while modeling through aerial images aligned with the point cloud. The primary focus of this work revolves around functionality and accuracy concerning roof recognition and its 3D model creation, utilizing CityGRID Shaper. The work begins with an overview of diverse software and methodologies employed in 3D roof and building modeling. It proceeds to introduction of the UVM SYSTEMS GmbH and provides a detailed description of CityGRID Shaper, including the underlying principles of the OPALS system for automated roof detection, plane segmentation, and α-shape calculations. Furthermore, CityGRID Shaper’s methodology for generating intersection lines and baselines is described. Theoretical background on different LODs and roof shapes is presented, outlining relevant information for this work. Additionally, the required and optional input data sources for CityGRID Shaper are discussed, followed by a presentation of the input data utilized in this work, including details on the location and data collection procedures for two CityGRID Shaper projects. The results of 3D roof modeling demonstrate the capability of the CityGRID Shaper module in recognition of straight roof planes, their segmentation and further 3D modeling, although it exhibits limitations in segmentation of rounded roof shapes. Moreover, the smart-preview function streamlines the rapid modeling of most roof shapes with minimal manual intervention, although it does not extend to flat and shed roof configurations, which must be modeled manually. The evaluation methodology encompasses several phases to address each examined parameter independently. This includes a detailed examination of individual parameters within Realtime Calculation mode, an investigation into the influence of area type on modeling capabilities, and an examination of the impact of different LOD on modeling speed. Finally, a quality assessment of the resulting roof models is provided, based on distances calculations between modeled roofs and the original point cloud data. Furthermore, insights into modeling experiences with CityGRID Shaper are shared, highlighting significant observations for this work. Recommendations for potential future enhancements to CityGRID Shaper conclude the study, offering possible further development and refinement.
The 3D models of buildings and their roofs are very common in today’s architectural planing and analysing tasks. There are three main groups of software for 3D roof and building modeling: manual, semi-automatic and automatic. This study presents a comprehensive review and evaluation of the semi-automatic stand-alone module, CityGRID Shaper, integrated within the CityGRID software framework. A notable advantage of this module is its additional support while modeling through aerial images aligned with the point cloud. The primary focus of this work revolves around functionality and accuracy concerning roof recognition and its 3D model creation, utilizing CityGRID Shaper. The work begins with an overview of diverse software and methodologies employed in 3D roof and building modeling. It proceeds to introduction of the UVM SYSTEMS GmbH and provides a detailed description of CityGRID Shaper, including the underlying principles of the OPALS system for automated roof detection, plane segmentation, and α-shape calculations. Furthermore, CityGRID Shaper’s methodology for generating intersection lines and baselines is described. Theoretical background on different LODs and roof shapes is presented, outlining relevant information for this work. Additionally, the required and optional input data sources for CityGRID Shaper are discussed, followed by a presentation of the input data utilized in this work, including details on the location and data collection procedures for two CityGRID Shaper projects. The results of 3D roof modeling demonstrate the capability of the CityGRID Shaper module in recognition of straight roof planes, their segmentation and further 3D modeling, although it exhibits limitations in segmentation of rounded roof shapes. Moreover, the smart-preview function streamlines the rapid modeling of most roof shapes with minimal manual intervention, although it does not extend to flat and shed roof configurations, which must be modeled manually. The evaluation methodology encompasses several phases to address each examined parameter independently. This includes a detailed examination of individual parameters within Realtime Calculation mode, an investigation into the influence of area type on modeling capabilities, and an examination of the impact of different LOD on modeling speed. Finally, a quality assessment of the resulting roof models is provided, based on distances calculations between modeled roofs and the original point cloud data. Furthermore, insights into modeling experiences with CityGRID Shaper are shared, highlighting significant observations for this work. Recommendations for potential future enhancements to CityGRID Shaper conclude the study, offering possible further development and refinement.
Überwachung und Verfolgung von Dürre mit Hilfe der Fernerkundung - eine Bewertung bodenwasserbasierter Dürreindizes
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr.in Mariette Vreugdenhil MSc
Kurzfassung/Abstract
Ein Anstieg an Extremwetterereignissen auf der einen Seite sowie neuartige Technologien auf der anderen Seite führen zur Entwicklung neuer Methoden für das Erkennen und Nachweisen von Dürre. Große Hoffnungen ruhen dabei auf der Fernerkundung, welche Beobachtungen von nie dagewesener räumlicher Abdeckung ermöglicht. Seit den Anfängen der Fernerkundung hat sich die räumliche und zeitliche Auflösung der Beobachtungen erheblich gesteigert. Mit stetig wachsender Verfügbarkeit von Langzeitdaten wird es schon bald möglich sein, daraus Klimatologien abzuleiten, welche den Normalzustand eines Parameters innerhalb einer bestimmten Region widerspiegeln. In Kombination mit innovativen Analysemethoden sowie durch die Integration künstlicher Intelligenz eröffnen sich neue Möglichkeiten für die Erfassung und Überwachung von Umweltprozessen. In Folge dessen ist es auch möglich, Umweltkatastrophen mittels Satelliten zu beobachten. Trotz ihrer Komplexität steht dabei die Erkennung von Dürren im Fokus, da mit ihnen große ökonomische Verluste einhergehen. Folglich sind Regierungen und Versicherungen sehr daran interessiert, Dürren zu detektieren und zu quantifizieren. Zu diesem Zwecke wurden zahlreiche Ansätze verfolgt. Neben den bereits etablierten, auf meteorologischen Parametern basierenden Indizes, wie etwa dem Standarized Precipitation Evapotranspiration Index (SPEI), der aus Niederschlags- und Temperaturmessungen abgeleitet wird, zielen andere darauf ab, Niederschlagsdefizite aus Auffälligkeiten innerhalb der Vegetation abzuleiten. Zu diesen Vegetationsindizes zählt auch der Leaf Area Index (LAI). Parallel dazu wird momentan ein auf Oberflächenfeuchte beruhender Index evaluiert, der rein aus Satellitenbeobachtungen abgeleitet werden kann. Dabei handelt es sich um den Soil Water Index (SWI), welcher 1998 durch Wagner et al. im Rahmen der Gemeinsamen Forschungsstelle der Europäischen Kommission (European Commission Joint Research Center, JRC) konzipiert und an der Technischen Universität Wien weiterentwickelt wurde. Der SWI bildet die Basis für die Berechnung zahlreicher Dürreindizes. Durch die Extrapolation von Oberflächenfeuchte, welche sich gut mithilfe von Satelliten beobachten lässt, kann der Wassergehalt innerhalb des ersten Meters des Bodens berechnet werden. Diese Schicht entspricht der Wurzelzone der meisten Pflanzen und ist daher entscheidend für deren Vitalität. Im Rahmen dieser Arbeit wird das Potential des SWI zur Beobachtung von Dürre in Österreich evaluiert. Dafür wird der vom SWI abgeleitete Soil Water Deficit Index (SWDI) mit dem SPEI und dem LAI verglichen. Dabei erzielt der SWDI hinsichtlich der Detektion der agrarwirtschaftlichen Dürre vielversprechende Resultate, sofern gewisse klimatische und topografische Voraussetzungen erfüllt werden. Der SWDI klassifiziert Dürren in Abhängigkeit der Wassermenge, die der Vegetation tatsächlich zur Verfügung steht. Anders als der SPEI liefert der SWDI damit einen direkten Einblick in die vorherrschende Bodenfeuchte, welche in Bezug auf die Vegetation den größten Einfluss hat. Aufgrund der absoluten Skala des SWDI sind für diesen Index keine Klimatologien und damit auch keine Langzeitdaten erforderlich. Dies ist ein klarer Vorteil im Vergleich zu den meisten anderen Dürreindizes, welche jeweils nur in Relation zu den Normalbedingungen im Beobachtungsgebiet aussagekräftig sind. Die Ableitung solcher Normen erfordert Daten mit einer Historie von zumindest 30 Jahren, die in vielen Regionen auf der Erde zur jetzigen Zeit noch nicht vorhanden sind.
Ein Anstieg an Extremwetterereignissen auf der einen Seite sowie neuartige Technologien auf der anderen Seite führen zur Entwicklung neuer Methoden für das Erkennen und Nachweisen von Dürre. Große Hoffnungen ruhen dabei auf der Fernerkundung, welche Beobachtungen von nie dagewesener räumlicher Abdeckung ermöglicht. Seit den Anfängen der Fernerkundung hat sich die räumliche und zeitliche Auflösung der Beobachtungen erheblich gesteigert. Mit stetig wachsender Verfügbarkeit von Langzeitdaten wird es schon bald möglich sein, daraus Klimatologien abzuleiten, welche den Normalzustand eines Parameters innerhalb einer bestimmten Region widerspiegeln. In Kombination mit innovativen Analysemethoden sowie durch die Integration künstlicher Intelligenz eröffnen sich neue Möglichkeiten für die Erfassung und Überwachung von Umweltprozessen. In Folge dessen ist es auch möglich, Umweltkatastrophen mittels Satelliten zu beobachten. Trotz ihrer Komplexität steht dabei die Erkennung von Dürren im Fokus, da mit ihnen große ökonomische Verluste einhergehen. Folglich sind Regierungen und Versicherungen sehr daran interessiert, Dürren zu detektieren und zu quantifizieren. Zu diesem Zwecke wurden zahlreiche Ansätze verfolgt. Neben den bereits etablierten, auf meteorologischen Parametern basierenden Indizes, wie etwa dem Standarized Precipitation Evapotranspiration Index (SPEI), der aus Niederschlags- und Temperaturmessungen abgeleitet wird, zielen andere darauf ab, Niederschlagsdefizite aus Auffälligkeiten innerhalb der Vegetation abzuleiten. Zu diesen Vegetationsindizes zählt auch der Leaf Area Index (LAI). Parallel dazu wird momentan ein auf Oberflächenfeuchte beruhender Index evaluiert, der rein aus Satellitenbeobachtungen abgeleitet werden kann. Dabei handelt es sich um den Soil Water Index (SWI), welcher 1998 durch Wagner et al. im Rahmen der Gemeinsamen Forschungsstelle der Europäischen Kommission (European Commission Joint Research Center, JRC) konzipiert und an der Technischen Universität Wien weiterentwickelt wurde. Der SWI bildet die Basis für die Berechnung zahlreicher Dürreindizes. Durch die Extrapolation von Oberflächenfeuchte, welche sich gut mithilfe von Satelliten beobachten lässt, kann der Wassergehalt innerhalb des ersten Meters des Bodens berechnet werden. Diese Schicht entspricht der Wurzelzone der meisten Pflanzen und ist daher entscheidend für deren Vitalität. Im Rahmen dieser Arbeit wird das Potential des SWI zur Beobachtung von Dürre in Österreich evaluiert. Dafür wird der vom SWI abgeleitete Soil Water Deficit Index (SWDI) mit dem SPEI und dem LAI verglichen. Dabei erzielt der SWDI hinsichtlich der Detektion der agrarwirtschaftlichen Dürre vielversprechende Resultate, sofern gewisse klimatische und topografische Voraussetzungen erfüllt werden. Der SWDI klassifiziert Dürren in Abhängigkeit der Wassermenge, die der Vegetation tatsächlich zur Verfügung steht. Anders als der SPEI liefert der SWDI damit einen direkten Einblick in die vorherrschende Bodenfeuchte, welche in Bezug auf die Vegetation den größten Einfluss hat. Aufgrund der absoluten Skala des SWDI sind für diesen Index keine Klimatologien und damit auch keine Langzeitdaten erforderlich. Dies ist ein klarer Vorteil im Vergleich zu den meisten anderen Dürreindizes, welche jeweils nur in Relation zu den Normalbedingungen im Beobachtungsgebiet aussagekräftig sind. Die Ableitung solcher Normen erfordert Daten mit einer Historie von zumindest 30 Jahren, die in vielen Regionen auf der Erde zur jetzigen Zeit noch nicht vorhanden sind.
Inundation–Desiccation State Prediction for Salt Pans in the Western Pannonian Basin using Remote Sensing, Groundwater, and Meteorological Data
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Emanuel Büechi MSc
Kurzfassung/Abstract
Salt pans are unique wetland ecosystems. In the Austrian Seewinkel region, salt pans are in an increasingly vulnerable state due to groundwater drainage and heightened climatic pressures. It is crucial to model how seasonal and long-term hydrological and climatological variations affect the salt pan dynamics in Seewinkel, yet a comprehensive understanding of the driving processes is lacking. The goal of this study is to develop random forest machine learning models driven by hydrological and meteorological data that allow us to predict in early spring (March) of each year the inundation state in the subsequent summer and fall. We utilize Earth observation data from Landsat 5 (L5), 8 (L8), and 9 (L9) to derive the time series of the inundation state for 34 salt pans for the period 1984–2022. Furthermore, we demonstrate that the groundwater level observed in March is the strongest predictor of the salt pan inundation state in summer and fall. Utilizing local groundwater data yields a Matthews correlation coefficient of 0.59. Models using globally available meteorological data, either instead of or in addition to groundwater data, provide comparable results. This allows the global transfer of the approach to comparable ecosystems where no in situ data are available.
Salt pans are unique wetland ecosystems. In the Austrian Seewinkel region, salt pans are in an increasingly vulnerable state due to groundwater drainage and heightened climatic pressures. It is crucial to model how seasonal and long-term hydrological and climatological variations affect the salt pan dynamics in Seewinkel, yet a comprehensive understanding of the driving processes is lacking. The goal of this study is to develop random forest machine learning models driven by hydrological and meteorological data that allow us to predict in early spring (March) of each year the inundation state in the subsequent summer and fall. We utilize Earth observation data from Landsat 5 (L5), 8 (L8), and 9 (L9) to derive the time series of the inundation state for 34 salt pans for the period 1984–2022. Furthermore, we demonstrate that the groundwater level observed in March is the strongest predictor of the salt pan inundation state in summer and fall. Utilizing local groundwater data yields a Matthews correlation coefficient of 0.59. Models using globally available meteorological data, either instead of or in addition to groundwater data, provide comparable results. This allows the global transfer of the approach to comparable ecosystems where no in situ data are available.
Comparative Analysis of Airborne Laser Scanning and Image Matching Point Clouds in Forestry: Enhancing Temporal Resolution using Machine Learning
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2024
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Anna Iglseder MSc, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Luftgestützte Laserscanning-Punktwolken werden landesweit zur Erstellung digitaler Oberflächenmodelle und weiterführend zur Ableitung von Informationen über Waldgebiete verwendet. Diese Aufnahmemethode gilt bis dato als state-of-the-art bei der Aufnahme, vor allem in bewaldeten Gebieten. Da diese jedoch in Österreich und Europa zwar regelmäßig, jedoch selten erstellt werden, ist die Modellierung basierend auf Airborne-Laserscanning-Daten (ALS) von Waldparametern in hoher zeitlicher Auflösung schwierig. Insbesondere die Ableitung von dynamischen Informationen wie Biomasse oder der Zustand eines Baumbestandes nach Umweltereignissen wie Unwettern oder Waldbränden beziehungsweise das Monitoring von Schutzgebieten erfordert relativ hohe zeitliche Auflösungen. Luftbilder und daraus abgeleitete bildbasierte Punktwolken bieten eine Alternative, Oberflächenmodelle zu erstellen. Diese Daten werden in kürzeren Intervallen aufgenommen, wie etwa jährlich in Wien oder flächendeckend für Österreich alle drei Jahre. Vor allem in Gebieten mit hoher Vegetationsbedeckung wie Wälder führen die beiden Modellansätze zu unterschiedlichen Höhenwerten. Das Ziel dieser Arbeit ist es, diese Unterschiede zu quantifizieren und Möglichkeiten zu eruieren, die Image Matching (IM) Modelle an die ALS Modelle anzunähern. Zur Entwicklung und Evaluierung eines solchen Prozesses zur Minimierung der Höhenunterschiede wurde ein Gebiet innerhalb des Wienerwaldes im Bereich des Lainzer Tiergartens ausgewählt. Zunächst wurden aus den gegebenen Punktwolken der beiden unterschiedlichen Verfahren topographische Modelle, wie das normalisierte digitale Oberflächenmodell (nDSM), abgeleitet und innerhalb einer eigens definierten Kronendach-Maske statistische Parameter für verschiedene Kernelgrößen des IM nDSM berechnet. Diese Parameter wurden zusammen mit der bekannten Abweichung zwischen dem ALS- und IM-Modell verwendet, um eine Random Forest Regression für die Erstellung eines Anpassungsmodells der IM an die ALS Daten zu trainieren. Die Validierung, durchgeführt anhand dreier separat definierter Gebiete, zeigt eine Annäherung der Höhenwerte an das als Referenz verwendete Laserscanning-nDSM innerhalb der mit Baumkronen überschirmten Flächen. Diese Verbesserung zeigt eine Annäherung der beiden Modelle von etwa 77% bezogen auf den Median der Abweichungen zwischen dem angepassten und dem gegebenen Modell gegenüber der Ausgangssituation. In langgezogenen Lücken im Kronendach stößt die in Python implementierte Regressionsfunktion an ihre Grenzen und ist daher nicht in der Lage, die im IM-Modell nicht erkennbaren Lücken in bewaldeten Gebieten adäquat an das Laserscanning-Modell an diesen Stellen anzupassen.
Luftgestützte Laserscanning-Punktwolken werden landesweit zur Erstellung digitaler Oberflächenmodelle und weiterführend zur Ableitung von Informationen über Waldgebiete verwendet. Diese Aufnahmemethode gilt bis dato als state-of-the-art bei der Aufnahme, vor allem in bewaldeten Gebieten. Da diese jedoch in Österreich und Europa zwar regelmäßig, jedoch selten erstellt werden, ist die Modellierung basierend auf Airborne-Laserscanning-Daten (ALS) von Waldparametern in hoher zeitlicher Auflösung schwierig. Insbesondere die Ableitung von dynamischen Informationen wie Biomasse oder der Zustand eines Baumbestandes nach Umweltereignissen wie Unwettern oder Waldbränden beziehungsweise das Monitoring von Schutzgebieten erfordert relativ hohe zeitliche Auflösungen. Luftbilder und daraus abgeleitete bildbasierte Punktwolken bieten eine Alternative, Oberflächenmodelle zu erstellen. Diese Daten werden in kürzeren Intervallen aufgenommen, wie etwa jährlich in Wien oder flächendeckend für Österreich alle drei Jahre. Vor allem in Gebieten mit hoher Vegetationsbedeckung wie Wälder führen die beiden Modellansätze zu unterschiedlichen Höhenwerten. Das Ziel dieser Arbeit ist es, diese Unterschiede zu quantifizieren und Möglichkeiten zu eruieren, die Image Matching (IM) Modelle an die ALS Modelle anzunähern. Zur Entwicklung und Evaluierung eines solchen Prozesses zur Minimierung der Höhenunterschiede wurde ein Gebiet innerhalb des Wienerwaldes im Bereich des Lainzer Tiergartens ausgewählt. Zunächst wurden aus den gegebenen Punktwolken der beiden unterschiedlichen Verfahren topographische Modelle, wie das normalisierte digitale Oberflächenmodell (nDSM), abgeleitet und innerhalb einer eigens definierten Kronendach-Maske statistische Parameter für verschiedene Kernelgrößen des IM nDSM berechnet. Diese Parameter wurden zusammen mit der bekannten Abweichung zwischen dem ALS- und IM-Modell verwendet, um eine Random Forest Regression für die Erstellung eines Anpassungsmodells der IM an die ALS Daten zu trainieren. Die Validierung, durchgeführt anhand dreier separat definierter Gebiete, zeigt eine Annäherung der Höhenwerte an das als Referenz verwendete Laserscanning-nDSM innerhalb der mit Baumkronen überschirmten Flächen. Diese Verbesserung zeigt eine Annäherung der beiden Modelle von etwa 77% bezogen auf den Median der Abweichungen zwischen dem angepassten und dem gegebenen Modell gegenüber der Ausgangssituation. In langgezogenen Lücken im Kronendach stößt die in Python implementierte Regressionsfunktion an ihre Grenzen und ist daher nicht in der Lage, die im IM-Modell nicht erkennbaren Lücken in bewaldeten Gebieten adäquat an das Laserscanning-Modell an diesen Stellen anzupassen.
Modellierung der atmosphärischen Anregung der Polbewegung für das 21. Jahrhundert unter Berücksichtigung von unterschiedlichen Klimaentwicklungsszenarien
Diplomarbeit: Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2024
Betreuerin: Dipl.-Ing.in Dr.in Sigrid Böhm
Kurzfassung/Abstract
Bezogen auf den Erdkörper wird die zeitlich variable Lageveränderung der Erdachse als Polbewegung bezeichnet. Die Polbewegung zeigt sich als Schwingung mit vielen unterschiedlichen Perioden und wird zu einem erheblichen Teil von der Atmosphäre angeregt. Die Atmosphäre weist zwar verglichen mit dem Erdkörper eine sehr geringe Masse auf, unterliegt aber aufgrund der vielen Luftbewegungen, die in ihr stattfinden, großen Drehimpulsschwankungen, die sie zu einem Großteil an die feste Erde weitergibt. In der vorliegenden Arbeit wird diese Anregung der Polbewegung mithilfe von atmosphärischen Drehimpulsfunktionen modelliert und bis zum Jahr 2100 prognostiziert. Dabei wird besonders auf die zukünftige Entwicklung des Klimas aufgrund von anthropogenem Treibhausgasausstoß Bezug genommen. Die Drehimpulsfunktionen werden mit Luftdruck- und Windgeschwindigkeitsdaten ausgewertet. Diese Daten stammen aus elf unterschiedlichen Klimamodellen des Coupled Model Intercomparison Project (CMIP), die jeweils für fünf Klimaentwicklungsszenarien berechnet wurden. Das Hauptziel ist, eine Prognose für die Veränderung der atmosphärischen Anregung der Polbewegung über das 21. Jahrhundert zu berechnen und zu untersuchen, ob sich die Entwicklung der atmosphärischen Anregung zwischen den Klimaentwicklungsszenarien unterscheidet. Pro Klimaszenario wird aus den elf Modellen eine Multi-Model-Mean (MMM) Zeitreihe der atmosphärischen Drehimpulsfunktionen berechnet. Die atmosphärische Anregung der Polbewegung ist zum größten Teil von Druckveränderungen angetrieben. Weil die Ozeane Unterschiede im Oberflächendruck durch Heben und Senken der Wasseroberfläche ausgleichen, ist die Polbewegung in einer Richtung deutlich stärker gedämpft, was zu einer elliptischen Form ihrer Schwingung führt. Die am stärksten ausgeprägte Periode der atmosphärischen Anregung ist die jährliche. Die Amplitude bewegt sich zwischen 14 und 18 Millibogensekunden, was projiziert auf die Erdoberfläche etwa 50 cm entspricht. Der Vergleich der MMM Zeitreihen zeigt, dass die Amplitude der atmosphärischen Anregung stärker ansteigt, je intensiver der Treibhausgasausstoß für das Klimaszenario angenommen wird. Am Beginn der Zeitreihe unterscheiden sich die Amplituden der Szenarien nur um etwa eine Millibogensekunde, am Ende driften die Szenarien um bis zu drei Millibogensekunden auseinander. Das bedeutet, dass die Atmosphäre die Polbewegung mit fortschreitendem Klimawandel stärker anregt als bei einer treibhausgasarmen Entwicklung.
Bezogen auf den Erdkörper wird die zeitlich variable Lageveränderung der Erdachse als Polbewegung bezeichnet. Die Polbewegung zeigt sich als Schwingung mit vielen unterschiedlichen Perioden und wird zu einem erheblichen Teil von der Atmosphäre angeregt. Die Atmosphäre weist zwar verglichen mit dem Erdkörper eine sehr geringe Masse auf, unterliegt aber aufgrund der vielen Luftbewegungen, die in ihr stattfinden, großen Drehimpulsschwankungen, die sie zu einem Großteil an die feste Erde weitergibt. In der vorliegenden Arbeit wird diese Anregung der Polbewegung mithilfe von atmosphärischen Drehimpulsfunktionen modelliert und bis zum Jahr 2100 prognostiziert. Dabei wird besonders auf die zukünftige Entwicklung des Klimas aufgrund von anthropogenem Treibhausgasausstoß Bezug genommen. Die Drehimpulsfunktionen werden mit Luftdruck- und Windgeschwindigkeitsdaten ausgewertet. Diese Daten stammen aus elf unterschiedlichen Klimamodellen des Coupled Model Intercomparison Project (CMIP), die jeweils für fünf Klimaentwicklungsszenarien berechnet wurden. Das Hauptziel ist, eine Prognose für die Veränderung der atmosphärischen Anregung der Polbewegung über das 21. Jahrhundert zu berechnen und zu untersuchen, ob sich die Entwicklung der atmosphärischen Anregung zwischen den Klimaentwicklungsszenarien unterscheidet. Pro Klimaszenario wird aus den elf Modellen eine Multi-Model-Mean (MMM) Zeitreihe der atmosphärischen Drehimpulsfunktionen berechnet. Die atmosphärische Anregung der Polbewegung ist zum größten Teil von Druckveränderungen angetrieben. Weil die Ozeane Unterschiede im Oberflächendruck durch Heben und Senken der Wasseroberfläche ausgleichen, ist die Polbewegung in einer Richtung deutlich stärker gedämpft, was zu einer elliptischen Form ihrer Schwingung führt. Die am stärksten ausgeprägte Periode der atmosphärischen Anregung ist die jährliche. Die Amplitude bewegt sich zwischen 14 und 18 Millibogensekunden, was projiziert auf die Erdoberfläche etwa 50 cm entspricht. Der Vergleich der MMM Zeitreihen zeigt, dass die Amplitude der atmosphärischen Anregung stärker ansteigt, je intensiver der Treibhausgasausstoß für das Klimaszenario angenommen wird. Am Beginn der Zeitreihe unterscheiden sich die Amplituden der Szenarien nur um etwa eine Millibogensekunde, am Ende driften die Szenarien um bis zu drei Millibogensekunden auseinander. Das bedeutet, dass die Atmosphäre die Polbewegung mit fortschreitendem Klimawandel stärker anregt als bei einer treibhausgasarmen Entwicklung.
Bestimmung von Brückenvibrationen mittels bodenbasiertem Radar
Diplomarbeit: Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2024
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Durch die Überalterung von Infrastrukturbauten gewinnt die Überwachung dieser immer mehr an Bedeutung. Während des Baubooms in der zweiten Hälfte des 20. Jahrhunderts wurde der Großteil unserer heutigen Infrastruktur errichtet. Heutzutage fließen immer mehr Ressourcen in die Instandsetzung als in den Neubau von Ingenieurbauten. Die meisten Bauwerke befinden sich mittlerweile in einer kritischen Phase ihres Lebenszyklus, um diese noch einige Jahre sicher und ohne zu großen finanziellen Aufwand betreiben zu können, bedarf es einer genauen Überwachung der Infrastruktur. Als einer der Sensoren zur Überwachung kann hierfür ein Ground Based Synthetic Aperture Radar (GBSAR) verwendet werden. Zu Beginn wurden Radarsysteme meist nur an Flugzeugen und Satelliten verwendet, doch im Laufe der letzten Jahrzehnte konnten sich diese, auch auf dem Boden durchsetzen. Heutzutage werden diese Sensoren häufig im Fall von Rutschhängen oder der Überwachung von Minen verwendet und haben sich mittlerweile auch ihren Platz in der Bauwerksüberwachung gesichert. Durch die hochfrequente Messung ist es möglich, die Eigenfrequenzen zu bestimmen und so bereits Schäden zu erkennen, bevor sie mit dem freien Auge sichtbar werden. Der große Vorteil des Radars ist, dass keinerlei Betreten des Bauwerkes notwendig ist, da natürliche Reflektoren ausreichen, um die Verformung in Sichtlinie messen zu können. In dieser Arbeit werden zwei Versuche mittels IBIS-FS an unterschiedlichen Objekten durchgeführt. Der erste Versuch wurde am Messdach des IGMS mit Hilfe eines Verschiebeapparates vollzogen. Hierbei wurde ein Corner Cube auf diesem Verschiebeapparat montiert und eine Messung in zwei unterschiedlichen Distanzen ausgeführt. Beim zweiten Versuch wurden Messungen mit GBSAR an einem realen Brückenbauwerk, der Tiroler Gschnitztalbrücke, durchgeführt. An der Brücke wurden durch zwei LKWs verschiedene Lastfälle realisiert. Neben der Messung mittels GBSAR wurde auch mit einer Robotic Totalstation (RTS), einem Terrestrischer Laserscanner (TLS), einem Distributed Acoustic Sensing (DAS) und einem Beschleunigungssensor gemessen. Aus der Arbeit geht hervor, dass eine Bestimmung der Eigenfrequenz ohne die Montage eines Sensors oder Zieles möglich ist. Auch die zeitliche Auflösung und die Detektion einer Bewegung sind bereits sehr früh möglich, jedoch ist es nicht möglich die Amplitude eindeutig zu bestimmen.
Durch die Überalterung von Infrastrukturbauten gewinnt die Überwachung dieser immer mehr an Bedeutung. Während des Baubooms in der zweiten Hälfte des 20. Jahrhunderts wurde der Großteil unserer heutigen Infrastruktur errichtet. Heutzutage fließen immer mehr Ressourcen in die Instandsetzung als in den Neubau von Ingenieurbauten. Die meisten Bauwerke befinden sich mittlerweile in einer kritischen Phase ihres Lebenszyklus, um diese noch einige Jahre sicher und ohne zu großen finanziellen Aufwand betreiben zu können, bedarf es einer genauen Überwachung der Infrastruktur. Als einer der Sensoren zur Überwachung kann hierfür ein Ground Based Synthetic Aperture Radar (GBSAR) verwendet werden. Zu Beginn wurden Radarsysteme meist nur an Flugzeugen und Satelliten verwendet, doch im Laufe der letzten Jahrzehnte konnten sich diese, auch auf dem Boden durchsetzen. Heutzutage werden diese Sensoren häufig im Fall von Rutschhängen oder der Überwachung von Minen verwendet und haben sich mittlerweile auch ihren Platz in der Bauwerksüberwachung gesichert. Durch die hochfrequente Messung ist es möglich, die Eigenfrequenzen zu bestimmen und so bereits Schäden zu erkennen, bevor sie mit dem freien Auge sichtbar werden. Der große Vorteil des Radars ist, dass keinerlei Betreten des Bauwerkes notwendig ist, da natürliche Reflektoren ausreichen, um die Verformung in Sichtlinie messen zu können. In dieser Arbeit werden zwei Versuche mittels IBIS-FS an unterschiedlichen Objekten durchgeführt. Der erste Versuch wurde am Messdach des IGMS mit Hilfe eines Verschiebeapparates vollzogen. Hierbei wurde ein Corner Cube auf diesem Verschiebeapparat montiert und eine Messung in zwei unterschiedlichen Distanzen ausgeführt. Beim zweiten Versuch wurden Messungen mit GBSAR an einem realen Brückenbauwerk, der Tiroler Gschnitztalbrücke, durchgeführt. An der Brücke wurden durch zwei LKWs verschiedene Lastfälle realisiert. Neben der Messung mittels GBSAR wurde auch mit einer Robotic Totalstation (RTS), einem Terrestrischer Laserscanner (TLS), einem Distributed Acoustic Sensing (DAS) und einem Beschleunigungssensor gemessen. Aus der Arbeit geht hervor, dass eine Bestimmung der Eigenfrequenz ohne die Montage eines Sensors oder Zieles möglich ist. Auch die zeitliche Auflösung und die Detektion einer Bewegung sind bereits sehr früh möglich, jedoch ist es nicht möglich die Amplitude eindeutig zu bestimmen.
Quantifizierung von Vegetationsänderungen als Folge von Thermokarst mit Methoden der Fernerkundung
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2024
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
Die arktischen Permafrostgebiete befinden sich in einem schnellen Wandel und sind stark von der Klimaveränderung betroffen. Methoden der Fernerkundung können dabei helfen, diese Landbedeckungsveränderungen besser zu verstehen und zu überwachen. Gemeinsame Merkmale arktischer Permafrostgebiete sind Thermokarstseen und verschwindende Seen. Sie spielen eine wichtige Rolle für die geomorphologische, hydrologische und ökologische Entwicklung arktischer Gebiete. Die Veränderung des Lebensraumes wirkt sich auch auf die lokale Artenvielfalt aus. Die Vertiefung unseres Verständnisses der Prozesse im Zusammenhang mit Entwässerungsereignissen und entwässerten Einzugsgebieten in der arktischen Umwelt ist für zahlreiche Anwendungen (z.B. Landschaftsmodelle) von entscheidender Bedeutung. Diese Arbeit fokusiert auf das Gebiet der Halbinsel Jamal im Norden Russlands, Sibirien. Jamal wird in eine diskontinuierliche und eine kontinuierliche Permafrost-Tundra-Region eingeteilt werden. Jamal ist von verschiedenen Tundra-Vegetationsgemeinschaften, Tauwasserseen, Feuchtgebieten und Flussauen bedeckt. Entwässerte Tauseebecken unterscheiden sich zwischen den Regionen in ihrer Häufigkeit und Größe. Für diese Arbeit wurden mehrere entwässerte Seebecken auf der Jamal-Halbinsel manuell ausgewählt. Dabei wurde ein Nord-Süd-Klimagradient und verschiedene Entwicklungsstadien der entwässerten Seebecken berücksichtigt. Einige trockengelegte Seebecken liegen in der Nähe von Infrastruktur. Menschliche Aktivitäten auf Jamal umfassen nicht nur Gasinfrastrukturprojekte, sondern auch die Rentierhaltung dient als wichtigste traditionelle Landnutzungsform. Entwässerte Seebecken und damit verbundene Landschaftsdynamiken wie Veränderungen der Oberflächenwasserfläche und der Vegetationsbedeckung können aus dem Weltraum überwacht und mit verschiedenen Fernerkundungsindizes beschrieben werden. Die Indizes können aus mehreren Satellitenbildern auf Jahres- und Zwischenjahresebene berechnet werden. Im Detail werden die ausgewählten entwässerten Seebecken auf dem Höhepunkt der Vegetationsperiode (zwischen dem 1. Juli und dem 31. August) und der zwischenjährlichen Landbedeckungsdynamik von 2016 bis heute bewertet. In dieser Arbeit werden multispektrale Bilddaten von Sentinel-2- und Landsat-8-Satelliten verwendet und eine Reihe verschiedener Landbedeckungsmetriken berechnet, wie z.B. den Normalized Difference Vegetation Index (NDVI) und die Tasseled Cap (TC) - Indizes. Die TC Indizes wurden an den entsprechenden Satelliten angepasst und die spektralen Indikatoren für "Brightness", "Greenness" und "Wetness" berechnet. Die Ergebnisse wurden anhand der verschiedenen Standorte verglichen, wobei der Schwerpunkt auf standortspezifischen Faktoren (wie relatives Beckenalter, hydrologische Konnektivität) lag. Darüber hinaus wurden Vergleiche mit Landbedeckungsklassifizierungen durchgeführt, die im Rahmen der ESA-Projekte DUE GlobPermafrost und Permafrost cci entwickelt wurden und auf der Fusion von Sentinel-1- und 2-Daten mithilfe maschinellen Lernens basieren. Diese Ergebnisse sollen helfen das Verständnis der Begrünung entwässerter Seen und der damit verbundenen Veränderung von Flora und Fauna und der einhergehenden Änderung von Biodiversität voranzutreiben.
Die arktischen Permafrostgebiete befinden sich in einem schnellen Wandel und sind stark von der Klimaveränderung betroffen. Methoden der Fernerkundung können dabei helfen, diese Landbedeckungsveränderungen besser zu verstehen und zu überwachen. Gemeinsame Merkmale arktischer Permafrostgebiete sind Thermokarstseen und verschwindende Seen. Sie spielen eine wichtige Rolle für die geomorphologische, hydrologische und ökologische Entwicklung arktischer Gebiete. Die Veränderung des Lebensraumes wirkt sich auch auf die lokale Artenvielfalt aus. Die Vertiefung unseres Verständnisses der Prozesse im Zusammenhang mit Entwässerungsereignissen und entwässerten Einzugsgebieten in der arktischen Umwelt ist für zahlreiche Anwendungen (z.B. Landschaftsmodelle) von entscheidender Bedeutung. Diese Arbeit fokusiert auf das Gebiet der Halbinsel Jamal im Norden Russlands, Sibirien. Jamal wird in eine diskontinuierliche und eine kontinuierliche Permafrost-Tundra-Region eingeteilt werden. Jamal ist von verschiedenen Tundra-Vegetationsgemeinschaften, Tauwasserseen, Feuchtgebieten und Flussauen bedeckt. Entwässerte Tauseebecken unterscheiden sich zwischen den Regionen in ihrer Häufigkeit und Größe. Für diese Arbeit wurden mehrere entwässerte Seebecken auf der Jamal-Halbinsel manuell ausgewählt. Dabei wurde ein Nord-Süd-Klimagradient und verschiedene Entwicklungsstadien der entwässerten Seebecken berücksichtigt. Einige trockengelegte Seebecken liegen in der Nähe von Infrastruktur. Menschliche Aktivitäten auf Jamal umfassen nicht nur Gasinfrastrukturprojekte, sondern auch die Rentierhaltung dient als wichtigste traditionelle Landnutzungsform. Entwässerte Seebecken und damit verbundene Landschaftsdynamiken wie Veränderungen der Oberflächenwasserfläche und der Vegetationsbedeckung können aus dem Weltraum überwacht und mit verschiedenen Fernerkundungsindizes beschrieben werden. Die Indizes können aus mehreren Satellitenbildern auf Jahres- und Zwischenjahresebene berechnet werden. Im Detail werden die ausgewählten entwässerten Seebecken auf dem Höhepunkt der Vegetationsperiode (zwischen dem 1. Juli und dem 31. August) und der zwischenjährlichen Landbedeckungsdynamik von 2016 bis heute bewertet. In dieser Arbeit werden multispektrale Bilddaten von Sentinel-2- und Landsat-8-Satelliten verwendet und eine Reihe verschiedener Landbedeckungsmetriken berechnet, wie z.B. den Normalized Difference Vegetation Index (NDVI) und die Tasseled Cap (TC) - Indizes. Die TC Indizes wurden an den entsprechenden Satelliten angepasst und die spektralen Indikatoren für "Brightness", "Greenness" und "Wetness" berechnet. Die Ergebnisse wurden anhand der verschiedenen Standorte verglichen, wobei der Schwerpunkt auf standortspezifischen Faktoren (wie relatives Beckenalter, hydrologische Konnektivität) lag. Darüber hinaus wurden Vergleiche mit Landbedeckungsklassifizierungen durchgeführt, die im Rahmen der ESA-Projekte DUE GlobPermafrost und Permafrost cci entwickelt wurden und auf der Fusion von Sentinel-1- und 2-Daten mithilfe maschinellen Lernens basieren. Diese Ergebnisse sollen helfen das Verständnis der Begrünung entwässerter Seen und der damit verbundenen Veränderung von Flora und Fauna und der einhergehenden Änderung von Biodiversität voranzutreiben.
Ableitung des Bruttoinlandprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch Anwendung eines Deep Learning Modells
Institut für Geographie und Raumforschung, Universität Graz, 2023
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Der Begriff Deep Learning beschreibt eine Methode der Datenverarbeitung durch künstliche Intelligenz. Die künstliche Intelligenz ist mittlerweile im Alltag der meisten Menschen präsent, aber auch in der Wissenschaft spielt sie eine immer größer werdende Rolle. Diese Masterarbeit widmet sich der Ableitung des Bruttoinlandsprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch die Anwendung eines Deep Learning Modells. Das Ziel dieser Arbeit ist die Erstellung eines Datensatzes, mit dem ein Deep Learning Modell trainiert werden kann, um das Bruttoinlandsprodukt bestimmter Regionen in Brasilien vorherzusagen. Die Forschungsfragen, die im Zuge dieser Arbeit behandelt werden, beschäftigen sich damit, ob das Modell auf unterschiedliche Testgebiete innerhalb Brasiliens angewandt werden kann und ob ein Zusammenhang zwischen der nächtlichen Beleuchtung und der Wirtschaftskraft einer Region besteht. Der Datensatz, der zur Beantwortung der Forschungsfragen erstellt werden muss, besteht aus Referenzdaten, die in einer Auflösung von 1x1km das BIP enthalten und den Inputdaten des Modells, die in der gleichen geometrischen Auflösung akquiriert werden müssen. Die Referenzdaten des Bruttoinlandsprodukts werden durch eine einkommensbasierte Disaggregation beziehungsweise Aufschlüsselung erstellt. Die Inputdaten hingegen bestehen aus Sentinel-2 und Black Marble Satellitenbildern, sowie aus den Sentinel-2 Bandkombinationen „NDVI“, „NDBI“ und „MNDWI“. Nach der Erstellung des Datensatzes werden unterschiedlichste Parameterkombinationen für das Modell getestet, um ein optimales Ergebnis zu erzielen. Beim Deep Learning Modell handelt es sich um ein Fusionsmodell aus einem Convolutional Neural Network (CNN) und einem Multilayer Perceptron (MLP), welches vom DLR speziell für diesen Einsatz entwickelt und zur Verfügung gestellt wurde. Durch die Anwendung des Vorhersagemodells konnten Ergebnisse für 14 der bevölkerungsreichsten Städte Brasiliens berechnet werden. Darunter Sao Paulo, mit einem Bruttoinlandsprodukt von 687 035 890 brasilianischen Real (R$). Das BIP konnte mit einem Determinationskoeffizienten R² von 0,64 und einer Pearson Korrelation R von 0,8 nachmodelliert werden. Die Genauigkeit der Modellierung variiert jedoch stark zwischen den unterschiedlichen Testgebieten. Es stellt sich heraus, dass die Werte durch die Modellierung geglättet werden und somit Ausreißer in den BIP-Werten verloren gehen. Weiters werden Kacheln, die sich in ruralen Regionen befinden, zu hohe Werte zugewiesen. Der Einfluss der nächtlichen Beleuchtung auf das BIP zeigt sich in der Verbesserung der Performance des Modells durch die Einbindung der Black Marble Daten. Weiterführende Forschung in diesem Bereich wäre eine Disaggregation der BIP-Daten nach Wirtschaftssektoren unter Einbindung von Landbedeckungs- und OpenStreetMap Daten, sowie eine weitere Optimierung des Modells hinsichtlich ruraler Räume.
Der Begriff Deep Learning beschreibt eine Methode der Datenverarbeitung durch künstliche Intelligenz. Die künstliche Intelligenz ist mittlerweile im Alltag der meisten Menschen präsent, aber auch in der Wissenschaft spielt sie eine immer größer werdende Rolle. Diese Masterarbeit widmet sich der Ableitung des Bruttoinlandsprodukts von Brasilien auf Basis von Nacht-Satellitenbildern und weiteren Geodaten durch die Anwendung eines Deep Learning Modells. Das Ziel dieser Arbeit ist die Erstellung eines Datensatzes, mit dem ein Deep Learning Modell trainiert werden kann, um das Bruttoinlandsprodukt bestimmter Regionen in Brasilien vorherzusagen. Die Forschungsfragen, die im Zuge dieser Arbeit behandelt werden, beschäftigen sich damit, ob das Modell auf unterschiedliche Testgebiete innerhalb Brasiliens angewandt werden kann und ob ein Zusammenhang zwischen der nächtlichen Beleuchtung und der Wirtschaftskraft einer Region besteht. Der Datensatz, der zur Beantwortung der Forschungsfragen erstellt werden muss, besteht aus Referenzdaten, die in einer Auflösung von 1x1km das BIP enthalten und den Inputdaten des Modells, die in der gleichen geometrischen Auflösung akquiriert werden müssen. Die Referenzdaten des Bruttoinlandsprodukts werden durch eine einkommensbasierte Disaggregation beziehungsweise Aufschlüsselung erstellt. Die Inputdaten hingegen bestehen aus Sentinel-2 und Black Marble Satellitenbildern, sowie aus den Sentinel-2 Bandkombinationen „NDVI“, „NDBI“ und „MNDWI“. Nach der Erstellung des Datensatzes werden unterschiedlichste Parameterkombinationen für das Modell getestet, um ein optimales Ergebnis zu erzielen. Beim Deep Learning Modell handelt es sich um ein Fusionsmodell aus einem Convolutional Neural Network (CNN) und einem Multilayer Perceptron (MLP), welches vom DLR speziell für diesen Einsatz entwickelt und zur Verfügung gestellt wurde. Durch die Anwendung des Vorhersagemodells konnten Ergebnisse für 14 der bevölkerungsreichsten Städte Brasiliens berechnet werden. Darunter Sao Paulo, mit einem Bruttoinlandsprodukt von 687 035 890 brasilianischen Real (R$). Das BIP konnte mit einem Determinationskoeffizienten R² von 0,64 und einer Pearson Korrelation R von 0,8 nachmodelliert werden. Die Genauigkeit der Modellierung variiert jedoch stark zwischen den unterschiedlichen Testgebieten. Es stellt sich heraus, dass die Werte durch die Modellierung geglättet werden und somit Ausreißer in den BIP-Werten verloren gehen. Weiters werden Kacheln, die sich in ruralen Regionen befinden, zu hohe Werte zugewiesen. Der Einfluss der nächtlichen Beleuchtung auf das BIP zeigt sich in der Verbesserung der Performance des Modells durch die Einbindung der Black Marble Daten. Weiterführende Forschung in diesem Bereich wäre eine Disaggregation der BIP-Daten nach Wirtschaftssektoren unter Einbindung von Landbedeckungs- und OpenStreetMap Daten, sowie eine weitere Optimierung des Modells hinsichtlich ruraler Räume.