- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2022
Abschlussarbeiten 2022
Assessment of Various Processing Schemes and Solution Strategies to Improve the Performance of GNSS Tropospheric Tomography
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2022
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
In recent years, the Global Navigation Satellite System (GNSS) has turned out to be a valuable tool for remotely sensing the atmosphere. In this context, GNSS tomography evolved to an extremely promising technique to reconstruct the spatio-temporal structure of the troposphere. Therefore, this method can offer a permanent monitoring service for water vapour and wet refractivity fields at low cost and a reasonable spatial resolution compared to conventional observations, like radiosonde and radio occultation profiles. However, there are still some challenges and open questions in GNSS tomography which extremely affect the quality of the reconstructed field. Hence, the main objective of this dissertation is to investigate different strategies to solve some of them. The economic issue to deploy multi-frequency receivers with a sufficient spatial resolution of a few tens of kilometers is one of the challenges for GNSS tomography. Therefore, the feasibility of using single-frequency observations in GNSS tomography as an alternative approach is investigated. Another challenge of GNSS tomography relates to different parameterization methods for computing the design matrix. Therefore, the effect of the straight-line method versus the ray-tracing method as well as the impact of considering the topography in the tomography model is studied for computing the design matrix. Further attention is given to multi-GNSS observations in GNSS tomography due to improving observation geometry compared to a sole GPS/ GLONASS system scenario. Therefore, by focusing on GALILEO's effect, the impact of different constellations is investigated to retrieve a wet refractivity field. GNSS tomography is also suffering from the insufficient spatial coverage of GNSS signals in the voxels within the given time window. Hence, the design matrix is sparse, and the observation equation system of the tomography model is mixed-determined. Thus, physical meaningful constraints as well as external data sources should be applied. In this dissertation, the new dataset from the Geostationary Operational Environmental Satellite (GOES) sounder supplements the system of observation equations and consequently, the tomographic solution leads to an improved reconstructed wet refractivity field. Besides, this method is a kind of discrete ill-posed problem. So, all singular values of the structure matrix (A) in the tomography problem decay gradually to zero without any noticeable gap in the spectrum. Hence, slight changes in the measurements can lead to extremely unstable parameter solutions. In consequence, the regularization method should be applied to stabilize the inversion process and ensure a stable and unique solution for the tomography problem. The algebraic reconstruction techniques (ART) and the Total Variation (TV) method are examined to reconstruct a regularized solution with acceptable accuracy. Moreover, the TV method can also reconstruct a promising wet refractivity field without any initial field in a shorter time span. Thereby, retrieving the wet refractivity field using this method is also investigated. A further attempt is given to analyse the quality of the reconstructed field in GNSS tomography. To the author' best knowledge for the first time in GNSS tropospheric tomography, the spread of the resolution matrix is employed to assess the quality of the retrieved wet refractivity solution without a need to use reference observations and calculate statistical measures like RMS and Bias in this method.
In recent years, the Global Navigation Satellite System (GNSS) has turned out to be a valuable tool for remotely sensing the atmosphere. In this context, GNSS tomography evolved to an extremely promising technique to reconstruct the spatio-temporal structure of the troposphere. Therefore, this method can offer a permanent monitoring service for water vapour and wet refractivity fields at low cost and a reasonable spatial resolution compared to conventional observations, like radiosonde and radio occultation profiles. However, there are still some challenges and open questions in GNSS tomography which extremely affect the quality of the reconstructed field. Hence, the main objective of this dissertation is to investigate different strategies to solve some of them. The economic issue to deploy multi-frequency receivers with a sufficient spatial resolution of a few tens of kilometers is one of the challenges for GNSS tomography. Therefore, the feasibility of using single-frequency observations in GNSS tomography as an alternative approach is investigated. Another challenge of GNSS tomography relates to different parameterization methods for computing the design matrix. Therefore, the effect of the straight-line method versus the ray-tracing method as well as the impact of considering the topography in the tomography model is studied for computing the design matrix. Further attention is given to multi-GNSS observations in GNSS tomography due to improving observation geometry compared to a sole GPS/ GLONASS system scenario. Therefore, by focusing on GALILEO's effect, the impact of different constellations is investigated to retrieve a wet refractivity field. GNSS tomography is also suffering from the insufficient spatial coverage of GNSS signals in the voxels within the given time window. Hence, the design matrix is sparse, and the observation equation system of the tomography model is mixed-determined. Thus, physical meaningful constraints as well as external data sources should be applied. In this dissertation, the new dataset from the Geostationary Operational Environmental Satellite (GOES) sounder supplements the system of observation equations and consequently, the tomographic solution leads to an improved reconstructed wet refractivity field. Besides, this method is a kind of discrete ill-posed problem. So, all singular values of the structure matrix (A) in the tomography problem decay gradually to zero without any noticeable gap in the spectrum. Hence, slight changes in the measurements can lead to extremely unstable parameter solutions. In consequence, the regularization method should be applied to stabilize the inversion process and ensure a stable and unique solution for the tomography problem. The algebraic reconstruction techniques (ART) and the Total Variation (TV) method are examined to reconstruct a regularized solution with acceptable accuracy. Moreover, the TV method can also reconstruct a promising wet refractivity field without any initial field in a shorter time span. Thereby, retrieving the wet refractivity field using this method is also investigated. A further attempt is given to analyse the quality of the reconstructed field in GNSS tomography. To the author' best knowledge for the first time in GNSS tropospheric tomography, the spread of the resolution matrix is employed to assess the quality of the retrieved wet refractivity solution without a need to use reference observations and calculate statistical measures like RMS and Bias in this method.
Towards the European-Wide Forest Mapping and Classification Using the Sentinel-1 C-Band Synthetic Aperture Radar Data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Forests cover around 38% of the European land surface and are of great economic and ecological importance. Reliable and frequently updated information on forest resources is needed to maintain the functioning of forest ecosystems. Nowadays, terrestrial in-situ observations are complemented by remote sensing techniques that provide area-wide spatial data of many forestry parameters such as forest cover, forest type and composition or biomass. While airborne campaigns can provide high level of details with limited coverage and temporal resolution, the spaceborne remote sensing provides regular acquisitions that help to bridge the gap in the spatial and temporal coverage. In recent years, satellite-based forest maps became available for whole countries, continents, or the entire world. Currently, the majority of these global or continental forest datasets exploit optical data. However, the temporal coverage of optical datasets is limited due to frequent cloud coverage or limited sun illumination of the surface in some areas. For this reason, the synergy of Synthetic Aperture Radar (SAR) and optical sensors or SAR-only based products is also increasingly addressed by research. Launch of the Sentinel-1 constellation in 2014 and 2016 for Sentinel-1 A and B respectively secured a regular global coverage of high-resolution C-Band SAR data. Over the majority of the European continent, 4 to 8 dual polarisation acquisitions are provided every 12 days resulting in very dense time series. Such dense multi-temporal dataset can help to overcome some of the known limitations of C-Band SAR in forestry applications, such as the backscatter saturation at moderate growing stocks or the sensitivity of the signal to the environmental conditions such as moisture or freeze/thaw events. The availability of dense time-series of Sentinel-1 data motivated the development of new forest mapping and classification algorithm that exploits the differences between the temporal signatures of various vegetation types. The suitability of this algorithm for continental-scale forest classification was tested by applying and validating it for the entire European continent. This validation revealed high correspondence with the European-wide Copernicus High Resolution Layers forest datasets (overall accuracies of 86.1% and 73.2% for the forest/non-forest and forest type maps respectively and Pearson correlation coefficient of 0.83 for tree cover density map) as well as with national forest maps (average overall accuracy of 88.2% and 82.7% for forest/non-forest and forest type maps respectively). These results show that the Sentinel-1 SAR sensors are well suited for the forest mapping and forest type classification over majority of the European Continent. This is especially promising due to the fact, that these maps can be produced with a high degree of automation and that only a single year of Sentinel-1 data is required. Also, further improvements can be achieved in undulated regions by including an additional radiometric terrain flattening step in the SAR data pre-processing.
Forests cover around 38% of the European land surface and are of great economic and ecological importance. Reliable and frequently updated information on forest resources is needed to maintain the functioning of forest ecosystems. Nowadays, terrestrial in-situ observations are complemented by remote sensing techniques that provide area-wide spatial data of many forestry parameters such as forest cover, forest type and composition or biomass. While airborne campaigns can provide high level of details with limited coverage and temporal resolution, the spaceborne remote sensing provides regular acquisitions that help to bridge the gap in the spatial and temporal coverage. In recent years, satellite-based forest maps became available for whole countries, continents, or the entire world. Currently, the majority of these global or continental forest datasets exploit optical data. However, the temporal coverage of optical datasets is limited due to frequent cloud coverage or limited sun illumination of the surface in some areas. For this reason, the synergy of Synthetic Aperture Radar (SAR) and optical sensors or SAR-only based products is also increasingly addressed by research. Launch of the Sentinel-1 constellation in 2014 and 2016 for Sentinel-1 A and B respectively secured a regular global coverage of high-resolution C-Band SAR data. Over the majority of the European continent, 4 to 8 dual polarisation acquisitions are provided every 12 days resulting in very dense time series. Such dense multi-temporal dataset can help to overcome some of the known limitations of C-Band SAR in forestry applications, such as the backscatter saturation at moderate growing stocks or the sensitivity of the signal to the environmental conditions such as moisture or freeze/thaw events. The availability of dense time-series of Sentinel-1 data motivated the development of new forest mapping and classification algorithm that exploits the differences between the temporal signatures of various vegetation types. The suitability of this algorithm for continental-scale forest classification was tested by applying and validating it for the entire European continent. This validation revealed high correspondence with the European-wide Copernicus High Resolution Layers forest datasets (overall accuracies of 86.1% and 73.2% for the forest/non-forest and forest type maps respectively and Pearson correlation coefficient of 0.83 for tree cover density map) as well as with national forest maps (average overall accuracy of 88.2% and 82.7% for forest/non-forest and forest type maps respectively). These results show that the Sentinel-1 SAR sensors are well suited for the forest mapping and forest type classification over majority of the European Continent. This is especially promising due to the fact, that these maps can be produced with a high degree of automation and that only a single year of Sentinel-1 data is required. Also, further improvements can be achieved in undulated regions by including an additional radiometric terrain flattening step in the SAR data pre-processing.
Data-driven soil moisture estimations based on earth observation data and machine learning
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Although its origins lie in military applications, satellite remote sensing was established over the last decades as an essential method for observing our environment through the spatially continuous and global measurement of relevant parameters like land-cover, land-surface temperature, vegetation biomass, ocean salinity, or surface soil moisture. Furthermore, it plays an essential role in observing the atmosphere, mapping land-cover and land-use changes, generating digital elevation models, and many other applications. This thesis focuses on estimating the surface soil moisture content, which was recognised as an essential climate variable by the Global Climate Observing System of the World Meteorological Organization. It is essential for the understanding of many meteorological and hydrological processes. Spatial and temporal changes of the soil moisture content can help understand and anticipate natural hazards like landslides, floods, or drought. The remote sensing of the soil moisture content, using optical and microwave sensors, has a long history dating back to the 1970s. Different approaches have emerged and established themselves since then. With this thesis, we concentrated on the latest group of approaches, machine learning. Even though most of the underlying methodologies were already developed during the 1980s and 1990s, machine learning experienced a surge of popularity during the last decade, also for remote sensing and earth observation applications. This increase in popularity was further pushed by the paradigm shift in earth observation, which allows users today to easily access and exploit large quantities of data from different sensors. The overall goal of this thesis is to use earth observation data combined with machine learning methods to estimate the soil moisture content. To capture the aims of this thesis, we formulated three main questions: • How can we go from site-specific, data-driven machine-learning models to general applicability in large scale applications? • How can we harness the potential of available data and merge data from different sensors and data sources with different spatial and temporal resolutions? • How can we link soil moisture measurements across scales (spatial and temporal)? The analysis presented by the thesis in its first part focused on a better understanding of the interactions between microwaves, soil moisture, topography, land-cover, and vegetation, between each other and across spatial scales. By developing a spatial upscaling method for in-situ measurements, we were able to study these interactions and confirm the solid temporal correlation of soil moisture across spatial scales. An essential ambition of this work was also to study the applicability of data-driven methods on a global scale. For this purpose, we performed tests based on different spatial resolutions and used different reference data types. The results demonstrate that accurate estimation is possible, with coarse as well as with high spatial resolutions. The studies also revealed certain limitations related to the potential of retrieval models relying only on satellite data, the uncertainties of heterogeneous reference data, or the validation of high-resolution spatial patterns. One of the thesis’ main outputs is an approach and a model for the high-resolution mapping of surface soil moisture, which we published as part of a software called PYSMM. The practical use of the approach we demonstrated as part of the thesis for mapping soil moisture anomalies. Its relevance was further underlined as it was picked up by scientists at FAO and the USGS to incorporate soil moisture information for wetland detection and assimilation in a hydrological model, respectively.
Although its origins lie in military applications, satellite remote sensing was established over the last decades as an essential method for observing our environment through the spatially continuous and global measurement of relevant parameters like land-cover, land-surface temperature, vegetation biomass, ocean salinity, or surface soil moisture. Furthermore, it plays an essential role in observing the atmosphere, mapping land-cover and land-use changes, generating digital elevation models, and many other applications. This thesis focuses on estimating the surface soil moisture content, which was recognised as an essential climate variable by the Global Climate Observing System of the World Meteorological Organization. It is essential for the understanding of many meteorological and hydrological processes. Spatial and temporal changes of the soil moisture content can help understand and anticipate natural hazards like landslides, floods, or drought. The remote sensing of the soil moisture content, using optical and microwave sensors, has a long history dating back to the 1970s. Different approaches have emerged and established themselves since then. With this thesis, we concentrated on the latest group of approaches, machine learning. Even though most of the underlying methodologies were already developed during the 1980s and 1990s, machine learning experienced a surge of popularity during the last decade, also for remote sensing and earth observation applications. This increase in popularity was further pushed by the paradigm shift in earth observation, which allows users today to easily access and exploit large quantities of data from different sensors. The overall goal of this thesis is to use earth observation data combined with machine learning methods to estimate the soil moisture content. To capture the aims of this thesis, we formulated three main questions: • How can we go from site-specific, data-driven machine-learning models to general applicability in large scale applications? • How can we harness the potential of available data and merge data from different sensors and data sources with different spatial and temporal resolutions? • How can we link soil moisture measurements across scales (spatial and temporal)? The analysis presented by the thesis in its first part focused on a better understanding of the interactions between microwaves, soil moisture, topography, land-cover, and vegetation, between each other and across spatial scales. By developing a spatial upscaling method for in-situ measurements, we were able to study these interactions and confirm the solid temporal correlation of soil moisture across spatial scales. An essential ambition of this work was also to study the applicability of data-driven methods on a global scale. For this purpose, we performed tests based on different spatial resolutions and used different reference data types. The results demonstrate that accurate estimation is possible, with coarse as well as with high spatial resolutions. The studies also revealed certain limitations related to the potential of retrieval models relying only on satellite data, the uncertainties of heterogeneous reference data, or the validation of high-resolution spatial patterns. One of the thesis’ main outputs is an approach and a model for the high-resolution mapping of surface soil moisture, which we published as part of a software called PYSMM. The practical use of the approach we demonstrated as part of the thesis for mapping soil moisture anomalies. Its relevance was further underlined as it was picked up by scientists at FAO and the USGS to incorporate soil moisture information for wetland detection and assimilation in a hydrological model, respectively.
Advancing the understanding of active microwave remote sensing of soil moisture and vegetation
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Active microwave remote sensing techniques provide a means for the monitoring of biogeophysical variables over land, independent of weather and cloud conditions and daylight. Several missions are nowadays in place, which provide regular observations of the entire Earth surface. Observations provided by these sensors have for example been used for the retrieval of soil moisture (SM) and vegetation optical depth, a measure of canopy water content, density and structure. Some of these datasets are available publicly and on an operational basis. Despite the long history of active microwave remote sensing research, going back into the 1960s, there is a constant need to extend the understanding of how active microwave sensors perceive the land surface on the respective spatial scale of the satellite observations. The aim of this thesis was to study the multi-angular backscatter signal (σo) observed by the Advanced Scatterometer (ASCAT) sensor over the land surface. The focus was on the backscatter dependence on the incidence angle (σ’), as this relationship is crucial for the separation of SM and vegetation effects on the observed signal. Thereby, I aimed at advancing the understanding of how SM and vegetation dynamics influence σo and σ’ on the relatively coarse spatial scale of the ASCAT footprint. The main objectives can be summed up as follows: i) increase the understanding of the ASCAT backscatter incidence-angle relationship, in particular the first derivative σ’, ii) investigate the potential of a regional adjustment of parameter values for SM and vegetation optical depth retrieval, iii) improve the understanding of structural effects of vegetation canopies on σ’, and iv) reassess the assumption that σ’ is not or only weakly affected by SM. The conducted research highlighted the great potential of the coarse-scale ASCAT sensor for the retrieval of biogeophysical variables such as SM and vegetation dynamics. One main new finding was that ASCAT is highly sensitive to the water uptake of deciduous broadleaf trees in early spring, allowing for the monitoring of spring reactivation in deciduous forests across wide regions, potentially even on a global level. Thanks to the increasing temporal coverage, (ASCAT) backscatter time series may be exploited for the study of growing season shifts as a reaction to climate change. The study clearly showed that canopy structure can have large effects on ASCAT observations, even if the responsible vegetation type makes up only a small fraction of the entire footprint. The thesis also revealed potentials for improvements in existing retrieval algorithms, such as the benefits of a stronger vegetation correction for the retrieval of SM in temperate-climate, agricultural regions. Moreover, it was shown that despite the clear and dominant control of σ’ by vegetation dynamics, there are short-term secondary effects in σ’ caused by SM, which need to be taken into account when interpreting σ’ time series or applying σ’ as vegetation dynamics indicator. The results of the thesis show that future studies of ASCAT σo and its dependence on the incidence angle should be set up as broad as possible in order to take into account the numerous variables and processes that ASCAT is sensitive to, including combined effects that might cancel each other out or reinforce each other. However, detailed studies of selected processes will always be necessary in order to understand how individual components contribute to the signal. High resolution backscatter datasets, for example provided by Sentinel-1, and enhanced observation techniques, for example foreseen for the upcoming Metop-SG missions, ensure the availability of long backscatter time series, and open up new possibilities for investigating, understanding and monitoring backscatter from land surfaces. This thesis shall contribute to these efforts and support the way forward by shedding light on topics that were not studied in detail previously.
Active microwave remote sensing techniques provide a means for the monitoring of biogeophysical variables over land, independent of weather and cloud conditions and daylight. Several missions are nowadays in place, which provide regular observations of the entire Earth surface. Observations provided by these sensors have for example been used for the retrieval of soil moisture (SM) and vegetation optical depth, a measure of canopy water content, density and structure. Some of these datasets are available publicly and on an operational basis. Despite the long history of active microwave remote sensing research, going back into the 1960s, there is a constant need to extend the understanding of how active microwave sensors perceive the land surface on the respective spatial scale of the satellite observations. The aim of this thesis was to study the multi-angular backscatter signal (σo) observed by the Advanced Scatterometer (ASCAT) sensor over the land surface. The focus was on the backscatter dependence on the incidence angle (σ’), as this relationship is crucial for the separation of SM and vegetation effects on the observed signal. Thereby, I aimed at advancing the understanding of how SM and vegetation dynamics influence σo and σ’ on the relatively coarse spatial scale of the ASCAT footprint. The main objectives can be summed up as follows: i) increase the understanding of the ASCAT backscatter incidence-angle relationship, in particular the first derivative σ’, ii) investigate the potential of a regional adjustment of parameter values for SM and vegetation optical depth retrieval, iii) improve the understanding of structural effects of vegetation canopies on σ’, and iv) reassess the assumption that σ’ is not or only weakly affected by SM. The conducted research highlighted the great potential of the coarse-scale ASCAT sensor for the retrieval of biogeophysical variables such as SM and vegetation dynamics. One main new finding was that ASCAT is highly sensitive to the water uptake of deciduous broadleaf trees in early spring, allowing for the monitoring of spring reactivation in deciduous forests across wide regions, potentially even on a global level. Thanks to the increasing temporal coverage, (ASCAT) backscatter time series may be exploited for the study of growing season shifts as a reaction to climate change. The study clearly showed that canopy structure can have large effects on ASCAT observations, even if the responsible vegetation type makes up only a small fraction of the entire footprint. The thesis also revealed potentials for improvements in existing retrieval algorithms, such as the benefits of a stronger vegetation correction for the retrieval of SM in temperate-climate, agricultural regions. Moreover, it was shown that despite the clear and dominant control of σ’ by vegetation dynamics, there are short-term secondary effects in σ’ caused by SM, which need to be taken into account when interpreting σ’ time series or applying σ’ as vegetation dynamics indicator. The results of the thesis show that future studies of ASCAT σo and its dependence on the incidence angle should be set up as broad as possible in order to take into account the numerous variables and processes that ASCAT is sensitive to, including combined effects that might cancel each other out or reinforce each other. However, detailed studies of selected processes will always be necessary in order to understand how individual components contribute to the signal. High resolution backscatter datasets, for example provided by Sentinel-1, and enhanced observation techniques, for example foreseen for the upcoming Metop-SG missions, ensure the availability of long backscatter time series, and open up new possibilities for investigating, understanding and monitoring backscatter from land surfaces. This thesis shall contribute to these efforts and support the way forward by shedding light on topics that were not studied in detail previously.
The Vienna VLBI Raw Data Simulator and Correlator in the VGOS Era
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is a technique that uses globally distributed radio telescopes to measure the electromagnetic field strengths of natural radio signals from cosmic sources. The filtered, down converted and digitized representation of these measurements provided by each radio telescope is referred to as the raw data signal. The raw data signal represents the output of the VLBI observation process and constitutes the initial data stage for subsequent data processing. This work deals with the modeling, simulation, electronic (e-)transfer and processing of the VLBI raw data signal, resulting in the development of a novel simulation software and the installation of high-performance computing infrastructure, referred to as the correlator, at the Vienna Scientific Cluster (VSC-4). The focus is on the simulation and processing of the raw data signal observed by the new and powerful VLBI Global Observing System (VGOS), which is characterized by enormously high recording rates (up to 8 Gbps) and unprecedented broadband observations (2-14 GHz).
Very Long Baseline Interferometry (VLBI) is a technique that uses globally distributed radio telescopes to measure the electromagnetic field strengths of natural radio signals from cosmic sources. The filtered, down converted and digitized representation of these measurements provided by each radio telescope is referred to as the raw data signal. The raw data signal represents the output of the VLBI observation process and constitutes the initial data stage for subsequent data processing. This work deals with the modeling, simulation, electronic (e-)transfer and processing of the VLBI raw data signal, resulting in the development of a novel simulation software and the installation of high-performance computing infrastructure, referred to as the correlator, at the Vienna Scientific Cluster (VSC-4). The focus is on the simulation and processing of the raw data signal observed by the new and powerful VLBI Global Observing System (VGOS), which is characterized by enormously high recording rates (up to 8 Gbps) and unprecedented broadband observations (2-14 GHz).
Potential of Very High Resolution Satellite Imagery for 3D Reconstruction and Classification
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Hochauflösende Satellitensensoren mit ihrem effizienten weltweiten Aufnahmemöglichkeiten sind eine wertvolle Quelle für Geodatenanwendungen, die eine großflächige Abdeckung und hohe zeitliche Auflösungen erfordern, wie zum Beispiel: die Überwachung von Umweltkatastrophen, Stadtplanung, Veränderungsdetektion, Navigationsunterstützung, Umwelt- und hydrologische Modellierung. Allerdings reichen die alleinig zweidimensionalen Bildinformationen zur Beurteilung unterschiedlicher spezifischer Situationen oft nicht aus. Daher ist eine dreidimensionale Rekonstruktion der abgebildeten Szene erforderlich. Durch die Kombination des 2D-Bildinhalts mit der rekonstruierten 3D-Geometrie kann eine verbesserte Basis für verschiedene Anwendungen erreicht werden. Das führt zu einem besseren Verständnis der beobachteten Szene. Dies ist mit den heutigen hochflexiblen Sensoren möglich, die Satellitenbilder aus mehreren Ansichten über denselben Interessenbereich während eines einzigen Durchgangs aufnehmen können. Während sich viele Forschungsarbeiten mit dem spektralen 2D-Inhalt optischer Satellitenbilder befassen, ist das Thema der 3D-Untersuchungen erheblich kleiner. Angesichts der geringen Forschungstätigkeiten in dieser Richtung zielt diese Arbeit darauf ab, das Wissen über das 3D-Potenzial von hochauflösenden Satellitenbildern zu erhöhen und zu erweitern. Das Ziel dieser Dissertation ist die automatische 3D-Informationsextraktion und Klassifizierung von natürlichen und bebauten Gebieten aus Stereo/Tri-Stereo-Szenen von Pléiades und WorldView-3 Satellitenbildern, um das Potenzial und die Grenzen hervorzuheben und einen tiefen Einblick von hochauflösenden-Sensoren zu erhalten. Die Arbeit der Dissertation fokussiert sowohl auf methodische Entwicklungen als auch auf beschreibende Aspekte zur Verbesserung und zu einem besseren Verständnis des aktuellen Zustands der erreichbaren 3D-Informationen aus hochauflösenden Satellitenbildern. Diese sind insbesondere mit den folgenden wissenschaftlichen Zielen verbunden: (a) 3D-satellitenbasierte Punktwolkenrekonstruktion und Genauigkeitsanalyse von Höhenmodellen; (b) Satellitenbild-Geometriekorrektur basierend auf hochauflösenden Höhenmodellen; (c) Verbesserung der Orthofotoqualität; (d) Analyse der Klassifikationsleistung; und (e) Potenzial für die 3D-Rekonstruktion kleiner, isolierter Objekte. Ein Nebenfokus liegt auf der Beschreibung eines photogrammetrischen Arbeitsablaufs für die 3D-Informationsextraktion aus hochauflösenden Satellitenbildern und auf der Objektsichtbarkeitsanalyse basierend auf den Geometrieerfassungsparametern. Praktische Beispiele für die Extraktion von 3D-Informationen werden in vier unterschiedlichen Gebieten mit unterschiedlichen topografischen Eigenschaften und Landbedeckung analysiert: ländliche, städtische, offene landwirtschaftliche Felder, Grasland, Wälder, und Berggebiete. Die durchgeführten Experimente zeigen vermutliche Vibrationen des Satellitensensors (Jitter-Effekt), die durch die schnelle Drehung von einer Blickrichtung in die andere verursacht werden und von den mitgelieferten rationalen Polynomkoeffizienten (RPC) nicht erfasst werden konnten. Es wird eine neue Methode eingeführt, die die Geometrie von Satellitenbildern basierend auf der Rückprojektion von reale und Referenzhöhen unter Verwendung von Bias-korrigierten RPCs optimiert. Neben Methoden zur Verbesserung der geometrischen Genauigkeit und Qualität von satellitengestützten Höhenmodellen und Orthofotos wurde besonderes Augenmerk auf feinste Details gelegt, die in den photogrammetrisch abgeleiteten Höhenmodellen abgebildet werden können. Indem sie die erreichbare 3D-Informationsextraktion aus Pléiades- und WordView-3 Stereo/Tri-Stereo-Bildern ansprechen, bringen diese Beiträge neue Einblicke in das Forschungsthema und tragen dazu bei, das 3D-Wissenspotenzial von hochauflösenden Satellitenbildern zu erhöhen und zu erweitern.
Hochauflösende Satellitensensoren mit ihrem effizienten weltweiten Aufnahmemöglichkeiten sind eine wertvolle Quelle für Geodatenanwendungen, die eine großflächige Abdeckung und hohe zeitliche Auflösungen erfordern, wie zum Beispiel: die Überwachung von Umweltkatastrophen, Stadtplanung, Veränderungsdetektion, Navigationsunterstützung, Umwelt- und hydrologische Modellierung. Allerdings reichen die alleinig zweidimensionalen Bildinformationen zur Beurteilung unterschiedlicher spezifischer Situationen oft nicht aus. Daher ist eine dreidimensionale Rekonstruktion der abgebildeten Szene erforderlich. Durch die Kombination des 2D-Bildinhalts mit der rekonstruierten 3D-Geometrie kann eine verbesserte Basis für verschiedene Anwendungen erreicht werden. Das führt zu einem besseren Verständnis der beobachteten Szene. Dies ist mit den heutigen hochflexiblen Sensoren möglich, die Satellitenbilder aus mehreren Ansichten über denselben Interessenbereich während eines einzigen Durchgangs aufnehmen können. Während sich viele Forschungsarbeiten mit dem spektralen 2D-Inhalt optischer Satellitenbilder befassen, ist das Thema der 3D-Untersuchungen erheblich kleiner. Angesichts der geringen Forschungstätigkeiten in dieser Richtung zielt diese Arbeit darauf ab, das Wissen über das 3D-Potenzial von hochauflösenden Satellitenbildern zu erhöhen und zu erweitern. Das Ziel dieser Dissertation ist die automatische 3D-Informationsextraktion und Klassifizierung von natürlichen und bebauten Gebieten aus Stereo/Tri-Stereo-Szenen von Pléiades und WorldView-3 Satellitenbildern, um das Potenzial und die Grenzen hervorzuheben und einen tiefen Einblick von hochauflösenden-Sensoren zu erhalten. Die Arbeit der Dissertation fokussiert sowohl auf methodische Entwicklungen als auch auf beschreibende Aspekte zur Verbesserung und zu einem besseren Verständnis des aktuellen Zustands der erreichbaren 3D-Informationen aus hochauflösenden Satellitenbildern. Diese sind insbesondere mit den folgenden wissenschaftlichen Zielen verbunden: (a) 3D-satellitenbasierte Punktwolkenrekonstruktion und Genauigkeitsanalyse von Höhenmodellen; (b) Satellitenbild-Geometriekorrektur basierend auf hochauflösenden Höhenmodellen; (c) Verbesserung der Orthofotoqualität; (d) Analyse der Klassifikationsleistung; und (e) Potenzial für die 3D-Rekonstruktion kleiner, isolierter Objekte. Ein Nebenfokus liegt auf der Beschreibung eines photogrammetrischen Arbeitsablaufs für die 3D-Informationsextraktion aus hochauflösenden Satellitenbildern und auf der Objektsichtbarkeitsanalyse basierend auf den Geometrieerfassungsparametern. Praktische Beispiele für die Extraktion von 3D-Informationen werden in vier unterschiedlichen Gebieten mit unterschiedlichen topografischen Eigenschaften und Landbedeckung analysiert: ländliche, städtische, offene landwirtschaftliche Felder, Grasland, Wälder, und Berggebiete. Die durchgeführten Experimente zeigen vermutliche Vibrationen des Satellitensensors (Jitter-Effekt), die durch die schnelle Drehung von einer Blickrichtung in die andere verursacht werden und von den mitgelieferten rationalen Polynomkoeffizienten (RPC) nicht erfasst werden konnten. Es wird eine neue Methode eingeführt, die die Geometrie von Satellitenbildern basierend auf der Rückprojektion von reale und Referenzhöhen unter Verwendung von Bias-korrigierten RPCs optimiert. Neben Methoden zur Verbesserung der geometrischen Genauigkeit und Qualität von satellitengestützten Höhenmodellen und Orthofotos wurde besonderes Augenmerk auf feinste Details gelegt, die in den photogrammetrisch abgeleiteten Höhenmodellen abgebildet werden können. Indem sie die erreichbare 3D-Informationsextraktion aus Pléiades- und WordView-3 Stereo/Tri-Stereo-Bildern ansprechen, bringen diese Beiträge neue Einblicke in das Forschungsthema und tragen dazu bei, das 3D-Wissenspotenzial von hochauflösenden Satellitenbildern zu erhöhen und zu erweitern.
Water related vegetation dynamics derived from earth observation
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dr. Wouter Dorigo MSc
Kurzfassung/Abstract
Vegetation optical depth (VOD) from microwave remote sensing observations has been increasingly used for large-scale monitoring of vegetation dynamics in recent years. Since VOD is sensitive to the vegetation water content, and microwave observations at lower frequencies are not affected by cloud cover (Woodhouse, 2005), VOD holds additional information on the vegetation layer than optical remote sensing data. To which extent the VOD signal can be used to derive certain vegetation properties, however, is still focus of ongoing research. In this PhD thesis, the relationship between VOD and gross primary production (GPP) is analyzed for the purpose of deriving a conceptual model for estimating GPP based on VOD (VOD-GPP model). For assessing the potential of VOD for estimating GPP, VOD observations from different microwave frequencies, from active and passive sensors and from single sensor or merged products were analyzed and compared with state-of-the-art global remote sensing data sets and in situ GPP estimates. Accordingly, the VOD-GPP model was derived, which represents a carbon sink-driven approach. It consists of a combination of bulk VOD and change in VOD for describing the temporal dynamic and the grid-cell median VOD as a static component representing differences in vegetation cover. Results showed in general good agreement between VOD-based GPP and other GPP estimates. Differences were observed between frequencies, yielding overall best performance with X-band VOD for this application. Results further demonstrated that VOD-based GPP estimates tend to overestimate GPP compared with other global data sets. This behavior was assumed to be related to the lack of temperature dependence of autotrophic respiration in the model formulation. The addition of temperature as further model input could partly reduce the GPP overestimation. An analysis of the impact of water availability demonstrated, however, that the VOD-based GPP estimates are not significantly related to varying conditions of dryness and wetness in large parts of the world, and thus further supports the applicability of the VOD-GPP model. To conclude, the VOD-GPP model provides an independent, remote sensing based GPP data set that is capable of monitoring vegetation dynamics. Through its sink-driven perspective, it further offers complementary information on carbon related vegetation dynamics than commonly used source driven approaches. The VOD-GPP model may thus contribute to further our understanding of large scale responses of vegetation to environmental changes.
Vegetation optical depth (VOD) from microwave remote sensing observations has been increasingly used for large-scale monitoring of vegetation dynamics in recent years. Since VOD is sensitive to the vegetation water content, and microwave observations at lower frequencies are not affected by cloud cover (Woodhouse, 2005), VOD holds additional information on the vegetation layer than optical remote sensing data. To which extent the VOD signal can be used to derive certain vegetation properties, however, is still focus of ongoing research. In this PhD thesis, the relationship between VOD and gross primary production (GPP) is analyzed for the purpose of deriving a conceptual model for estimating GPP based on VOD (VOD-GPP model). For assessing the potential of VOD for estimating GPP, VOD observations from different microwave frequencies, from active and passive sensors and from single sensor or merged products were analyzed and compared with state-of-the-art global remote sensing data sets and in situ GPP estimates. Accordingly, the VOD-GPP model was derived, which represents a carbon sink-driven approach. It consists of a combination of bulk VOD and change in VOD for describing the temporal dynamic and the grid-cell median VOD as a static component representing differences in vegetation cover. Results showed in general good agreement between VOD-based GPP and other GPP estimates. Differences were observed between frequencies, yielding overall best performance with X-band VOD for this application. Results further demonstrated that VOD-based GPP estimates tend to overestimate GPP compared with other global data sets. This behavior was assumed to be related to the lack of temperature dependence of autotrophic respiration in the model formulation. The addition of temperature as further model input could partly reduce the GPP overestimation. An analysis of the impact of water availability demonstrated, however, that the VOD-based GPP estimates are not significantly related to varying conditions of dryness and wetness in large parts of the world, and thus further supports the applicability of the VOD-GPP model. To conclude, the VOD-GPP model provides an independent, remote sensing based GPP data set that is capable of monitoring vegetation dynamics. Through its sink-driven perspective, it further offers complementary information on carbon related vegetation dynamics than commonly used source driven approaches. The VOD-GPP model may thus contribute to further our understanding of large scale responses of vegetation to environmental changes.
Towards instantaneous PPP convergence using multiple GNSS signals
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2022
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Over the past decades, the principle of Precise Point Positioning (PPP) has become a well-established technique for determining the user's position with Global Navigation Satellite Systems' (GNSS) signals. A position accuracy at the centimeter or even millimeter level is accomplished by using code and phase observations, exploiting precise satellite products (e.g. orbits, clocks, and biases), and applying sophisticated algorithms. However, the convergence time until the coordinates have reached this accuracy is well known as the primary concern of PPP. Typically, the convergence time of a PPP solution using GPS observations is 20-30 minutes, even with favorable satellite geometry. The main objective of this thesis is to develop PPP processing schemes reducing the coordinate convergence time as far as possible. Therefore, multi-frequency signals of all four globally-working GNSS are exploited and used to estimate the user's position. The uncombined model is developed as an alternative to the observation model of the conventional PPP approach using the ionosphere-free linear combination. This flexible model is based on the raw GNSS observation equations and shows several benefits compared with the ionosphere-free linear combination. For example, the raw observation noise is preserved and ionospheric pseudo-observations are included in the calculation of the PPP solution, resulting in the uncombined model with ionospheric constraint. Finally, integer ambiguity resolution is performed in the conventional as well as the uncombined model. The presented approaches, models, and algorithms are implemented in raPPPid, the PPP module of the Vienna VLBI and Satellite Software (VieVS). This software was developed in the course of this thesis. With raPPPid, convergence times of 1 minute or below to centimeter-level position accuracy are achieved for static receivers under good conditions.
Over the past decades, the principle of Precise Point Positioning (PPP) has become a well-established technique for determining the user's position with Global Navigation Satellite Systems' (GNSS) signals. A position accuracy at the centimeter or even millimeter level is accomplished by using code and phase observations, exploiting precise satellite products (e.g. orbits, clocks, and biases), and applying sophisticated algorithms. However, the convergence time until the coordinates have reached this accuracy is well known as the primary concern of PPP. Typically, the convergence time of a PPP solution using GPS observations is 20-30 minutes, even with favorable satellite geometry. The main objective of this thesis is to develop PPP processing schemes reducing the coordinate convergence time as far as possible. Therefore, multi-frequency signals of all four globally-working GNSS are exploited and used to estimate the user's position. The uncombined model is developed as an alternative to the observation model of the conventional PPP approach using the ionosphere-free linear combination. This flexible model is based on the raw GNSS observation equations and shows several benefits compared with the ionosphere-free linear combination. For example, the raw observation noise is preserved and ionospheric pseudo-observations are included in the calculation of the PPP solution, resulting in the uncombined model with ionospheric constraint. Finally, integer ambiguity resolution is performed in the conventional as well as the uncombined model. The presented approaches, models, and algorithms are implemented in raPPPid, the PPP module of the Vienna VLBI and Satellite Software (VieVS). This software was developed in the course of this thesis. With raPPPid, convergence times of 1 minute or below to centimeter-level position accuracy are achieved for static receivers under good conditions.
Large-scale flood mapping using SAR remote sensing data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Renaud Hostache PhD
Kurzfassung/Abstract
Flooding is one of the most serious and costly natural disasters worldwide. In order to monitor and map the global flood-affected regions, remote sensing data over a large scale can be considered. Compared with optical data, synthetic aperture radar (SAR) data is more preferred as it can be obtained regardless of solar illumination and weather conditions. Owing to the growing number of SAR satellite missions, large-scale flood mapping can be conducted with high revisit rates. However, previous flood mapping research focused and tested on specific sites and events while systematic and feasible applications of algorithms at large-scale are still rare. This thesis presents two automatic and reliable methods for large-scale flood mapping, i.e., one focused on rural areas based on historical SAR intensity data while the other focused on urban areas using multi-temporal SAR intensity and interferometric SAR (InSAR) coherence. Furthermore, it introduces a time-series Sentinel-1 based exclusion map (EX-map) indicating the region where SAR data cannot identify floods or non-floods. For rural flood mapping using historical data archives, automatic flood image selection has been proposed by selecting images whose bimodal distributions can always be identified in this specific image and different reference images. Then, a Euclidean distance based reference index is introduced to select an adequate pre-event reference image for change detection based flood mapping. At last, the incidence angle effect, wind effect and water-lookalike vegetation have been considered in the final flood mapping step (i.e. thresholding, region growing and change detection). Experiments covering the south-western United Kingdom with 74 ENVISAT ASAR wide-swath images acquired between 2005 and 2012 demonstrate the effectiveness, robustness and flexibility of the proposed method. The combination of multi-temporal SAR intensity and InSAR coherence in urban flood mapping is explored through U-Net and the proposed urban-aware module. The prior information of urban areas is introduced through urban-aware module to the multi-level features in order to help the model extract informative characteristics of different flood classes (i.e. flooded urban areas and flooded bare soils and sparsely vegetated regions). Experiments conducted on six flood events over three continents based on Sentinel-1 data demonstrate that the proper strategy of using prior information of urban areas can profitably complement intensity and coherence information for large-scale urban flood mapping, especially when it comes to a deep learning model trained via limited labelled training samples. The general assumption in the above-mentioned SAR-based flood mapping is that the appearance of floodwater leads to changes in backscatter. However, this common assumption is not always valid in some specific cases, such as radar shadow/layover regions, urban areas, arid regions and dense forests. Thus, we firstly defined an EX-map which should include all those specific regions in support of large-scale flood mapping. A decision tree based method using four multi-temporal indicators is presented. Experiments over six study sites from four continents with totally different land cover scenarios and weather conditions based on 20m Sentinel-1 images from eight orbital tracks illustrate that the definition of the EX-map is more appropriate than the ones of other reference datasets such as global land cover maps and DEM-derived radar shadow/layover mask. Besides complementing flood maps, the proposed EX-map can be used in other applications such as large-scale soil moisture retrieval and assimilation of flood extent maps into hydrological-hydraulic models.
Flooding is one of the most serious and costly natural disasters worldwide. In order to monitor and map the global flood-affected regions, remote sensing data over a large scale can be considered. Compared with optical data, synthetic aperture radar (SAR) data is more preferred as it can be obtained regardless of solar illumination and weather conditions. Owing to the growing number of SAR satellite missions, large-scale flood mapping can be conducted with high revisit rates. However, previous flood mapping research focused and tested on specific sites and events while systematic and feasible applications of algorithms at large-scale are still rare. This thesis presents two automatic and reliable methods for large-scale flood mapping, i.e., one focused on rural areas based on historical SAR intensity data while the other focused on urban areas using multi-temporal SAR intensity and interferometric SAR (InSAR) coherence. Furthermore, it introduces a time-series Sentinel-1 based exclusion map (EX-map) indicating the region where SAR data cannot identify floods or non-floods. For rural flood mapping using historical data archives, automatic flood image selection has been proposed by selecting images whose bimodal distributions can always be identified in this specific image and different reference images. Then, a Euclidean distance based reference index is introduced to select an adequate pre-event reference image for change detection based flood mapping. At last, the incidence angle effect, wind effect and water-lookalike vegetation have been considered in the final flood mapping step (i.e. thresholding, region growing and change detection). Experiments covering the south-western United Kingdom with 74 ENVISAT ASAR wide-swath images acquired between 2005 and 2012 demonstrate the effectiveness, robustness and flexibility of the proposed method. The combination of multi-temporal SAR intensity and InSAR coherence in urban flood mapping is explored through U-Net and the proposed urban-aware module. The prior information of urban areas is introduced through urban-aware module to the multi-level features in order to help the model extract informative characteristics of different flood classes (i.e. flooded urban areas and flooded bare soils and sparsely vegetated regions). Experiments conducted on six flood events over three continents based on Sentinel-1 data demonstrate that the proper strategy of using prior information of urban areas can profitably complement intensity and coherence information for large-scale urban flood mapping, especially when it comes to a deep learning model trained via limited labelled training samples. The general assumption in the above-mentioned SAR-based flood mapping is that the appearance of floodwater leads to changes in backscatter. However, this common assumption is not always valid in some specific cases, such as radar shadow/layover regions, urban areas, arid regions and dense forests. Thus, we firstly defined an EX-map which should include all those specific regions in support of large-scale flood mapping. A decision tree based method using four multi-temporal indicators is presented. Experiments over six study sites from four continents with totally different land cover scenarios and weather conditions based on 20m Sentinel-1 images from eight orbital tracks illustrate that the definition of the EX-map is more appropriate than the ones of other reference datasets such as global land cover maps and DEM-derived radar shadow/layover mask. Besides complementing flood maps, the proposed EX-map can be used in other applications such as large-scale soil moisture retrieval and assimilation of flood extent maps into hydrological-hydraulic models.
Untersuchung der Trennbarkeit und Klassifikation von Graslandtypen mittels Sentinel-2 Daten
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Grasland ist einer der am weitesten verbreiteten Vegetationstypen weltweit und gehört zu den wichtigsten Ökosystemen. In dieser Arbeit wurde die Trennbarkeit und Klassifikation von unterschiedlichen Graslandtypen mittels einer Zeitreihe von Sentinel-2 Satellitenbildern in den steirischen Bezirken Obersteiermark und Liezen untersucht. Für die Analysen wurden neben den Zeitreihen und den daraus abgeleiteten zeitlich-spektralen Statistiken innerhalb verschiedener phänologischer Zeiträume auch zusätzliche Informationen miteinbezogen, wie z.B. ein digitales Geländemodell. Im ersten Teil der Arbeit wurden verschiedene Trennbarkeitsanalysen mit unterschiedlichen Methoden (Jeffries-Matusita Maß, Gini Index, Mittelwertdiagramm, Streudiagramm) durchgeführt, um die besten Bänder bzw. Indizes und die besten phänologische Zeiträume für die Trennung der Graslandtypen zu analysieren. Im zweiten Teil der Arbeit wurden zwei Klassifikationsmethoden, Random Forest und Maximum Likelihood, mit unterschiedlichen Inputdaten angewendet, um zu untersuchen, inwiefern sich verschiedene Graslandtypen anhand von ihren Reflexionswerten unterscheiden lassen. Das Ergebnis der Analysen hat ergeben, dass die Wahl der optimalen Bänder bzw. Indizes von der verwendeten Methode abhängt. Jedoch gibt es acht Features (NIR, Narrow NIR, RE2, RE3, CIgreen, CIredEdge, MTCI, TC Brightness), welche sich bei allen Methoden gut für die Trennung unterschiedlichen Graslandtypen geeignet haben, dazu gehören vor allem die Features aus dem nahen und mittleren Infrarot Bereich. Das beste Random Forest Klassifikationsergebnis wurde unter der Anwendung eines zweimonatlichen Kompositbildes von Juli und August und den zeitlich-spektralen Statistiken erreicht. Während die beste Maximum Likelihood Klassifikation mit den Top 10 Features (NIR, RedEdge 3, Narrow NIR, CIredEdge, IRECI, NDRE1, NDRE2, NDVI, TC Brightness, TC Greenness) entsprechend der Jeffries-Matusita Distanz erreicht wurde. Die Genauigkeit der Klassifikation wurde bei beiden Methoden durch das Mitberücksichtigen der Höhenlage über das Geländemodell verbessert. Insgesamt zeigte diese Arbeit, dass sich mit den multispektralen Sentinel-2 Satellitenbildern und daraus berechneten Vegetationsindizes die meisten Graslandtypen gut trennen lassen.
Grasland ist einer der am weitesten verbreiteten Vegetationstypen weltweit und gehört zu den wichtigsten Ökosystemen. In dieser Arbeit wurde die Trennbarkeit und Klassifikation von unterschiedlichen Graslandtypen mittels einer Zeitreihe von Sentinel-2 Satellitenbildern in den steirischen Bezirken Obersteiermark und Liezen untersucht. Für die Analysen wurden neben den Zeitreihen und den daraus abgeleiteten zeitlich-spektralen Statistiken innerhalb verschiedener phänologischer Zeiträume auch zusätzliche Informationen miteinbezogen, wie z.B. ein digitales Geländemodell. Im ersten Teil der Arbeit wurden verschiedene Trennbarkeitsanalysen mit unterschiedlichen Methoden (Jeffries-Matusita Maß, Gini Index, Mittelwertdiagramm, Streudiagramm) durchgeführt, um die besten Bänder bzw. Indizes und die besten phänologische Zeiträume für die Trennung der Graslandtypen zu analysieren. Im zweiten Teil der Arbeit wurden zwei Klassifikationsmethoden, Random Forest und Maximum Likelihood, mit unterschiedlichen Inputdaten angewendet, um zu untersuchen, inwiefern sich verschiedene Graslandtypen anhand von ihren Reflexionswerten unterscheiden lassen. Das Ergebnis der Analysen hat ergeben, dass die Wahl der optimalen Bänder bzw. Indizes von der verwendeten Methode abhängt. Jedoch gibt es acht Features (NIR, Narrow NIR, RE2, RE3, CIgreen, CIredEdge, MTCI, TC Brightness), welche sich bei allen Methoden gut für die Trennung unterschiedlichen Graslandtypen geeignet haben, dazu gehören vor allem die Features aus dem nahen und mittleren Infrarot Bereich. Das beste Random Forest Klassifikationsergebnis wurde unter der Anwendung eines zweimonatlichen Kompositbildes von Juli und August und den zeitlich-spektralen Statistiken erreicht. Während die beste Maximum Likelihood Klassifikation mit den Top 10 Features (NIR, RedEdge 3, Narrow NIR, CIredEdge, IRECI, NDRE1, NDRE2, NDVI, TC Brightness, TC Greenness) entsprechend der Jeffries-Matusita Distanz erreicht wurde. Die Genauigkeit der Klassifikation wurde bei beiden Methoden durch das Mitberücksichtigen der Höhenlage über das Geländemodell verbessert. Insgesamt zeigte diese Arbeit, dass sich mit den multispektralen Sentinel-2 Satellitenbildern und daraus berechneten Vegetationsindizes die meisten Graslandtypen gut trennen lassen.
Development of an autonomously operating stop-and-go multi-sensor system and pose estimation evaluation based on 3D laser scans
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Finn Linzer MSc
Kurzfassung/Abstract
Many different multi-sensor systems (MSS) have been developed in recent years and their field of application is constantly expanding. They are designed specifically with the necessary devices, which autonomously operate during the measurement process. This way, the strengths of the sensors can be exploited, while their weaknesses are compensated for. This focus on modularity and autonomy of the sensors makes it possible to achieve ambitious goals. The presented system spatially surveys an indoor or outdoor area in a stop-and-go process without human interaction. The sensors used for this purpose are attached to a common mobile robot platform, in this case to the Clearpath Husky A200. The integration of a terrestrial laser scanner (TLS) into the MSS is an important aspect for geodetic purposes. For the exchange of information between the TLS and the robot platform, the open source framework Robot Operating System (ROS) is used. The realisation of the autonomous navigation, as well as the technical realisation to enable the automatic interaction between TLS and the robot platform are described in this thesis. This includes e.g. drivers to interface the finite state machine via ROS. As a result, the MSS is able to navigate autonomously along a predefined route, characterized by a list of waypoints. The system stops at certain points of the list and performs 360° scans using the TLS, yielding considerable 3D information of the environment as point clouds. Well-known methodological approaches are applied for the determination of the robot's pose. These refer to a GNSS/IMU integration for outdoor and an adaptive Monte Carlo localization algorithm for indoor measurements. The TLS applied in the system, a RIEGLVZ-400i, provides not only high-resolution point clouds of the surrounding area, but also the relative poses of the scan locations due to an automatic voxel registration algorithm. In the last part of the paper, the investigation of the precision of these relative poses to assess the performance of the registration is discussed. For this reason, common black-and-white targets are placed in the area of investigation. These are used to estimate the relative poses of the scanning locations by six-parameter transformation. Established methods like ICP and bundle adjustment are subsequently employed to improve the approximated relative poses. Various measurement scenarios with different configurations of the TLS are inspected. The results show small differences primarily in the mm-domain between the relative poses provided by the TLS and those estimated based on the targets. This can be regarded as a confirmation for a stable and reliable performance of the automatic registration. The relative poses provided by the TLS can be incorporated into the measurement process in order to further stabilize and support the navigation solution. This will be content of future research work.
Many different multi-sensor systems (MSS) have been developed in recent years and their field of application is constantly expanding. They are designed specifically with the necessary devices, which autonomously operate during the measurement process. This way, the strengths of the sensors can be exploited, while their weaknesses are compensated for. This focus on modularity and autonomy of the sensors makes it possible to achieve ambitious goals. The presented system spatially surveys an indoor or outdoor area in a stop-and-go process without human interaction. The sensors used for this purpose are attached to a common mobile robot platform, in this case to the Clearpath Husky A200. The integration of a terrestrial laser scanner (TLS) into the MSS is an important aspect for geodetic purposes. For the exchange of information between the TLS and the robot platform, the open source framework Robot Operating System (ROS) is used. The realisation of the autonomous navigation, as well as the technical realisation to enable the automatic interaction between TLS and the robot platform are described in this thesis. This includes e.g. drivers to interface the finite state machine via ROS. As a result, the MSS is able to navigate autonomously along a predefined route, characterized by a list of waypoints. The system stops at certain points of the list and performs 360° scans using the TLS, yielding considerable 3D information of the environment as point clouds. Well-known methodological approaches are applied for the determination of the robot's pose. These refer to a GNSS/IMU integration for outdoor and an adaptive Monte Carlo localization algorithm for indoor measurements. The TLS applied in the system, a RIEGLVZ-400i, provides not only high-resolution point clouds of the surrounding area, but also the relative poses of the scan locations due to an automatic voxel registration algorithm. In the last part of the paper, the investigation of the precision of these relative poses to assess the performance of the registration is discussed. For this reason, common black-and-white targets are placed in the area of investigation. These are used to estimate the relative poses of the scanning locations by six-parameter transformation. Established methods like ICP and bundle adjustment are subsequently employed to improve the approximated relative poses. Various measurement scenarios with different configurations of the TLS are inspected. The results show small differences primarily in the mm-domain between the relative poses provided by the TLS and those estimated based on the targets. This can be regarded as a confirmation for a stable and reliable performance of the automatic registration. The relative poses provided by the TLS can be incorporated into the measurement process in order to further stabilize and support the navigation solution. This will be content of future research work.
Qualitätsanalyse von Punktwolkenaufnahmen mit dem RTC360 in Kombination mit Registry360
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Kurzfassung/Abstract
In der Masterarbeit werden unterschiedliche Aufnahme- und Registrierungsmethoden zur Punktwolkenerfassung mit dem Laserscanner Leica RTC360 untersucht. Die Firma Leica verspricht schnelle und präzise Ergebnisse von Umgebungserfassungen und somit eine Produktivitätssteigerung bei der Datenaufnahme, als auch bei der Auswertung von Punktwolken. Die Hardware besteht aus einem 3D-Laserscanner und einem Tablet, auf dem die Software "Leica Cyclone Field360" in Echtzeit eine Scan-Registrierung vornimmt, um im Anschluss bei der Auswertung die Lösung mit der Software "Leica Cyclone Register360" zu überprüfen und zu verbessern. Das neu integrierte VIS (Visual Inertial System) nimmt die Bewegungen mit dem Gerät zwischen den Standpunkten auf und registriert die Scans im Feld vor. Durch die Durchführung und Auswertung dezidierter Feldexperimente, unter kontrollierten Bedingungen werden die Funktionsweisen der einzelnen Komponenten untersucht und überprüft. Unter anderem werden die verschiedenen Registrierungsmethoden Freie Stationierung mit Targets oder cloud2cloud und variierende Aufnahmesituationen (z.B. Innenraum, urbane Gebiete und Wälder) gemacht. Weiters werden Testungen zur Untersuchung der Reichweiten in den einzelnen Auflösungsmodi in unterschiedlichen Situationen durchgeführt. Zusätzlich zu den Experimenten mit dem Gerät werden einzelne Auswerteverfahren mit der Software "Cyclone Register360" eingesetzt. Ziel ist die Definition eines optimalen Arbeitsflusses hinsichtlich erreichbarer Genauigkeit und Wirtschaftlichkeit.
In der Masterarbeit werden unterschiedliche Aufnahme- und Registrierungsmethoden zur Punktwolkenerfassung mit dem Laserscanner Leica RTC360 untersucht. Die Firma Leica verspricht schnelle und präzise Ergebnisse von Umgebungserfassungen und somit eine Produktivitätssteigerung bei der Datenaufnahme, als auch bei der Auswertung von Punktwolken. Die Hardware besteht aus einem 3D-Laserscanner und einem Tablet, auf dem die Software "Leica Cyclone Field360" in Echtzeit eine Scan-Registrierung vornimmt, um im Anschluss bei der Auswertung die Lösung mit der Software "Leica Cyclone Register360" zu überprüfen und zu verbessern. Das neu integrierte VIS (Visual Inertial System) nimmt die Bewegungen mit dem Gerät zwischen den Standpunkten auf und registriert die Scans im Feld vor. Durch die Durchführung und Auswertung dezidierter Feldexperimente, unter kontrollierten Bedingungen werden die Funktionsweisen der einzelnen Komponenten untersucht und überprüft. Unter anderem werden die verschiedenen Registrierungsmethoden Freie Stationierung mit Targets oder cloud2cloud und variierende Aufnahmesituationen (z.B. Innenraum, urbane Gebiete und Wälder) gemacht. Weiters werden Testungen zur Untersuchung der Reichweiten in den einzelnen Auflösungsmodi in unterschiedlichen Situationen durchgeführt. Zusätzlich zu den Experimenten mit dem Gerät werden einzelne Auswerteverfahren mit der Software "Cyclone Register360" eingesetzt. Ziel ist die Definition eines optimalen Arbeitsflusses hinsichtlich erreichbarer Genauigkeit und Wirtschaftlichkeit.
Investigation of routing possibilities for "Hike and Fly" within paragliding
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2022
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Paragleiten bezeichnet eine Luftsportart, bei der der Pilot mit einer fußstartfähigen Kappe aus Segeltuch fliegt. Die Kappe sowie das Gurtzeug können bei kleinem Packmaß einfach in einem Rucksack getragen werden und ermöglichen so "Hike and Fly" - eine Freizeitaktivität, bei welcher man auf einen Berg wandert, um dann von dort zu starten und hinunter zu fliegen. In den letzten Jahren wurden "Hike and Fly" Wettkämpfe immer populärer und somit eine optimale Routenwahl immer wichtiger. Im Zuge dieser Masterarbeit wurde ein Algorithmus entwickelt, welcher automatisiert Start- und Landeplätze erkennt, und berechnet, welche Landeplätze von einem Startplatz aus erreichbar sind. Diese Flugstrecken wurden an das \ac{osm} Straßennetz angebunden, wobei die Daten für Navigationszwecke optimiert wurden. Des Weiteren entstand bei der Erarbeitung eine Kostenfunktion, die die Reisezeit entlang der unterschiedlichen Kanten innerhalb des Graphen-Netzwerkes berechnet. Anhand dieser Kosten wurde die Routenoptimierung bei drei unterschiedlichen Aufgabenstellungen implementiert: Routenoptimierung von A nach B, Berechnung der optimalen Out-and-Return Route und Suche nach umliegenden Startplätzen. Als Endprodukt wurde eine Homepage erstellt, mit der Routenberechnungen durchgeführt werden können. Zudem wurden die berechneten Routen Echtdaten gegenübergestellt. Die erlangten Ergebnisse verifizieren, dass eine Routenoptimierung für "Paragleit Hike and Fly" Wettkämpfe funktioniert und im Wettkampf einen Vorteil bringen kann.
Paragleiten bezeichnet eine Luftsportart, bei der der Pilot mit einer fußstartfähigen Kappe aus Segeltuch fliegt. Die Kappe sowie das Gurtzeug können bei kleinem Packmaß einfach in einem Rucksack getragen werden und ermöglichen so "Hike and Fly" - eine Freizeitaktivität, bei welcher man auf einen Berg wandert, um dann von dort zu starten und hinunter zu fliegen. In den letzten Jahren wurden "Hike and Fly" Wettkämpfe immer populärer und somit eine optimale Routenwahl immer wichtiger. Im Zuge dieser Masterarbeit wurde ein Algorithmus entwickelt, welcher automatisiert Start- und Landeplätze erkennt, und berechnet, welche Landeplätze von einem Startplatz aus erreichbar sind. Diese Flugstrecken wurden an das \ac{osm} Straßennetz angebunden, wobei die Daten für Navigationszwecke optimiert wurden. Des Weiteren entstand bei der Erarbeitung eine Kostenfunktion, die die Reisezeit entlang der unterschiedlichen Kanten innerhalb des Graphen-Netzwerkes berechnet. Anhand dieser Kosten wurde die Routenoptimierung bei drei unterschiedlichen Aufgabenstellungen implementiert: Routenoptimierung von A nach B, Berechnung der optimalen Out-and-Return Route und Suche nach umliegenden Startplätzen. Als Endprodukt wurde eine Homepage erstellt, mit der Routenberechnungen durchgeführt werden können. Zudem wurden die berechneten Routen Echtdaten gegenübergestellt. Die erlangten Ergebnisse verifizieren, dass eine Routenoptimierung für "Paragleit Hike and Fly" Wettkämpfe funktioniert und im Wettkampf einen Vorteil bringen kann.
Entwicklung eines optimierten Strapdown-Algorithmus und Evaluierung mithilfe kommerzieller Software
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2022
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Die Navigation und die damit verbundene Trajektorienbestimmung ist heutzutage in einer Vielzahl von Anwendungen kaum mehr wegzudenken. Im Outdoor-Bereich mit freier Sicht zu den Satelliten haben sich vor allem die Global Navigation Satellite Systeme (GNSS) zur Navigation durchgesetzt. Bewegt man sich jedoch in abgeschotteten Gebieten, wie Wäldern, Häuserschluchten oder sogar im Indoor-Bereich stößt GNSS schnell an seine Grenzen und es wird eine Alternative benötigt. Diese bietet unter anderem ein Inertiales Navigationssystem (INS), welches auf Basis von Beschleunigungs- und Drehratenmessungen auf relative Positionsänderungen rückschließt. Je nach Qualität des INS, welche sehr eng mit der Kostenintensität zusammenhängt, werden unterschiedlich gute Positionsergebnisse erzielt. Einen weiteren wichtigen Faktor spielt in der Inertialnavigation die Zeit, da sich begangene Fehler in der Auswertung der gemessenen Beschleunigungen und Drehraten mit der Zeit aufsummieren. Dies ist wiederum ein Grund warum in den meisten Anwendungen GNSS und INS kombiniert ausgewertet werden. Ziel dieser Masterarbeit ist die Entwicklung eines Strapdown-Algorithmus zur Auswertung rein inertialer Messdaten von unterschiedlichen Graden kinematischer Bewegungen. Hierfür stehen eine hochpräzise inertiale Messeinheit (IMU iNAV-RQH-003 von iMAR) und ein Roboter (Jackal von Clearpath Robotics) zur Verfügung. Für die etwas höheren Geschwindigkeiten liegen weiters Messdaten von Fahrten mit dem Auto und der IMU vor. Um die Genauigkeit und Plausibilität des entwickelten Strapdown-Algorithmus zu beurteilen und zu überprüfen sind die Ergebnisse mit jenen von der kommerziellen Software (Waypoint Inertial Explorer) zu vergleichen. Der eigens entwickelte Algorithmus soll auf eine umfangreiche Literaturrecherche zum Thema Inertialnavigation aufbauen und weiters in der Lage sein, die Attitude mittels Quaternionen zu bestimmen sowie die Trajektorien auf Basis unterschiedlicher Integrationsverfahren auszuwerten.
Die Navigation und die damit verbundene Trajektorienbestimmung ist heutzutage in einer Vielzahl von Anwendungen kaum mehr wegzudenken. Im Outdoor-Bereich mit freier Sicht zu den Satelliten haben sich vor allem die Global Navigation Satellite Systeme (GNSS) zur Navigation durchgesetzt. Bewegt man sich jedoch in abgeschotteten Gebieten, wie Wäldern, Häuserschluchten oder sogar im Indoor-Bereich stößt GNSS schnell an seine Grenzen und es wird eine Alternative benötigt. Diese bietet unter anderem ein Inertiales Navigationssystem (INS), welches auf Basis von Beschleunigungs- und Drehratenmessungen auf relative Positionsänderungen rückschließt. Je nach Qualität des INS, welche sehr eng mit der Kostenintensität zusammenhängt, werden unterschiedlich gute Positionsergebnisse erzielt. Einen weiteren wichtigen Faktor spielt in der Inertialnavigation die Zeit, da sich begangene Fehler in der Auswertung der gemessenen Beschleunigungen und Drehraten mit der Zeit aufsummieren. Dies ist wiederum ein Grund warum in den meisten Anwendungen GNSS und INS kombiniert ausgewertet werden. Ziel dieser Masterarbeit ist die Entwicklung eines Strapdown-Algorithmus zur Auswertung rein inertialer Messdaten von unterschiedlichen Graden kinematischer Bewegungen. Hierfür stehen eine hochpräzise inertiale Messeinheit (IMU iNAV-RQH-003 von iMAR) und ein Roboter (Jackal von Clearpath Robotics) zur Verfügung. Für die etwas höheren Geschwindigkeiten liegen weiters Messdaten von Fahrten mit dem Auto und der IMU vor. Um die Genauigkeit und Plausibilität des entwickelten Strapdown-Algorithmus zu beurteilen und zu überprüfen sind die Ergebnisse mit jenen von der kommerziellen Software (Waypoint Inertial Explorer) zu vergleichen. Der eigens entwickelte Algorithmus soll auf eine umfangreiche Literaturrecherche zum Thema Inertialnavigation aufbauen und weiters in der Lage sein, die Attitude mittels Quaternionen zu bestimmen sowie die Trajektorien auf Basis unterschiedlicher Integrationsverfahren auszuwerten.
Analyse der Grünflächenerreichbarkeit mit Urban Scaling Laws in europäischen Städten
Institut für Geographie und Raumforschung, Universität Graz, 2022
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
In Zeiten zunehmender Urbanisierung werden Städte immer dichter, bevölkerungsreicher und breiten sich weit ins Umland aus. Um der städtischen Bevölkerung nachhaltige Lebensgrundlagen zu bieten, werden urbane Grünflächen zur Erholung geschaffen. Im Rahmen dieser Masterarbeit wird das Thema „Urban Green“ in europäischen Städten analysiert und die Grünflächenverfügbarkeit und Grünflächenerreichbarkeit der Stadtbevölkerung ermittelt. In besonderem Fokus stehen dabei internationale Ungleichheiten sowie Unterschiede zwischen Klein- und Großstädten. Konkret wird dabei die Frage beantwortet ob kleine oder große Städte eines Landes grüner sind. Dafür werden Bevölkerungsdaten und Landnutzungs- sowie Landbedeckungsdaten verwendet. Die Stadtabgrenzung erfolgt nicht nach administrativen Einheiten sondern nach einer auf Bevölkerungsdichte und Stadtgröße basierender Methodik. Daraus können statistische Kennzahlen, wie Grünflächenanteil innerhalb des Stadtgebietes und Grünflächenverteilung abgeleitet werden. Außerdem werden Distanzanalysen durchgeführt um Grünflächenerreichbarkeitswerte abzuleiten. Die weitere Auswertung erfolgt mithilfe der Verwendung von Scaling-Laws, aus denen sich Dynamiken zwischen großen und kleinen Organismen identifizieren lassen. Die Ergebnisse zeigen, dass in größeren europäischen Städten der Bevölkerung grundsätzlich weniger urbanes Grün zu Verfügung steht jedoch überproportional mehr Menschen davon profitieren. Dieser Zusammenhang wird mit sublinearen Verfügbarkeitsskalierungen und superlinearen Erreichbarkeitsskalierungen belegt. Regionale Vergleiche zeigen, dass in Schweden die Stadtbevölkerung am leichtesten Zugang zu städtischen Grünflächen hat, während in Italien am wenigsten Menschen unmittelbar in der Nähe einer Grünfläche wohnen. Mögliche Ursachen können dafür klimatologische Bedingungen, die nationale Stadtstruktur und -planung oder auch historische Einflussfaktoren sein. Zusätzlich wurden systematische Zusammenhänge zwischen den Parametern Grünflächenmindestgröße und Maximalgehdistanz und den daraus resultierenden Auswirkungen auf das Skalenregime belegt. Eine Vergrößerung der Mindestfläche führt demnach zu einem Anstieg des Skalenkoeffizienten. Ein Anstieg der Gehdistanz nähert den Koeffizienten in Richtung zur Linearität.
In Zeiten zunehmender Urbanisierung werden Städte immer dichter, bevölkerungsreicher und breiten sich weit ins Umland aus. Um der städtischen Bevölkerung nachhaltige Lebensgrundlagen zu bieten, werden urbane Grünflächen zur Erholung geschaffen. Im Rahmen dieser Masterarbeit wird das Thema „Urban Green“ in europäischen Städten analysiert und die Grünflächenverfügbarkeit und Grünflächenerreichbarkeit der Stadtbevölkerung ermittelt. In besonderem Fokus stehen dabei internationale Ungleichheiten sowie Unterschiede zwischen Klein- und Großstädten. Konkret wird dabei die Frage beantwortet ob kleine oder große Städte eines Landes grüner sind. Dafür werden Bevölkerungsdaten und Landnutzungs- sowie Landbedeckungsdaten verwendet. Die Stadtabgrenzung erfolgt nicht nach administrativen Einheiten sondern nach einer auf Bevölkerungsdichte und Stadtgröße basierender Methodik. Daraus können statistische Kennzahlen, wie Grünflächenanteil innerhalb des Stadtgebietes und Grünflächenverteilung abgeleitet werden. Außerdem werden Distanzanalysen durchgeführt um Grünflächenerreichbarkeitswerte abzuleiten. Die weitere Auswertung erfolgt mithilfe der Verwendung von Scaling-Laws, aus denen sich Dynamiken zwischen großen und kleinen Organismen identifizieren lassen. Die Ergebnisse zeigen, dass in größeren europäischen Städten der Bevölkerung grundsätzlich weniger urbanes Grün zu Verfügung steht jedoch überproportional mehr Menschen davon profitieren. Dieser Zusammenhang wird mit sublinearen Verfügbarkeitsskalierungen und superlinearen Erreichbarkeitsskalierungen belegt. Regionale Vergleiche zeigen, dass in Schweden die Stadtbevölkerung am leichtesten Zugang zu städtischen Grünflächen hat, während in Italien am wenigsten Menschen unmittelbar in der Nähe einer Grünfläche wohnen. Mögliche Ursachen können dafür klimatologische Bedingungen, die nationale Stadtstruktur und -planung oder auch historische Einflussfaktoren sein. Zusätzlich wurden systematische Zusammenhänge zwischen den Parametern Grünflächenmindestgröße und Maximalgehdistanz und den daraus resultierenden Auswirkungen auf das Skalenregime belegt. Eine Vergrößerung der Mindestfläche führt demnach zu einem Anstieg des Skalenkoeffizienten. Ein Anstieg der Gehdistanz nähert den Koeffizienten in Richtung zur Linearität.
Clustering methods in the context of deformation analysis based on laser scanning point clouds
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
The rapid development of laser scanners in recent years has opened a new field of research. In particular, point clouds generated by terrestrial laser scanners are used in engineering geodesy. Unlike previous point-wise methods, point clouds contain spatial information about the object. Consequently, the search for area-based analysis methods to describe the scanned objects is the new challenge. In [Harmening and Neuner, 2020] a deformation analysis approach is introduced. The approach bases on a least square collocation. The main objective is to model the signal and noise in the point cloud. The information about the deformation holds the signal. This thesis deals with a part of the modelling process of the signal. This consists of finding locally homogeneous areas and representing them by a suitable standard deviation. The main task is to define a clustering process, which reliably provides the same results. The clustering method K-means used in the initial approach does not have this property. An additional task is the improvement of the calculation routine of the representative standard deviations. They are used in the stochastic process as a slowly varying factor. The new clustering process, introduced in this work, is a combination of two clustering methods. The first one, clustering only the deformed part of the point cloud, is a spectral clustering algorithm. The clusters are constructed in relation to the eigenvectors of the Laplacian matrix. The matrix is derived from the similarity graph, which describes the connection between the data points. An additional clustering is performed using a Gaussian mixture model. This method leads to a soft clustering implementation, which means that data points can belong to multiple clusters. The posterior probability of a data point belonging to a cluster is determined considering Gaussian distributions. Moreover, soft clustering allows crossovers to be better described with the cluster result. In connection with the properties of soft clustering, the stable region was also included in the clustering. As it turned out, finding a suitable clustering process was not the biggest challenge in this work. The feature vector for each clustering method, the choice of the number of clusters, the influence of the stable points on the clustering result and the calculation of the representative standard deviation for each point had influence on the final results. The latter, which is needed for the normalization of the residuals to the trend surface, had a greater impact on the final results than assumed. In essence, however, an optimized clustering process has been developed that provides stable final results. Influences from other parts of the approach have not yet been considered with respect to the new clustering process.
The rapid development of laser scanners in recent years has opened a new field of research. In particular, point clouds generated by terrestrial laser scanners are used in engineering geodesy. Unlike previous point-wise methods, point clouds contain spatial information about the object. Consequently, the search for area-based analysis methods to describe the scanned objects is the new challenge. In [Harmening and Neuner, 2020] a deformation analysis approach is introduced. The approach bases on a least square collocation. The main objective is to model the signal and noise in the point cloud. The information about the deformation holds the signal. This thesis deals with a part of the modelling process of the signal. This consists of finding locally homogeneous areas and representing them by a suitable standard deviation. The main task is to define a clustering process, which reliably provides the same results. The clustering method K-means used in the initial approach does not have this property. An additional task is the improvement of the calculation routine of the representative standard deviations. They are used in the stochastic process as a slowly varying factor. The new clustering process, introduced in this work, is a combination of two clustering methods. The first one, clustering only the deformed part of the point cloud, is a spectral clustering algorithm. The clusters are constructed in relation to the eigenvectors of the Laplacian matrix. The matrix is derived from the similarity graph, which describes the connection between the data points. An additional clustering is performed using a Gaussian mixture model. This method leads to a soft clustering implementation, which means that data points can belong to multiple clusters. The posterior probability of a data point belonging to a cluster is determined considering Gaussian distributions. Moreover, soft clustering allows crossovers to be better described with the cluster result. In connection with the properties of soft clustering, the stable region was also included in the clustering. As it turned out, finding a suitable clustering process was not the biggest challenge in this work. The feature vector for each clustering method, the choice of the number of clusters, the influence of the stable points on the clustering result and the calculation of the representative standard deviation for each point had influence on the final results. The latter, which is needed for the normalization of the residuals to the trend surface, had a greater impact on the final results than assumed. In essence, however, an optimized clustering process has been developed that provides stable final results. Influences from other parts of the approach have not yet been considered with respect to the new clustering process.
Automatisierte Abschätzung von Raum-Dimensionen aus SfM-Punktwolken
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dipl.-Ing. Dr. Michael Wimmer, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Die Photogrammetrie bietet eine Möglichkeit, aus RGB-Fotos dreidimensionale Modelle zu berechnen. In dieser Arbeit wurde mit einem Teilgebiet der Photogrammetrie namens Structure-from-Motion (SfM) gearbeitet. Dabei wird von einer Vielzahl an Fotos desselben Objektes die relative Orientierung bestimmt. Anschließend kann aus den orientierten Fotos eine Punktwolke rekonstruiert werden. SfM-Punktwolken sind von Haus aus nicht korrekt orientiert und skaliert, es gibt jedoch verschiedene Möglichkeiten dafür. Diese Arbeit beschäftigt sich konkret mit SfM-Punktwolken von Innenräumen und den daraus ableitbaren Raum-Größen. Die Orientierung erfolgt über koordinativ festgelegte „Targets“. Da die Punkte von Innenraum-Punktwolken häufig unregelmäßig verteilt und verrauscht sind, stoßen typische Segmentierungs-Methoden, wie sie für Laser-Scanning-Daten und ToF-Kamera-Daten verwendet werden, hier an ihre Grenzen. Aus diesem Grund wurde ein robuster Algorithmus entwickelt, der in der Lage ist, trotz dieser Erschwernisse die Wände abzuschätzen. Zu jeder geschätzten Wandebene werden statistische Informationen exportiert, um auch nach dem Processing Information über die Zuverlässigkeit der Ebenen-Schätzung zu haben. Abschließend werden die Raummaße über den Verschnitt aller Ebenen und den daraus resultierenden Eckpunkten bestimmt. Bei der praktischen Anwendung der Methodik auf 10 Räume betrug der durchschnittliche Längenfehler im Vergleich zu den Referenzmessungen ~ 2.5 cm. Die größte Herausforderung beim Ebenen-Fitting stellen Wände dar, die nur aus großer Entfernung fotografiert wurden und einfärbig ohne jegliche Textur waren. Durch solche Wände traten in dieser Arbeit Längenfehler von maximal 12 cm (= bei einer Raumlänge von ≥ 12 m) auf. Um diese Wände besser rekonstruieren zu können, sollten zusätzliche Fotos mit geringerer Entfernung aufgenommen werden.
Die Photogrammetrie bietet eine Möglichkeit, aus RGB-Fotos dreidimensionale Modelle zu berechnen. In dieser Arbeit wurde mit einem Teilgebiet der Photogrammetrie namens Structure-from-Motion (SfM) gearbeitet. Dabei wird von einer Vielzahl an Fotos desselben Objektes die relative Orientierung bestimmt. Anschließend kann aus den orientierten Fotos eine Punktwolke rekonstruiert werden. SfM-Punktwolken sind von Haus aus nicht korrekt orientiert und skaliert, es gibt jedoch verschiedene Möglichkeiten dafür. Diese Arbeit beschäftigt sich konkret mit SfM-Punktwolken von Innenräumen und den daraus ableitbaren Raum-Größen. Die Orientierung erfolgt über koordinativ festgelegte „Targets“. Da die Punkte von Innenraum-Punktwolken häufig unregelmäßig verteilt und verrauscht sind, stoßen typische Segmentierungs-Methoden, wie sie für Laser-Scanning-Daten und ToF-Kamera-Daten verwendet werden, hier an ihre Grenzen. Aus diesem Grund wurde ein robuster Algorithmus entwickelt, der in der Lage ist, trotz dieser Erschwernisse die Wände abzuschätzen. Zu jeder geschätzten Wandebene werden statistische Informationen exportiert, um auch nach dem Processing Information über die Zuverlässigkeit der Ebenen-Schätzung zu haben. Abschließend werden die Raummaße über den Verschnitt aller Ebenen und den daraus resultierenden Eckpunkten bestimmt. Bei der praktischen Anwendung der Methodik auf 10 Räume betrug der durchschnittliche Längenfehler im Vergleich zu den Referenzmessungen ~ 2.5 cm. Die größte Herausforderung beim Ebenen-Fitting stellen Wände dar, die nur aus großer Entfernung fotografiert wurden und einfärbig ohne jegliche Textur waren. Durch solche Wände traten in dieser Arbeit Längenfehler von maximal 12 cm (= bei einer Raumlänge von ≥ 12 m) auf. Um diese Wände besser rekonstruieren zu können, sollten zusätzliche Fotos mit geringerer Entfernung aufgenommen werden.
Empirische Untersuchungen zu kartographischen Minimaldimensionen auf Smartphone-Displays
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Etablierte Richtlinien zur Kartengestaltung beinhalten oftmals Empfehlungen für Minimaldimensionen kartographischer Signaturen. Empfehlungen für gedruckte Karten berücksichtigten dabei die Eigenschaften des Herstellungsverfahrens, sowie die Fähigkeiten der Kartennutzerin, kleinste Details zu erkennen und korrekt zu deuten. Aufgrund der vergleichsweise niedrigen Auflösung konventioneller Bildschirme verlangen etablierte Richtlinien für die Gestaltung von Karten für die digitale Wiedergabe üblicherweise die Verwendung weit größerer grafischer Elemente, um die Lesbarkeit der Karte zu gewährleisten. Die technische Entwicklung der vergangenen Jahre ermöglicht mittlerweile jedoch die Herstellung digitaler Anzeigegeräte mit sehr hoher Auflösung, und solche hochauflösenden Displays sind, sowohl als Smartphones als auch als Desktop-Bildschirme, weithin verfügbar. Ziel der vorliegenden Arbeit ist, basierend auf empirischen Untersuchungen, aktualisierte Richtlinien für kartographische Minimaldimensionen zu erarbeiten, die die Verfügbarkeit von hochauflösenden Displays berücksichtigt. Zu diesem Zweck werden drei empirische Studien vorgestellt, die die Erkennbarkeit von graphischen Elementen auf Smartphone-Displays unterschiedlicher Auflösung untersuchen. Studie 1 ermittelt die Erkennbarkeitsschwellen von graphischen Elementen mit Bezug zu kartographischen Signaturen (Punktsymbole, Liniensymbole, sowie Schrift) bei kontinuierlich reduzierter Größe. Die Erkenntnisse aus dieser ersten Studie fließen in die Gestaltung zweier weiterer Studien ein. Studie 2 untersucht weitere Aspekte betreffend die Erkennbarkeit von Punktsymbolen. Zu diesem Zweck wird eine Methode vorgestellt, um aus verfügbaren Sammlungen von ikonographischen Symbolen jene Symbole mit größter Ähnlichkeit zu identifizieren. Solche Gruppen ähnliche Symbole finden als Stimuli in der zweiten Studie Verwendung, um die Mindestgröße zur zuverlässigen Unterscheidung von aus realen Anwendungskontexten entnommenen, graphisch ähnlichen Kartensymbolen zu ermitteln. Die Unterscheidbarkeit wird dabei in zwei Arten von Aufgaben getestet: bei isoliert stehender Betrachtung, sowie beim Abzählen von Symbolen auf einer Karte. Studie 3 widmet sich der Erkennbarkeit von Liniensymbolen, wobei hier die zuverlässige Reproduktion von intern ausdifferenzierten Liniensymbolen, beispielsweise durch die Anordnung von Pfeilen oder Schraffuren im inneren der Linie, getestet wird. Auch hier wird die Unterscheidbarkeit bei isolierter Betrachtung, sowie für das Abzählen auf einer „Pseudo-Karte“, untersucht. Zusätzlich zur Untersuchung etablierter kartographischer Symbole werden in Studien 2 und 3 auch mögliche Verfahren zur aktiven Verbesserung der Unterscheidbarkeit getestet. Für Studie 2 wird die Verbesserung der Lesbarkeit durch Optimierung der Ausrichtung von Symbolgeometrie mit dem Pixelraster untersucht, sowie eine algorithmische Methode zur möglichen Verstärkung der graphischen Unterschiede ähnlicher Symbole vorgestellt. In Studie 3 wird der Effekt der graphischen Hervorhebung der Eckpunkte von in Linien eingebetteten Richtungspfeilen untersucht. Ein Ziel dieser Arbeit ist die Ausarbeitung praktisch anwendbarer Richtlinien für Minimaldimensionen für digitale Karten. Ein Vorschlag für solche Leitlinien erfolgt auf drei Ebenen, basierend auf den vorgestellten Studien: Generelle Empfehlungen für die Gestaltung von Karten für digitale Ausgabegeräte auf aktuellem technischen Stand; Empfehlungen für Minimaldimensionen kartographischer Elemente, differenziert nach Display-Auflösung und Sehschärfe der Nutzerin; sowie praktische Hinweise für das empirische Testen der Lesbarkeit digitaler Karten. Die Arbeit schließt mit dem Versuch einer Definition des Begriffs „Kartographische Minimaldimension“, der Erörterung von praktischen Anwendungsmöglichkeiten der gewonnenen Erkenntnisse, einer Diskussion von Beschränkungen der vorgestellten Methodik und Umsetzung, sowie einem Ausblick auf mögliche weiterführende Forschung.
Etablierte Richtlinien zur Kartengestaltung beinhalten oftmals Empfehlungen für Minimaldimensionen kartographischer Signaturen. Empfehlungen für gedruckte Karten berücksichtigten dabei die Eigenschaften des Herstellungsverfahrens, sowie die Fähigkeiten der Kartennutzerin, kleinste Details zu erkennen und korrekt zu deuten. Aufgrund der vergleichsweise niedrigen Auflösung konventioneller Bildschirme verlangen etablierte Richtlinien für die Gestaltung von Karten für die digitale Wiedergabe üblicherweise die Verwendung weit größerer grafischer Elemente, um die Lesbarkeit der Karte zu gewährleisten. Die technische Entwicklung der vergangenen Jahre ermöglicht mittlerweile jedoch die Herstellung digitaler Anzeigegeräte mit sehr hoher Auflösung, und solche hochauflösenden Displays sind, sowohl als Smartphones als auch als Desktop-Bildschirme, weithin verfügbar. Ziel der vorliegenden Arbeit ist, basierend auf empirischen Untersuchungen, aktualisierte Richtlinien für kartographische Minimaldimensionen zu erarbeiten, die die Verfügbarkeit von hochauflösenden Displays berücksichtigt. Zu diesem Zweck werden drei empirische Studien vorgestellt, die die Erkennbarkeit von graphischen Elementen auf Smartphone-Displays unterschiedlicher Auflösung untersuchen. Studie 1 ermittelt die Erkennbarkeitsschwellen von graphischen Elementen mit Bezug zu kartographischen Signaturen (Punktsymbole, Liniensymbole, sowie Schrift) bei kontinuierlich reduzierter Größe. Die Erkenntnisse aus dieser ersten Studie fließen in die Gestaltung zweier weiterer Studien ein. Studie 2 untersucht weitere Aspekte betreffend die Erkennbarkeit von Punktsymbolen. Zu diesem Zweck wird eine Methode vorgestellt, um aus verfügbaren Sammlungen von ikonographischen Symbolen jene Symbole mit größter Ähnlichkeit zu identifizieren. Solche Gruppen ähnliche Symbole finden als Stimuli in der zweiten Studie Verwendung, um die Mindestgröße zur zuverlässigen Unterscheidung von aus realen Anwendungskontexten entnommenen, graphisch ähnlichen Kartensymbolen zu ermitteln. Die Unterscheidbarkeit wird dabei in zwei Arten von Aufgaben getestet: bei isoliert stehender Betrachtung, sowie beim Abzählen von Symbolen auf einer Karte. Studie 3 widmet sich der Erkennbarkeit von Liniensymbolen, wobei hier die zuverlässige Reproduktion von intern ausdifferenzierten Liniensymbolen, beispielsweise durch die Anordnung von Pfeilen oder Schraffuren im inneren der Linie, getestet wird. Auch hier wird die Unterscheidbarkeit bei isolierter Betrachtung, sowie für das Abzählen auf einer „Pseudo-Karte“, untersucht. Zusätzlich zur Untersuchung etablierter kartographischer Symbole werden in Studien 2 und 3 auch mögliche Verfahren zur aktiven Verbesserung der Unterscheidbarkeit getestet. Für Studie 2 wird die Verbesserung der Lesbarkeit durch Optimierung der Ausrichtung von Symbolgeometrie mit dem Pixelraster untersucht, sowie eine algorithmische Methode zur möglichen Verstärkung der graphischen Unterschiede ähnlicher Symbole vorgestellt. In Studie 3 wird der Effekt der graphischen Hervorhebung der Eckpunkte von in Linien eingebetteten Richtungspfeilen untersucht. Ein Ziel dieser Arbeit ist die Ausarbeitung praktisch anwendbarer Richtlinien für Minimaldimensionen für digitale Karten. Ein Vorschlag für solche Leitlinien erfolgt auf drei Ebenen, basierend auf den vorgestellten Studien: Generelle Empfehlungen für die Gestaltung von Karten für digitale Ausgabegeräte auf aktuellem technischen Stand; Empfehlungen für Minimaldimensionen kartographischer Elemente, differenziert nach Display-Auflösung und Sehschärfe der Nutzerin; sowie praktische Hinweise für das empirische Testen der Lesbarkeit digitaler Karten. Die Arbeit schließt mit dem Versuch einer Definition des Begriffs „Kartographische Minimaldimension“, der Erörterung von praktischen Anwendungsmöglichkeiten der gewonnenen Erkenntnisse, einer Diskussion von Beschränkungen der vorgestellten Methodik und Umsetzung, sowie einem Ausblick auf mögliche weiterführende Forschung.
Untersuchung des Refraktionseinflusses auf geodätische Richtungsmessungen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
In der Masterarbeit wird der Einfluss von horizontaler und vertikaler Refraktion auf Richtungsmessungen in ingenieurgeodätischen Anwendungen untersucht. Neben statischen Satzmessungen wird die Fluktuation durch dynamische ATR Messungen bestimmt. Ziel ist die Ableitung von Zuverlässigkeitsmaßen aus den dynamischen Messungen um beurteilen zu können, ob den statischen Messungen vertraut werden kann.
In der Masterarbeit wird der Einfluss von horizontaler und vertikaler Refraktion auf Richtungsmessungen in ingenieurgeodätischen Anwendungen untersucht. Neben statischen Satzmessungen wird die Fluktuation durch dynamische ATR Messungen bestimmt. Ziel ist die Ableitung von Zuverlässigkeitsmaßen aus den dynamischen Messungen um beurteilen zu können, ob den statischen Messungen vertraut werden kann.
Automated scoring in climbing competitions
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2022
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Claudio Navacchi
Kurzfassung/Abstract
With all the technological advances and research in sports tracking and human movement analysis in climbing due to the increasing popularity of the sport, no evidence of the use of an automated scoring system for climbing competitions is found in literature. The lack thereof motivated the evaluation of state of the art technology regarding its fitness for such task and its practical viability. Therefore, in this thesis a framework for an automated scoring system for climbing competitions with a focus on lead climbing is built. A novel one-camera approach is taken and a low-cost system is proposed where a single perspective from behind the climber is used to provide video data. The system utilizes the video data from the camera in conjunction with object tracking, color masking and image processing techniques in Python to derive scores post-competition. With YOLOv3, state of the art computer vision technology is used for climber detection and tracking, while the climbing holds are manually marked and further delineated with HSV color masks in a simple user interface. The declaration of holds as "reached" utilizes difference calculation with the structural similarity (SSIM) index and thresholds it against empirically derived values. Two video resolutions, 4k and 1080p, are used for building and testing the system. The results from the testing are manually reviewed and provide insights for the system integrity (the system not failing) with mean integrity values for the tested video resolutions of 82.6% and 76.6% respectively. The lower performance values (correctly declared holds) of 48.7% and 40.4% respectively show potential for improvement. The workflow established in this thesis yields a usable scoring system for post-competition reviews and serves as a proof of concept for possible future developments in regards of automated scoring systems for climbing competitions.
With all the technological advances and research in sports tracking and human movement analysis in climbing due to the increasing popularity of the sport, no evidence of the use of an automated scoring system for climbing competitions is found in literature. The lack thereof motivated the evaluation of state of the art technology regarding its fitness for such task and its practical viability. Therefore, in this thesis a framework for an automated scoring system for climbing competitions with a focus on lead climbing is built. A novel one-camera approach is taken and a low-cost system is proposed where a single perspective from behind the climber is used to provide video data. The system utilizes the video data from the camera in conjunction with object tracking, color masking and image processing techniques in Python to derive scores post-competition. With YOLOv3, state of the art computer vision technology is used for climber detection and tracking, while the climbing holds are manually marked and further delineated with HSV color masks in a simple user interface. The declaration of holds as "reached" utilizes difference calculation with the structural similarity (SSIM) index and thresholds it against empirically derived values. Two video resolutions, 4k and 1080p, are used for building and testing the system. The results from the testing are manually reviewed and provide insights for the system integrity (the system not failing) with mean integrity values for the tested video resolutions of 82.6% and 76.6% respectively. The lower performance values (correctly declared holds) of 48.7% and 40.4% respectively show potential for improvement. The workflow established in this thesis yields a usable scoring system for post-competition reviews and serves as a proof of concept for possible future developments in regards of automated scoring systems for climbing competitions.
Seasonal snow cover dynamics – scales and processes
Institut für Geographie und Raumforschung, Universität Graz, 2022
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Relikte Blockgletscher sind markante Sedimentanhäufungen in kristallinen Bergregionen. Im steirischen Teil der Niederen Tauern wurden mehr als 560 Blockgletscher identifiziert. Der relikte Blockgletscher in Schöneben (47°22’24” N, 14°40’21” E) befindet sich im östlichen Ausläufer der Seckauer Tauern im steirischen Bezirk Leoben. Die Dynamik der saisonalen Schneedecke kann zahlreiche hydrologische, terrestrische und ökologische Auswirkungen stark beeinflussen, jedoch sind diese in einem alpinen relikten Blockgletscher nach derzeitigem Stand der Wissenschaft weitgehend unbekannt. Durch die komplexe Topografie eines relikten Blockgletschers treten mehrere Prozesse vor und nach der Ablagerung auf. Um das Verständnis der dynamischen Schneedeckenverteilung eines relikten Blockgletschers besser zu verstehen, werden mithilfe von feldbasierten Fernerkundungsmethoden (TLS und UAV) digitale Oberflächenmodelle und Punktwolken generiert sowie die Vor- und Nachteile jener Methoden gegenübergestellt. Mit traditioneller Schneesondierung werden die angewandten Fernerkundungsmethoden validiert. Durch die Differenz des schneefreien und schneebedeckten digitalen Oberflächenmodells werden die Schneehöhen im Untersuchungsgebiet von Schöneben analysiert. Bei der Verschneidung der digitalen Geländemodelle der TLS bzw. UAV basierten Datenaufnahme wurde eine maximale Abweichung der Schneehöhen von ±0.10 m erreicht. Verglichen mit den Schneesondierungspunkten wurde beim TLS-Schneemodell ein RMSE von 0.150 m und beim UAV-Schneemodell ein RMSE von 0.072 m erzielt. Das kombinierte Schneehöhenmodell zeigt eine deutlich heterogene Schneedeckenverteilung auf der Gesteinsoberfläche des relikten Blockgletschers. Im Bereich der Schöneben Wetterstation direkt am Blockgletscher wurden Schneehöhenwerte von 0.21 m bis 1 m berechnet. In den Rinnen und Mulden wurden am Blockgletscher Schneehöhen bis zu 3.4 m ermittelt. Im südlichen Teil des Einzugsgebietes wurden Schneehöhen im Bereich zwischen 4.21 m bis 5 m und höher in den nach Nordost ausgerichteten Steilhängen gemessen. Das Schneevolumen, welches aus den Snowgrid Schneehöhen abgeleitet wurde, ist achtmal größer als das Schneevolumen des hybriden Schneehöhenmodells. Die Ergebnisse zeigen, dass die Schneehöhenwerte des Snowgrids und des hybriden DOD-Modells im lokalen Maßstab nur teilweise im südlichen Teil des Blockgletschers miteinander übereinstimmen.
Relikte Blockgletscher sind markante Sedimentanhäufungen in kristallinen Bergregionen. Im steirischen Teil der Niederen Tauern wurden mehr als 560 Blockgletscher identifiziert. Der relikte Blockgletscher in Schöneben (47°22’24” N, 14°40’21” E) befindet sich im östlichen Ausläufer der Seckauer Tauern im steirischen Bezirk Leoben. Die Dynamik der saisonalen Schneedecke kann zahlreiche hydrologische, terrestrische und ökologische Auswirkungen stark beeinflussen, jedoch sind diese in einem alpinen relikten Blockgletscher nach derzeitigem Stand der Wissenschaft weitgehend unbekannt. Durch die komplexe Topografie eines relikten Blockgletschers treten mehrere Prozesse vor und nach der Ablagerung auf. Um das Verständnis der dynamischen Schneedeckenverteilung eines relikten Blockgletschers besser zu verstehen, werden mithilfe von feldbasierten Fernerkundungsmethoden (TLS und UAV) digitale Oberflächenmodelle und Punktwolken generiert sowie die Vor- und Nachteile jener Methoden gegenübergestellt. Mit traditioneller Schneesondierung werden die angewandten Fernerkundungsmethoden validiert. Durch die Differenz des schneefreien und schneebedeckten digitalen Oberflächenmodells werden die Schneehöhen im Untersuchungsgebiet von Schöneben analysiert. Bei der Verschneidung der digitalen Geländemodelle der TLS bzw. UAV basierten Datenaufnahme wurde eine maximale Abweichung der Schneehöhen von ±0.10 m erreicht. Verglichen mit den Schneesondierungspunkten wurde beim TLS-Schneemodell ein RMSE von 0.150 m und beim UAV-Schneemodell ein RMSE von 0.072 m erzielt. Das kombinierte Schneehöhenmodell zeigt eine deutlich heterogene Schneedeckenverteilung auf der Gesteinsoberfläche des relikten Blockgletschers. Im Bereich der Schöneben Wetterstation direkt am Blockgletscher wurden Schneehöhenwerte von 0.21 m bis 1 m berechnet. In den Rinnen und Mulden wurden am Blockgletscher Schneehöhen bis zu 3.4 m ermittelt. Im südlichen Teil des Einzugsgebietes wurden Schneehöhen im Bereich zwischen 4.21 m bis 5 m und höher in den nach Nordost ausgerichteten Steilhängen gemessen. Das Schneevolumen, welches aus den Snowgrid Schneehöhen abgeleitet wurde, ist achtmal größer als das Schneevolumen des hybriden Schneehöhenmodells. Die Ergebnisse zeigen, dass die Schneehöhenwerte des Snowgrids und des hybriden DOD-Modells im lokalen Maßstab nur teilweise im südlichen Teil des Blockgletschers miteinander übereinstimmen.
Präzise Bahnbestimmung von BeiDou Satelliten mit Schwerpunkt auf der Modellierung des Strahlungsdrucks der Sonne
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Das chinesische System BeiDou hat sich als eines der vier globalen Satellitennavigationssysteme etabliert. Ursprünglich als regionales System konzipiert, hat China innerhalb von drei Jahren 30 Satelliten gestartet und das globale System im Jahr 2020 für einsatzbereit erklärt. Insgesamt befinden sich 55 Satelliten in den Umlaufbahnen, wobei drei verschiedene Arten von Orbitkonstellationen zum Einsatz kommen. Die genaue Bestimmung der Satellitenbahnen ist eine Voraussetzung für hochpräzise GNSS-Anwendungen. Jedoch kann die Genauigkeit der BeiDou-Orbits noch nicht mit etablierten Systemen wie dem Global Positioning System (GPS) mithalten. Die Modellierung der Störbeschleunigungen, welche durch konservative und nicht-konservative Kräfte auf die Satelliten einwirken, ist entscheidend für die Qualität der Orbits. Der Strahlungsdruck der Sonne ist die größte Fehlerquelle bei der präzisen Bahnbestimmung. Die Modellierung dieses Einflusses wird durch die Verwendung verschiedener Satellitentypen und Bahnkonstellationen im BeiDou-System zusätzlich erschwert. Ziel dieser Arbeit war es, BeiDou in die Prozessierung von GNSS-Konstellationen an der Technischen Universität Graz zu integrieren und insbesondere den Einfluss des Strahlungsdrucks der Sonne zu untersuchen. Es wurden verschiedene Arten von Strahlungsdruck-Modellen bewertet und ihre Anwendbarkeit für BeiDou analysiert. Der Zeitraum von Juni bis Dezember 2020 wurde untersucht, um die am besten geeignete Parametrisierung der Modelle für die verschiedenen Satellitentypen zu ermitteln. Die Qualität der Orbits wurde anhand von Prüfungen der internen Konsistenz der Satellitenbahnen in Form von Abweichungen zur Mitternachtsepoche von zwei aufeinanderfolgenden 24-Stunden Bahnbögen bewertet. Die im Rahmen dieser Arbeit durchgeführten Analysen ergaben, dass durch die spezifische Anpassung empirischer Modelle signifikante Verbesserungen in der Bahnkonsistenz erzielt werden konnten. Die in dieser Studie ermittelten BeiDou-Orbits sind qualitativ vergleichbar mit den Lösungen der Analysezentren des International GNSS Service (IGS).
Das chinesische System BeiDou hat sich als eines der vier globalen Satellitennavigationssysteme etabliert. Ursprünglich als regionales System konzipiert, hat China innerhalb von drei Jahren 30 Satelliten gestartet und das globale System im Jahr 2020 für einsatzbereit erklärt. Insgesamt befinden sich 55 Satelliten in den Umlaufbahnen, wobei drei verschiedene Arten von Orbitkonstellationen zum Einsatz kommen. Die genaue Bestimmung der Satellitenbahnen ist eine Voraussetzung für hochpräzise GNSS-Anwendungen. Jedoch kann die Genauigkeit der BeiDou-Orbits noch nicht mit etablierten Systemen wie dem Global Positioning System (GPS) mithalten. Die Modellierung der Störbeschleunigungen, welche durch konservative und nicht-konservative Kräfte auf die Satelliten einwirken, ist entscheidend für die Qualität der Orbits. Der Strahlungsdruck der Sonne ist die größte Fehlerquelle bei der präzisen Bahnbestimmung. Die Modellierung dieses Einflusses wird durch die Verwendung verschiedener Satellitentypen und Bahnkonstellationen im BeiDou-System zusätzlich erschwert. Ziel dieser Arbeit war es, BeiDou in die Prozessierung von GNSS-Konstellationen an der Technischen Universität Graz zu integrieren und insbesondere den Einfluss des Strahlungsdrucks der Sonne zu untersuchen. Es wurden verschiedene Arten von Strahlungsdruck-Modellen bewertet und ihre Anwendbarkeit für BeiDou analysiert. Der Zeitraum von Juni bis Dezember 2020 wurde untersucht, um die am besten geeignete Parametrisierung der Modelle für die verschiedenen Satellitentypen zu ermitteln. Die Qualität der Orbits wurde anhand von Prüfungen der internen Konsistenz der Satellitenbahnen in Form von Abweichungen zur Mitternachtsepoche von zwei aufeinanderfolgenden 24-Stunden Bahnbögen bewertet. Die im Rahmen dieser Arbeit durchgeführten Analysen ergaben, dass durch die spezifische Anpassung empirischer Modelle signifikante Verbesserungen in der Bahnkonsistenz erzielt werden konnten. Die in dieser Studie ermittelten BeiDou-Orbits sind qualitativ vergleichbar mit den Lösungen der Analysezentren des International GNSS Service (IGS).
Objektbasierte Klassifizierung von Agrarflächen mit Sentinel-1 Coherence- und Backscatterzeitreihen
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
In dieser Arbeit wird das Potential von Sentinel-1 Zeitreihen zur objektorientierten Klassifizierung von Agrarflächen untersucht. Landwirtschaftliche Flächen werden dazu mit Coherence- und Backscatterzeitreihen über das Jahr 2019 mittels Random Forest klassifiziert. InVeKos – Daten werden zum einen zur Gewinnung von Referenzflächen für das Training und die Validierung herangezogen und zum anderen werden aus diesen Daten die Feldgrenzen bzw. Polygone für die objektbasierte Klassifizierung abgeleitet. Die untersuchten Flächen befinden sich im Südosten Österreichs in den Bundesländern Steiermark und Burgenland. In die Untersuchung werden 29 Nutzungsarten mit 178761 Flächen einbezogen, die in Klassen mit ähnlicher Phänologie und Nutzungsart gruppiert werden. Die Ergebnisse zeigen, dass sowohl mit Intensität als auch mit interferometrischer Kohärenz Klassifikationsergebnisse im Bereich zwischen 60% und 80% erreicht werden können. Dabei ist die erreichte Genauigkeit bei Verwendung von Coherence in allen Fällen geringer als bei Backscatter. Die Kombination von Daten aus ascending und descending Orbits führt zu geringfügig besseren Klassifizierungsergebnissen. Im Rahmen der Untersuchung wird darüber hinaus gezeigt, dass bei der Klassifizierung allein mit Coherence bei Verwendung von nur der 6-Tages-Coherence bessere Ergebnisse erreicht werden als in Kombination der 6-Tages-Coherence mit der 12- bzw der 24-Tages-Coherence und dass die Kombination mit der Coherence das Ergebnis der Klassifizierung allein mit Backscatter nicht weiter verbessert.
In dieser Arbeit wird das Potential von Sentinel-1 Zeitreihen zur objektorientierten Klassifizierung von Agrarflächen untersucht. Landwirtschaftliche Flächen werden dazu mit Coherence- und Backscatterzeitreihen über das Jahr 2019 mittels Random Forest klassifiziert. InVeKos – Daten werden zum einen zur Gewinnung von Referenzflächen für das Training und die Validierung herangezogen und zum anderen werden aus diesen Daten die Feldgrenzen bzw. Polygone für die objektbasierte Klassifizierung abgeleitet. Die untersuchten Flächen befinden sich im Südosten Österreichs in den Bundesländern Steiermark und Burgenland. In die Untersuchung werden 29 Nutzungsarten mit 178761 Flächen einbezogen, die in Klassen mit ähnlicher Phänologie und Nutzungsart gruppiert werden. Die Ergebnisse zeigen, dass sowohl mit Intensität als auch mit interferometrischer Kohärenz Klassifikationsergebnisse im Bereich zwischen 60% und 80% erreicht werden können. Dabei ist die erreichte Genauigkeit bei Verwendung von Coherence in allen Fällen geringer als bei Backscatter. Die Kombination von Daten aus ascending und descending Orbits führt zu geringfügig besseren Klassifizierungsergebnissen. Im Rahmen der Untersuchung wird darüber hinaus gezeigt, dass bei der Klassifizierung allein mit Coherence bei Verwendung von nur der 6-Tages-Coherence bessere Ergebnisse erreicht werden als in Kombination der 6-Tages-Coherence mit der 12- bzw der 24-Tages-Coherence und dass die Kombination mit der Coherence das Ergebnis der Klassifizierung allein mit Backscatter nicht weiter verbessert.
Entwurf einer Datenschnittstelle für die digitalen Bodenschätzungsergebnisse des BEV und Implementierung einer Datenmigration mit Hilfe von Open-Source Werkzeugen
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2022
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Das Ziel dieser Arbeit ist die digitalen Bodenschätzungsergebnisse des Bundesamtes für Eich- und Vermessungswesen (BEV) in eine Schnittstelle einzubinden, um kundenfreundliche Auszüge aus diesen Daten zu erstellen. Im Vorfeld ist eine Befragung der Kunden durchgeführt worden, damit ein geeignetes Datenformat sowie eine kundenorientierte Nutzung der Daten gewährleistet wird. Zudem werden die bestehenden Strukturen der Daten vereinheitlicht und in ein intuitives Datenformat für Geoinformationsprogramme übergeführt. Dazu werden die Daten ins Zielformat GeoJSON migriert, welches als etabliertes Standarddatenformat für Geoinformationssysteme verwendet wird. Weiters wird beim Export auf eine möglichst reduzierte Menge an Dokumenten Wert gelegt, um somit die Übersichtlichkeit deutlich zu erhöhen. Das Schnittstellenprogramm wird an einer ausgewählten Katastralgemeinde des BEVs angewendet und zusätzlich visuell mit der aktuell verwendeten Bodenschätzungsreinkarte verglichen. Die Schnittstelle migriert das komplexe Datenmodell der Bodenschätzung in eine flache GeoJSON Struktur, die leicht an Kunden abgegeben werden kann. Ein einfaches Einlesen der Daten, möglichst übersichtliche Dokumente, eine gute Beschreibung der Attribute samt Export in ein gängiges Datenformat, was anhand der Anforderungen der Kunden ermittelt wurde, konnte erfolgreich im Schnittstellenprogramm umgesetzt werden.
Das Ziel dieser Arbeit ist die digitalen Bodenschätzungsergebnisse des Bundesamtes für Eich- und Vermessungswesen (BEV) in eine Schnittstelle einzubinden, um kundenfreundliche Auszüge aus diesen Daten zu erstellen. Im Vorfeld ist eine Befragung der Kunden durchgeführt worden, damit ein geeignetes Datenformat sowie eine kundenorientierte Nutzung der Daten gewährleistet wird. Zudem werden die bestehenden Strukturen der Daten vereinheitlicht und in ein intuitives Datenformat für Geoinformationsprogramme übergeführt. Dazu werden die Daten ins Zielformat GeoJSON migriert, welches als etabliertes Standarddatenformat für Geoinformationssysteme verwendet wird. Weiters wird beim Export auf eine möglichst reduzierte Menge an Dokumenten Wert gelegt, um somit die Übersichtlichkeit deutlich zu erhöhen. Das Schnittstellenprogramm wird an einer ausgewählten Katastralgemeinde des BEVs angewendet und zusätzlich visuell mit der aktuell verwendeten Bodenschätzungsreinkarte verglichen. Die Schnittstelle migriert das komplexe Datenmodell der Bodenschätzung in eine flache GeoJSON Struktur, die leicht an Kunden abgegeben werden kann. Ein einfaches Einlesen der Daten, möglichst übersichtliche Dokumente, eine gute Beschreibung der Attribute samt Export in ein gängiges Datenformat, was anhand der Anforderungen der Kunden ermittelt wurde, konnte erfolgreich im Schnittstellenprogramm umgesetzt werden.
Kausales maschinelles Lernen für räumliche Entscheidungsunterstützung bei der Katastrophenvorsorge: Herausforderungen und Möglichkeiten für Waldbrände
Institut für Geodäsie, Technische Universität Graz, 2022
Betreuer: Dr. Rizwan Bulbul MSc
Kurzfassung/Abstract
Maschinelles Lernen (ML) ist eine zunehmend genutzte Methode für Risikobewertungen im Bereich der Katastrophenvorsorge (Disaster Risk Reduction, DRR). Eines der Hauptziele einer Risikobewertung besteht darin, die Behörden zu unterstützen, effektive Entscheidungen zu treffen, um Katastrophen zu verhindern bzw. ihre negativen Folgen abzumildern. Es wird jedoch immer häufiger argumentiert, dass präzise Vorhersagen, die von leistungsstarken ML-Modellen gemacht werden, allein nicht ausreichen, um die Entscheidungsfindung ausreichend zu unterstützen. Es wurden drei Nachteile von ML in diesem Bereich identifiziert. Der erste Nachteil ist der Black-Box-Charakter von ML-Modellen, welcher zu einer Minderung des Vertrauens der Nutzer führt und die Wartung der Vorhersage-Modelle deutlich erschwert. Zweitens passen sich ML-Modelle in der Regel nicht gut an sich ändernde Bedingungen an, was in dynamischen Umgebungen wie Mensch-Natur-Systemen jedoch zu erwarten ist. Letztlich erfordert eine effiziente Entscheidungshilfe auch die Vorhersage der Auswirkungen menschlicher Eingriffe, eine Fähigkeit, die traditionelle ML-Modelle nicht besitzen. Um diese Einschränkungen zu überwinden, werden neue Methoden zur Entscheidungsunterstützung in der Katastrophenhilfe benötigt, die die folgenden Prinzipien für erklärbare KI (Explainable AI, XAI) erfüllen - Vertrauenswürdigkeit, Übertragbarkeit und Informativität. Eine aufstrebende Forschungsrichtung ist die Integration von Kausalwissen in ML-Modelle. Zu diesem Zweck versucht eine wachsende Zahl von Studien die Bereiche des kausalen Schlussfolgerns (Causal Inference, CI) und ML zu kombinieren. Daraus resultiert das Gebiet des Kausalen Maschinellen Lernens (Causal Machine Learning, CML). Das Ziel dieser Arbeit ist es, das Potential von CML für die Entscheidungsunterstützung in der Katastrophenvorsorge zu evaluieren. Ein besonderer Schwerpunkt liegt dabei auf dem Bereich der Waldbrände. In diesem Zusammenhang wird das strukturelle Kausalmodell (Structural Causal Model, SCM) von Pearl vorgestellt, welches die Integration von kausalem Wissen mithilfe von Graphen und die Abschätzung der Auswirkungen von Interventionen ermöglicht. Darüber hinaus werden ausgewählte Arbeiten auf dem Gebiet von ML, CML und DRR vorgestellt, um Chancen und Herausforderungen von CML in Bezug auf die Entscheidungsunterstützung in der Katastrophenvorsorge zu identifizieren. Im Weiteren werden Causal Bayesian Networks als eine leistungsfähige und bereits weit verbreitete Methode für die Risikoanalyse vorgestellt, deren volles Potenzial noch nicht ausgeschöpft ist. Die Bereiche der Folgenabschätzung (Impact Evaluation), kontrafaktische Risikoanalyse (Counterfactual Riskanalysis) und Event-Attribution werden als vielversprechende Anwendungsbereiche für CML identifiziert. Ebenso werden die zwei größten Herausforderungen von CI im Bereich der räumlichen Daten vorgestellt: der Spillover Effekt und fehlende räumliche Confounder. Methoden zu deren Bewältigung werden kurz skizziert. Abschließend wird ein Anwendungsfall vorgestellt, der den Einsatz von CI für die Analyse des Waldbrandrisikos demonstriert. Dabei wird CI verwendet, um die kausale Wirkung von Temperatur und Niederschlag auf die verbrannten Flächen in Europa abzuschätzen. Auf der Grundlage dieser Ergebnisse werden Projektionen der verbrannten Fläche für drei RCP-Klimaszenarien erstellt. Zusammenfassend lässt sich sagen, dass das große Potenzial des Graphen-basierten kausalen maschinellen Lernens als Methodik zur Entscheidungsunterstützung für DRR hervorgehoben wird. Dieses Potential erschließt sich aus der höheren Robustheit und Interpretierbarkeit von Kausalbeziehungen im Vergleich zu statistischen Abhängigkeiten, der Transparenz von Kausaldiagrammen und der Fähigkeit Vorhersagen zu potenziellen Ereignissen zu machen.
Maschinelles Lernen (ML) ist eine zunehmend genutzte Methode für Risikobewertungen im Bereich der Katastrophenvorsorge (Disaster Risk Reduction, DRR). Eines der Hauptziele einer Risikobewertung besteht darin, die Behörden zu unterstützen, effektive Entscheidungen zu treffen, um Katastrophen zu verhindern bzw. ihre negativen Folgen abzumildern. Es wird jedoch immer häufiger argumentiert, dass präzise Vorhersagen, die von leistungsstarken ML-Modellen gemacht werden, allein nicht ausreichen, um die Entscheidungsfindung ausreichend zu unterstützen. Es wurden drei Nachteile von ML in diesem Bereich identifiziert. Der erste Nachteil ist der Black-Box-Charakter von ML-Modellen, welcher zu einer Minderung des Vertrauens der Nutzer führt und die Wartung der Vorhersage-Modelle deutlich erschwert. Zweitens passen sich ML-Modelle in der Regel nicht gut an sich ändernde Bedingungen an, was in dynamischen Umgebungen wie Mensch-Natur-Systemen jedoch zu erwarten ist. Letztlich erfordert eine effiziente Entscheidungshilfe auch die Vorhersage der Auswirkungen menschlicher Eingriffe, eine Fähigkeit, die traditionelle ML-Modelle nicht besitzen. Um diese Einschränkungen zu überwinden, werden neue Methoden zur Entscheidungsunterstützung in der Katastrophenhilfe benötigt, die die folgenden Prinzipien für erklärbare KI (Explainable AI, XAI) erfüllen - Vertrauenswürdigkeit, Übertragbarkeit und Informativität. Eine aufstrebende Forschungsrichtung ist die Integration von Kausalwissen in ML-Modelle. Zu diesem Zweck versucht eine wachsende Zahl von Studien die Bereiche des kausalen Schlussfolgerns (Causal Inference, CI) und ML zu kombinieren. Daraus resultiert das Gebiet des Kausalen Maschinellen Lernens (Causal Machine Learning, CML). Das Ziel dieser Arbeit ist es, das Potential von CML für die Entscheidungsunterstützung in der Katastrophenvorsorge zu evaluieren. Ein besonderer Schwerpunkt liegt dabei auf dem Bereich der Waldbrände. In diesem Zusammenhang wird das strukturelle Kausalmodell (Structural Causal Model, SCM) von Pearl vorgestellt, welches die Integration von kausalem Wissen mithilfe von Graphen und die Abschätzung der Auswirkungen von Interventionen ermöglicht. Darüber hinaus werden ausgewählte Arbeiten auf dem Gebiet von ML, CML und DRR vorgestellt, um Chancen und Herausforderungen von CML in Bezug auf die Entscheidungsunterstützung in der Katastrophenvorsorge zu identifizieren. Im Weiteren werden Causal Bayesian Networks als eine leistungsfähige und bereits weit verbreitete Methode für die Risikoanalyse vorgestellt, deren volles Potenzial noch nicht ausgeschöpft ist. Die Bereiche der Folgenabschätzung (Impact Evaluation), kontrafaktische Risikoanalyse (Counterfactual Riskanalysis) und Event-Attribution werden als vielversprechende Anwendungsbereiche für CML identifiziert. Ebenso werden die zwei größten Herausforderungen von CI im Bereich der räumlichen Daten vorgestellt: der Spillover Effekt und fehlende räumliche Confounder. Methoden zu deren Bewältigung werden kurz skizziert. Abschließend wird ein Anwendungsfall vorgestellt, der den Einsatz von CI für die Analyse des Waldbrandrisikos demonstriert. Dabei wird CI verwendet, um die kausale Wirkung von Temperatur und Niederschlag auf die verbrannten Flächen in Europa abzuschätzen. Auf der Grundlage dieser Ergebnisse werden Projektionen der verbrannten Fläche für drei RCP-Klimaszenarien erstellt. Zusammenfassend lässt sich sagen, dass das große Potenzial des Graphen-basierten kausalen maschinellen Lernens als Methodik zur Entscheidungsunterstützung für DRR hervorgehoben wird. Dieses Potential erschließt sich aus der höheren Robustheit und Interpretierbarkeit von Kausalbeziehungen im Vergleich zu statistischen Abhängigkeiten, der Transparenz von Kausaldiagrammen und der Fähigkeit Vorhersagen zu potenziellen Ereignissen zu machen.
Estimation of hydraulic and mechanical subsurface properties through the combination of electrical and seismic geophysical methods
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2022
Betreuer: Ass.Prof. Dr. Adrian Flores-Orozco, Univ.Ass. Dipl.-Ing. Matthias Steiner
Kurzfassung/Abstract
Seismic and electrical methods are widely used for landslide investigations to characterize the sliding materials and understand the underlying hydrogeological and mechanical behaviour. These techniques permit to solve for quasi-continuous variations of subsurface physical properties in a non-invasive manner, mitigating the limitations of the low spatial resolution of discrete and intrusive geotechnical investigations. Hence, in this thesis, the geophysical methods induced polarization (IP), seismic refraction tomography (SRT) and multichannel analysis of surface waves (MASW) were applied to a shallow, clay-rich landslide in Austria. Available geotechnical information as well as results of laboratory spectral IP measurements were used to aided in the interpretation of the results. Individually processed and inverted IP data sets revealed preferential water flow paths and zones of increased clay content, while the seismic inversion results, obtained with the methods SRT and MASW, provided information on the weathering of the subsurface materials and allowed to delineate the depth to the bedrock. To enable a more integrated and quantitative interpretation in terms of hydrogeological and mechanical parameters, a data-fusion approach based on a joint inversion and combination of joint and independent inversion results was designed and tested on one profile. This provided an imaging framework that derives the elastic shear and Young's moduli from resolved subsurface variations in porosity, water saturation, air content and seismic velocities. The results of this data-fusion approach showed good agreement with available geotechnical information (i.e. dynamic probing) and revealed an increase in water saturation and material stiffness with depth. Additionally, the hydraulic conductivity was estimated based on the individually processed IP data sets, allowing for a quantitative interpretation of the electrical images. The results of this thesis show, that the combination of the landslide with the three geophysical methods, IP, SRT and MASW, in a data-fusion approach improves the characterization of the variability of subsurface properties and extends the information obtained from geotechnical methods.
Seismic and electrical methods are widely used for landslide investigations to characterize the sliding materials and understand the underlying hydrogeological and mechanical behaviour. These techniques permit to solve for quasi-continuous variations of subsurface physical properties in a non-invasive manner, mitigating the limitations of the low spatial resolution of discrete and intrusive geotechnical investigations. Hence, in this thesis, the geophysical methods induced polarization (IP), seismic refraction tomography (SRT) and multichannel analysis of surface waves (MASW) were applied to a shallow, clay-rich landslide in Austria. Available geotechnical information as well as results of laboratory spectral IP measurements were used to aided in the interpretation of the results. Individually processed and inverted IP data sets revealed preferential water flow paths and zones of increased clay content, while the seismic inversion results, obtained with the methods SRT and MASW, provided information on the weathering of the subsurface materials and allowed to delineate the depth to the bedrock. To enable a more integrated and quantitative interpretation in terms of hydrogeological and mechanical parameters, a data-fusion approach based on a joint inversion and combination of joint and independent inversion results was designed and tested on one profile. This provided an imaging framework that derives the elastic shear and Young's moduli from resolved subsurface variations in porosity, water saturation, air content and seismic velocities. The results of this data-fusion approach showed good agreement with available geotechnical information (i.e. dynamic probing) and revealed an increase in water saturation and material stiffness with depth. Additionally, the hydraulic conductivity was estimated based on the individually processed IP data sets, allowing for a quantitative interpretation of the electrical images. The results of this thesis show, that the combination of the landslide with the three geophysical methods, IP, SRT and MASW, in a data-fusion approach improves the characterization of the variability of subsurface properties and extends the information obtained from geotechnical methods.
Beurteilung und Optimierung eines DAS Systems für Bahnanwendungen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2022
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Distributed acoustic sensing (DAS) ist ein faseroptisches Messsystem, welches die Faser selbst als sensitives Element nutzt. Dadurch liegt die Stärke des Systems in der Überwachung von langen, linearen Strukturen. Durch das Einbringen von Laserpulsen in die Glasfaser können auftretende Vibrationen oder akustische Signale entlang der Faser gemessen werden. Die Messung basiert auf der an jeder Stelle der Faser natürlich auftretenden Rayleigh Rückstreuung, welche durch vorhandene Unreinheiten in der Glasfaser verursacht wird. Durch die Messung der Zeitdifferenz zwischen eingesandtem Laserpuls und ankommender Rückstreuung können solche Ereignisse auf einige Meter genau bestimmt werden. Für die typischen Anwendungsgebiete von DAS ist diese Genauigkeit ausreichend, vor allem da der Vorteil dieser Systeme in der sehr hohen Reichweite von bis zu 50km pro Auswerteeinheit liegt. Durch diese große Messdistanz eignet sich das System zur Überwachung von Zugstrecken, wodurch nicht nur vorbeifahrende Züge detektiert werden können, sondern auch andere Ereignisse entlang der Strecke wie z.B. Felsstürze. Die lückenlose Überwachung stellt einen großen Vorteil gegenüber den vorhandenen punktuellen Überwachungssystemen von Zugstrecken dar. Das Ziel dieser Arbeit ist es, ein DAS System zu finden, das sowohl für die Detektion von Zügen als auch von kleineren Einflüssen entlang der Strecke geeignet ist. Dazu werden zuerst Labormessungen durchgeführt, um die Möglichkeiten aber auch die Grenzen des Systems aufzuzeigen. Diese Tests folgen einem internationalen Standard, welcher das gesamte System anhand bestimmter Kriterien beurteilt. Im Zuge dessen wird auch das Rauschverhalten untersucht. Mit diesen Erkenntnissen werden Tests entlang einer Zugstrecke in Deutschland durchgeführt, um die Anwendbarkeit unter realen Bedingungen zu beurteilen. Es werden unterschiedliche Fasertypen und Verlegepositionen entlang der Zugstrecke getestet, um die bestmögliche Kombination zur Detektion von Ereignissen unterschiedlicher Intensität zu finden. Um die Signalübertragung der verschiedenen Fasern beurteilen zu können, werden kontrollierte Anregungen mit geringer Intensität durchgeführt. Zusätzlich werden vorbeifahrende Züge erfasst. Diese beiden sehr unterschiedlichen Anregungen werden verglichen, um eine geeignete Faser für beide Ereignisse bestimmen zu können. Die durchgeführten Tests haben zufriedenstellende Ergebnisse gebracht und es wurde eine Kombination aus Fasertyp und -ort gefunden, um Ereignisse kleiner und großer Intensität erfassen zu können. Jedoch ist dies nicht ohne Kompromisse möglich und es können nicht alle gewünschten Größen gemessen werden. Um eine vollständige Überwachung einer Zugstrecke zu realisieren, müssen noch einige Herausforderungen bewältigt werden. Trotzdem hat die Arbeit die Möglichkeiten und das große Potential von DAS Systemen gezeigt.
Distributed acoustic sensing (DAS) ist ein faseroptisches Messsystem, welches die Faser selbst als sensitives Element nutzt. Dadurch liegt die Stärke des Systems in der Überwachung von langen, linearen Strukturen. Durch das Einbringen von Laserpulsen in die Glasfaser können auftretende Vibrationen oder akustische Signale entlang der Faser gemessen werden. Die Messung basiert auf der an jeder Stelle der Faser natürlich auftretenden Rayleigh Rückstreuung, welche durch vorhandene Unreinheiten in der Glasfaser verursacht wird. Durch die Messung der Zeitdifferenz zwischen eingesandtem Laserpuls und ankommender Rückstreuung können solche Ereignisse auf einige Meter genau bestimmt werden. Für die typischen Anwendungsgebiete von DAS ist diese Genauigkeit ausreichend, vor allem da der Vorteil dieser Systeme in der sehr hohen Reichweite von bis zu 50km pro Auswerteeinheit liegt. Durch diese große Messdistanz eignet sich das System zur Überwachung von Zugstrecken, wodurch nicht nur vorbeifahrende Züge detektiert werden können, sondern auch andere Ereignisse entlang der Strecke wie z.B. Felsstürze. Die lückenlose Überwachung stellt einen großen Vorteil gegenüber den vorhandenen punktuellen Überwachungssystemen von Zugstrecken dar. Das Ziel dieser Arbeit ist es, ein DAS System zu finden, das sowohl für die Detektion von Zügen als auch von kleineren Einflüssen entlang der Strecke geeignet ist. Dazu werden zuerst Labormessungen durchgeführt, um die Möglichkeiten aber auch die Grenzen des Systems aufzuzeigen. Diese Tests folgen einem internationalen Standard, welcher das gesamte System anhand bestimmter Kriterien beurteilt. Im Zuge dessen wird auch das Rauschverhalten untersucht. Mit diesen Erkenntnissen werden Tests entlang einer Zugstrecke in Deutschland durchgeführt, um die Anwendbarkeit unter realen Bedingungen zu beurteilen. Es werden unterschiedliche Fasertypen und Verlegepositionen entlang der Zugstrecke getestet, um die bestmögliche Kombination zur Detektion von Ereignissen unterschiedlicher Intensität zu finden. Um die Signalübertragung der verschiedenen Fasern beurteilen zu können, werden kontrollierte Anregungen mit geringer Intensität durchgeführt. Zusätzlich werden vorbeifahrende Züge erfasst. Diese beiden sehr unterschiedlichen Anregungen werden verglichen, um eine geeignete Faser für beide Ereignisse bestimmen zu können. Die durchgeführten Tests haben zufriedenstellende Ergebnisse gebracht und es wurde eine Kombination aus Fasertyp und -ort gefunden, um Ereignisse kleiner und großer Intensität erfassen zu können. Jedoch ist dies nicht ohne Kompromisse möglich und es können nicht alle gewünschten Größen gemessen werden. Um eine vollständige Überwachung einer Zugstrecke zu realisieren, müssen noch einige Herausforderungen bewältigt werden. Trotzdem hat die Arbeit die Möglichkeiten und das große Potential von DAS Systemen gezeigt.
Electrical resistivity imaging in trees
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2022
Betreuer: Ass.Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
This diploma thesis presents ERT measurements (Electrical Resistivity Tomography) in trees and investigates the link between ERT data and essential environmental parameters concerning tree activity. For this purpose, a ERT monitoring was carried out from early October to early November at the Hydrological Open Air Laboratory (HOAL) in Petzenkirchen, Lower Austria. The chosen tree is a black alder (Alnus glutinosa) located in a small forest only containing trees of same species, age and size. The measured electrical resistance data was converted to apparent electrical resistivity data and then filtered and smoothed. Spline interpolation was used to ensure that all data sets could be analyzed on a common time line. Finally, the apparent resistivity data was subjected to temperature correction. The processed ERT-data was compared to temperature, sap flow, solar radiation and vapor pressure deficit data. For this purpose, the data was analyzed visually, but also via cross-correlation. It was found that ERT measurements are able to capture the temporal changes associated with sap flow. Casual relationships with the remaining environmental parameter were also investigated. ERT-data has shown that quadrupoles with larger dipole length, respectively separation between the dipoles, tend to be less noisy concerning tree measurements. In addition, differences between a “clear sky day” and a “bad weather day” have been identified based on the measured data and investigated time series. Depending on the weather conditions a percentage change of up to 60 % was found in the ERT-data between the measurement at midnight and in the afternoon of the same day.
This diploma thesis presents ERT measurements (Electrical Resistivity Tomography) in trees and investigates the link between ERT data and essential environmental parameters concerning tree activity. For this purpose, a ERT monitoring was carried out from early October to early November at the Hydrological Open Air Laboratory (HOAL) in Petzenkirchen, Lower Austria. The chosen tree is a black alder (Alnus glutinosa) located in a small forest only containing trees of same species, age and size. The measured electrical resistance data was converted to apparent electrical resistivity data and then filtered and smoothed. Spline interpolation was used to ensure that all data sets could be analyzed on a common time line. Finally, the apparent resistivity data was subjected to temperature correction. The processed ERT-data was compared to temperature, sap flow, solar radiation and vapor pressure deficit data. For this purpose, the data was analyzed visually, but also via cross-correlation. It was found that ERT measurements are able to capture the temporal changes associated with sap flow. Casual relationships with the remaining environmental parameter were also investigated. ERT-data has shown that quadrupoles with larger dipole length, respectively separation between the dipoles, tend to be less noisy concerning tree measurements. In addition, differences between a “clear sky day” and a “bad weather day” have been identified based on the measured data and investigated time series. Depending on the weather conditions a percentage change of up to 60 % was found in the ERT-data between the measurement at midnight and in the afternoon of the same day.
Vector tile applications for spatial data infrastructures
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2022
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Der Zugriff auf Geodaten, über das Internet, ist ein gängiger Weg der Datenintegration. Dieser webbasierende Integrationsansatz stützt sich häufig auf standardisierte Webdienste (Web services), welche vom Open Geospatial Consortium (OGC) entwickelt werden. Beispiele hierfür sind der Web Map Tile Service (WMTS), für den Zugriff auf gekachelte Rasterkarten, oder der Web Feature Service (WFS), für den Zugriff auf Vektordaten. Um Datenintegrationsaufgaben zu vereinfachen, haben viele staatliche Institutionen oder Unternehmen sogenannte Geodateninfrastrukturen (GDI) eingerichtet. Eine der Aufgaben einer GDI ist es, Geodaten über das Web anzubieten. Ein alternativer Weg für modernes Webmapping, welches Aspekte wie höhere Performance durch die Verwendung von Kacheln (Tiling) und die Verwendung von Vektordaten kombiniert, sind Implementierungen von gekachelten Vektordaten (Vector tiles, VT). KAGIS (Kärntner Geoinformations-System), die administrative GDI für das Bundesland Kärnten in Österreich, sieht ein deutliches Potenzial in der Nutzung von VT-Daten und Anwendungen, obwohl es hierfür noch keinen ausgereiften OGC-Standard gibt. Ziel dieser Arbeit ist es, die Vor- und Nachteile von VT für Geodateninfrastrukturen anhand von Literaturrecherchen und prototypischen Implementierungen zu untersuchen. Eine umfassende Literaturrecherche gibt einen Überblick über den theoretischen Hintergrund, Schlüsselkonzepte, State-of-the-Art und Best-Practice-Beispiele. Die Thesis beschreibt einen Ansatz zur Erstellung von gekachelten Vektordaten unter Verwendung einer PostgreSQL Umgebung, mit räumlicher Erweiterung PostGIS. Dazu werden benutzerdefinierte Datenbankfunktionen implementiert, um relevante Vektordaten aus der Datenbank auszuwählen, Geometrien dynamisch zu vereinfachen/generalisieren und die Daten in das Mapbox Vector Tile (mvt) Format umzuwandeln. Darüber hinaus demonstriert ein prototypischer Webclient, auf Basis der JavaScript-Bibliothek MapLibre, VT Integration und Möglichkeiten dynamischer und interaktiver Vektor Webmaps. In einer abschließenden Evaluierung werden Vergleiche mit rasterbasierten Webkarten und Vergleiche mit Originaldaten, in Bezug auf die Positionsgenauigkeit, durchgeführt. Diese Evaluierung zeigt, Unterschiede zwischen VT und rasterbasierten Lösungen und Änderungen in den VT Daten im Vergleich zu den Originaldaten. Die im Rahmen dieser Arbeit durchgeführten Implementierungen und Forschungsergebnisse dienen als Grundlage für zukünftige Implementierungen des KAGIS im Kontext mit VT. Die Durchführung der Thesis erfolgte im Rahmen einer Forschungskooperation zwischen KAGIS und der Forschungsgruppe Spatial Informatics for Environmental Applications (SIENA) der Fachhochschule Kärnten (FH Kärnten).
Der Zugriff auf Geodaten, über das Internet, ist ein gängiger Weg der Datenintegration. Dieser webbasierende Integrationsansatz stützt sich häufig auf standardisierte Webdienste (Web services), welche vom Open Geospatial Consortium (OGC) entwickelt werden. Beispiele hierfür sind der Web Map Tile Service (WMTS), für den Zugriff auf gekachelte Rasterkarten, oder der Web Feature Service (WFS), für den Zugriff auf Vektordaten. Um Datenintegrationsaufgaben zu vereinfachen, haben viele staatliche Institutionen oder Unternehmen sogenannte Geodateninfrastrukturen (GDI) eingerichtet. Eine der Aufgaben einer GDI ist es, Geodaten über das Web anzubieten. Ein alternativer Weg für modernes Webmapping, welches Aspekte wie höhere Performance durch die Verwendung von Kacheln (Tiling) und die Verwendung von Vektordaten kombiniert, sind Implementierungen von gekachelten Vektordaten (Vector tiles, VT). KAGIS (Kärntner Geoinformations-System), die administrative GDI für das Bundesland Kärnten in Österreich, sieht ein deutliches Potenzial in der Nutzung von VT-Daten und Anwendungen, obwohl es hierfür noch keinen ausgereiften OGC-Standard gibt. Ziel dieser Arbeit ist es, die Vor- und Nachteile von VT für Geodateninfrastrukturen anhand von Literaturrecherchen und prototypischen Implementierungen zu untersuchen. Eine umfassende Literaturrecherche gibt einen Überblick über den theoretischen Hintergrund, Schlüsselkonzepte, State-of-the-Art und Best-Practice-Beispiele. Die Thesis beschreibt einen Ansatz zur Erstellung von gekachelten Vektordaten unter Verwendung einer PostgreSQL Umgebung, mit räumlicher Erweiterung PostGIS. Dazu werden benutzerdefinierte Datenbankfunktionen implementiert, um relevante Vektordaten aus der Datenbank auszuwählen, Geometrien dynamisch zu vereinfachen/generalisieren und die Daten in das Mapbox Vector Tile (mvt) Format umzuwandeln. Darüber hinaus demonstriert ein prototypischer Webclient, auf Basis der JavaScript-Bibliothek MapLibre, VT Integration und Möglichkeiten dynamischer und interaktiver Vektor Webmaps. In einer abschließenden Evaluierung werden Vergleiche mit rasterbasierten Webkarten und Vergleiche mit Originaldaten, in Bezug auf die Positionsgenauigkeit, durchgeführt. Diese Evaluierung zeigt, Unterschiede zwischen VT und rasterbasierten Lösungen und Änderungen in den VT Daten im Vergleich zu den Originaldaten. Die im Rahmen dieser Arbeit durchgeführten Implementierungen und Forschungsergebnisse dienen als Grundlage für zukünftige Implementierungen des KAGIS im Kontext mit VT. Die Durchführung der Thesis erfolgte im Rahmen einer Forschungskooperation zwischen KAGIS und der Forschungsgruppe Spatial Informatics for Environmental Applications (SIENA) der Fachhochschule Kärnten (FH Kärnten).
Entwicklung einer Benutzeroberfläche für einen bestehenden räumlichen Linked Data Ansatz für Dialektdaten
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2022
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Digitalisierung von Dialektdatensammlungen und deren Speicherung in einer Datenbank ist ein wichtiger Schritt um sie sowohl für Linguistikexperten als auch für die Öffentlichkeit leichter zugänglich zu machen. Als Beispiel hierfür dient das Projekt „Datenbank der bairischen Mundarten in Österreich electronically mapped“ (dbo@ema). Um Daten aus dieser relationalen Datenbank mit linguistischen Daten aus anderen Datenbanken zu verbinden und eine Interoperabilität zwischen diesen gewährleisten zu können wurde kürzlich ein räumlich-zeitliches Linked Data Modell basierend auf den Dialektdaten der dbo@ema erstellt. In dieser Masterarbeit wird die Entwicklung eines prototypischen User Interfaces für diesen bestehenden Linked Data Ansatz vorgestellt. Die Suchmethoden des User Interfaces können verwendet werden um Daten über einen räumlich-zeitlichen SPARQL Endpoint abzufragen und zu visualisieren. Ein weiteres zentrales Merkmal der Applikation ist die Implementierung eines geographischen Question-Answering-Systems. Ein solches System ermöglicht es Benutzern eine Frage in natürlicher Sprache zu stellen, worauf das System versucht diese Frage zu analysieren und sie mit Daten aus den zur Verfügung stehenden Datenquellen zu beantworten. Mit Hilfe des User Interfaces soll es den Benutzern erleichtert werden auf die räumlich-zeitlichen Dialektdaten in der Datenbank zuzugreifen und diese zu erkunden. Durch die Visualisierung von Abfrageergebnissen sollen außerdem Zusammenhänge zwischen den Daten leichter verständlich gemacht werden. Um dies zu erreichen, werden Techniken aus den Fachgebieten der Informatik und der GIScience genutzt. Die Benutzergruppe für diese Anwendung sollte nicht nur aus Linguistikexperten bestehen sondern auch aus unerfahrenen Nutzern, die über keine oder nur geringe Kenntnisse in den Bereichen Linguistik und Dialektologie verfügen.
Die Digitalisierung von Dialektdatensammlungen und deren Speicherung in einer Datenbank ist ein wichtiger Schritt um sie sowohl für Linguistikexperten als auch für die Öffentlichkeit leichter zugänglich zu machen. Als Beispiel hierfür dient das Projekt „Datenbank der bairischen Mundarten in Österreich electronically mapped“ (dbo@ema). Um Daten aus dieser relationalen Datenbank mit linguistischen Daten aus anderen Datenbanken zu verbinden und eine Interoperabilität zwischen diesen gewährleisten zu können wurde kürzlich ein räumlich-zeitliches Linked Data Modell basierend auf den Dialektdaten der dbo@ema erstellt. In dieser Masterarbeit wird die Entwicklung eines prototypischen User Interfaces für diesen bestehenden Linked Data Ansatz vorgestellt. Die Suchmethoden des User Interfaces können verwendet werden um Daten über einen räumlich-zeitlichen SPARQL Endpoint abzufragen und zu visualisieren. Ein weiteres zentrales Merkmal der Applikation ist die Implementierung eines geographischen Question-Answering-Systems. Ein solches System ermöglicht es Benutzern eine Frage in natürlicher Sprache zu stellen, worauf das System versucht diese Frage zu analysieren und sie mit Daten aus den zur Verfügung stehenden Datenquellen zu beantworten. Mit Hilfe des User Interfaces soll es den Benutzern erleichtert werden auf die räumlich-zeitlichen Dialektdaten in der Datenbank zuzugreifen und diese zu erkunden. Durch die Visualisierung von Abfrageergebnissen sollen außerdem Zusammenhänge zwischen den Daten leichter verständlich gemacht werden. Um dies zu erreichen, werden Techniken aus den Fachgebieten der Informatik und der GIScience genutzt. Die Benutzergruppe für diese Anwendung sollte nicht nur aus Linguistikexperten bestehen sondern auch aus unerfahrenen Nutzern, die über keine oder nur geringe Kenntnisse in den Bereichen Linguistik und Dialektologie verfügen.
Einsetzbarkeit eines Laserscanners in der Katastervermessung
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2022
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Durch die vielseitigen Einsatzmöglichkeiten hat das terrestrische Laserscanning längst in Architektur, Denkmalschutz, Bau, bei der Fabrikplanung und im Anlagenbau sowie bei Bestandsaufnahmen im Zuge von Modernisierungen Einzug gefunden. Der Vorteil dieser Technologie liegt auf der Hand – die Umgebung, Gegenstände und Gebäude als 3-dimensionale Abbildung zu erstellen. In wenigen Arbeitsstunden werden Objekte vor Ort als 3D-Punktwolke erfasst um anschließend am Computer mittels geeigneter Software alle erforderlichen Informationen aus der erfassten Datenmenge ableiten zu können. Im Rahmen dieser Masterarbeit wird der Einsatz eines Laserscanners, am Beispiel des RTC360 von Leica, für die Erstellung von Plänen nach der Vermessungsverordnung erprobt. Zur Beurteilung wurde ein Fallbeispiel klassisch mittels Tachymeter aufgenommen und direkt im Anschluss mittels Leica RTC360 Laserscanner in einer Punktwolke erfasst. Beide Aufnahmen wurden anschließend ausgewertet und anhand der Ergebnisse einer Gegenüberstellung Aussagen über die Eignung des Laserscanners in der Katastervermessung hinsichtlich Genauigkeit, Wirtschaftlichkeit sowie Rechtlichkeit gemacht. Bei einem direkten Vergleich der Ergebnisse aus den beiden Aufnahmearten hat sich gezeigt, dass die erreichte Genauigkeit eines Laserscans im Wesentlichen von der Sorgfalt, mit der während der Auswertung gearbeitet wird, abhängt. Größere Abweichungen gibt es dann, wenn Geometrien falsch interpretiert werden. Aus wirtschaftlicher Sicht kommt es zu einer Reduzierung der Arbeitszeiten im Innen- und Außendienst um 14 %. Die Arbeit wird ganz allgemein vom Feld ins Büro verlagert, denn die Arbeitszeit im Außendienst wird um 68% reduziert. Dies führt zu einer Verringerung von Diäten und die Zeit der Störung am Grundstück wird kürzer. Rechtmäßig ist die Verwendung eines terrestrischen Laserscanners durch die Vermessungsverordnung gedeckt. Als großen Vorteil der Technik kann die Aufnahme der gesamten Umgebung und damit Dokumentation, Beweissicherung und Mehrwert für Planer und Architekten genannt werden.
Durch die vielseitigen Einsatzmöglichkeiten hat das terrestrische Laserscanning längst in Architektur, Denkmalschutz, Bau, bei der Fabrikplanung und im Anlagenbau sowie bei Bestandsaufnahmen im Zuge von Modernisierungen Einzug gefunden. Der Vorteil dieser Technologie liegt auf der Hand – die Umgebung, Gegenstände und Gebäude als 3-dimensionale Abbildung zu erstellen. In wenigen Arbeitsstunden werden Objekte vor Ort als 3D-Punktwolke erfasst um anschließend am Computer mittels geeigneter Software alle erforderlichen Informationen aus der erfassten Datenmenge ableiten zu können. Im Rahmen dieser Masterarbeit wird der Einsatz eines Laserscanners, am Beispiel des RTC360 von Leica, für die Erstellung von Plänen nach der Vermessungsverordnung erprobt. Zur Beurteilung wurde ein Fallbeispiel klassisch mittels Tachymeter aufgenommen und direkt im Anschluss mittels Leica RTC360 Laserscanner in einer Punktwolke erfasst. Beide Aufnahmen wurden anschließend ausgewertet und anhand der Ergebnisse einer Gegenüberstellung Aussagen über die Eignung des Laserscanners in der Katastervermessung hinsichtlich Genauigkeit, Wirtschaftlichkeit sowie Rechtlichkeit gemacht. Bei einem direkten Vergleich der Ergebnisse aus den beiden Aufnahmearten hat sich gezeigt, dass die erreichte Genauigkeit eines Laserscans im Wesentlichen von der Sorgfalt, mit der während der Auswertung gearbeitet wird, abhängt. Größere Abweichungen gibt es dann, wenn Geometrien falsch interpretiert werden. Aus wirtschaftlicher Sicht kommt es zu einer Reduzierung der Arbeitszeiten im Innen- und Außendienst um 14 %. Die Arbeit wird ganz allgemein vom Feld ins Büro verlagert, denn die Arbeitszeit im Außendienst wird um 68% reduziert. Dies führt zu einer Verringerung von Diäten und die Zeit der Störung am Grundstück wird kürzer. Rechtmäßig ist die Verwendung eines terrestrischen Laserscanners durch die Vermessungsverordnung gedeckt. Als großen Vorteil der Technik kann die Aufnahme der gesamten Umgebung und damit Dokumentation, Beweissicherung und Mehrwert für Planer und Architekten genannt werden.
Analyse von Bluetooth Distanzmessungen zum digitalen Contact Tracing
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2022
Betreuer: Ao.Univ.Prof. Privatdoz. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
This work deals with the effectiveness of developed Smartphone apps for contact tracing for COVID-19 based on Bluetooth to detect contacts. Many applications based on Bluetooth Low Energy (BLE) technology were developed in the past year to track people's contact with COVID-19. Applications are based on how close two people are in accordance with the distance measured from the received signal strength. This thesis is a more detailed study based on different types of smartphones, analyzing the other factors that affect the value of the signal. So describes a method and analysis for determining whether two cell phones worn by humans were in constant contact from 0,5 to 6 meters for 5 minutes using Bluetooth Low energy signals. In this aspect, numerous methods for positioning smartphones were used so that the effectiveness of the study is as clear and precise as possible. Experiments were carried out in four scenarios, in which the smartphones were either placed unobstructed in the open space on chairs, stowed in backpacks or handbags, or the user's trouser pockets. The analyses show that several factors have a decisive influence on signal quality. While Bluetooth technology has proven to be very useful, it is not always easy to convert Bluetooth RSSI measurements into distances between Mobile devices. As factors that influenced the signal, we emphasize the techniques used while working on this diploma and different scenarios with different tools that have helped us analyze the results more clearly. The results also indicate that in most cases, especially in the near range (> 1 m), a meaningful relationship between the RSSI values and models based on an approximation with a logarithmic path loss model can be derived. This thesis also investigates how good a diagnostic test would be by evaluating the discriminative and predictive power of the smartphone RSSI-based contact detection in multiple measures. Based on the sensitivity and specificity, we find that the decision made by the smartphone RSSI-based test can be accurate in telling contacts from no contacts. Sensitivity is expressed as the proportion of correctly classified as true positives among the total contacts, and specificity is the ability to identify the no contacts. However, the results told us that some phones stick to the predicted model, and some deviate entirely. The trousers pocket scenario has the most impact on RSSI strength. The results of the distribution of RSSI in the main, backpack, and wall experiments were coherent to the distance from each selected advertiser. On the other hand, the results of the trousers pocket experiment showed unexpected distributions.
This work deals with the effectiveness of developed Smartphone apps for contact tracing for COVID-19 based on Bluetooth to detect contacts. Many applications based on Bluetooth Low Energy (BLE) technology were developed in the past year to track people's contact with COVID-19. Applications are based on how close two people are in accordance with the distance measured from the received signal strength. This thesis is a more detailed study based on different types of smartphones, analyzing the other factors that affect the value of the signal. So describes a method and analysis for determining whether two cell phones worn by humans were in constant contact from 0,5 to 6 meters for 5 minutes using Bluetooth Low energy signals. In this aspect, numerous methods for positioning smartphones were used so that the effectiveness of the study is as clear and precise as possible. Experiments were carried out in four scenarios, in which the smartphones were either placed unobstructed in the open space on chairs, stowed in backpacks or handbags, or the user's trouser pockets. The analyses show that several factors have a decisive influence on signal quality. While Bluetooth technology has proven to be very useful, it is not always easy to convert Bluetooth RSSI measurements into distances between Mobile devices. As factors that influenced the signal, we emphasize the techniques used while working on this diploma and different scenarios with different tools that have helped us analyze the results more clearly. The results also indicate that in most cases, especially in the near range (> 1 m), a meaningful relationship between the RSSI values and models based on an approximation with a logarithmic path loss model can be derived. This thesis also investigates how good a diagnostic test would be by evaluating the discriminative and predictive power of the smartphone RSSI-based contact detection in multiple measures. Based on the sensitivity and specificity, we find that the decision made by the smartphone RSSI-based test can be accurate in telling contacts from no contacts. Sensitivity is expressed as the proportion of correctly classified as true positives among the total contacts, and specificity is the ability to identify the no contacts. However, the results told us that some phones stick to the predicted model, and some deviate entirely. The trousers pocket scenario has the most impact on RSSI strength. The results of the distribution of RSSI in the main, backpack, and wall experiments were coherent to the distance from each selected advertiser. On the other hand, the results of the trousers pocket experiment showed unexpected distributions.
To be or not to be. Detecting Points of Interest along route segments
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2022
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc, Univ-Ass. Mag. Dr. Markus Kattenbeck
Kurzfassung/Abstract
Navigation systems guide their users from a starting point to a destination. In general, the instructions are based on distances and street names. A potential improvement is to include Points of Interest (POIs) into navigation instructions. POIs are often located inside buildings, e.g., shops or restaurants. However, the knowledge from which side the POI is visible is not stored in the available datasets. Therefore, current navigation systems cannot verify if the POI for the next instruction is visible from a specific location in the street and can be used for navigation. The aim of this thesis is to connect street segments with visible POIs after detecting those in street view images with either a YOLOv3 architecture or Visual Salience and a YOLOv3 architecture. The approach is divided into 3 steps: Pre-processing, Detection and Allocation. The Pre-processing includes the preparation of the street view images and the geodata such as the POIs, buildings, and street segments. These are retrieved from open data sources. In the pre-processing the positions of the street view images are corrected, corner buildings are detected in the building dataset and a pre-selection of the images is done by analysing if buildings, with POIs inside, are in the field of view of the image. The second part, detection, is responsible for identifying the POI in the image. The detector is once used on the original images and once after Visual Salience was applied on the image. Then the Machine Learning detector recognizes the POIs only in the most salient parts of the image. The goal is to compare these two approaches, with and without Visual Salience. To be able to identify POIs in street images a POI detector needs to be trained. The images for the training of the POI detector are gathered from various sources. Pre-trained weights are needed to be produced for the POI detector, since not enough images are available. After the detection of a POI in an image the combination of the POI from the image and the OSM data needs to be done. This part is called allocation. This includes the calculation of the building and the facade where the POI is found in the image. On one hand this information is essential to assign the POI to a street segment. On the other hand, the information about the building is needed to find the corresponding POI stored in the geodata. The steps, which are part of the Pre-processing and the Allocation, are implemented into the pipeline of the algorithm of this thesis successfully. The quality of these steps strongly depends on the accuracy of the position of the street view images and the POIs. Moreover, the result is dependent on the topicality of street view images and the information about the POIs. Further improvements of the results could be achieved by finding the optimal maximum distance between the street view images and a POI or other thresholds. The main shortcoming of this work is the detection of POIs in street view images. The training of the pre-trained weights did not work. Thus, the training of the POI detector could not be done as well. The training of the pre-trained weights either did not converge or failed due to overfitting. In case that this missing part of the algorithm can be successfully implemented, the developed pipeline will be able to allocate the POIs to street segments and use them in navigation instructions.
Navigation systems guide their users from a starting point to a destination. In general, the instructions are based on distances and street names. A potential improvement is to include Points of Interest (POIs) into navigation instructions. POIs are often located inside buildings, e.g., shops or restaurants. However, the knowledge from which side the POI is visible is not stored in the available datasets. Therefore, current navigation systems cannot verify if the POI for the next instruction is visible from a specific location in the street and can be used for navigation. The aim of this thesis is to connect street segments with visible POIs after detecting those in street view images with either a YOLOv3 architecture or Visual Salience and a YOLOv3 architecture. The approach is divided into 3 steps: Pre-processing, Detection and Allocation. The Pre-processing includes the preparation of the street view images and the geodata such as the POIs, buildings, and street segments. These are retrieved from open data sources. In the pre-processing the positions of the street view images are corrected, corner buildings are detected in the building dataset and a pre-selection of the images is done by analysing if buildings, with POIs inside, are in the field of view of the image. The second part, detection, is responsible for identifying the POI in the image. The detector is once used on the original images and once after Visual Salience was applied on the image. Then the Machine Learning detector recognizes the POIs only in the most salient parts of the image. The goal is to compare these two approaches, with and without Visual Salience. To be able to identify POIs in street images a POI detector needs to be trained. The images for the training of the POI detector are gathered from various sources. Pre-trained weights are needed to be produced for the POI detector, since not enough images are available. After the detection of a POI in an image the combination of the POI from the image and the OSM data needs to be done. This part is called allocation. This includes the calculation of the building and the facade where the POI is found in the image. On one hand this information is essential to assign the POI to a street segment. On the other hand, the information about the building is needed to find the corresponding POI stored in the geodata. The steps, which are part of the Pre-processing and the Allocation, are implemented into the pipeline of the algorithm of this thesis successfully. The quality of these steps strongly depends on the accuracy of the position of the street view images and the POIs. Moreover, the result is dependent on the topicality of street view images and the information about the POIs. Further improvements of the results could be achieved by finding the optimal maximum distance between the street view images and a POI or other thresholds. The main shortcoming of this work is the detection of POIs in street view images. The training of the pre-trained weights did not work. Thus, the training of the POI detector could not be done as well. The training of the pre-trained weights either did not converge or failed due to overfitting. In case that this missing part of the algorithm can be successfully implemented, the developed pipeline will be able to allocate the POIs to street segments and use them in navigation instructions.