- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2021
Abschlussarbeiten 2021
Improving Forest Mensurations with High Resolution Point Clouds
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Forests are of great economic and ecological benefit because they function as timber source and provide a variety of vital ecosystem services. To maintain the functioning of forest ecosystems and the provision of these diverse services, regular acquisitions of the forest conditions, including timber stock estimations, are required. Forest in- ventories (FI) which have evolved from economic demands provide such information and allow to optimize management strategies. FIs also form the basis to monitor abundance, health and changes of forest ecosystems. FIs traditionally rely on field measurements that include a number of forest parameters within plots. With the increasing availability of airborne laser scanning (ALS) systems, such local plot level inventories can be upscaled to larger areas in a convenient, robust and reproducible way. However, current FI acquisition methods suffer from a number of deficiencies. Firstly, FIs still rely on measurements in the field which are labor-intensive to acquire and partially subjective (e.g. the determination of crown closure). Secondly, allometric functions, which are deduced from field inventories and applied to ALS or auxiliary remote sensing data to predict FI parameters (e.g. growing stock) over larger areas, do not necessarily reflect site-specific characteristics. This leads to errors in the predicted parameters. Locally adjusted allometric functions, however, are cumbersome and expensive to achieve through field inventories. Therefore, such functions often do not exist. Thirdly, today’s forest stands, to which the respective allometric functions are applied, are derived from manual delineations based on ortho-images. Stand delineation, however, is a complex task, and resulting stands do not necessarily represent homogeneous compartments. Available forest stand boundaries are often originating from historical forest management units that have changed over time. The aim of this thesis is to investigate possibilities to improve current FI acquisition strategies through the integration of the various laser scanning systems we have at hand today. The miniaturization of laser scanning sensors and positioning systems allows the systems to be operated on light weight unmanned aerial vehicle-platforms (UAV- borne laser scanning, ULS) or placed on the ground (terrestrial laser scanning, TLS). There is a gap, however, between ALS and these close-range systems. Firstly, the systems deliver completely different point cloud qualities in terms of the resolution of the resulting point clouds. Secondly, the viewing direction and geometry differ fundamentally, particularly between TLS, which records the canopy from the bottom, and ALS, which can hardly acquire forest areas close to the ground. Yet, FIs could be improved through the combination of the different laser scanning systems. Close- range systems with the high level of detail allow for a fast, accurate and cost- efficient acquisition of field reference data, from which site-specific allometries can be deduced. Improved allometries can subsequently be applied to ALS data acquired from large areas with low point densities. Thus, the combination of the different systems allows to accomplish the scale transition from plot to landscape scales. Locally detailed single tree information could be brought to wide areas, allowing for landscape-wide FI parameter estimations. Yet, open aspects remain for such a proceeding, which are addressed in this thesis. In a first study, the point cloud quality requirements are investigated in order to allow a complete and accurate scene reconstruction from ULS data. The results show that the point density is crucial for the stem detection, whereas the accuracy of the stem reconstruction mainly depends on the accuracy of the sensor. A second study analyses differences in the ways ALS and ULS systems capture the forest structure. ULS systems acquire the forest structure more completely. In combination with the high level of detail, this allows to directly measure single tree components within the point cloud, apart from the computation of classical ALS metrics. In contrast, derived structure metrics differ between ALS and ULS, depending on the way the point cloud information is used for the metrics computation. In a third study, an approach is proposed to delineate homogeneous forest compartments with a similar forest structure from ALS point clouds. Homogeneous forest compartments can be used to upscale locally measured FI parameters from close-range laser scanning to larger areas by applying locally adjusted statistical models to ALS point cloud metrics. A final study deals with the temporal aspect of the inventories and investigates the potential to update ALS forest structure information with Sentinel-1 (S-1) C-band time series. Since the general height and stand density structures, respectively, are well reproduced, S-1 data facilitates to fill gaps between ALS acquisitions. The insights gained in the four studies will help making optimal use of the information content each system provides. Thus, the integration of the different laser scanning devices into the scale transition contributes to improving FI acquisition strategies. With such a procedure, landscape-wide accurate spatial forest information could be acquired in a robust, fast and cost-efficient way. This opens up new possibilities to integrate remote sensing in operational forest management activities, for instance for the selection of tree species, for shading studies, or for the modelling of forest fires, the sun irradiance or the water cycle. Ultimately, the integration of data from different systems will improve our ability to monitor the condition and development of forests.
Forests are of great economic and ecological benefit because they function as timber source and provide a variety of vital ecosystem services. To maintain the functioning of forest ecosystems and the provision of these diverse services, regular acquisitions of the forest conditions, including timber stock estimations, are required. Forest in- ventories (FI) which have evolved from economic demands provide such information and allow to optimize management strategies. FIs also form the basis to monitor abundance, health and changes of forest ecosystems. FIs traditionally rely on field measurements that include a number of forest parameters within plots. With the increasing availability of airborne laser scanning (ALS) systems, such local plot level inventories can be upscaled to larger areas in a convenient, robust and reproducible way. However, current FI acquisition methods suffer from a number of deficiencies. Firstly, FIs still rely on measurements in the field which are labor-intensive to acquire and partially subjective (e.g. the determination of crown closure). Secondly, allometric functions, which are deduced from field inventories and applied to ALS or auxiliary remote sensing data to predict FI parameters (e.g. growing stock) over larger areas, do not necessarily reflect site-specific characteristics. This leads to errors in the predicted parameters. Locally adjusted allometric functions, however, are cumbersome and expensive to achieve through field inventories. Therefore, such functions often do not exist. Thirdly, today’s forest stands, to which the respective allometric functions are applied, are derived from manual delineations based on ortho-images. Stand delineation, however, is a complex task, and resulting stands do not necessarily represent homogeneous compartments. Available forest stand boundaries are often originating from historical forest management units that have changed over time. The aim of this thesis is to investigate possibilities to improve current FI acquisition strategies through the integration of the various laser scanning systems we have at hand today. The miniaturization of laser scanning sensors and positioning systems allows the systems to be operated on light weight unmanned aerial vehicle-platforms (UAV- borne laser scanning, ULS) or placed on the ground (terrestrial laser scanning, TLS). There is a gap, however, between ALS and these close-range systems. Firstly, the systems deliver completely different point cloud qualities in terms of the resolution of the resulting point clouds. Secondly, the viewing direction and geometry differ fundamentally, particularly between TLS, which records the canopy from the bottom, and ALS, which can hardly acquire forest areas close to the ground. Yet, FIs could be improved through the combination of the different laser scanning systems. Close- range systems with the high level of detail allow for a fast, accurate and cost- efficient acquisition of field reference data, from which site-specific allometries can be deduced. Improved allometries can subsequently be applied to ALS data acquired from large areas with low point densities. Thus, the combination of the different systems allows to accomplish the scale transition from plot to landscape scales. Locally detailed single tree information could be brought to wide areas, allowing for landscape-wide FI parameter estimations. Yet, open aspects remain for such a proceeding, which are addressed in this thesis. In a first study, the point cloud quality requirements are investigated in order to allow a complete and accurate scene reconstruction from ULS data. The results show that the point density is crucial for the stem detection, whereas the accuracy of the stem reconstruction mainly depends on the accuracy of the sensor. A second study analyses differences in the ways ALS and ULS systems capture the forest structure. ULS systems acquire the forest structure more completely. In combination with the high level of detail, this allows to directly measure single tree components within the point cloud, apart from the computation of classical ALS metrics. In contrast, derived structure metrics differ between ALS and ULS, depending on the way the point cloud information is used for the metrics computation. In a third study, an approach is proposed to delineate homogeneous forest compartments with a similar forest structure from ALS point clouds. Homogeneous forest compartments can be used to upscale locally measured FI parameters from close-range laser scanning to larger areas by applying locally adjusted statistical models to ALS point cloud metrics. A final study deals with the temporal aspect of the inventories and investigates the potential to update ALS forest structure information with Sentinel-1 (S-1) C-band time series. Since the general height and stand density structures, respectively, are well reproduced, S-1 data facilitates to fill gaps between ALS acquisitions. The insights gained in the four studies will help making optimal use of the information content each system provides. Thus, the integration of the different laser scanning devices into the scale transition contributes to improving FI acquisition strategies. With such a procedure, landscape-wide accurate spatial forest information could be acquired in a robust, fast and cost-efficient way. This opens up new possibilities to integrate remote sensing in operational forest management activities, for instance for the selection of tree species, for shading studies, or for the modelling of forest fires, the sun irradiance or the water cycle. Ultimately, the integration of data from different systems will improve our ability to monitor the condition and development of forests.
The Polysemy of Map Signs: An Exploration of the Connotative Meanings of Cartographic Point Symbols
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Maps are a means of communication. Through the use of signs and symbols, maps communicate about the geographic world. As such, they enable us to relate to spatial phenomena from viewpoints beyond direct experience. Cartography is, therefore, deeply concerned with the use of map signs and their meanings. Semiotic theory generally emphasizes two meaning dimensions of any sign, i.e., the dimension of reference and the dimension of sense (Nöth, 1995). These two dimensions are also referred to as explicit and implicit meanings, as denotation and connotation, as meanings in maps and meanings of maps (MacEachren, 1995). So far, cartographic semiotics has mainly focused on the explicit, denotative meanings in maps. The implicit, connotative meanings of maps and their effects on map users have, yet, largely been disregarded. This dissertation was, thus, devoted to exploring the dimension of connotation in cartographic communication. Four empirical user studies were carried out to examine the implicit, connotative meanings of abstract cartographic point symbols. The studies revealed that cartographic signs connote on multiple levels, i.e., visually, associatively, and affectively. The findings further disclosed the cognitive relatedness of cartographic point symbols, revealed their affective qualities, identified symbol-content congruences, and demonstrated that the connotative meanings associated with abstract shapes influence how people judge geospatial events. With these findings combined, this dissertation contributes a diverse empirical basis of the potential connotative meanings of cartographic point symbols. It demonstrates the significance of the visual sign in cartographic communication. It also emphasizes the polysemy of cartographic signs and the need to consider their connotative meanings with more attention in cartographic research and practice.
Maps are a means of communication. Through the use of signs and symbols, maps communicate about the geographic world. As such, they enable us to relate to spatial phenomena from viewpoints beyond direct experience. Cartography is, therefore, deeply concerned with the use of map signs and their meanings. Semiotic theory generally emphasizes two meaning dimensions of any sign, i.e., the dimension of reference and the dimension of sense (Nöth, 1995). These two dimensions are also referred to as explicit and implicit meanings, as denotation and connotation, as meanings in maps and meanings of maps (MacEachren, 1995). So far, cartographic semiotics has mainly focused on the explicit, denotative meanings in maps. The implicit, connotative meanings of maps and their effects on map users have, yet, largely been disregarded. This dissertation was, thus, devoted to exploring the dimension of connotation in cartographic communication. Four empirical user studies were carried out to examine the implicit, connotative meanings of abstract cartographic point symbols. The studies revealed that cartographic signs connote on multiple levels, i.e., visually, associatively, and affectively. The findings further disclosed the cognitive relatedness of cartographic point symbols, revealed their affective qualities, identified symbol-content congruences, and demonstrated that the connotative meanings associated with abstract shapes influence how people judge geospatial events. With these findings combined, this dissertation contributes a diverse empirical basis of the potential connotative meanings of cartographic point symbols. It demonstrates the significance of the visual sign in cartographic communication. It also emphasizes the polysemy of cartographic signs and the need to consider their connotative meanings with more attention in cartographic research and practice.
Contextual Semantic Classification of ALS Point Clouds in Urban Environment
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
ALS (Airborne Laser Scanning)/Airborne LiDAR (Light Detection And Ranging) is characterized by its capability of providing highly accurate and dense 3D point clouds at a city-wide scale. Therefore, ALS has been widely used for a variety of applications in urban environments, which makes the automatic classification of 3D point clouds a crucial task. Urban environments are a complex combination of both built-up and natural objects. Consequently, automatically producing highly accurate classification results from ALS point clouds is challenging. The commonly used machine learning methods such as Random Forest and Support Vector Machine often lead to noisy classification results, since they rely heavily on the input of handcrafted features and lack the consideration of spatial context. In order to improve classification performance, the aim of this dissertation is to incorporate context into the classification of ALS point clouds. The work in this dissertation comprises methodological developments presented in publications I-III, an investigation of the cutting-edge deep learning methods, in which contextual features can be directly learned in the training phase, presented in publication IV, and an effort on extending training data that is presented in publication V. Publications I-II propose a high-dimensional tensor-based sparse representation for the classification of ALS point clouds. This novel data structure is introduced to keep the handcrafted features in their original geometric 3D space, such that the spatial distribution and handcrafted features can be considered at the same time. Using only a few training samples, promising classification results can be obtained. Publication III develops a label smoothing strategy to refine classification results. Without the aid of additional training data, the proposed label smoothing strategy can directly learn context information from initial classification results by estimating an adaptive neighborhood and a probabilistic label relaxation. Experiments exhibit its strength in improving classification accuracy. Publication IV conducts a comprehensive comparison between three state-of-art deep learning models, namely PointNet++, KPConv, and SparseCNN, w.r.t. classification accuracy, computation time, generalization ability, and the sensitivity to the choices of hyper-parameters. Publication V proposes a method to extend training data by selecting the most informative samples from the neighborhood of the initial training samples. After an overview of the publications, a comparison between all investigated methods is carried out on two separate ALS datasets in urban areas. Based on the results, the superior performance of the selected deep learning models, especially SparseCNN, is further confirmed. The proposed label smoothing also turns out to be advantageous, regardless of the diversity of scenes and point densities involved. More importantly, it is independent of different training efforts, which have a profound impact on deep learning methods. The works conducted in this dissertation provide practical examples and valuable insights into the contextual classification of ALS point clouds. The presented studies also show that supervised machine learning, especially deep learning, heavily depends on training data. Therefore, the automated generation of training data by active learning could be a way to further facilitate the classification of point clouds.
ALS (Airborne Laser Scanning)/Airborne LiDAR (Light Detection And Ranging) is characterized by its capability of providing highly accurate and dense 3D point clouds at a city-wide scale. Therefore, ALS has been widely used for a variety of applications in urban environments, which makes the automatic classification of 3D point clouds a crucial task. Urban environments are a complex combination of both built-up and natural objects. Consequently, automatically producing highly accurate classification results from ALS point clouds is challenging. The commonly used machine learning methods such as Random Forest and Support Vector Machine often lead to noisy classification results, since they rely heavily on the input of handcrafted features and lack the consideration of spatial context. In order to improve classification performance, the aim of this dissertation is to incorporate context into the classification of ALS point clouds. The work in this dissertation comprises methodological developments presented in publications I-III, an investigation of the cutting-edge deep learning methods, in which contextual features can be directly learned in the training phase, presented in publication IV, and an effort on extending training data that is presented in publication V. Publications I-II propose a high-dimensional tensor-based sparse representation for the classification of ALS point clouds. This novel data structure is introduced to keep the handcrafted features in their original geometric 3D space, such that the spatial distribution and handcrafted features can be considered at the same time. Using only a few training samples, promising classification results can be obtained. Publication III develops a label smoothing strategy to refine classification results. Without the aid of additional training data, the proposed label smoothing strategy can directly learn context information from initial classification results by estimating an adaptive neighborhood and a probabilistic label relaxation. Experiments exhibit its strength in improving classification accuracy. Publication IV conducts a comprehensive comparison between three state-of-art deep learning models, namely PointNet++, KPConv, and SparseCNN, w.r.t. classification accuracy, computation time, generalization ability, and the sensitivity to the choices of hyper-parameters. Publication V proposes a method to extend training data by selecting the most informative samples from the neighborhood of the initial training samples. After an overview of the publications, a comparison between all investigated methods is carried out on two separate ALS datasets in urban areas. Based on the results, the superior performance of the selected deep learning models, especially SparseCNN, is further confirmed. The proposed label smoothing also turns out to be advantageous, regardless of the diversity of scenes and point densities involved. More importantly, it is independent of different training efforts, which have a profound impact on deep learning methods. The works conducted in this dissertation provide practical examples and valuable insights into the contextual classification of ALS point clouds. The presented studies also show that supervised machine learning, especially deep learning, heavily depends on training data. Therefore, the automated generation of training data by active learning could be a way to further facilitate the classification of point clouds.
Tropospheric delay models for GNSS in Indonesia
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Tropospheric delay is one of the major error sources in space geodetic observations, including GNSS. It is important to treat these delays accordingly to improve the accuracy of the observations. The tropospheric delay models VMF1 and GMF are widely used in GNSS data analysis. Recently, a new and refined version of VMF1, VMF3 was released. This study focuses on assessing the performance of VMF3 for GNSS observations in Indonesia. Observations from eleven stations of the InaCORS network for the year 2014 were analyzed using PPP technique in Bernese GNSS Software, version 5.2. Currently, the software does not support VMF3 and therefore, some changes in the subroutines had to be made to allow Bernese to apply VMF3 in the analysis. The estimated horizontal coordinates from the three models VMF1, GMF, and VMF3 are generally similar, whereas the mean absolute biases for the height component are larger, typically more than 1 mm. Additionally, while the three models yield similar repeatability for the horizontal components, using either VMF3 and VMF1 provides slightly better results than GMF. The estimated ΔL z w from all the three models are similar. However, the biases between VMF3-VMF1 are smaller than VMF3-GMF. The biases in ΔL z w correspond to the biases in the height component. The mean absolute biases of ΔL z w are roughly half of the biases in height. The slant delays at 5 degrees are around 22-23 meters and 2-3 meters for the hydrostatic part (ΔLh) and the wet part (ΔLw), respectively. The mean differences of ΔLw using VMF3 and GMF range from 1 cm to more than 13 cm, whereas the mean differences between VMF3 and VMF1 range from 0.4-6.5 cm. The estimated gradients from VMF3 scheme tend to be larger than gradients model GRAD. The mean absolute biases for both north and east gradients, Gn and Ge, respectively, are less than 0.1 mm. The standard deviations of GNSS-derived gradients are more than 1 mm, larger than GRAD. The correlation coefficients r between the two gradients are less than 0.5, with Ge being more weakly correlated than Gn. The estimated ΔL z w can be converted into PWV by using the so-called water vapor weighted mean temperature, Tm. In this study, Tm was first determined using vertical profiles of temperature and humidity from ERA5 data. The results are then compared with Tm from the Bevis model, as determined using ERA5-based Ts. Tm ERA5 has higher variability than Tm Bevis. Generally, Tm Bevis has a cold bias compared to Tm ERA5, typically less than -2 K. The annual range of monthly mean Tm is generally less than 5 K, with the daily variability of less than 2 K. Based on Tm and Ts from ERA5 at 40 grid points, Tm and Ts are not linearly related, with an overall correlation coefficient r of 0.37. Tm - Ts correlation tends to be weaker towards the equator. Site-specific Tm - Ts correlation tends to be stronger than the overall correlation. Additionally, during the summer monsoon, the correlation tends to be weaker than during the winter monsoon. GNSS-derived PWV is then determined at nine stations in 2014 using two types of Tm, namely Tm Bevis and Tm ERA5 for comparison. Tm Bevis was determined using surface pressure from meteorological sensors at the station. The effect of mismodelling Tm to PWV estimation at stations can reach a maximum value of 2-3%, resulting in an error of around 2 mm if PWV is larger than 70 mm. The differences between the two PWV at stations CKEN, CSAU, and CUKE, can reach more than 1 mm at the highest, with a standard deviation of less than 0.5 mm. Based on the PWV as obtained from the estimated ΔL z w and ERA5-based Tm, PWV in Indonesia is ranging from 20-70 mm. The annual mean of PWV at the stations used in the analysis varies from 44-56 mm, with standard deviations ranging from 4.5-10.7 mm. During the peak of the dry season, between July and September, PWV at most stations tends to decrease. The mean PWV during the dry season ranges from 38-56 mm, and increases to between 49-56 mm during the rainy season. The annual mean PWV tends to increase towards the equator, with the values of 55 mm and 44 mm at the equatorial station CAIR and the southernmost station CREO, respectively. Conversely, the standard deviations are smaller towards the equator, with the values of around 5 mm and 10 mm at CAIR and CREO, respectively.
Tropospheric delay is one of the major error sources in space geodetic observations, including GNSS. It is important to treat these delays accordingly to improve the accuracy of the observations. The tropospheric delay models VMF1 and GMF are widely used in GNSS data analysis. Recently, a new and refined version of VMF1, VMF3 was released. This study focuses on assessing the performance of VMF3 for GNSS observations in Indonesia. Observations from eleven stations of the InaCORS network for the year 2014 were analyzed using PPP technique in Bernese GNSS Software, version 5.2. Currently, the software does not support VMF3 and therefore, some changes in the subroutines had to be made to allow Bernese to apply VMF3 in the analysis. The estimated horizontal coordinates from the three models VMF1, GMF, and VMF3 are generally similar, whereas the mean absolute biases for the height component are larger, typically more than 1 mm. Additionally, while the three models yield similar repeatability for the horizontal components, using either VMF3 and VMF1 provides slightly better results than GMF. The estimated ΔL z w from all the three models are similar. However, the biases between VMF3-VMF1 are smaller than VMF3-GMF. The biases in ΔL z w correspond to the biases in the height component. The mean absolute biases of ΔL z w are roughly half of the biases in height. The slant delays at 5 degrees are around 22-23 meters and 2-3 meters for the hydrostatic part (ΔLh) and the wet part (ΔLw), respectively. The mean differences of ΔLw using VMF3 and GMF range from 1 cm to more than 13 cm, whereas the mean differences between VMF3 and VMF1 range from 0.4-6.5 cm. The estimated gradients from VMF3 scheme tend to be larger than gradients model GRAD. The mean absolute biases for both north and east gradients, Gn and Ge, respectively, are less than 0.1 mm. The standard deviations of GNSS-derived gradients are more than 1 mm, larger than GRAD. The correlation coefficients r between the two gradients are less than 0.5, with Ge being more weakly correlated than Gn. The estimated ΔL z w can be converted into PWV by using the so-called water vapor weighted mean temperature, Tm. In this study, Tm was first determined using vertical profiles of temperature and humidity from ERA5 data. The results are then compared with Tm from the Bevis model, as determined using ERA5-based Ts. Tm ERA5 has higher variability than Tm Bevis. Generally, Tm Bevis has a cold bias compared to Tm ERA5, typically less than -2 K. The annual range of monthly mean Tm is generally less than 5 K, with the daily variability of less than 2 K. Based on Tm and Ts from ERA5 at 40 grid points, Tm and Ts are not linearly related, with an overall correlation coefficient r of 0.37. Tm - Ts correlation tends to be weaker towards the equator. Site-specific Tm - Ts correlation tends to be stronger than the overall correlation. Additionally, during the summer monsoon, the correlation tends to be weaker than during the winter monsoon. GNSS-derived PWV is then determined at nine stations in 2014 using two types of Tm, namely Tm Bevis and Tm ERA5 for comparison. Tm Bevis was determined using surface pressure from meteorological sensors at the station. The effect of mismodelling Tm to PWV estimation at stations can reach a maximum value of 2-3%, resulting in an error of around 2 mm if PWV is larger than 70 mm. The differences between the two PWV at stations CKEN, CSAU, and CUKE, can reach more than 1 mm at the highest, with a standard deviation of less than 0.5 mm. Based on the PWV as obtained from the estimated ΔL z w and ERA5-based Tm, PWV in Indonesia is ranging from 20-70 mm. The annual mean of PWV at the stations used in the analysis varies from 44-56 mm, with standard deviations ranging from 4.5-10.7 mm. During the peak of the dry season, between July and September, PWV at most stations tends to decrease. The mean PWV during the dry season ranges from 38-56 mm, and increases to between 49-56 mm during the rainy season. The annual mean PWV tends to increase towards the equator, with the values of 55 mm and 44 mm at the equatorial station CAIR and the southernmost station CREO, respectively. Conversely, the standard deviations are smaller towards the equator, with the values of around 5 mm and 10 mm at CAIR and CREO, respectively.
Analysis and Processing of Signals in Laser Bathymetry
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Airborne laser bathymetry is a remote sensing technique for the mapping of underwater topography. Compared to topographic airborne laser scanning, light propagation in two media must be considered. An important difference also is that for use in bathymetry, only wavelengths of the laser in the visible range can be used, since light in the infrared range is practically unable to penetrate the water. The first generation of scanners for bathymetry came into use shortly after the invention of the LASER. Although in the beginning mainly only analogue electronics was available for the evaluation of the signals, later the entire trace of the backscattered echo was recorded digitally. The advent of affordable computers finally opened the way to more complex signal processing. For the determination of the elevation of the underwater bottom it is necessary to identify two significant time instants in the waveform. The first is when the light impulse enters the water and the second is when it hits the bottom. It is especially important to know the first moment, because from this moment on the impulse moves slower and in a different direction. The standard method to identify an instant of time in a signal is by gaussian decomposition of the signal. Underwater, however, the method suffers from the problem that a lot of distributed small particles cause clutter that is hindering the exact decomposition. For a tenuous distribution of such particles the waveform is of exponential character. In this thesis I therefore introduce a model consisting of exponential segments that describe the effect of the particles and Dirac shaped pulses that describe the effect of discretely located scatterers. This description is however not sufficient yet to account for the received signal form. The exponential model has to be convolved with the system waveform to yield a correct representation of the received signal. By minimizing the difference of this representation and the measured data the parameters of the exponential model can be retrieved. I present a procedure, which I call exponential decomposition, by which the actual processing can be done. The effectiveness of the procedure is verified on the basis of data collected in a tributary of the Danube River. The correctness of the results is confirmed using GNSS surveyed control points. An important aspect for the modeling of signals is that the model is physically correct. An underestimated effect in laser bathymetry is that pulsed light propagates more slowly than conventionally assumed. Since the effect in the context of laser bathymetry has not yet been discussed, I describe an experiment I performed that confirms the effect in its predicted magnitude. Furthermore, I deal with the questions whether a single wavelength system is feasible and what the smallest measurable depth in laser bathymetry is.
Airborne laser bathymetry is a remote sensing technique for the mapping of underwater topography. Compared to topographic airborne laser scanning, light propagation in two media must be considered. An important difference also is that for use in bathymetry, only wavelengths of the laser in the visible range can be used, since light in the infrared range is practically unable to penetrate the water. The first generation of scanners for bathymetry came into use shortly after the invention of the LASER. Although in the beginning mainly only analogue electronics was available for the evaluation of the signals, later the entire trace of the backscattered echo was recorded digitally. The advent of affordable computers finally opened the way to more complex signal processing. For the determination of the elevation of the underwater bottom it is necessary to identify two significant time instants in the waveform. The first is when the light impulse enters the water and the second is when it hits the bottom. It is especially important to know the first moment, because from this moment on the impulse moves slower and in a different direction. The standard method to identify an instant of time in a signal is by gaussian decomposition of the signal. Underwater, however, the method suffers from the problem that a lot of distributed small particles cause clutter that is hindering the exact decomposition. For a tenuous distribution of such particles the waveform is of exponential character. In this thesis I therefore introduce a model consisting of exponential segments that describe the effect of the particles and Dirac shaped pulses that describe the effect of discretely located scatterers. This description is however not sufficient yet to account for the received signal form. The exponential model has to be convolved with the system waveform to yield a correct representation of the received signal. By minimizing the difference of this representation and the measured data the parameters of the exponential model can be retrieved. I present a procedure, which I call exponential decomposition, by which the actual processing can be done. The effectiveness of the procedure is verified on the basis of data collected in a tributary of the Danube River. The correctness of the results is confirmed using GNSS surveyed control points. An important aspect for the modeling of signals is that the model is physically correct. An underestimated effect in laser bathymetry is that pulsed light propagates more slowly than conventionally assumed. Since the effect in the context of laser bathymetry has not yet been discussed, I describe an experiment I performed that confirms the effect in its predicted magnitude. Furthermore, I deal with the questions whether a single wavelength system is feasible and what the smallest measurable depth in laser bathymetry is.
Accuracy and Effectiveness of GTFS Transit Feeds for Trip Planning in Public Transit Networks
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, Ass-Prof. Dr. Hartwig Henry Hochmair
Kurzfassung/Abstract
This master thesis analyses and evaluates the effectiveness of GTFS (General Transit Feed Specification) real-time feeds of transit data for planning a multi-modal trip in a public transportation network. Realtime feeds can be used to enhance the delay prediction. In this work, different data sources, such as GTFS static and GTFS Realtime feeds as well as OpenStreetMap (OSM) road data were integrated into a Routing Graph within the Open Trip Planner (OTP) framework. This facilitates multi-modal trip planning in a transit network under consideration of static timetables information as well as planning of current and future trips to predict transit delays at the time of trip planning. Moreover, the quality and completeness of GTFS real-time feed information were analysed and visualized in total and per vehicle type. Three study areas were implemented for this research project, namely the Boston Metropolitan Area (Massachusetts Bay Transportation Authority MBTA), Broward County, Florida (Broward County Transit, BCT) and San Diego County, California (San Diego Metropolitan Transit System, MTS). In addition, the accuracy of MBTA delay predictions provided as part of GTFS real-time feed information was assessed and visualized for all vehicle types. Besides, the MBTA delay data was compared for different transportation modes. MBTA has the biggest area coverage and several transportation modes (Tram, Subway, Bus, Rail & Ferry); it has also all required entities for real time data evaluation and comparison which neither BCT nor MTS data have. Findings showed that arrivals and departures information of MBTA Buses cannot be calculated as a key attribute (i.e. current_status = 1) is not provided in the VehiclePositions feeds for almost all the stops (i.e. available for only 0.19% of the total collected bus data). Therefore, bus transportation is dropped from further analysis, and other methods were performed to have an estimation of this missing information from VehiclePositions feeds to be used then in trip planning scenarios. These scenarios depend mainly on the effects of observed delays. VehiclePositions feeds miss essential entities (i.e. stop_id & stop_sequence) for Broward and San Diego. Although these missing entities are optional in the GTFS realtime standard, they are essential for calculating the observed arrival and departure times which needed for real-time data evaluation and for building trip planning scenarios. As a result, both BCT and MTS data could not be used for either further analysis or real-time data evaluation. Furthermore, these missing attributes affect trip planning verification as observed arrival and departure times are used in comparison with scheduled times after the trip have reached final destination.
This master thesis analyses and evaluates the effectiveness of GTFS (General Transit Feed Specification) real-time feeds of transit data for planning a multi-modal trip in a public transportation network. Realtime feeds can be used to enhance the delay prediction. In this work, different data sources, such as GTFS static and GTFS Realtime feeds as well as OpenStreetMap (OSM) road data were integrated into a Routing Graph within the Open Trip Planner (OTP) framework. This facilitates multi-modal trip planning in a transit network under consideration of static timetables information as well as planning of current and future trips to predict transit delays at the time of trip planning. Moreover, the quality and completeness of GTFS real-time feed information were analysed and visualized in total and per vehicle type. Three study areas were implemented for this research project, namely the Boston Metropolitan Area (Massachusetts Bay Transportation Authority MBTA), Broward County, Florida (Broward County Transit, BCT) and San Diego County, California (San Diego Metropolitan Transit System, MTS). In addition, the accuracy of MBTA delay predictions provided as part of GTFS real-time feed information was assessed and visualized for all vehicle types. Besides, the MBTA delay data was compared for different transportation modes. MBTA has the biggest area coverage and several transportation modes (Tram, Subway, Bus, Rail & Ferry); it has also all required entities for real time data evaluation and comparison which neither BCT nor MTS data have. Findings showed that arrivals and departures information of MBTA Buses cannot be calculated as a key attribute (i.e. current_status = 1) is not provided in the VehiclePositions feeds for almost all the stops (i.e. available for only 0.19% of the total collected bus data). Therefore, bus transportation is dropped from further analysis, and other methods were performed to have an estimation of this missing information from VehiclePositions feeds to be used then in trip planning scenarios. These scenarios depend mainly on the effects of observed delays. VehiclePositions feeds miss essential entities (i.e. stop_id & stop_sequence) for Broward and San Diego. Although these missing entities are optional in the GTFS realtime standard, they are essential for calculating the observed arrival and departure times which needed for real-time data evaluation and for building trip planning scenarios. As a result, both BCT and MTS data could not be used for either further analysis or real-time data evaluation. Furthermore, these missing attributes affect trip planning verification as observed arrival and departure times are used in comparison with scheduled times after the trip have reached final destination.
Towards an Ad-hoc multi-modal Transport Platform for small Parcels
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Routenplanung gewinnt im Bereich der Logistik immer mehr an Bedeutung. Die Einführung und Entwicklung von Optimierungen dieser Routenplanungen sowie technologische Verbesserungen sind wichtige Punkte um Unternehmen die Arbeit zu erleichtern und um die Routen der einzelnen Fahrzeuge effizienter zu planen. Neben der Planung an Single Routen ist die Erstellung von multi-modalen Routen, bei dem das Paket anhand mehrerer Fahrzeuge zugestellt wird, ein zentrales Thema in der heutigen Logistikbranche. Bei der Entwicklung dieser Optimierungen können zahlreiche Hindernisse auftreten. Die zeitliche, aber auch die räumliche Synchronisation der Lieferplattformen spielen neben anderen Beschränkungen eine wesentliche Rolle für die Erstellung eines solchen Algorithmus. Ziel dieser Arbeit ist es, mithilfe von Ansätzen aus dem Vehicle Routing Problem einen multi-modalen Transport von kleinen Paketen zu erschaffen. Bei einem multi-modalen Transport soll das Paket über zwei Plattformen zum Kunden gelangen, wobei die in dieser Arbeit verwendeten Plattformen, welche für eine Abholung und Zustellung zuständig sind, Autos, Fahrräder und Fußgänger sind. Um dies zu ermöglichen, wird ein passender Übergabepunkt berechnet, an dem das Paket der zweiten Plattform übergeben wird. Eine multi-modale Route eines Paketes ergibt sich somit aus der Lieferung von einem Abholort zu einem Übergabepunkt des ersten Fahrzeuges und vom Übergabepunkt zum Zustellort des zweiten Fahrzeuges. Für die Berechnung des Übergabepunktes werden zwei Ansätze vorgestellt, welche sich hinsichtlich des Unterbrechungspunktes der einzelnen Routen unterscheiden und an denen die geplanten Routen unterbrochen werden, um zum Übergabepunkt zu gelangen. Für die beiden Ansätze ist die zeitliche sowie die räumliche Synchronisation relevant und ist bei der Erstellung des Algorithmus unumgänglich. Mithilfe des Vehicle Routing Problems mit Time Windows kann somit ein Prototyp eines Systems entwickelt werden, wodurch Gesamtkosten für die einzelnen geplanten Routen gespart werden können. Die Daten für die Erstellung des Algorithmus sind zudem von Bedeutung und basieren auf echten Straßensegmenten im urbanen Gebiet.
Die Routenplanung gewinnt im Bereich der Logistik immer mehr an Bedeutung. Die Einführung und Entwicklung von Optimierungen dieser Routenplanungen sowie technologische Verbesserungen sind wichtige Punkte um Unternehmen die Arbeit zu erleichtern und um die Routen der einzelnen Fahrzeuge effizienter zu planen. Neben der Planung an Single Routen ist die Erstellung von multi-modalen Routen, bei dem das Paket anhand mehrerer Fahrzeuge zugestellt wird, ein zentrales Thema in der heutigen Logistikbranche. Bei der Entwicklung dieser Optimierungen können zahlreiche Hindernisse auftreten. Die zeitliche, aber auch die räumliche Synchronisation der Lieferplattformen spielen neben anderen Beschränkungen eine wesentliche Rolle für die Erstellung eines solchen Algorithmus. Ziel dieser Arbeit ist es, mithilfe von Ansätzen aus dem Vehicle Routing Problem einen multi-modalen Transport von kleinen Paketen zu erschaffen. Bei einem multi-modalen Transport soll das Paket über zwei Plattformen zum Kunden gelangen, wobei die in dieser Arbeit verwendeten Plattformen, welche für eine Abholung und Zustellung zuständig sind, Autos, Fahrräder und Fußgänger sind. Um dies zu ermöglichen, wird ein passender Übergabepunkt berechnet, an dem das Paket der zweiten Plattform übergeben wird. Eine multi-modale Route eines Paketes ergibt sich somit aus der Lieferung von einem Abholort zu einem Übergabepunkt des ersten Fahrzeuges und vom Übergabepunkt zum Zustellort des zweiten Fahrzeuges. Für die Berechnung des Übergabepunktes werden zwei Ansätze vorgestellt, welche sich hinsichtlich des Unterbrechungspunktes der einzelnen Routen unterscheiden und an denen die geplanten Routen unterbrochen werden, um zum Übergabepunkt zu gelangen. Für die beiden Ansätze ist die zeitliche sowie die räumliche Synchronisation relevant und ist bei der Erstellung des Algorithmus unumgänglich. Mithilfe des Vehicle Routing Problems mit Time Windows kann somit ein Prototyp eines Systems entwickelt werden, wodurch Gesamtkosten für die einzelnen geplanten Routen gespart werden können. Die Daten für die Erstellung des Algorithmus sind zudem von Bedeutung und basieren auf echten Straßensegmenten im urbanen Gebiet.
Detektion von Oberflächenveränderungen mit terrestrischem Laserscanner
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Univ.Ass. Dipl.-Ing. Michael Wimmer
Kurzfassung/Abstract
Die rasche Entwicklung des Laserscanning als Studientechnik dient nicht nur der Beurteilung des geometrischen Zustands einer dreidimensionalen Szene, sondern auch der Beurteilung von Veränderungen dieses Zustands mit einer hohen Auflösung und Präzision. Die Veränderungserkennung wird für viele verschiedene Anwendungen genutzt, unter anderem für die Beobachtung der Erosion natürlicher Oberflächen. Diese Masterarbeit beschäftigt sich mit der Detektion von Oberflächenveränderungen in einer Höhle mittels Terrestrial Laser Scanning (TLS). Darüber hinaus zielt sie auf die Bewertung der Registrierungs- und Änderungserkennungsschritte ab. Die verwendeten Daten bestanden aus hochauflösend 3D-Punktwolken, die aus zwei Scan-Kampagnen gewonnen wurden. Zur Evaluierung der Methodik wurden Stein und Holzproben auf der Felsoberfläche angebracht, um erosionsbedingte Veränderungen am Objekt zu simulieren. Verschiedene Registrationssmethoden „Multi station adjustment“ (MSA) und „Iterative closest point“ (ICP) wurden verwendet. Der Arbeitsablauf für diese Arbeit umfasst: Felddatenerfassung, Vorverarbeitung der Daten, Bereinigen der Daten, Registrierung der Punktwolken und M3C2-Algorithmus für die Veränderungserkennung. Die erhaltenen Ergebnisse zeigen, dass schon Änderungen von 4 mm erfasst werden können.
Die rasche Entwicklung des Laserscanning als Studientechnik dient nicht nur der Beurteilung des geometrischen Zustands einer dreidimensionalen Szene, sondern auch der Beurteilung von Veränderungen dieses Zustands mit einer hohen Auflösung und Präzision. Die Veränderungserkennung wird für viele verschiedene Anwendungen genutzt, unter anderem für die Beobachtung der Erosion natürlicher Oberflächen. Diese Masterarbeit beschäftigt sich mit der Detektion von Oberflächenveränderungen in einer Höhle mittels Terrestrial Laser Scanning (TLS). Darüber hinaus zielt sie auf die Bewertung der Registrierungs- und Änderungserkennungsschritte ab. Die verwendeten Daten bestanden aus hochauflösend 3D-Punktwolken, die aus zwei Scan-Kampagnen gewonnen wurden. Zur Evaluierung der Methodik wurden Stein und Holzproben auf der Felsoberfläche angebracht, um erosionsbedingte Veränderungen am Objekt zu simulieren. Verschiedene Registrationssmethoden „Multi station adjustment“ (MSA) und „Iterative closest point“ (ICP) wurden verwendet. Der Arbeitsablauf für diese Arbeit umfasst: Felddatenerfassung, Vorverarbeitung der Daten, Bereinigen der Daten, Registrierung der Punktwolken und M3C2-Algorithmus für die Veränderungserkennung. Die erhaltenen Ergebnisse zeigen, dass schon Änderungen von 4 mm erfasst werden können.
Steigerung der Digitalisierung und Automatisierung des Katasterführungsprozesses
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2021
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Der österreichische Kataster und dessen Fortführungsprozess durch das Bundesamt für Eich- und Vermessungswesen (BEV) wurde im Laufe seines Bestehens des Öfteren einer Digitalisierung und Automatisierung unterworfen. Zu Beginn der Diplomarbeit werden der geschichtliche Aspekt und dessen Entwicklung in Bezug auf den Katasterführungsprozess beleuchtet. Aktuell sind nach wie vor für seine Evidenzhaltung (Einarbeitung von Teilungsplänen) manuelle Eingaben von Daten nötig. Da die Datenerfassung davor und die Datenhaltung danach in digitaler Form geschehen, besteht hier ein Bruch in der Bearbeitung. Die Urkunden werden zwar in digitaler Form als PDF-Dateien im BEV eingereicht, ihre Inhalte konnten jedoch nicht strukturiert in eine Datenbank übernommen werden, wodurch der automatisierte Datenfluss teilweise unterbrochen wird. Dies birgt die Gefahr von Fehlern. Während dem Zeitraum dieser Masterarbeit wurde die strukturierte Einreichung im BEV ermöglicht, wobei die alte Einreichung vorerst weiterhin parallel bestehend bleibt. Hier werden jedoch keine graphischen Daten übermittelt, sondern nur alphanummerische Informationen. Der aktuelle Stand und die bestehenden Problematiken wurden intensiv in dieser Arbeit behandelt. Diese Arbeit beschäftigt sich auch mit dem benötigten Grundlagen- und Fachwissen zur Erstellung und Einreichung einer Vermessungsurkunde. Es wird untersucht, wie diese manuellen Tätigkeiten reduziert oder gar beseitigt werden könnten. Dazu wurden stichprobenartige Untersuchungen und Vergleiche mit Vermessungsbehörden verschiedener Nationen, welche über Systeme und Standards verfügen, die anders aufgebaut sind, durchgeführt. So wurden zum Beispiel bei Australischen Vermessungsbehörden kürzlich neue Systeme für digitale Vermessungspläne realisiert, mit welchen eine automatisierte Katasterführung möglich ist. Die Grundannahme der Arbeit ist, dass in Zukunft die Führung des österreichischen Katasters möglichst automatisiert erfolgen sollte um Fehler durch manuelle Bearbeitung von Daten zu vermeiden. Das erfordert maschinenlesbare E-Pläne mit allen notwendigen Metadaten. Die Umsetzbarkeit eines Konzepts wird anhand eines kleinen Beispiels prototypisch aufgezeigt und auf technische Möglichkeiten verwiesen.
Der österreichische Kataster und dessen Fortführungsprozess durch das Bundesamt für Eich- und Vermessungswesen (BEV) wurde im Laufe seines Bestehens des Öfteren einer Digitalisierung und Automatisierung unterworfen. Zu Beginn der Diplomarbeit werden der geschichtliche Aspekt und dessen Entwicklung in Bezug auf den Katasterführungsprozess beleuchtet. Aktuell sind nach wie vor für seine Evidenzhaltung (Einarbeitung von Teilungsplänen) manuelle Eingaben von Daten nötig. Da die Datenerfassung davor und die Datenhaltung danach in digitaler Form geschehen, besteht hier ein Bruch in der Bearbeitung. Die Urkunden werden zwar in digitaler Form als PDF-Dateien im BEV eingereicht, ihre Inhalte konnten jedoch nicht strukturiert in eine Datenbank übernommen werden, wodurch der automatisierte Datenfluss teilweise unterbrochen wird. Dies birgt die Gefahr von Fehlern. Während dem Zeitraum dieser Masterarbeit wurde die strukturierte Einreichung im BEV ermöglicht, wobei die alte Einreichung vorerst weiterhin parallel bestehend bleibt. Hier werden jedoch keine graphischen Daten übermittelt, sondern nur alphanummerische Informationen. Der aktuelle Stand und die bestehenden Problematiken wurden intensiv in dieser Arbeit behandelt. Diese Arbeit beschäftigt sich auch mit dem benötigten Grundlagen- und Fachwissen zur Erstellung und Einreichung einer Vermessungsurkunde. Es wird untersucht, wie diese manuellen Tätigkeiten reduziert oder gar beseitigt werden könnten. Dazu wurden stichprobenartige Untersuchungen und Vergleiche mit Vermessungsbehörden verschiedener Nationen, welche über Systeme und Standards verfügen, die anders aufgebaut sind, durchgeführt. So wurden zum Beispiel bei Australischen Vermessungsbehörden kürzlich neue Systeme für digitale Vermessungspläne realisiert, mit welchen eine automatisierte Katasterführung möglich ist. Die Grundannahme der Arbeit ist, dass in Zukunft die Führung des österreichischen Katasters möglichst automatisiert erfolgen sollte um Fehler durch manuelle Bearbeitung von Daten zu vermeiden. Das erfordert maschinenlesbare E-Pläne mit allen notwendigen Metadaten. Die Umsetzbarkeit eines Konzepts wird anhand eines kleinen Beispiels prototypisch aufgezeigt und auf technische Möglichkeiten verwiesen.
Defining the Arctic coastline with satellite data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2021
Betreuer: Privatdoz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
The Arctic regions are among the most rapidly changing environments on Earth. Especially Arctic coastlines are highly sensitive to climate change. Coastal damages affect communities and wildlife in those areas and increasing erosion leads to higher engineering and relocation costs for coastal villages. Moreover, erosion releases significant amounts of carbon, which can cause a feedback loop that accelerates climate change and coastal erosion even further. As such, detailed examination of coastal ecosystems, including shoreline types and backshore land cover, is necessary. High spatial resolution datasets are required in order to create and validate land cover classifications. Multispectral remote sensing could be a powerful tool for areal retrieval. Sentinel-2 data offers good spatial and temporal resolution and may enable the monitoring of large areas of the Arctic. In this study, a traditional land cover classification (Minimum Distance Algorithm) was compared to a more sophisticated machine learning approach using a Gradient Boosting Machine (XGboost). Eight land cover classes were selected and the classification was tested in study areas along the Yukon Coast, the Chukchi Sea coast, the East Siberian Sea Coast, and the Laptev Sea Coast. The results show that machine learning is superior for coastal mapping in the Arctic using Sentinel-2 data. XGboost achieved an overall classification accuracy ranging from 73.2% to 87.7% depending on the region, while the overall accuracy of MDA was slightly lower, ranging from 60.3% to 81.9%. Misclassification of land and water occurred for both methods and in all regions and were mainly caused by shadows and spectral confusion between classes. For example, bedrock shadows were classified as water, and boundaries between different land cover classes were difficult to classify. The classification results were further used to extract and map the coastline with attached attributes of target land cover classes. The coastline was defined as border between water and land and semi-automatically extracted. An extended accuracy assessment of the XGBoost results along the coastline showed, that despite classification problems, more than 75% of the land cover in this zone was correctly classified. In addition, visual interpretation of the results showed that the applied methodology can be used to create a more accurate delineation of coastlines in comparison to existing coastline data set from the Global Self-consistent, Hierarchical, High-resolution Geography Database (GSHHG).
The Arctic regions are among the most rapidly changing environments on Earth. Especially Arctic coastlines are highly sensitive to climate change. Coastal damages affect communities and wildlife in those areas and increasing erosion leads to higher engineering and relocation costs for coastal villages. Moreover, erosion releases significant amounts of carbon, which can cause a feedback loop that accelerates climate change and coastal erosion even further. As such, detailed examination of coastal ecosystems, including shoreline types and backshore land cover, is necessary. High spatial resolution datasets are required in order to create and validate land cover classifications. Multispectral remote sensing could be a powerful tool for areal retrieval. Sentinel-2 data offers good spatial and temporal resolution and may enable the monitoring of large areas of the Arctic. In this study, a traditional land cover classification (Minimum Distance Algorithm) was compared to a more sophisticated machine learning approach using a Gradient Boosting Machine (XGboost). Eight land cover classes were selected and the classification was tested in study areas along the Yukon Coast, the Chukchi Sea coast, the East Siberian Sea Coast, and the Laptev Sea Coast. The results show that machine learning is superior for coastal mapping in the Arctic using Sentinel-2 data. XGboost achieved an overall classification accuracy ranging from 73.2% to 87.7% depending on the region, while the overall accuracy of MDA was slightly lower, ranging from 60.3% to 81.9%. Misclassification of land and water occurred for both methods and in all regions and were mainly caused by shadows and spectral confusion between classes. For example, bedrock shadows were classified as water, and boundaries between different land cover classes were difficult to classify. The classification results were further used to extract and map the coastline with attached attributes of target land cover classes. The coastline was defined as border between water and land and semi-automatically extracted. An extended accuracy assessment of the XGBoost results along the coastline showed, that despite classification problems, more than 75% of the land cover in this zone was correctly classified. In addition, visual interpretation of the results showed that the applied methodology can be used to create a more accurate delineation of coastlines in comparison to existing coastline data set from the Global Self-consistent, Hierarchical, High-resolution Geography Database (GSHHG).
Zustandserfassung von Stützbauwerken mittels dynamischem Laserscanning
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Stützbauwerke sind im Alpenraum fester Bestandteil der Straßen- und Schieneninfrastruktur. Von umso größerer Bedeutung ist die Gewährleistung der Tragfähigkeit aller Bauwerke über die gesamte Lebensdauer. Derzeit ist die Zustandserfassung und -beurteilung mit einem enormen Zeitaufwand, hohen Kosten und Sperren von Streckenabschnitten verbunden. In der vorliegenden Arbeit wird ein generischer Arbeitsfluss zur systematischen, raschen und kostengünstigen Grobdetektion von Bauwerken in kritischem Zustand aus dynamisch erfassten Laserscandaten definiert. Anhand zustandsrelevanter Parameter werden Problembauwerke selektiert, um im Bedarfsfall zielgerichtete Maßnahmen zu setzen. Auf praktischer, versuchsorientierter und messtechnischer Ebene werden die Möglichkeiten und Grenzen von mobilen Multisensorsystemen im Fließverkehr mit einer Fahrgeschwindigkeit von bis zu 100 km/h aufgezeigt und die Präzision zustandsrelevanter Parameter beurteilt.
Stützbauwerke sind im Alpenraum fester Bestandteil der Straßen- und Schieneninfrastruktur. Von umso größerer Bedeutung ist die Gewährleistung der Tragfähigkeit aller Bauwerke über die gesamte Lebensdauer. Derzeit ist die Zustandserfassung und -beurteilung mit einem enormen Zeitaufwand, hohen Kosten und Sperren von Streckenabschnitten verbunden. In der vorliegenden Arbeit wird ein generischer Arbeitsfluss zur systematischen, raschen und kostengünstigen Grobdetektion von Bauwerken in kritischem Zustand aus dynamisch erfassten Laserscandaten definiert. Anhand zustandsrelevanter Parameter werden Problembauwerke selektiert, um im Bedarfsfall zielgerichtete Maßnahmen zu setzen. Auf praktischer, versuchsorientierter und messtechnischer Ebene werden die Möglichkeiten und Grenzen von mobilen Multisensorsystemen im Fließverkehr mit einer Fahrgeschwindigkeit von bis zu 100 km/h aufgezeigt und die Präzision zustandsrelevanter Parameter beurteilt.
Agricultural Drought Monitoring: Comparison of Remote Sensing Approaches using MODIS, Sentinel and Landsat
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
The constant change in our world's climate during the last years has triggered an increase of severe droughts in many regions around the world. These affected regions have suffered dangerous consequences to the environment, agriculture, land use, and socio-economic aspects. Therefore, this project aims to find through the comparison of remote sensing approaches the most suitable method, by which agricultural drought in Burkina Faso can be identified. Two approaches were selected based on an extensive literature review incorporating vegetation, land surface temperature and soil moisture indices. Moreover, the comparison of the approaches was carried out using Google Earth Engine. As Burkina Faso is situated in the Sahel region, it has suffered several years of drought and desertification, enduring severe consequences in their food security, crop lands and social-economic aspects. Identifying agricultural drought in the country encourages and supports governmental and non-governmental institutions to create and implement adequate solutions and action plans to mitigate the consequences instigated by drought. The final outcomes show that incorporating vegetation, land surface temperature and soil moisture values when identifying agricultural drought results in more accurate assessment than by using only vegetation index and land surface temperature. These results can improve, once the accessibility of soil moisture data becomes available to facilitate the calculation of the final Soil Moisture Agricultural Drought Index (SMADI). In conclusion, the SMADI approach is the most suitable well-rounded method for the identification and assessment of agricultural drought in Burkina Faso.
The constant change in our world's climate during the last years has triggered an increase of severe droughts in many regions around the world. These affected regions have suffered dangerous consequences to the environment, agriculture, land use, and socio-economic aspects. Therefore, this project aims to find through the comparison of remote sensing approaches the most suitable method, by which agricultural drought in Burkina Faso can be identified. Two approaches were selected based on an extensive literature review incorporating vegetation, land surface temperature and soil moisture indices. Moreover, the comparison of the approaches was carried out using Google Earth Engine. As Burkina Faso is situated in the Sahel region, it has suffered several years of drought and desertification, enduring severe consequences in their food security, crop lands and social-economic aspects. Identifying agricultural drought in the country encourages and supports governmental and non-governmental institutions to create and implement adequate solutions and action plans to mitigate the consequences instigated by drought. The final outcomes show that incorporating vegetation, land surface temperature and soil moisture values when identifying agricultural drought results in more accurate assessment than by using only vegetation index and land surface temperature. These results can improve, once the accessibility of soil moisture data becomes available to facilitate the calculation of the final Soil Moisture Agricultural Drought Index (SMADI). In conclusion, the SMADI approach is the most suitable well-rounded method for the identification and assessment of agricultural drought in Burkina Faso.
Shallow Water Bathymetry with Single and Multi-view Photogrammetry Unmanned Aerial Systems
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, Em.Univ.-Prof. Dr. Douglas Stow
Kurzfassung/Abstract
Using photogrammetry for shallow water bathymetry can reduce the costs for coastal lake shore data collection. Finding a way to reduce errors caused by light refraction occurring during the transition between air and water is a key requirement to produce valid bathymetric height data. To achieve refraction correction, already different approaches exist. In this research one distinct approach using an iterative, camera orientation and point-cloud based algorithm and three approaches using bathymetric scaling were applied to four different photogrammetically data sets by Structure-From-Motion (SfM). Three refraction correction techniques are based on a digital surface model (DSM) and tackle the reflection problem with a refraction index, factor, or linear regression function. The index is based on the calculated value at 90° nadir position and clear water as the second medium. While no additional data is needed for the explained approach, the refraction correction factor and the regression correction function are derived from explicitely measured underwater reference points with a survy-grade Global Navigation Satellite System (GNSS) device. One refraction correction uses the specific information of the camera orientation estimated during SfM analysis and performs the correction directly on the point cloud via a Python script. Furthermore, this work also evaluates whether different image acquisition methods can improve the process and the produced result. Therefore, two different sensor systems were used to conduct a field experiment. For one dataset a Sony Alpha 7RIII full-format RGB camera was used to capture nadir images. The other data set was captured with a Pentacam, which consists of five RGB camera sensors taking pictures simultaneously at one trigger event. One camera sensor is mounted in nadir position while the other four take images in an oblique view. This gives the possibility to compare different data compositions consisting of a combination of both view angles, only nadir images or only images taken in an oblique angle. The theoretical calculations show the importance of considering the camera's view angle for the refraction correction process. This information can then be used to select a better fitting correction factor than the clear water index and to optimize the multiview camera setup. The use of oblique images requires further reference data or adjustments in the iterative refraction correction method via Python script.
Using photogrammetry for shallow water bathymetry can reduce the costs for coastal lake shore data collection. Finding a way to reduce errors caused by light refraction occurring during the transition between air and water is a key requirement to produce valid bathymetric height data. To achieve refraction correction, already different approaches exist. In this research one distinct approach using an iterative, camera orientation and point-cloud based algorithm and three approaches using bathymetric scaling were applied to four different photogrammetically data sets by Structure-From-Motion (SfM). Three refraction correction techniques are based on a digital surface model (DSM) and tackle the reflection problem with a refraction index, factor, or linear regression function. The index is based on the calculated value at 90° nadir position and clear water as the second medium. While no additional data is needed for the explained approach, the refraction correction factor and the regression correction function are derived from explicitely measured underwater reference points with a survy-grade Global Navigation Satellite System (GNSS) device. One refraction correction uses the specific information of the camera orientation estimated during SfM analysis and performs the correction directly on the point cloud via a Python script. Furthermore, this work also evaluates whether different image acquisition methods can improve the process and the produced result. Therefore, two different sensor systems were used to conduct a field experiment. For one dataset a Sony Alpha 7RIII full-format RGB camera was used to capture nadir images. The other data set was captured with a Pentacam, which consists of five RGB camera sensors taking pictures simultaneously at one trigger event. One camera sensor is mounted in nadir position while the other four take images in an oblique view. This gives the possibility to compare different data compositions consisting of a combination of both view angles, only nadir images or only images taken in an oblique angle. The theoretical calculations show the importance of considering the camera's view angle for the refraction correction process. This information can then be used to select a better fitting correction factor than the clear water index and to optimize the multiview camera setup. The use of oblique images requires further reference data or adjustments in the iterative refraction correction method via Python script.
Machine Learning-Based Detection of Urban Blight
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: Mag. Dr. Michael Leitner, MA, FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
The correlation between crime and urban blight, a term used to denote disorder in a society, has been subjected to intense debate. The Broken Windows Theory introduced by Kelling and Wilson (1982) suggests that urban blight contributes to increased crime in a neighborhood. For such a study, researchers have resorted to methods including Systematic Social Observations, Google Street View and the use of geo-spatial technology such as spatial videos to be able to collect fine-scale and detailed data. The latter method is a relatively novel method which offers the advantage of collecting spatio-temporal data in a single spatial video. Nonetheless, to carry out further analysis, a process involving manual identification, collection, and classification of physical urban blight instances from the geospatial videos, is required prior to the spatial analysis of blight locations. This demands a lot of time and effort on the part of the researcher who is interested in assessing the amount of physical urban blight in the researcher's area of interest. This project seeks to capitalize on the automation capabilities offered by the field of Machine Learning (ML), to classify and automatically detect urban blight indicators in spatial videos. The workflow used in this study can be broken down into three major steps: the automatic detection of litter objects, the automatic mapping of the locations of the predicted litter objects and the classification of litter locations. From the results obtained in the automatic detection of litter objects, it was observed that the selected CNN model, YOLOv3, was capable of accurately detecting litter objects in spatial videos within a significantly shorter time than in the traditional approach. The model was seen to have a better performance when trained with a large dataset.
The correlation between crime and urban blight, a term used to denote disorder in a society, has been subjected to intense debate. The Broken Windows Theory introduced by Kelling and Wilson (1982) suggests that urban blight contributes to increased crime in a neighborhood. For such a study, researchers have resorted to methods including Systematic Social Observations, Google Street View and the use of geo-spatial technology such as spatial videos to be able to collect fine-scale and detailed data. The latter method is a relatively novel method which offers the advantage of collecting spatio-temporal data in a single spatial video. Nonetheless, to carry out further analysis, a process involving manual identification, collection, and classification of physical urban blight instances from the geospatial videos, is required prior to the spatial analysis of blight locations. This demands a lot of time and effort on the part of the researcher who is interested in assessing the amount of physical urban blight in the researcher's area of interest. This project seeks to capitalize on the automation capabilities offered by the field of Machine Learning (ML), to classify and automatically detect urban blight indicators in spatial videos. The workflow used in this study can be broken down into three major steps: the automatic detection of litter objects, the automatic mapping of the locations of the predicted litter objects and the classification of litter locations. From the results obtained in the automatic detection of litter objects, it was observed that the selected CNN model, YOLOv3, was capable of accurately detecting litter objects in spatial videos within a significantly shorter time than in the traditional approach. The model was seen to have a better performance when trained with a large dataset.
It's also about timing! When do pedestrians want to receive a navigation instruction outdoors
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2021
Betreuer: Prof. Dr. Ioannis Giannopoulos, Mag. Dr. Markus Kattenbeck
Kurzfassung/Abstract
In the design of pedestrian navigation systems, research has focused on what the route instruction should be, how to present it but not when to present it to the user. This work aims to shed light on the potential of adapting timing to the wayfinder’s preferences. Variables on personal, behavioral and environmental level were derived from data collected during an outdoor wayfinding study (N = 52). Participants followed navigation instructions to reach a destination and could request the instructions at any point in time and as often as they needed. Exploratory analysis was applied to determine driving variables in the observed behavioral processes by using survival analysis to predict when the user would like to listen to the instruction and generalized estimating equations to model population-average effects determining whether a user would like to hear a navigation instruction more than once. The results of this work suggest relevance of variables of all levels for the prediction of route instructions timing. Sense of direction, familiarity with the environment, personal characteristics such as neuroticism and openness, spatial strategies, age and landcover-related variables yield significance in our models and hint at the importance of personalization and adaption to variability of the environment in pedestrian navigation systems.
In the design of pedestrian navigation systems, research has focused on what the route instruction should be, how to present it but not when to present it to the user. This work aims to shed light on the potential of adapting timing to the wayfinder’s preferences. Variables on personal, behavioral and environmental level were derived from data collected during an outdoor wayfinding study (N = 52). Participants followed navigation instructions to reach a destination and could request the instructions at any point in time and as often as they needed. Exploratory analysis was applied to determine driving variables in the observed behavioral processes by using survival analysis to predict when the user would like to listen to the instruction and generalized estimating equations to model population-average effects determining whether a user would like to hear a navigation instruction more than once. The results of this work suggest relevance of variables of all levels for the prediction of route instructions timing. Sense of direction, familiarity with the environment, personal characteristics such as neuroticism and openness, spatial strategies, age and landcover-related variables yield significance in our models and hint at the importance of personalization and adaption to variability of the environment in pedestrian navigation systems.
Räumlich signifikante Häufungen spezifischer Verhaltensmuster im Kontext teilautomatisierten Fahrens
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz, Ass.Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
In dieser Arbeit wird eine Analyse des Fahr- und Nutzungsverhaltens von „Advanced Driver Assistance Systems“ (ADAS) im Zuge des Forschungsprojekts GENDrive durchgeführt. Hierbei wird ein besonderer Wert auf die Unterschiede zwischen manuellem und teil-automatisiertem Fahren gelegt, welche mit kontextuellen Einflüssen, wie Wetterzuständen, örtlichen Gegebenheiten (z.B. Straßenbedingungen) und demographische Faktoren in Verbindung gesetzt werden. Zur Analyse und Aufbereitung der Daten wurden die Programmiersprachen R, PostgreSQL, QGIS und GeoDa genutzt. Die Analyse hat gezeigt, dass speziell demographische Faktoren und örtliche Gegebenheiten eine nachweisliche Auswirkung auf das Fahr- und Nutzungsverhalten von ADAS haben. Des Weiteren wird deutlich, dass sich das grundlegende Fahrverhalten einer Person durch die Verwendung von ADAS nicht ausschlaggebend verändert und das Fahrverhalten beibehalten wird.
In dieser Arbeit wird eine Analyse des Fahr- und Nutzungsverhaltens von „Advanced Driver Assistance Systems“ (ADAS) im Zuge des Forschungsprojekts GENDrive durchgeführt. Hierbei wird ein besonderer Wert auf die Unterschiede zwischen manuellem und teil-automatisiertem Fahren gelegt, welche mit kontextuellen Einflüssen, wie Wetterzuständen, örtlichen Gegebenheiten (z.B. Straßenbedingungen) und demographische Faktoren in Verbindung gesetzt werden. Zur Analyse und Aufbereitung der Daten wurden die Programmiersprachen R, PostgreSQL, QGIS und GeoDa genutzt. Die Analyse hat gezeigt, dass speziell demographische Faktoren und örtliche Gegebenheiten eine nachweisliche Auswirkung auf das Fahr- und Nutzungsverhalten von ADAS haben. Des Weiteren wird deutlich, dass sich das grundlegende Fahrverhalten einer Person durch die Verwendung von ADAS nicht ausschlaggebend verändert und das Fahrverhalten beibehalten wird.
Neue Anwendungen für die Geowissenschaften mit Hilfe von Automobil lidar
Institut für Geographie und Raumforschung, Universität Graz, 2021
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Die für die Automobilindustrie entwickelte Lidar-Technologie bietet neue Perspektiven für Anwendungen in den Geowissenschaften. Das Ziel dieser Arbeit ist die Bewertung der Leistung des lidar Ouster OS1-64. Eine weitere Aufgabe bestand darin neue Messtechniken für die Geowissenschaften zu entwickeln. Der Ouster OS1-64 zeigt deutliche Vorteile gegenüber TLS-Geräten wie dem Riegl VZ6000 z.B. beim Messen in engen Räumen und die hohe zeitliche und räumliche Auflösung. Kompromisse müssen bei der Reichweite und bei den Winkel- und Bereichsgenauigkeiten gemacht werden. Durch die Integration des Ouster OS1-64 in ein mobiles Mapping-System, bestehend aus GNSS-, IMU und Lidar-Sensoren können diese Vorteile genutzt werden, um komplexe und/oder Umgebungen ohne GNSS-Abdeckung zu vermessen. Dies wurde in Form der Sensorbox entwickelt, bestehend aus einer Sensor- und einer Aufnahmeeinheit. Die Sensorbox macht es möglich, diese Technologie bei der Feldarbeit einzusetzen, wo eine effiziente Datenerfassung möglich ist. Die Sensorbox ist gut geschützt gegen raue Umwelteinflüsse, was für die Anwendungen in Geowissenschaften unerlässlich ist. Unsere Kartierung der Lurgrotte, einer Höhle in der Steiermark, hat gezeigt, dass zeiteffiziente Messungen in Umgebungen ohne GNSS-Abdeckung möglich sind. Der Arctic Field Grant des Svalbard Science Forum (SSF) hat es möglich gemacht unsere Sensorbox unter extremen arktischen Bedingungen bei der Kartierung von Gletscherhöhlen auf Spitzbergen, Norwegen zu testen. Unter arktischen Bedingungen konnte die Sensorbox beweisen, dass Feldarbeit sehr zeiteffizient und mit unserem Ansatz 3D-Daten gesammelt werden konnten. Auch wenn weitere Tests zur Beurteilung der Genauigkeit der Daten notwendig sind, könnte die Technologie einen wertvollen Beitrag in viele Bereiche der Geowissenschaften leisten.
Die für die Automobilindustrie entwickelte Lidar-Technologie bietet neue Perspektiven für Anwendungen in den Geowissenschaften. Das Ziel dieser Arbeit ist die Bewertung der Leistung des lidar Ouster OS1-64. Eine weitere Aufgabe bestand darin neue Messtechniken für die Geowissenschaften zu entwickeln. Der Ouster OS1-64 zeigt deutliche Vorteile gegenüber TLS-Geräten wie dem Riegl VZ6000 z.B. beim Messen in engen Räumen und die hohe zeitliche und räumliche Auflösung. Kompromisse müssen bei der Reichweite und bei den Winkel- und Bereichsgenauigkeiten gemacht werden. Durch die Integration des Ouster OS1-64 in ein mobiles Mapping-System, bestehend aus GNSS-, IMU und Lidar-Sensoren können diese Vorteile genutzt werden, um komplexe und/oder Umgebungen ohne GNSS-Abdeckung zu vermessen. Dies wurde in Form der Sensorbox entwickelt, bestehend aus einer Sensor- und einer Aufnahmeeinheit. Die Sensorbox macht es möglich, diese Technologie bei der Feldarbeit einzusetzen, wo eine effiziente Datenerfassung möglich ist. Die Sensorbox ist gut geschützt gegen raue Umwelteinflüsse, was für die Anwendungen in Geowissenschaften unerlässlich ist. Unsere Kartierung der Lurgrotte, einer Höhle in der Steiermark, hat gezeigt, dass zeiteffiziente Messungen in Umgebungen ohne GNSS-Abdeckung möglich sind. Der Arctic Field Grant des Svalbard Science Forum (SSF) hat es möglich gemacht unsere Sensorbox unter extremen arktischen Bedingungen bei der Kartierung von Gletscherhöhlen auf Spitzbergen, Norwegen zu testen. Unter arktischen Bedingungen konnte die Sensorbox beweisen, dass Feldarbeit sehr zeiteffizient und mit unserem Ansatz 3D-Daten gesammelt werden konnten. Auch wenn weitere Tests zur Beurteilung der Genauigkeit der Daten notwendig sind, könnte die Technologie einen wertvollen Beitrag in viele Bereiche der Geowissenschaften leisten.
Object detection with MicrosoftHoloLens 2 - A comparison between image and point cloud based algorithms
Department für Geodäsie und Geoinformation, Forschungsgruppen Geoinformation, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc, Univ-Ass. Mag. Dr. Markus Kattenbeck
Kurzfassung/Abstract
Object detection is a central task in computer vision, which tries to identify and locate objects in a scene. After the era of hand-crafted features and limited accuracy, 2014 AlexNet brought the attention to neural networks and deep learning. Accuracy increased and inference time decreased significantly and it came to a boom of 2D image-based object detection networks. Nowadays a huge number of 2D object detection algorithms are available, but they have one main drawback, they only provide two dimensional bounding boxes. This is an issue as a number of modern applications operate in the three dimensional world, therefore also require accurate 3D information. Mainly over the last decade 3D object detection algorithms evolved leveraging deep neural networks. This thesis focuses on comparing accuracy and inference time of 2D and 3D object detection algorithms, evaluating whether the additional information provided by 3D algorithms comes at the cost of lower accuracy and / or slower inference times. To enable such an evaluation a comparable 2D - 3D dataset is created. Due to the availability of both a 2D and 3D measurement device and ease of use, head mounted Augmented Reality glasses are used for data acquisition. Special considerations are applied to the data acquisition setup, selected categories and environmental / lightning conditions, to allow detailed analysis of key properties of 2D respectively 3D object detection algorithms. Acquired data is further processed to clean data and annotate objects. The comparison is based on one representative object detection algorithm per domain, YOLOv3 is selected as 2D algorithm, VoteNet as 3D algorithm. Multiple sets of hyperparameters are tested and the best models are finally compared. The evaluation shows that 2D and 3D accuracy results are with AP2D−50 = 0.94 and AP3D−50 = 0.96 very similar and 3D results are even slightly better. The main downside of 3D compared to 2D algorithms is the inference time which is — though achieving real-time — with 19.04ms respectively 1.55ms by a factor ten slower in this experiment. A detailed analysis per category and condition shows that the accuracy of the 3D algorithm mainly depends on the number of object points and their density, while 2D algorithms benefit most from large object size.
Object detection is a central task in computer vision, which tries to identify and locate objects in a scene. After the era of hand-crafted features and limited accuracy, 2014 AlexNet brought the attention to neural networks and deep learning. Accuracy increased and inference time decreased significantly and it came to a boom of 2D image-based object detection networks. Nowadays a huge number of 2D object detection algorithms are available, but they have one main drawback, they only provide two dimensional bounding boxes. This is an issue as a number of modern applications operate in the three dimensional world, therefore also require accurate 3D information. Mainly over the last decade 3D object detection algorithms evolved leveraging deep neural networks. This thesis focuses on comparing accuracy and inference time of 2D and 3D object detection algorithms, evaluating whether the additional information provided by 3D algorithms comes at the cost of lower accuracy and / or slower inference times. To enable such an evaluation a comparable 2D - 3D dataset is created. Due to the availability of both a 2D and 3D measurement device and ease of use, head mounted Augmented Reality glasses are used for data acquisition. Special considerations are applied to the data acquisition setup, selected categories and environmental / lightning conditions, to allow detailed analysis of key properties of 2D respectively 3D object detection algorithms. Acquired data is further processed to clean data and annotate objects. The comparison is based on one representative object detection algorithm per domain, YOLOv3 is selected as 2D algorithm, VoteNet as 3D algorithm. Multiple sets of hyperparameters are tested and the best models are finally compared. The evaluation shows that 2D and 3D accuracy results are with AP2D−50 = 0.94 and AP3D−50 = 0.96 very similar and 3D results are even slightly better. The main downside of 3D compared to 2D algorithms is the inference time which is — though achieving real-time — with 19.04ms respectively 1.55ms by a factor ten slower in this experiment. A detailed analysis per category and condition shows that the accuracy of the 3D algorithm mainly depends on the number of object points and their density, while 2D algorithms benefit most from large object size.
Characterization of lake beds with the transient electromagnetic method
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2021
Betreuer: Ass.-Prof. Dr. Adrian Flores-Orozco, Univ.Ass. Dipl.-Ing. Lukas Aigner
Kurzfassung/Abstract
In the course of this thesis, transient electromagnetic measurements (TEM) were carried out on lakes. The aim of these measurements was to determine the geometry of the water bottom and the electrical resistivity of the water and the underlying geological layers. A buoyant ring was built for the application of TEM on the surface of the lakes. The cable for the TEM antenna was attached to this ring and the antenna was pulled over the water by a motorised boat where the measuring device was located. Another instrument used was a CTD (conductivity temperature depth)-probe. It was used to determine the electrical conductivity of the water in-situ. Based on the CTD data, accurate start models could be created and inversions with a-priori information could be performed. Electrical resistivity tomography (ERT) was also used to validate the results. For the collection of ERT, a cable with electrodes attached to the measuring device was pulled by a motorised boat. The measured value with ERT is the distribution of the electrical resistivity, resolved through the inversion of the field data. The methods used aimed at improving our understanding of the interaction between surface- and groundwater, as well as the geological settings of the lakes. In addition, hydrogeological systems can be examined for the effects of climate change using the methods mentioned above. The results from three case studies show that it is possible to determine the sedimentary layer underneath lakes with TEM. To avoid problems, a non-metal boat should be used. For ERT measurements, it is important to make sure that the cable forms a line before starting each measurement. For verification of the TEM results, additional information is very useful. Therefore, multi-methodical approaches are recommended.
In the course of this thesis, transient electromagnetic measurements (TEM) were carried out on lakes. The aim of these measurements was to determine the geometry of the water bottom and the electrical resistivity of the water and the underlying geological layers. A buoyant ring was built for the application of TEM on the surface of the lakes. The cable for the TEM antenna was attached to this ring and the antenna was pulled over the water by a motorised boat where the measuring device was located. Another instrument used was a CTD (conductivity temperature depth)-probe. It was used to determine the electrical conductivity of the water in-situ. Based on the CTD data, accurate start models could be created and inversions with a-priori information could be performed. Electrical resistivity tomography (ERT) was also used to validate the results. For the collection of ERT, a cable with electrodes attached to the measuring device was pulled by a motorised boat. The measured value with ERT is the distribution of the electrical resistivity, resolved through the inversion of the field data. The methods used aimed at improving our understanding of the interaction between surface- and groundwater, as well as the geological settings of the lakes. In addition, hydrogeological systems can be examined for the effects of climate change using the methods mentioned above. The results from three case studies show that it is possible to determine the sedimentary layer underneath lakes with TEM. To avoid problems, a non-metal boat should be used. For ERT measurements, it is important to make sure that the cable forms a line before starting each measurement. For verification of the TEM results, additional information is very useful. Therefore, multi-methodical approaches are recommended.
Spatial Linked Data Approach for Trace Data in Digital Humanities
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Masterarbeit behandelt die Untersuchung und Verwendung vorhandener Konzepte wie das CIDOC CRM (Conceptual Reference Model), lawdi/LAWD (eine Ontologie für Linked Ancient World Data), und andere relevante Ontologien, sowie die möglichen Erweiterungen von zeitlichen und räumlichen Begriffen, um mit historischen Linked Places und Linked Traces Daten zu arbeiten. Diese Arbeit umfasst auch die Integration von sogenannten Linked Data repositories, also digitalen Datenlagern, wie DBpedia, GeoNames und World Historical Gazetteer. Mittels Kombination der vorhandenen Ontologien und der Beispieldaten entsteht ein Knowledge Graph (Wissens-Datenbank in Graph-Struktur) mit räumlich-zeitlichen Daten. Dieser Ansatz wird im Zuge einer Untersuchung des resultierenden Knowledge Graph in Hinblick auf die geosemantischen Eigenschaften getestet. Um dem Leitbild des „Verlinkens von Daten“ zu folgen, findet ein SPARQL Endpoint Verwendung und dient als standardisierte proof-of-concept Implementierung.
Diese Masterarbeit behandelt die Untersuchung und Verwendung vorhandener Konzepte wie das CIDOC CRM (Conceptual Reference Model), lawdi/LAWD (eine Ontologie für Linked Ancient World Data), und andere relevante Ontologien, sowie die möglichen Erweiterungen von zeitlichen und räumlichen Begriffen, um mit historischen Linked Places und Linked Traces Daten zu arbeiten. Diese Arbeit umfasst auch die Integration von sogenannten Linked Data repositories, also digitalen Datenlagern, wie DBpedia, GeoNames und World Historical Gazetteer. Mittels Kombination der vorhandenen Ontologien und der Beispieldaten entsteht ein Knowledge Graph (Wissens-Datenbank in Graph-Struktur) mit räumlich-zeitlichen Daten. Dieser Ansatz wird im Zuge einer Untersuchung des resultierenden Knowledge Graph in Hinblick auf die geosemantischen Eigenschaften getestet. Um dem Leitbild des „Verlinkens von Daten“ zu folgen, findet ein SPARQL Endpoint Verwendung und dient als standardisierte proof-of-concept Implementierung.
Advanced RAIM Techniques for Multi-Constellation and Multi-Frequency GNSS
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2021
Betreuer: Em.Univ.-Prof. Dipl.-Ing. Dr.techn. Dr.h.c.mult. Bernhard Hofmann-Wellenhof, Univ.-Prof. Dipl.-Ing. Dr. Philipp Berglez
Kurzfassung/Abstract
In einer immer schneller werdenden Welt ist es immer wichtiger zu wissen, wo man sich gerade befindet. Daher verlassen sich immer mehr Benutzer und Anwendungen auf Global Navigation Satellite Systems (GNSS), um genaue Positions- und Zeitinformationen zu erhalten. Nicht nur die Zahl der Nutzer wächst, auch die Zahl der GNSS, und die Vielfalt der angebotenen öffentlichen und geschützten Dienste und Signale nimmt stetig zu. Die erhöhte Abhängigkeit von diesen Systemen birgt auch das Risiko der potentiellen Anfälligkeit solcher Dienste. Dies gilt insbesondere für sicherheits- und missionskritische Anwendungen, wie beispielsweise die Luftfahrt oder den maritimen Bereich. Diese Anwendungen müssen sich auf genaue Positionsinformationen sowie die Kontinuität und Integrität der bereitgestellten Dienste verlassen. Integrität ist ein Maß für das Vertrauen, das in die Richtigkeit der von einem System gelieferten Informationen gesetzt werden kann. Während Satellite Based Augmentation Systems (SBAS) GNSS-Benutzern globale Integritäts- und Genauigkeitsinformationen bereitstellen, ist es auch von großer Bedeutung, spezifischere Integritätsinformationen in Bezug auf die lokale Umgebung und unabhängig von der Abdeckung von SBAS zu haben. Receiver Autonomous Integrity Monitoring (RAIM) ist ein Verfahren zur Überwachung der Integrität von GNSS-Positionslösungen innerhalb eines Empfängers, ohne dass zusätzliche Infrastruktur oder Dienste erforderlich sind. Der Nutzen traditioneller RAIM-Techniken ist in der Branche bekannt und etabliert. Gerade in sicherheitskritischen Anwendungen ist die Integrität der Positionsdaten entscheidend. Im Allgemeinen berechnet RAIM Positionslösungen mit verschiedenen Teilmengen von Messungen zu den sichtbaren Satelliten und führt Konsistenzprüfungen zwischen den Teilmengenlösungen durch. Basierend auf der Ausreißererkennung in den getesteten Teilmengen wird der Benutzer alarmiert, wenn die Integrität einer Positionslösung nicht gewährleistet werden kann. Abhängig von der Anzahl der verfügbaren Messungen gibt RAIM Fehlererkennungsinformationen (FD) für die Positionslösung oder zusätzlich Fehlererkennungs- und Ausschluss-(FDE)-Flags aus und ordnet den detektierten Fehler einem bestimmten Satelliten zu. Das Konzept von Advanced Receiver Autonomous Integrity Monitoring (ARAIM) zielt darauf ab, das traditionelle Verfahren zu verfeinern und zu verbessern, indem mehr Daten aus GNSS-Messungen mit mehreren Frequenzen und Konstellationen und ausgefeiltere Strategien zur Bestimmung fehlerhafter Messungen verwendet werden. Obwohl die ersten Empfehlungen für Konzepte von ARAIM seit etwa 2010 vorliegen, mangelt es immer noch an entsprechenden Implementierungen, Validierungen und Anwendungen. Der Inhalt dieser Masterarbeit umfasst die Untersuchung von ARAIM-Konzepten sowie die Implementierung und Validierung eines ARAIM-Algorithmus für Mehrfrequenz- und Mehrkonstellations-GNSS-Messungen. Das adressierte wissenschaftliche Thema der Diplomarbeit ist die Untersuchung eines geeigneten ARAIM-Konzepts und dessen Implementierung als Softwarepaket. Sowohl RAIM als auch ARAIM werden implementiert und in einen Software-basierten Empfänger (SDR) integriert, miteinander verglichen und die Weiterentwicklungen diskutiert. Durch zusätzliche Messungen (z.B. GPS L1/L5 und Galileo E1/E5b) wird ein erhebliches Potenzial zur Erhöhung der Verfügbarkeit und Robustheit der Integritätsüberwachung erwartet. Da ARAIM flexiblere Fehlermodelle durch Verwendung des Konzepts von Integrity Support Messages (ISM) einführt, beschäftigt sich diese Arbeit auch mit der Möglichkeit, die Sensitivität der Fehlererkennung durch Optimierung der ISM-Parameter zu erhöhen. Mit erhöhter Empfindlichkeit könnte ARAIM für Anwendungen geeignet sein, die über den vorgesehenen Anwendungsbereich hinausgehen. Diese Arbeit zeigt kurz die Verwendung von ARAIM zur Erkennung von Signalstörungen in den GNSS Signalbändern und diskutiert die Vor- bzw. Nachteile. Die Validierung der implementierten RAIM- und ARAIM-Algorithmen basiert auf Simulationen und realen Messdaten.
In einer immer schneller werdenden Welt ist es immer wichtiger zu wissen, wo man sich gerade befindet. Daher verlassen sich immer mehr Benutzer und Anwendungen auf Global Navigation Satellite Systems (GNSS), um genaue Positions- und Zeitinformationen zu erhalten. Nicht nur die Zahl der Nutzer wächst, auch die Zahl der GNSS, und die Vielfalt der angebotenen öffentlichen und geschützten Dienste und Signale nimmt stetig zu. Die erhöhte Abhängigkeit von diesen Systemen birgt auch das Risiko der potentiellen Anfälligkeit solcher Dienste. Dies gilt insbesondere für sicherheits- und missionskritische Anwendungen, wie beispielsweise die Luftfahrt oder den maritimen Bereich. Diese Anwendungen müssen sich auf genaue Positionsinformationen sowie die Kontinuität und Integrität der bereitgestellten Dienste verlassen. Integrität ist ein Maß für das Vertrauen, das in die Richtigkeit der von einem System gelieferten Informationen gesetzt werden kann. Während Satellite Based Augmentation Systems (SBAS) GNSS-Benutzern globale Integritäts- und Genauigkeitsinformationen bereitstellen, ist es auch von großer Bedeutung, spezifischere Integritätsinformationen in Bezug auf die lokale Umgebung und unabhängig von der Abdeckung von SBAS zu haben. Receiver Autonomous Integrity Monitoring (RAIM) ist ein Verfahren zur Überwachung der Integrität von GNSS-Positionslösungen innerhalb eines Empfängers, ohne dass zusätzliche Infrastruktur oder Dienste erforderlich sind. Der Nutzen traditioneller RAIM-Techniken ist in der Branche bekannt und etabliert. Gerade in sicherheitskritischen Anwendungen ist die Integrität der Positionsdaten entscheidend. Im Allgemeinen berechnet RAIM Positionslösungen mit verschiedenen Teilmengen von Messungen zu den sichtbaren Satelliten und führt Konsistenzprüfungen zwischen den Teilmengenlösungen durch. Basierend auf der Ausreißererkennung in den getesteten Teilmengen wird der Benutzer alarmiert, wenn die Integrität einer Positionslösung nicht gewährleistet werden kann. Abhängig von der Anzahl der verfügbaren Messungen gibt RAIM Fehlererkennungsinformationen (FD) für die Positionslösung oder zusätzlich Fehlererkennungs- und Ausschluss-(FDE)-Flags aus und ordnet den detektierten Fehler einem bestimmten Satelliten zu. Das Konzept von Advanced Receiver Autonomous Integrity Monitoring (ARAIM) zielt darauf ab, das traditionelle Verfahren zu verfeinern und zu verbessern, indem mehr Daten aus GNSS-Messungen mit mehreren Frequenzen und Konstellationen und ausgefeiltere Strategien zur Bestimmung fehlerhafter Messungen verwendet werden. Obwohl die ersten Empfehlungen für Konzepte von ARAIM seit etwa 2010 vorliegen, mangelt es immer noch an entsprechenden Implementierungen, Validierungen und Anwendungen. Der Inhalt dieser Masterarbeit umfasst die Untersuchung von ARAIM-Konzepten sowie die Implementierung und Validierung eines ARAIM-Algorithmus für Mehrfrequenz- und Mehrkonstellations-GNSS-Messungen. Das adressierte wissenschaftliche Thema der Diplomarbeit ist die Untersuchung eines geeigneten ARAIM-Konzepts und dessen Implementierung als Softwarepaket. Sowohl RAIM als auch ARAIM werden implementiert und in einen Software-basierten Empfänger (SDR) integriert, miteinander verglichen und die Weiterentwicklungen diskutiert. Durch zusätzliche Messungen (z.B. GPS L1/L5 und Galileo E1/E5b) wird ein erhebliches Potenzial zur Erhöhung der Verfügbarkeit und Robustheit der Integritätsüberwachung erwartet. Da ARAIM flexiblere Fehlermodelle durch Verwendung des Konzepts von Integrity Support Messages (ISM) einführt, beschäftigt sich diese Arbeit auch mit der Möglichkeit, die Sensitivität der Fehlererkennung durch Optimierung der ISM-Parameter zu erhöhen. Mit erhöhter Empfindlichkeit könnte ARAIM für Anwendungen geeignet sein, die über den vorgesehenen Anwendungsbereich hinausgehen. Diese Arbeit zeigt kurz die Verwendung von ARAIM zur Erkennung von Signalstörungen in den GNSS Signalbändern und diskutiert die Vor- bzw. Nachteile. Die Validierung der implementierten RAIM- und ARAIM-Algorithmen basiert auf Simulationen und realen Messdaten.
Simulation of VLBI Intensive Sessions for the Estimation of UT1
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is the only space geodetic technique capable of estimating all five Earth orientation parameters (EOP) and the International Celestial Reference Frame (ICRF). The measurement principle includes globally distributed radio telescopes observing quasars, thereby deriving the difference in arrival time as the primary observable. In addition to 24 hour sessions, which often involve several VLBI stations, so-called Intensive sessions are observed. These one hour long sessions include only two or three stations and the sole purpose is the determination of Universal Time UT1 with respect to UTC (dUT1) with a short latency, which is required for positioning and navigation purposes. In this study, the scheduling software VieSched++ is used to test the suitability of certain Intensive baselines and networks for the determination of dUT1 in Monte Carlo simulations. The first part of this study deals with possible baselines between existing stations of the VLBI Global Observing System (VGOS) and the Very Long Baseline Array (VLBA). The target is to find the optimal baselines between two and three stations and to assess different session durations in the range from one to four hours. For VGOS, the baseline ISHIOKA to WESTFORD or GGAO12M would deliver the best estimates of dUT1, about 15% better than the actually observed Intensive session between WETTZ13S and KOKEE12M. For VLBA, the baseline MAUNA KEA to HANCOCK would lead to significantly improved values compared to the baseline MAUNA KEA to PIETOWN, which is currently observed. Furthermore, this work assesses baselines in a global artificial network of VLBI antennas, leading to almost 3000 investigated baselines. In general, the optimal baselines show a small angle with the equatorial plane, e.g., between high-to-mid-latitude and low-to-mid-latitude telescopes, while having a baseline length of about 8000 to 11000km. Baselines with a midpoint close to the equatorial plane result in worse dUT1 estimates and are therefore not recommended for VLBI Intensive sessions.
Very Long Baseline Interferometry (VLBI) is the only space geodetic technique capable of estimating all five Earth orientation parameters (EOP) and the International Celestial Reference Frame (ICRF). The measurement principle includes globally distributed radio telescopes observing quasars, thereby deriving the difference in arrival time as the primary observable. In addition to 24 hour sessions, which often involve several VLBI stations, so-called Intensive sessions are observed. These one hour long sessions include only two or three stations and the sole purpose is the determination of Universal Time UT1 with respect to UTC (dUT1) with a short latency, which is required for positioning and navigation purposes. In this study, the scheduling software VieSched++ is used to test the suitability of certain Intensive baselines and networks for the determination of dUT1 in Monte Carlo simulations. The first part of this study deals with possible baselines between existing stations of the VLBI Global Observing System (VGOS) and the Very Long Baseline Array (VLBA). The target is to find the optimal baselines between two and three stations and to assess different session durations in the range from one to four hours. For VGOS, the baseline ISHIOKA to WESTFORD or GGAO12M would deliver the best estimates of dUT1, about 15% better than the actually observed Intensive session between WETTZ13S and KOKEE12M. For VLBA, the baseline MAUNA KEA to HANCOCK would lead to significantly improved values compared to the baseline MAUNA KEA to PIETOWN, which is currently observed. Furthermore, this work assesses baselines in a global artificial network of VLBI antennas, leading to almost 3000 investigated baselines. In general, the optimal baselines show a small angle with the equatorial plane, e.g., between high-to-mid-latitude and low-to-mid-latitude telescopes, while having a baseline length of about 8000 to 11000km. Baselines with a midpoint close to the equatorial plane result in worse dUT1 estimates and are therefore not recommended for VLBI Intensive sessions.
Untersuchung verschiedener Methoden zur Erstellung von 3D-Modellen als Grundlage für UAV-Befliegungen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Bauwerke sind künstlich erstellte Verkehrswege, die einer kontinuierlichen Inspektion und Wartung unterzogen werden müssen. Eine permanente Kontrolle gewährleistet die Sicherheit eines Bauwerkes, ist aber mit einem ökonomischen und zeitlichen Aufwand verbunden. Eine effiziente, kostengünstige Inspektion in überschaubarer Zeit lässt sich durch eine Drohne bewerkstelligen. In diesem Zusammenhang können relevante Schäden durch eine Automatisierung von Inspektionssystemen detektiert und lokalisiert werden. Langfristiges Ziel ist es, ein vollautomatisches System zu entwickeln, das die Datenaufnahme und Datenauswertung umfasst. Das Fundament einer automatisierten Befliegung bildet dabei eine Trajektorie (Flugbahn), wobei die geometrische Genauigkeit von einem digitalen Zwilling im Bereich von ±20 [cm] sein muss, damit die Drohne die Trajektorie befliegen und in zeitlichen Abständen photogrammetrische Informationen von der Objektoberfläche sammeln kann. Diese Masterarbeit untersucht drei Methoden zur Erstellung von Punktwolken, um daraus die effizienteste Grundlage für ein 3D-Modell abzuleiten, das in weiterer Folge zur Trajektorienberechnung, somit zur späteren Befliegung mit einer Drohne, herangezogen werden kann. Die Datenerfassung von einem Referenzobjekt erfolgt durch (1) eine scannende Totalstation, (2) einen terrestrischen Laserscanner und (3) eine drohnengestützte photogrammetrische Bildaufnahme. Die ermittelten Daten werden in Bezug auf die geometrische Auflösung und den zeitlichen Aufwand der Datenerfassung und Datenauswertung analysiert. Zusätzlich werden von der Objektoberfläche Bilder erfasst und auf Bauwerksschäden (Abplatzungen, Aussinterung, Korrosion und Risse) untersucht sowie entsprechend klassifiziert. Das 3D-Modell wird mit den schadensklassifizierten Bildern texturiert und als digitaler Zwilling mit Bauwerksinformationen präsentiert. Als Referenzobjekt für die gegenständliche Masterarbeit wurde die Landesbrücke in Takern I ausgewählt. Dafür wurde der südliche Objektbereich bis zum Bachbett der Raab aufgenommen. Die einzelnen Punktwolken wurden in vier Segmente geteilt, untersucht und diese Ergebnisse wurden zum Abschluss numerisch sowie graphisch dargestellt. Die Ergebnisse von den drei Methoden erreichten eine geometrische Genauigkeit, die den genannten geometrischen und wirtschaftlichen Anforderung entsprachen. Die terrestrische Totalstation und der terrestrische Laserscanner konnten den Anforderungen auf Grund der niedrigen Objekthöhe und der einfachen Bauwerksgeometrie rasch gerecht werden. Die drohnenbasierte Methode erzielte durch die schnelle Befliegung vom Referenzobjekt eine zügige photogrammetrische Datenerfassung. Vertikale Flächen erzielten eine hohe geometrische Auflösung, und die horizontalen Flächen, z. B. die Tragwerksunterseiten, verursachten ein enormes Messrauschen aufgrund der Kameraposition an der Drohnenunterseite. In GNSS abgeschirmten Bereichen konnten keine photogrammetrischen Daten mit einer genauen äußeren Orientierung erfasst werden. Objektbereiche, die durch Bäume und Sträucher blockiert waren, konnten nicht beflogen werden. Das Ergebnis dieser Arbeit ist, dass eine Kombination aus der terrestrischen und drohnenbasierten Datenaufnahme die optimalste Lösung für die Datengewinnung darstellt. Drohnenbereiche, wo es keine Satellitenverbindung gibt und die stark bewachsen und somit blockiert sind, können von terrestrischen Scannern aufgenommen werden. Flächen in großer Höhe und mit Satellitenverbindung können hingegen durch den Einsatz von Drohnen schnell und effizient ermittelt werden.
Bauwerke sind künstlich erstellte Verkehrswege, die einer kontinuierlichen Inspektion und Wartung unterzogen werden müssen. Eine permanente Kontrolle gewährleistet die Sicherheit eines Bauwerkes, ist aber mit einem ökonomischen und zeitlichen Aufwand verbunden. Eine effiziente, kostengünstige Inspektion in überschaubarer Zeit lässt sich durch eine Drohne bewerkstelligen. In diesem Zusammenhang können relevante Schäden durch eine Automatisierung von Inspektionssystemen detektiert und lokalisiert werden. Langfristiges Ziel ist es, ein vollautomatisches System zu entwickeln, das die Datenaufnahme und Datenauswertung umfasst. Das Fundament einer automatisierten Befliegung bildet dabei eine Trajektorie (Flugbahn), wobei die geometrische Genauigkeit von einem digitalen Zwilling im Bereich von ±20 [cm] sein muss, damit die Drohne die Trajektorie befliegen und in zeitlichen Abständen photogrammetrische Informationen von der Objektoberfläche sammeln kann. Diese Masterarbeit untersucht drei Methoden zur Erstellung von Punktwolken, um daraus die effizienteste Grundlage für ein 3D-Modell abzuleiten, das in weiterer Folge zur Trajektorienberechnung, somit zur späteren Befliegung mit einer Drohne, herangezogen werden kann. Die Datenerfassung von einem Referenzobjekt erfolgt durch (1) eine scannende Totalstation, (2) einen terrestrischen Laserscanner und (3) eine drohnengestützte photogrammetrische Bildaufnahme. Die ermittelten Daten werden in Bezug auf die geometrische Auflösung und den zeitlichen Aufwand der Datenerfassung und Datenauswertung analysiert. Zusätzlich werden von der Objektoberfläche Bilder erfasst und auf Bauwerksschäden (Abplatzungen, Aussinterung, Korrosion und Risse) untersucht sowie entsprechend klassifiziert. Das 3D-Modell wird mit den schadensklassifizierten Bildern texturiert und als digitaler Zwilling mit Bauwerksinformationen präsentiert. Als Referenzobjekt für die gegenständliche Masterarbeit wurde die Landesbrücke in Takern I ausgewählt. Dafür wurde der südliche Objektbereich bis zum Bachbett der Raab aufgenommen. Die einzelnen Punktwolken wurden in vier Segmente geteilt, untersucht und diese Ergebnisse wurden zum Abschluss numerisch sowie graphisch dargestellt. Die Ergebnisse von den drei Methoden erreichten eine geometrische Genauigkeit, die den genannten geometrischen und wirtschaftlichen Anforderung entsprachen. Die terrestrische Totalstation und der terrestrische Laserscanner konnten den Anforderungen auf Grund der niedrigen Objekthöhe und der einfachen Bauwerksgeometrie rasch gerecht werden. Die drohnenbasierte Methode erzielte durch die schnelle Befliegung vom Referenzobjekt eine zügige photogrammetrische Datenerfassung. Vertikale Flächen erzielten eine hohe geometrische Auflösung, und die horizontalen Flächen, z. B. die Tragwerksunterseiten, verursachten ein enormes Messrauschen aufgrund der Kameraposition an der Drohnenunterseite. In GNSS abgeschirmten Bereichen konnten keine photogrammetrischen Daten mit einer genauen äußeren Orientierung erfasst werden. Objektbereiche, die durch Bäume und Sträucher blockiert waren, konnten nicht beflogen werden. Das Ergebnis dieser Arbeit ist, dass eine Kombination aus der terrestrischen und drohnenbasierten Datenaufnahme die optimalste Lösung für die Datengewinnung darstellt. Drohnenbereiche, wo es keine Satellitenverbindung gibt und die stark bewachsen und somit blockiert sind, können von terrestrischen Scannern aufgenommen werden. Flächen in großer Höhe und mit Satellitenverbindung können hingegen durch den Einsatz von Drohnen schnell und effizient ermittelt werden.
Geographic Information Architecture for AMADEE-20 – A Simulated Mars Exploration Mission
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Arbeit wurde im Zuge des Projekts „AMADEE-20 Mars Simulation“, geleitet vom Österreichischen Weltraum Forum (kurz OEWF), durchgeführt. Als Teil des Teams ExoSCOT (ExoMars Science CO-operation Training) bestand die Aufgabe darin, eine Web-Applikation zur Visualisierung von Geodaten zu designen und umzusetzen. Um dies bewerkstelligen zu können wurden sowohl die GeoServer als auch die OpenLayers API verwendet. Die zentrale GeoServer Instanz, auf der alle missionsrelevanten Daten gesammelt wurden, wurde vom OEWF bereitgestellt. Die Arbeit behandelt zunächst den theoretischen Hintergrund zu Experimenten im Kontext von simulierten Mars Missionen sowie die speziellen Aufgaben des Teams ExoSCOT. Danach folgt ein thematischer Block in Bezug auf Software Architektur und Geoinformations Software. Dieser behandelt gängige allgemeine Muster der Software Architektur, allgemeines zur Geoinformatik sowie spezielle Architektur von Geoinformations Software. Nach Beendigung des theoretischen Parts folgt die Umsetzung, welche in diesem Fall eine Web-GIS Plattform darstellt. Es wird ausführlich beschrieben, wie die Integration des GeoServers in OpenLayers durchgeführt wurde und welche zusätzlichen Tools zur Erweiterung der Grundfunktionalitäten der GeoServer API eingerichtet wurden. Im Anhang befindet sich der gesamte Quellcode des Projekts sowie ein User Manual, welches Benutzern dieser Software den Einstieg und Umgang erleichtern soll.
Diese Arbeit wurde im Zuge des Projekts „AMADEE-20 Mars Simulation“, geleitet vom Österreichischen Weltraum Forum (kurz OEWF), durchgeführt. Als Teil des Teams ExoSCOT (ExoMars Science CO-operation Training) bestand die Aufgabe darin, eine Web-Applikation zur Visualisierung von Geodaten zu designen und umzusetzen. Um dies bewerkstelligen zu können wurden sowohl die GeoServer als auch die OpenLayers API verwendet. Die zentrale GeoServer Instanz, auf der alle missionsrelevanten Daten gesammelt wurden, wurde vom OEWF bereitgestellt. Die Arbeit behandelt zunächst den theoretischen Hintergrund zu Experimenten im Kontext von simulierten Mars Missionen sowie die speziellen Aufgaben des Teams ExoSCOT. Danach folgt ein thematischer Block in Bezug auf Software Architektur und Geoinformations Software. Dieser behandelt gängige allgemeine Muster der Software Architektur, allgemeines zur Geoinformatik sowie spezielle Architektur von Geoinformations Software. Nach Beendigung des theoretischen Parts folgt die Umsetzung, welche in diesem Fall eine Web-GIS Plattform darstellt. Es wird ausführlich beschrieben, wie die Integration des GeoServers in OpenLayers durchgeführt wurde und welche zusätzlichen Tools zur Erweiterung der Grundfunktionalitäten der GeoServer API eingerichtet wurden. Im Anhang befindet sich der gesamte Quellcode des Projekts sowie ein User Manual, welches Benutzern dieser Software den Einstieg und Umgang erleichtern soll.
Kombinierte Anwendung von Seismischer Refraktionstomographie und Spezifischer Elektrischer Widerstandstomographie im alpinen Permafrost
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2021
Betreuer: Ass.-Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Die vorliegende Arbeit befasst sich mit der Gegenüberstellung geophysikalischer Verfahren zur Beurteilung vereister Permafrostmilieus in alpinen Regionen. Im Vordergrund stehen dabei Korrelationen zwischen der refraktionsseismischen Tomographie (SRT) und der spezifischen elektrischen Widerstandstomographie (ERT). Es soll gezeigt werden, dass sich sowohl die spezifischen Widerstände als auch die p-Wellengeschwindigkeiten bei einem variierenden Vereisungsgrad entsprechend der damit verbundenen Veränderungen der Materialeigenschaften verhalten und gemeinsam hohe oder niedrige Werte liefern. Vergleiche zwischen der Multiple-Gradient- und der Dipol-Dipol-Konfiguration sollen zudem veranschaulichen, welche dieser Elektrodenanordnungen ein höheres Signal-Rausch-Verhältnis bietet und sich für Gegenüberstellungen in dieser Domäne besser eignet. Als Grundlage dienen Datensätze, die im Oktober 2018, Juli und Oktober 2019 im Gipfelbereich des Hohen Sonnblicks (Sbg., Österreich) sowie im August 2019 am Schilthorn (Berner Voralpen, Schweiz) gesammelt wurden. Die gewählten Zeitpunkte der Datenakquisition am Hohen Sonnblick ermöglichen einen jahreszeitenabhängigen Vergleich während der Tau- sowie der Gefrierperiode. Die ERT-Messkampagnen von Oktober 2018 und 2019 erlauben darüber hinaus einen Vergleich der geoelektrischen Daten über zwei aufeinanderfolgende Jahre. Die Gegenüberstellungen der eingesetzten Methoden sollen Aufschluss über die zeitliche Veränderung der Auftauschicht sowie die Lokalisierung der Permafrosttafel des jeweiligen Messgebietes geben. Für beide Messgebiete existieren Studien, die Informationen über den Bodenaufbau und empirische Kenngrößen liefern. Das gewählte Messgebiet am Schilthorn ist jedoch vor allem im unteren Bereich noch weitgehend unerforscht. In beiden Messgebieten ermöglichen nahegelegene Bohrlöcher einen direkten Vergleich der geophysikalischen Ergebnisse mit den Bodentemperaturen. Darüber hinaus wurde die Methode der Induzierten Polarisation (IP) miteinbezogen, die sich für diese Art der Anwendung noch in einem frühen Entwicklungsstadium befindet. Die Polarisationseigenschaften des Bodens geben zusätzliche Hinweise auf mögliche Grundeisvorkommen. Die Gegenüberstellungen der Inversionsergebnisse zeigen mehr oder weniger stark auftretende Übereinstimmungen. So zeichnen sich besonders beim zweiten Profil des Schilthorns konsistente Ergebnisse ab. Eishaltiger Permafrost kann hier mit Werten zwischen 1.5 - 3.9 kohmm und2.5 - 5 kms−1 deklariert werden, was mit empirischen Werten gut übereinstimmt. Am Hohen Sonnblick korrelieren die Methoden ebenfalls. Allerdings konnten in diesem Messgebiet die Auswertungen aufgrund des unterschiedlichen Datenrauschens nicht mit einheitlichen Parametern invertiert werden, was partiell zu Schwierigkeiten bei der Analyse der Methodenvergleiche führte. Es können Werte von 20 - 300 kohmm und 2 - 5.5 kms−1 für eishaltigen Permafrost definiert werden.
Die vorliegende Arbeit befasst sich mit der Gegenüberstellung geophysikalischer Verfahren zur Beurteilung vereister Permafrostmilieus in alpinen Regionen. Im Vordergrund stehen dabei Korrelationen zwischen der refraktionsseismischen Tomographie (SRT) und der spezifischen elektrischen Widerstandstomographie (ERT). Es soll gezeigt werden, dass sich sowohl die spezifischen Widerstände als auch die p-Wellengeschwindigkeiten bei einem variierenden Vereisungsgrad entsprechend der damit verbundenen Veränderungen der Materialeigenschaften verhalten und gemeinsam hohe oder niedrige Werte liefern. Vergleiche zwischen der Multiple-Gradient- und der Dipol-Dipol-Konfiguration sollen zudem veranschaulichen, welche dieser Elektrodenanordnungen ein höheres Signal-Rausch-Verhältnis bietet und sich für Gegenüberstellungen in dieser Domäne besser eignet. Als Grundlage dienen Datensätze, die im Oktober 2018, Juli und Oktober 2019 im Gipfelbereich des Hohen Sonnblicks (Sbg., Österreich) sowie im August 2019 am Schilthorn (Berner Voralpen, Schweiz) gesammelt wurden. Die gewählten Zeitpunkte der Datenakquisition am Hohen Sonnblick ermöglichen einen jahreszeitenabhängigen Vergleich während der Tau- sowie der Gefrierperiode. Die ERT-Messkampagnen von Oktober 2018 und 2019 erlauben darüber hinaus einen Vergleich der geoelektrischen Daten über zwei aufeinanderfolgende Jahre. Die Gegenüberstellungen der eingesetzten Methoden sollen Aufschluss über die zeitliche Veränderung der Auftauschicht sowie die Lokalisierung der Permafrosttafel des jeweiligen Messgebietes geben. Für beide Messgebiete existieren Studien, die Informationen über den Bodenaufbau und empirische Kenngrößen liefern. Das gewählte Messgebiet am Schilthorn ist jedoch vor allem im unteren Bereich noch weitgehend unerforscht. In beiden Messgebieten ermöglichen nahegelegene Bohrlöcher einen direkten Vergleich der geophysikalischen Ergebnisse mit den Bodentemperaturen. Darüber hinaus wurde die Methode der Induzierten Polarisation (IP) miteinbezogen, die sich für diese Art der Anwendung noch in einem frühen Entwicklungsstadium befindet. Die Polarisationseigenschaften des Bodens geben zusätzliche Hinweise auf mögliche Grundeisvorkommen. Die Gegenüberstellungen der Inversionsergebnisse zeigen mehr oder weniger stark auftretende Übereinstimmungen. So zeichnen sich besonders beim zweiten Profil des Schilthorns konsistente Ergebnisse ab. Eishaltiger Permafrost kann hier mit Werten zwischen 1.5 - 3.9 kohmm und2.5 - 5 kms−1 deklariert werden, was mit empirischen Werten gut übereinstimmt. Am Hohen Sonnblick korrelieren die Methoden ebenfalls. Allerdings konnten in diesem Messgebiet die Auswertungen aufgrund des unterschiedlichen Datenrauschens nicht mit einheitlichen Parametern invertiert werden, was partiell zu Schwierigkeiten bei der Analyse der Methodenvergleiche führte. Es können Werte von 20 - 300 kohmm und 2 - 5.5 kms−1 für eishaltigen Permafrost definiert werden.
Remote-sensing based mosquito breeding site detection in Malawi
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Malaria is a big concern in Africa with respect to public health. An estimation of 216 million malaria cases found worldwide have caused 80% of deaths, and most are in Africa. Malaria is caused by the mosquito-transmitted Plasmodium parasite of the genus Anopheles and is typically found in tropical and subtropical climates where the parasites can breed. Since Sentinel-2 imagery contains high spectral, spatial, and temporal resolution and therefore being capable of detect water and vegetation, Sentinel-2 (L2A) images with 10 m of spatial resolution were used for both May and November in 2020. In order to detect water and vegetation, different indices, such as NDVI, SAVI, NDWI and MNDWI are calculated. To detect, quantify and describe such land cover changes for two months in 2020, the supervised image classification method with a random forest (RF) classifier was used to classify certain changes on the earth's surface, based on individual bands as well as based on selected indices. For the classified images, a confusion matrix was applied to calculate the accuracy of the corresponding training set. The overall accuracy of the classification is 87% compared to the validation dataset. Furthermore, the classified images were used for change detection. Subsequently, according to the mosquito flight range of two mosquito species occurring in Malawi, a buffer on water and vegetation was created and a simple map of potential risks associated with mosquito flight distance was implemented for gradual risk assessment. Finally, the results of this research project are tightly dependent on the quality of the input dataset. Therefore, using a higher resolution satellite dataset and/or with a combination of ground truth data and aerial images (e.g. from an Unmanned Aerial System (UAS)) can improve the overall result.
Malaria is a big concern in Africa with respect to public health. An estimation of 216 million malaria cases found worldwide have caused 80% of deaths, and most are in Africa. Malaria is caused by the mosquito-transmitted Plasmodium parasite of the genus Anopheles and is typically found in tropical and subtropical climates where the parasites can breed. Since Sentinel-2 imagery contains high spectral, spatial, and temporal resolution and therefore being capable of detect water and vegetation, Sentinel-2 (L2A) images with 10 m of spatial resolution were used for both May and November in 2020. In order to detect water and vegetation, different indices, such as NDVI, SAVI, NDWI and MNDWI are calculated. To detect, quantify and describe such land cover changes for two months in 2020, the supervised image classification method with a random forest (RF) classifier was used to classify certain changes on the earth's surface, based on individual bands as well as based on selected indices. For the classified images, a confusion matrix was applied to calculate the accuracy of the corresponding training set. The overall accuracy of the classification is 87% compared to the validation dataset. Furthermore, the classified images were used for change detection. Subsequently, according to the mosquito flight range of two mosquito species occurring in Malawi, a buffer on water and vegetation was created and a simple map of potential risks associated with mosquito flight distance was implemented for gradual risk assessment. Finally, the results of this research project are tightly dependent on the quality of the input dataset. Therefore, using a higher resolution satellite dataset and/or with a combination of ground truth data and aerial images (e.g. from an Unmanned Aerial System (UAS)) can improve the overall result.
Generalization of Pattern Recognition Framework for Process Patterns in Analog Wafer Test Data
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
The manufacturing processes that are required in the semiconductor industry are very complex, delicate and demand a high level of precision which involves multiple physical and chemical processing Large amounts of data are produced at the frontend stage of the production process which constitutes of data obtained when the devices are electrically tested. The electrical test data is usually visualized as so-called wafer maps. Thus, experts in the semiconductor industry take special interest in these wafer maps because they provide very key insights into process deviations which occurred during the production process which are shown in the form of patterns that are visible on the wafer maps. An automated detection approach has been developed to help in the detection of interesting patterns called the Wafer Health Factor (WHF) which is a machine learning pipeline that performs feature extraction and pattern type classification on wafer maps. The aim of this master thesis is to contribute to the improvement and further enhancement of the developed pipeline as well as perform empirical analysis and investigations of models created from the pipeline on products from different process groups and technologies thereby determining the generalizability of the models. Therefore, to achieve this purpose, two additional contributions to the WHF pipeline are considered: A Radon transform-based feature descriptor and the incorporation of ensemble classification techniques. In general, the incorporation of these two methods individually into the pipeline yields similar results to that of the original pipeline and outperforming it in some cases. Very good results were obtained when the enriched feature set with Radon transformed-based features were used for classification outperforming any other feature set combination. Ensemble classification with models trained with the enriched feature set was seen to be the recommended way of performing wafer map classification due to the advantages it offers by means of its flexibility and modularity.
The manufacturing processes that are required in the semiconductor industry are very complex, delicate and demand a high level of precision which involves multiple physical and chemical processing Large amounts of data are produced at the frontend stage of the production process which constitutes of data obtained when the devices are electrically tested. The electrical test data is usually visualized as so-called wafer maps. Thus, experts in the semiconductor industry take special interest in these wafer maps because they provide very key insights into process deviations which occurred during the production process which are shown in the form of patterns that are visible on the wafer maps. An automated detection approach has been developed to help in the detection of interesting patterns called the Wafer Health Factor (WHF) which is a machine learning pipeline that performs feature extraction and pattern type classification on wafer maps. The aim of this master thesis is to contribute to the improvement and further enhancement of the developed pipeline as well as perform empirical analysis and investigations of models created from the pipeline on products from different process groups and technologies thereby determining the generalizability of the models. Therefore, to achieve this purpose, two additional contributions to the WHF pipeline are considered: A Radon transform-based feature descriptor and the incorporation of ensemble classification techniques. In general, the incorporation of these two methods individually into the pipeline yields similar results to that of the original pipeline and outperforming it in some cases. Very good results were obtained when the enriched feature set with Radon transformed-based features were used for classification outperforming any other feature set combination. Ensemble classification with models trained with the enriched feature set was seen to be the recommended way of performing wafer map classification due to the advantages it offers by means of its flexibility and modularity.
Reproducible research in GIScience: Example of overestimating distances measured with GPS
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Adrijana Car, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Mobility is one of the most important features of today's modern society. Nowadays, the movement of merchandise, people and ideas has become more and more frequent. Global Navigation Satellite System (GNSS) devices being worldwide available at low costs enabled recording extensive movement data of stocks and people. However, despite the fact that the GNSS devices are highly accurate, still the measured movement is not immune to errors. Ranacher et al. (2016) in "Why GPS makes distances bigger than they are" state that the measured distances obtained by any GNSS device are actually bigger than the real ones and that this difference is closely related with the autocorrelation of a GNSS measurement error (C). This triggers the research question, how much bigger these distances are and how C influences those overestimations. Therefore, the aim of this work is to repeat an experiment of measuring predefined pedestrian trajectories at different spatial and temporal intervals and with different GNSS devices in order to crosscheck the results with those of Ranacher et al. (2016). Moreover, a structured validation of the research according to the assessment criteria for the input data, methods (preprocessing, method, analysis, processing and computational environment) and results as given in (Nüst et al. 2018) is done. The original experiment was repeated four times at three different locations. Only the last attempt yielded results most similar to the original findings. The assessment of the experiment reproducibility showed that in every considered category the level of reproducibility is 1, which means the information contained in that category is documented, except for the computational environment, where the level of reproducibility is 0, due to the fact that this was unavailable.
Mobility is one of the most important features of today's modern society. Nowadays, the movement of merchandise, people and ideas has become more and more frequent. Global Navigation Satellite System (GNSS) devices being worldwide available at low costs enabled recording extensive movement data of stocks and people. However, despite the fact that the GNSS devices are highly accurate, still the measured movement is not immune to errors. Ranacher et al. (2016) in "Why GPS makes distances bigger than they are" state that the measured distances obtained by any GNSS device are actually bigger than the real ones and that this difference is closely related with the autocorrelation of a GNSS measurement error (C). This triggers the research question, how much bigger these distances are and how C influences those overestimations. Therefore, the aim of this work is to repeat an experiment of measuring predefined pedestrian trajectories at different spatial and temporal intervals and with different GNSS devices in order to crosscheck the results with those of Ranacher et al. (2016). Moreover, a structured validation of the research according to the assessment criteria for the input data, methods (preprocessing, method, analysis, processing and computational environment) and results as given in (Nüst et al. 2018) is done. The original experiment was repeated four times at three different locations. Only the last attempt yielded results most similar to the original findings. The assessment of the experiment reproducibility showed that in every considered category the level of reproducibility is 1, which means the information contained in that category is documented, except for the computational environment, where the level of reproducibility is 0, due to the fact that this was unavailable.
Modellierung der Deformationen von Mauerwerkstrukturen aus terrestrischen Laserscans
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Dr. Corinna Harmening MSc
Kurzfassung/Abstract
Das Ziel dieser Diplomarbeit ist die Entwicklung und Untersuchung von Methoden zur Modellierung der Deformationen regelmäßig strukturierter Mauerwerke aus terrestrischen Laserscans. Als Datengrundlage wird ein Ausschnitt eines Aquäduktbogens, der die Struktur einer Klinkerfassade hat, im Zuge einer eintägigen Messkampagne mehrmals gescannt. Eine Modellierungsmethode wird auf Basis von approximierenden B-Spline-Flächen erarbeitet. Dafür werden Punktwolken zweier Epochen jeweils von einer B-Spline-Fläche approximiert. Die geschätzten Unbekannten sind dabei die jeweiligen Kontrollpunkte, die im Anschluss unter der Voraussetzung einer gleichen Flächenparametrisierung miteinander verglichen werden. Durch Einführung der Kontrollpunkte in das Kongruenzmodell sollen lokale Deformationen im Kontrollnetz festgestellt werden und im Weiteren auf flächenhafte Deformationen des Objektes geschlussfolgert werden. Um den Einfluss der Struktur der Punktwolke auf das Deformationsergebnis zu prüfen, wird zuvor eine Segmentierung durchgeführt. Punkte, die in den Fugen gemessen wurden, sollen aus der Punktwolke eliminiert werden. Dazu wird ein Verfahren erarbeitet, das ein initiales Region-Growing-Segmentierungsergebnis optimiert. Eine zweite Modellierungsmethode soll von den Struktureigenschaften der Punktwolken profitieren. Dies wird durch Nutzung der radiometrischen Eigenschaften der Einzelpunkte realisiert. Die Punktwolken zweier Epochen werden in Intensitätsbilder umgewandelt, um markante Bildpunkte (Kernpunkte) durch Anwendung des Förstner-Operators zu detektieren. Deren Deskription durch den BRISK-Operator ermöglicht eine Korrespondenzfindung von Kernpunkten der beiden Bilder. Nach der Umwandlung der korrespondierenden Bildpunkte in 3D-Kernpunkte werden diese in eine robuste 3D Helmerttransformation eingeführt. Dabei kann die Starrkörperbewegung zwischen den 3D-Kernpunktpaaren bestimmt werden. Jene Kernpunktpaare, die dabei als Ausreißer detektiert werden, werden der Deformation verdächtigt und in ihrer Lage geprüft. Zur Validierung der beiden Methoden werden zusätzlich Epochenvergleiche mit Hilfe des M3C2-Algorithmus durchgeführt. Diese zeigen, dass in keinem Epochenvergleich signifikante Deformationen auftreten. Die Ergebnisse der Deformationsanalyse auf Basis approximierender B-Spline-Flächen sind von den Korrelationen zwischen den Kontrollpunkten beeinflusst. Dadurch kann einer Aussage über Deformationen unter Einführung der Kontrollpunkte in das Kongruenzmodell nicht vertraut werden. Eine vorhergehende Segmentierung verbessert die Ergebnisse geringfügig. Die Deformationsanalyse auf Basis korrespondierender Kernpunkte bestätigt die Abwesenheit von Deformationen in allen Epochenvergleichen.
Das Ziel dieser Diplomarbeit ist die Entwicklung und Untersuchung von Methoden zur Modellierung der Deformationen regelmäßig strukturierter Mauerwerke aus terrestrischen Laserscans. Als Datengrundlage wird ein Ausschnitt eines Aquäduktbogens, der die Struktur einer Klinkerfassade hat, im Zuge einer eintägigen Messkampagne mehrmals gescannt. Eine Modellierungsmethode wird auf Basis von approximierenden B-Spline-Flächen erarbeitet. Dafür werden Punktwolken zweier Epochen jeweils von einer B-Spline-Fläche approximiert. Die geschätzten Unbekannten sind dabei die jeweiligen Kontrollpunkte, die im Anschluss unter der Voraussetzung einer gleichen Flächenparametrisierung miteinander verglichen werden. Durch Einführung der Kontrollpunkte in das Kongruenzmodell sollen lokale Deformationen im Kontrollnetz festgestellt werden und im Weiteren auf flächenhafte Deformationen des Objektes geschlussfolgert werden. Um den Einfluss der Struktur der Punktwolke auf das Deformationsergebnis zu prüfen, wird zuvor eine Segmentierung durchgeführt. Punkte, die in den Fugen gemessen wurden, sollen aus der Punktwolke eliminiert werden. Dazu wird ein Verfahren erarbeitet, das ein initiales Region-Growing-Segmentierungsergebnis optimiert. Eine zweite Modellierungsmethode soll von den Struktureigenschaften der Punktwolken profitieren. Dies wird durch Nutzung der radiometrischen Eigenschaften der Einzelpunkte realisiert. Die Punktwolken zweier Epochen werden in Intensitätsbilder umgewandelt, um markante Bildpunkte (Kernpunkte) durch Anwendung des Förstner-Operators zu detektieren. Deren Deskription durch den BRISK-Operator ermöglicht eine Korrespondenzfindung von Kernpunkten der beiden Bilder. Nach der Umwandlung der korrespondierenden Bildpunkte in 3D-Kernpunkte werden diese in eine robuste 3D Helmerttransformation eingeführt. Dabei kann die Starrkörperbewegung zwischen den 3D-Kernpunktpaaren bestimmt werden. Jene Kernpunktpaare, die dabei als Ausreißer detektiert werden, werden der Deformation verdächtigt und in ihrer Lage geprüft. Zur Validierung der beiden Methoden werden zusätzlich Epochenvergleiche mit Hilfe des M3C2-Algorithmus durchgeführt. Diese zeigen, dass in keinem Epochenvergleich signifikante Deformationen auftreten. Die Ergebnisse der Deformationsanalyse auf Basis approximierender B-Spline-Flächen sind von den Korrelationen zwischen den Kontrollpunkten beeinflusst. Dadurch kann einer Aussage über Deformationen unter Einführung der Kontrollpunkte in das Kongruenzmodell nicht vertraut werden. Eine vorhergehende Segmentierung verbessert die Ergebnisse geringfügig. Die Deformationsanalyse auf Basis korrespondierender Kernpunkte bestätigt die Abwesenheit von Deformationen in allen Epochenvergleichen.
The use of high-resolution photogrammetry for the survey and analysis of rock climbing walls
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
In climbing, the routes that lead through a wall are mainly represented in two-dimensional maps and typically implemented as hand-drawn sketches on photos or drawings. These climbing maps, also called "topos", help climbers and alpinists plan their routes and find a way through the complex structures of a vertical or partially overhanging rock face. However, when using 2D climbing guides, it can sometimes be difficult to interpret the exact directions of the climbing routes. Today, a trend towards more realistic visualization techniques can be seen, where 3D representations are used for different geometric and topographic features (Kolecka, 2012). In this thesis the focus is on 3D visualization and high-resolution data capturing at three rock walls located in Carinthia. Unmanned Aerial System (UAS) based data collection was conducted at three study sites to capture digital images that are used to generate various outputs based on a photogrammetric workflow. The photogrammetric processing of the digital imagery results in dense 3D point clouds, digital surface models (DSM), textured 3D models and orthophotos of the three research areas. The question of how accurately a vertical rock face can be scanned and which spatial resolution of the outputs can be achieved is answered in this paper. After the data collection and the photogrammetric processing, a 3D climbing guide was created to answer the question if an enhanced visualization of climbing routes can be achieved using high resolution 3D data. There are certain morphological features within the rock face that play a major role in climbing. These climbing holds are important for climbers to continue the movement upwards. Other important factors are the dip angle and the dip direction of different rock facets. In this thesis the 3D point cloud was clustered into different sized facets that share the same dip angle; i.e. the angle of the center point of a cluster to a horizontal plane and the same dip direction which is the orientation of such a facet (Thanh, 2008). The rock facets determine how many overhanging rock parts, flat parts and vertical parts are along a climbing route. By converting the resulting vector dataset to raster data format a raster based spatial analysis approach to construct the least- and highest cost path, meaning the easiest and hardest climbing route at the rock wall, was implemented. Together with the Digital Surface Model (DSM) the least cost path analysis is performed by building a 3D model within a GIS-environment. The results of this thesis are: (1) The outputs of the photogrammetric processing for every study site; (2) A 3D climbing guide that contains all routes at one of the research areas; (3) The automated derivation of rock facets together with their orientations and (4) the automated derivation of climbing routes with different degrees of difficulty.
In climbing, the routes that lead through a wall are mainly represented in two-dimensional maps and typically implemented as hand-drawn sketches on photos or drawings. These climbing maps, also called "topos", help climbers and alpinists plan their routes and find a way through the complex structures of a vertical or partially overhanging rock face. However, when using 2D climbing guides, it can sometimes be difficult to interpret the exact directions of the climbing routes. Today, a trend towards more realistic visualization techniques can be seen, where 3D representations are used for different geometric and topographic features (Kolecka, 2012). In this thesis the focus is on 3D visualization and high-resolution data capturing at three rock walls located in Carinthia. Unmanned Aerial System (UAS) based data collection was conducted at three study sites to capture digital images that are used to generate various outputs based on a photogrammetric workflow. The photogrammetric processing of the digital imagery results in dense 3D point clouds, digital surface models (DSM), textured 3D models and orthophotos of the three research areas. The question of how accurately a vertical rock face can be scanned and which spatial resolution of the outputs can be achieved is answered in this paper. After the data collection and the photogrammetric processing, a 3D climbing guide was created to answer the question if an enhanced visualization of climbing routes can be achieved using high resolution 3D data. There are certain morphological features within the rock face that play a major role in climbing. These climbing holds are important for climbers to continue the movement upwards. Other important factors are the dip angle and the dip direction of different rock facets. In this thesis the 3D point cloud was clustered into different sized facets that share the same dip angle; i.e. the angle of the center point of a cluster to a horizontal plane and the same dip direction which is the orientation of such a facet (Thanh, 2008). The rock facets determine how many overhanging rock parts, flat parts and vertical parts are along a climbing route. By converting the resulting vector dataset to raster data format a raster based spatial analysis approach to construct the least- and highest cost path, meaning the easiest and hardest climbing route at the rock wall, was implemented. Together with the Digital Surface Model (DSM) the least cost path analysis is performed by building a 3D model within a GIS-environment. The results of this thesis are: (1) The outputs of the photogrammetric processing for every study site; (2) A 3D climbing guide that contains all routes at one of the research areas; (3) The automated derivation of rock facets together with their orientations and (4) the automated derivation of climbing routes with different degrees of difficulty.
A Comparison of Convolutional Neural Network Architectures for Waterfowl Species Detection and Classification
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders, Christopher D. Lippit, Phd, CMS-RS
Kurzfassung/Abstract
Wildlife surveying is an important task that improves understanding how species live and distribute and therefore, improving methods to better understand and observe wildlife are in need. Ground and manned aircraft-based surveying are traditional methods that are performed to achieve such goals. However, these methods have disadvantages regarding the time consumption, potential risks on surveyors, and isolated area reachability. Uninhabited aerial system (UAS) brought advantages regarding risk and special coverage scale but with more lab time required to manually analyse imagery. Thus, we need to mitigate human intervention while maintaining satisfactory results by using machine methods. Different machine-based methods such as spectral-based analysis, supervised multi spectral classification and template matching are used to automate the process but are limited of their abilities to capture targeted species in environments where surroundings can be confused with target objects. In this project, we compare the performance of Convolutional Neural Networks (CNN's) architectures to propose an alternative method that automates the process of waterfowl species detection and classification. Our dataset consists of 13 images each of size 5472x3648 and in these images LabelBox was used by 13 experts from United States Fish and Wildlife Service (USFWS) to label waterfowls. The waterfowl dataset includes three species (duck, goose, and crane) and eight sub-species (American wigeon, Canadian goose, gadwall, mallard, northern pintail, sand-hill crane and "Other" [mostly duck]). Thus, we test the ability of CNN's to detect the targeted objects on three levels (waterfowl, species, and sub-species). We investigate the pre-processing steps that are necessary to be implemented on our dataset such as image cropping, redundant label removal, and label format standardization. We implemented three CNN architectures (YOLO, Retinanet and Faster R-CNN). CNNs recorded an average of 79.47% accuracy in the task of waterfowl detection. As for species classification, the CNN's recorded averages of 71.3%, 54.6 and 66.6 for duck, goose, and crane, respectively. Also, we found major performance degradation on the sub-species level to less than 30%. We discovered that results of CNN do not have a common denominator because it can detect non-waterfowl objects which have no reference in the ground truth. Faster R-CNN was found to detect much more non-waterfowl objects than YOLO and Retinanet. Finally, we also analyzed the effect rough surroundings such as shadows and plants where CNN's were more likely to produce false negative prediction. Also, CNNs' ability to detect decreases as the waterfowl population density in the image increases.
Wildlife surveying is an important task that improves understanding how species live and distribute and therefore, improving methods to better understand and observe wildlife are in need. Ground and manned aircraft-based surveying are traditional methods that are performed to achieve such goals. However, these methods have disadvantages regarding the time consumption, potential risks on surveyors, and isolated area reachability. Uninhabited aerial system (UAS) brought advantages regarding risk and special coverage scale but with more lab time required to manually analyse imagery. Thus, we need to mitigate human intervention while maintaining satisfactory results by using machine methods. Different machine-based methods such as spectral-based analysis, supervised multi spectral classification and template matching are used to automate the process but are limited of their abilities to capture targeted species in environments where surroundings can be confused with target objects. In this project, we compare the performance of Convolutional Neural Networks (CNN's) architectures to propose an alternative method that automates the process of waterfowl species detection and classification. Our dataset consists of 13 images each of size 5472x3648 and in these images LabelBox was used by 13 experts from United States Fish and Wildlife Service (USFWS) to label waterfowls. The waterfowl dataset includes three species (duck, goose, and crane) and eight sub-species (American wigeon, Canadian goose, gadwall, mallard, northern pintail, sand-hill crane and "Other" [mostly duck]). Thus, we test the ability of CNN's to detect the targeted objects on three levels (waterfowl, species, and sub-species). We investigate the pre-processing steps that are necessary to be implemented on our dataset such as image cropping, redundant label removal, and label format standardization. We implemented three CNN architectures (YOLO, Retinanet and Faster R-CNN). CNNs recorded an average of 79.47% accuracy in the task of waterfowl detection. As for species classification, the CNN's recorded averages of 71.3%, 54.6 and 66.6 for duck, goose, and crane, respectively. Also, we found major performance degradation on the sub-species level to less than 30%. We discovered that results of CNN do not have a common denominator because it can detect non-waterfowl objects which have no reference in the ground truth. Faster R-CNN was found to detect much more non-waterfowl objects than YOLO and Retinanet. Finally, we also analyzed the effect rough surroundings such as shadows and plants where CNN's were more likely to produce false negative prediction. Also, CNNs' ability to detect decreases as the waterfowl population density in the image increases.
Automated Recognition of Monkeys in Natural Habitats using Convolutional Neural Networks (CNN)
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders, Christopher D. Lippit, Phd, CMS-RS
Kurzfassung/Abstract
The observation of animals in their natural habitats has been increasingly important over the last years. To successfully observe certain animals, the identification of those individuals has become the most important task. With the rise of Artificial Intelligence in the field of object detection, the recognition and identification of individual animals has become a lot easier. Within this thesis, a Convolutional Neural Network (CNN) was built that is capable of identifying ten Japanese Macaques living in the area of the monkey mountain in Villach, Austria. The data used for the recognition of those ten monkeys consists of several video sequences. Those video sequences involve data from different years. To achieve the recording of different seasons of the year, an additional data acquisition took place in early spring this year. Before the data was preprocessed, the environment for the network using a You Only Look Once (YOLO) v3 architecture was built. Out of the acquired video sequences, several images for training and testing the detection of the monkeys were extracted. Those images were then split into two portions, one for training and one for testing. Both data portions were labeled within Labelbox. Out of Labelbox the labeled images were converted to the YOLO format. This data was used to train the Convolutional Neural Network. A proof of concept using a subsample of the data as well as several different trainings was performed. After the training process the network was tested using the testing data set never seen by the network. The results of the tests of the network were then evaluated calculating the Precision, the Recall, the Average Precision (AP) and the mean Average Precision (mAP). At last, the network was again tested using the acquired data from the different seasons. The goal was to build a network which is capable of detecting all monkeys of interest. This goal was achieved using the precision and the performance of the network. The training within this thesis also shows that the network is capable to correctly identify the monkeys only using their body morphology. For some training runs the unbalanced amount of data for the monkeys has led to problem. The network also had issues detecting the monkeys throughout the different seasons of the year. This is caused mostly by physiological changes of the monkey's fur or the disturbance of other monkeys within the image. Those factors strongly influence the performance of such a network.
The observation of animals in their natural habitats has been increasingly important over the last years. To successfully observe certain animals, the identification of those individuals has become the most important task. With the rise of Artificial Intelligence in the field of object detection, the recognition and identification of individual animals has become a lot easier. Within this thesis, a Convolutional Neural Network (CNN) was built that is capable of identifying ten Japanese Macaques living in the area of the monkey mountain in Villach, Austria. The data used for the recognition of those ten monkeys consists of several video sequences. Those video sequences involve data from different years. To achieve the recording of different seasons of the year, an additional data acquisition took place in early spring this year. Before the data was preprocessed, the environment for the network using a You Only Look Once (YOLO) v3 architecture was built. Out of the acquired video sequences, several images for training and testing the detection of the monkeys were extracted. Those images were then split into two portions, one for training and one for testing. Both data portions were labeled within Labelbox. Out of Labelbox the labeled images were converted to the YOLO format. This data was used to train the Convolutional Neural Network. A proof of concept using a subsample of the data as well as several different trainings was performed. After the training process the network was tested using the testing data set never seen by the network. The results of the tests of the network were then evaluated calculating the Precision, the Recall, the Average Precision (AP) and the mean Average Precision (mAP). At last, the network was again tested using the acquired data from the different seasons. The goal was to build a network which is capable of detecting all monkeys of interest. This goal was achieved using the precision and the performance of the network. The training within this thesis also shows that the network is capable to correctly identify the monkeys only using their body morphology. For some training runs the unbalanced amount of data for the monkeys has led to problem. The network also had issues detecting the monkeys throughout the different seasons of the year. This is caused mostly by physiological changes of the monkey's fur or the disturbance of other monkeys within the image. Those factors strongly influence the performance of such a network.
Integrated UAS-based Thermal and Multispectral Remote Sensing for Drought Stress Detection in Forests
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Multispectral remote sensing with Unmanned Aerial Systems (UAS) has become increasingly important in recent years for forest applications. One of the biggest risks for forests is drought stress, which can be detected manually by extensive field surveys or with different multispectral remote sensing methods. In this thesis, an integrated approach consisting out of a forester's domain expertise, a Normalized Difference Vegetation Index (NDVI) UAS-based method with a multispectral camera, and a Crop Water Stress Index (CWSI) calculation using thermal data were tested and evaluated. The NDVI approach with the multispectral camera is a common method for the detection of healthiness in forests and is often carried out in addition to the traditional manual forestry surveys. Before the actual test took place, the new thermal camera system was tested under laboratory conditions, and the thermal sensor integration into an existing multi-rotor Unmanned Aerial Vehicle (UAV) has been performed. A test area with healthy and stressed trees was selected for validation purposes. The data capture UAS missions were in two flight missions with one in the afternoon in order to capture the highest daily temperature. The CWSI and the NDVI have been calculated on the multispectral orthophoto mosaics and have been compared to each other and to the forester´s field survey results. New knowledge about the handling of the thermal camera system was gained. The integration of the thermal camera in the multirotor UAV has been carried out and has been tested in the field test. In the forest test, three trees under unhealthy conditions have been detected by the forest expert. These three trees were also detected by the NDVI method. The CWSI method was only able to detect one of the three trees due to windy conditions resulting in partly blurry areas.
Multispectral remote sensing with Unmanned Aerial Systems (UAS) has become increasingly important in recent years for forest applications. One of the biggest risks for forests is drought stress, which can be detected manually by extensive field surveys or with different multispectral remote sensing methods. In this thesis, an integrated approach consisting out of a forester's domain expertise, a Normalized Difference Vegetation Index (NDVI) UAS-based method with a multispectral camera, and a Crop Water Stress Index (CWSI) calculation using thermal data were tested and evaluated. The NDVI approach with the multispectral camera is a common method for the detection of healthiness in forests and is often carried out in addition to the traditional manual forestry surveys. Before the actual test took place, the new thermal camera system was tested under laboratory conditions, and the thermal sensor integration into an existing multi-rotor Unmanned Aerial Vehicle (UAV) has been performed. A test area with healthy and stressed trees was selected for validation purposes. The data capture UAS missions were in two flight missions with one in the afternoon in order to capture the highest daily temperature. The CWSI and the NDVI have been calculated on the multispectral orthophoto mosaics and have been compared to each other and to the forester´s field survey results. New knowledge about the handling of the thermal camera system was gained. The integration of the thermal camera in the multirotor UAV has been carried out and has been tested in the field test. In the forest test, three trees under unhealthy conditions have been detected by the forest expert. These three trees were also detected by the NDVI method. The CWSI method was only able to detect one of the three trees due to windy conditions resulting in partly blurry areas.
Analyse und Optimierung des SBAS-Workflows zur zeitlichen Erfassung räumlicher Deformationen anhand von InSAR-Daten
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2021
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Differentielle SAR Interferometrie (DInSAR) ist ein geodätisches Verfahren, bei dem anhand von Kombination mehrerer SAR Aufnahmen Verschiebungen in der Erdoberfläche identifiziert und quantifiziert werden können. DInSAR kann dichte Messungen über großflächige Bereiche mit hoher Messauflösung erzielen. In einem fortschrittlichen Ansatz werden Interferogramme mit kurzen zeitlichen und räumlichen Basislinien verwendet, um Dekorrelationen gering zu halten. In dieser Thesis wird der allgemeine Arbeitsablauf eines solchen SBAS Ansatzes vorgestellt. Dargestellt sind die einzelnen Schritte, die erforderlich sind, um von fokussierten SAR-Bildern zu Deformationskarten zu gelangen. Eine der größten Limitationen dabei zeigt sich in der Extraktion von kohärenten Pixeln, auf deren Basis die Deformationsanalyse ausgeführt wird. Dieses Ähnlichkeitsmaß wird verwendet, um Pixel zu finden, die ihr Rückstreuverhalten über den gesamten Zeitraum beibehalten. Um diesen Prozess zu verbessern werden zwei neue Ansätze implementiert. Einerseits ist dies der Ansatz der sogenannten normalisierten Kohärenz. Ziel ist es, eine optimierte Triangulation im Vergleich zur bisherigen Delaunay-Triangulation zu finden. Dies geschieht durch die Vorauswahl kohärenter Interferogramme, die in die Triangulation eingespeist werden. Dabei kann die bereits verwendete ”enhanced spectral density” genutzt werden, welche es ermöglicht jedem Bildpaar einen Richtwert für die Kohärenz zuzuweisen. In einem zweiten Ansatz werden statistisch homogene Pixel eingeführt. Diese ersetzen den starren Boxcar-Ansatz zur Berechnung der Kohärenz in der Azimut-Range-Ebene. Beide Ansätze reduzieren Dekorrelationen und führen zu zuverlässigeren Ergebnissen. Zudem konnte durch die normalisierte Kohärenz die Punktdichte im ländlichen Raum erhöht werden. Dies ist ein wichtiger Aspekt, da DInSAR hauptsächlich in solchen Gebieten eingesetzt wird, beispielsweise zur Überwachung von Erdrutschen. Durch die Optimierung des Netzes konnte zudem der Einfluss der bisher meist vernachlässigten Fehlerfortpflanzung reduziert werden. Dadurch können hochwertige Kohärenzkarten erstellt und eine verbesserte Deformationsanalyse durchgeführt werden.
Differentielle SAR Interferometrie (DInSAR) ist ein geodätisches Verfahren, bei dem anhand von Kombination mehrerer SAR Aufnahmen Verschiebungen in der Erdoberfläche identifiziert und quantifiziert werden können. DInSAR kann dichte Messungen über großflächige Bereiche mit hoher Messauflösung erzielen. In einem fortschrittlichen Ansatz werden Interferogramme mit kurzen zeitlichen und räumlichen Basislinien verwendet, um Dekorrelationen gering zu halten. In dieser Thesis wird der allgemeine Arbeitsablauf eines solchen SBAS Ansatzes vorgestellt. Dargestellt sind die einzelnen Schritte, die erforderlich sind, um von fokussierten SAR-Bildern zu Deformationskarten zu gelangen. Eine der größten Limitationen dabei zeigt sich in der Extraktion von kohärenten Pixeln, auf deren Basis die Deformationsanalyse ausgeführt wird. Dieses Ähnlichkeitsmaß wird verwendet, um Pixel zu finden, die ihr Rückstreuverhalten über den gesamten Zeitraum beibehalten. Um diesen Prozess zu verbessern werden zwei neue Ansätze implementiert. Einerseits ist dies der Ansatz der sogenannten normalisierten Kohärenz. Ziel ist es, eine optimierte Triangulation im Vergleich zur bisherigen Delaunay-Triangulation zu finden. Dies geschieht durch die Vorauswahl kohärenter Interferogramme, die in die Triangulation eingespeist werden. Dabei kann die bereits verwendete ”enhanced spectral density” genutzt werden, welche es ermöglicht jedem Bildpaar einen Richtwert für die Kohärenz zuzuweisen. In einem zweiten Ansatz werden statistisch homogene Pixel eingeführt. Diese ersetzen den starren Boxcar-Ansatz zur Berechnung der Kohärenz in der Azimut-Range-Ebene. Beide Ansätze reduzieren Dekorrelationen und führen zu zuverlässigeren Ergebnissen. Zudem konnte durch die normalisierte Kohärenz die Punktdichte im ländlichen Raum erhöht werden. Dies ist ein wichtiger Aspekt, da DInSAR hauptsächlich in solchen Gebieten eingesetzt wird, beispielsweise zur Überwachung von Erdrutschen. Durch die Optimierung des Netzes konnte zudem der Einfluss der bisher meist vernachlässigten Fehlerfortpflanzung reduziert werden. Dadurch können hochwertige Kohärenzkarten erstellt und eine verbesserte Deformationsanalyse durchgeführt werden.
Assessing the Effect of Currentness of Spatial Data on the Quality of Routing
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2021
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
When making spatial decisions, the quality of the underlying data plays an important role. Especially in navigation these data are necessary to route the user to a desired location (usually going by the shortest or fastest route). Road networks are prone to changes, which are represented in the data and those changes might have an impact on the computed route. By using outdated street network data, these changes might not have been accounted for and thus lead to an extension travel time or, even worse, a route to the destination that is not legally allowed anymore. This thesis focuses on the mentioned temporal change. The freely available, route-able graph from OpenStreetMap can be downloaded with different timestamps. On each of these datasets the fastest route between a two randomly chosen points can be computed. Each of those fastest routes are reconstructed on the most recent dataset, whereas it is also checked, if the same route is even possible. If that isn't the case, a new route from the incident point to the destination is computed. This is done for 500 routes in Vienna, Austria. With this, the travel times can be compared on the most recent dataset and the extension of the travel time can be quantified. Ultimately, a first assessment of temporal quality based on the currentness of a dataset is given.
When making spatial decisions, the quality of the underlying data plays an important role. Especially in navigation these data are necessary to route the user to a desired location (usually going by the shortest or fastest route). Road networks are prone to changes, which are represented in the data and those changes might have an impact on the computed route. By using outdated street network data, these changes might not have been accounted for and thus lead to an extension travel time or, even worse, a route to the destination that is not legally allowed anymore. This thesis focuses on the mentioned temporal change. The freely available, route-able graph from OpenStreetMap can be downloaded with different timestamps. On each of these datasets the fastest route between a two randomly chosen points can be computed. Each of those fastest routes are reconstructed on the most recent dataset, whereas it is also checked, if the same route is even possible. If that isn't the case, a new route from the incident point to the destination is computed. This is done for 500 routes in Vienna, Austria. With this, the travel times can be compared on the most recent dataset and the extension of the travel time can be quantified. Ultimately, a first assessment of temporal quality based on the currentness of a dataset is given.
Empirical Proof of Concept of UAS-Based Thermal Remote Sensing Workflows
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2021
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Temperature of different land-cover surfaces is considered an important parameter which can be measured by remote sensing. Thermal sensors have significantly evolved in recent years and are applied in more and more areas of application ranging from animal detection to the determination of plant health. This master thesis gives an overview of different thermal remote sensing workflows. For this purpose, three topics are examined in more detail. In this work, a high-resolution thermal camera mounted on a multirotor drone is used. Firstly, thermal recordings are used for animal detection of monkeys in a prominent monkey park in Carinthia. Another part of this research deals with the detection of stress in plants. Here, a nature reserve in southern Carinthia is used as the project area with grassland as the main vegetation type. Thermal as well as multispectral indices are used to obtain information about the health of the vegetation in the test area. Finally, the Gail and the Small Gail, two rivers in the nature reserve, are analyzed regarding water surface temperature. The aim is to determine how accurately the temperature of flowing and still waters can be measured with the help of a thermal camera and a photogrammetrically derived thermal orthoimage. Here, the information from the thermal orthoimage is compared with in situ measurements of the water temperature.
Temperature of different land-cover surfaces is considered an important parameter which can be measured by remote sensing. Thermal sensors have significantly evolved in recent years and are applied in more and more areas of application ranging from animal detection to the determination of plant health. This master thesis gives an overview of different thermal remote sensing workflows. For this purpose, three topics are examined in more detail. In this work, a high-resolution thermal camera mounted on a multirotor drone is used. Firstly, thermal recordings are used for animal detection of monkeys in a prominent monkey park in Carinthia. Another part of this research deals with the detection of stress in plants. Here, a nature reserve in southern Carinthia is used as the project area with grassland as the main vegetation type. Thermal as well as multispectral indices are used to obtain information about the health of the vegetation in the test area. Finally, the Gail and the Small Gail, two rivers in the nature reserve, are analyzed regarding water surface temperature. The aim is to determine how accurately the temperature of flowing and still waters can be measured with the help of a thermal camera and a photogrammetrically derived thermal orthoimage. Here, the information from the thermal orthoimage is compared with in situ measurements of the water temperature.
Elicitation and Evaluation of Mid-Air Hand Gestures for Global Earth Observation Data presented on Large Public Displays
Department für Geodäsie und Geoinformation, Forschungsgruppen Geoinformation und Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc, Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Univ-Ass. Mag. Dr. Markus Kattenbeck
Kurzfassung/Abstract
Global Earth observation data and therefrom derived information are essential for understanding the current state, natural processes and dynamics of the Earth system. However, the characteristics of these complex spatial data sets make accessibility to a lay audience challenging. Therefore, a prototype of a map viewer was developed as an interactive visualization tool to increase the approachability of these data sets. The prototype is designed to, on the one hand, display global satellite-based radar backscatter data and, on the other hand, be controllable by touchless mid-air hand gestures. The definition of an agreed upon set of touchless mid-air hand gestures is still an open question, especially in the context of interacting with complex data sets. To determine the base functions and features of such a novel system, a focus group discussion was conducted. In total, seven participants including the moderator discussed about existing online web maps and their advantages and disadvantages. Further major topics were how satellite-based radar backscatter data could be explained and presented to novices as well as how touchless hand gestures are currently perceived and could improve the interaction with such data. Based on the results of the focus group discussion, a gesture elicitation study with 30 participants was conducted. With individually held online meetings, test persons proposed gestures for twelve different tasks. In total, 462 gesture proposals as well as subjective ratings and qualitative statements of the mental creation process were gathered. From this elicitation touchless mid-air hand gestures and common narratives among the test persons were obtained. Quantitatively, for navigational map tasks which include zooming and panning, the consensus could be clearly defined with the calculated agreement rates. For all other referents, the qualitative analysis which also took the second and even third proposals into account, gave suggestions for common narratives. Then, the consensus set of gestures and narratives as well as the desirable features obtained from the focus group discussion were basis of the prototype implementation. The Leap Motion Controller (LMC) was used to determine the position and characteristics of the end-user’s hands within its field of view. The satellite-based radar backscatter data derived by Bauer-Marschallinger et al. [5] was used as the base map. The emerging system was planned to be located in a public space in the premises of the Department of Geodesy and Geoinformation at the TU Wien. Therefore, the usability and the user experience of the prototype were tested with ten participants. With an average score of 75.75% of the System Usability Scale (SUS), the prototype already reached a positive overall tendency of the usability. Furthermore, the User Experience Questionnaire (UEQ) also indicated a positive tendency especially for the scales Attractiveness, Stimulation and Novelty. Whereas, the lower values for Perspicuity, Efficiency and Dependability suggested that improvements of the prototype were needed. As a last step, the discovered issues were countered with solutions of the implementation, such as redesigning the tutorial or a rethought realization of the semantics of features.
Global Earth observation data and therefrom derived information are essential for understanding the current state, natural processes and dynamics of the Earth system. However, the characteristics of these complex spatial data sets make accessibility to a lay audience challenging. Therefore, a prototype of a map viewer was developed as an interactive visualization tool to increase the approachability of these data sets. The prototype is designed to, on the one hand, display global satellite-based radar backscatter data and, on the other hand, be controllable by touchless mid-air hand gestures. The definition of an agreed upon set of touchless mid-air hand gestures is still an open question, especially in the context of interacting with complex data sets. To determine the base functions and features of such a novel system, a focus group discussion was conducted. In total, seven participants including the moderator discussed about existing online web maps and their advantages and disadvantages. Further major topics were how satellite-based radar backscatter data could be explained and presented to novices as well as how touchless hand gestures are currently perceived and could improve the interaction with such data. Based on the results of the focus group discussion, a gesture elicitation study with 30 participants was conducted. With individually held online meetings, test persons proposed gestures for twelve different tasks. In total, 462 gesture proposals as well as subjective ratings and qualitative statements of the mental creation process were gathered. From this elicitation touchless mid-air hand gestures and common narratives among the test persons were obtained. Quantitatively, for navigational map tasks which include zooming and panning, the consensus could be clearly defined with the calculated agreement rates. For all other referents, the qualitative analysis which also took the second and even third proposals into account, gave suggestions for common narratives. Then, the consensus set of gestures and narratives as well as the desirable features obtained from the focus group discussion were basis of the prototype implementation. The Leap Motion Controller (LMC) was used to determine the position and characteristics of the end-user’s hands within its field of view. The satellite-based radar backscatter data derived by Bauer-Marschallinger et al. [5] was used as the base map. The emerging system was planned to be located in a public space in the premises of the Department of Geodesy and Geoinformation at the TU Wien. Therefore, the usability and the user experience of the prototype were tested with ten participants. With an average score of 75.75% of the System Usability Scale (SUS), the prototype already reached a positive overall tendency of the usability. Furthermore, the User Experience Questionnaire (UEQ) also indicated a positive tendency especially for the scales Attractiveness, Stimulation and Novelty. Whereas, the lower values for Perspicuity, Efficiency and Dependability suggested that improvements of the prototype were needed. As a last step, the discovered issues were countered with solutions of the implementation, such as redesigning the tutorial or a rethought realization of the semantics of features.
Umsetzung von Alternativenprüfungen in einer Open-Source-WebGIS Anwendung - Ein Beitrag zur kommunalen Energieraumplanung in der Gemeinde Gleisdorf
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Klimaerwärmung ist eine der größten Herausforderungen in diesem Jahrhundert. Um die Erwärmung unter 2 Grad Celsius zu halten wurden Internationale und Nationale Klimaziele gesetzt. Ein großes Einsparpotential an klimaschädlichem Treibhausgas CO2 wird in Österreich bei der Bereitstellung von Raumwärme gesehen. Durch den Ausstieg aus fossilen Energieträgern und die Reduzierung des Energieverbrauchs in der Wärmeversorgung sollen erste Schritte unternommen werden. Die räumliche Energieplanung wird hierbei als wichtiges Instrument für die Umsetzung und Gestaltung einer zukunftsorientierten Energieentwicklung angesehen. In dieser Thesis wird eine Anwendung entwickelt, die als Werkzeug der räumlichen Energieplanung fungieren soll. Damit soll es möglich sein, Siedlungsentwicklung und Energiepotenziale aufeinander abzustimmen sowie die Versorgungsinfrastruktur zu optimieren. Eine weitere Funktion soll die Priorisierung von lokalen Energiepotentialen sowie die Definition von Eignungs- und Vorzugsgebieten sein. Ziel ist es, die räumliche Energieplanung zugänglicher und effizienter zu machen. Die administrativen Grenzen der Stadtgemeinde Gleisdorf bilden das Untersuchungsgebiet, für das die gegenständliche Anwendung entwickelt wird. Die räumliche Datengrundlage der Applikation zur Charakterisierung des Gebäudebestandes, der leitungsgebundenen Energieinfrastruktur sowie der lokal verfügbaren erneuerbaren Energiepotenziale stammen überwiegend aus dem Forschungsprojekt S/E/P in Kooperation mit AEE INTEC, Land Steiermark und Stadtgemeinde Gleisdorf. Ausgehend von den Anforderungen der räumlichen Energieplanung werden die Architektur und die Komponenten zur Umsetzung der Applikation gewählt. Ebenso werden das Design und die Funktionen auf die räumliche Energieplanung abgestimmt. Das Ergebnis ist eine Open-Source-WebGIS-Anwendung, die es durch Visualisierung und statistische Auswertungen von räumlichen Daten bewerkstelligt, Informationen zu Wärmebedarf und den Potentialen für eine klimafreundliche (erneuerbare) Wärmebereitstellung zu präsentieren. Durch die integrierte Funktion der attributiven und räumlichen Selektion lassen sich (Ziel-) Bereiche individuell bestimmen und untersuchen. Die implementierte Alternativenprüfung ermöglicht es außerdem, das Wärmeversorgungssystem auf Grundstücksebene nach räumlichen, ökonomischen und ökologischen Kriterien zu prüfen, um daraus Handlungsempfehlungen abzuleiten.
Die Klimaerwärmung ist eine der größten Herausforderungen in diesem Jahrhundert. Um die Erwärmung unter 2 Grad Celsius zu halten wurden Internationale und Nationale Klimaziele gesetzt. Ein großes Einsparpotential an klimaschädlichem Treibhausgas CO2 wird in Österreich bei der Bereitstellung von Raumwärme gesehen. Durch den Ausstieg aus fossilen Energieträgern und die Reduzierung des Energieverbrauchs in der Wärmeversorgung sollen erste Schritte unternommen werden. Die räumliche Energieplanung wird hierbei als wichtiges Instrument für die Umsetzung und Gestaltung einer zukunftsorientierten Energieentwicklung angesehen. In dieser Thesis wird eine Anwendung entwickelt, die als Werkzeug der räumlichen Energieplanung fungieren soll. Damit soll es möglich sein, Siedlungsentwicklung und Energiepotenziale aufeinander abzustimmen sowie die Versorgungsinfrastruktur zu optimieren. Eine weitere Funktion soll die Priorisierung von lokalen Energiepotentialen sowie die Definition von Eignungs- und Vorzugsgebieten sein. Ziel ist es, die räumliche Energieplanung zugänglicher und effizienter zu machen. Die administrativen Grenzen der Stadtgemeinde Gleisdorf bilden das Untersuchungsgebiet, für das die gegenständliche Anwendung entwickelt wird. Die räumliche Datengrundlage der Applikation zur Charakterisierung des Gebäudebestandes, der leitungsgebundenen Energieinfrastruktur sowie der lokal verfügbaren erneuerbaren Energiepotenziale stammen überwiegend aus dem Forschungsprojekt S/E/P in Kooperation mit AEE INTEC, Land Steiermark und Stadtgemeinde Gleisdorf. Ausgehend von den Anforderungen der räumlichen Energieplanung werden die Architektur und die Komponenten zur Umsetzung der Applikation gewählt. Ebenso werden das Design und die Funktionen auf die räumliche Energieplanung abgestimmt. Das Ergebnis ist eine Open-Source-WebGIS-Anwendung, die es durch Visualisierung und statistische Auswertungen von räumlichen Daten bewerkstelligt, Informationen zu Wärmebedarf und den Potentialen für eine klimafreundliche (erneuerbare) Wärmebereitstellung zu präsentieren. Durch die integrierte Funktion der attributiven und räumlichen Selektion lassen sich (Ziel-) Bereiche individuell bestimmen und untersuchen. Die implementierte Alternativenprüfung ermöglicht es außerdem, das Wärmeversorgungssystem auf Grundstücksebene nach räumlichen, ökonomischen und ökologischen Kriterien zu prüfen, um daraus Handlungsempfehlungen abzuleiten.
Entwicklung eines Schienenmesswagens zur Vermessung von Führungsschienen in Industrieanlagen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Ziel der Masterarbeit war es, festzustellen, ob mithilfe eines eigens konzeptionierten Schienenmesswagens die Montagequalität von automatisierten Lagerregalsystemen überprüft werden kann. Dazu wurden geeignete Sensoren ausgewählt und auf einer shuttleähnlichen Plattform montiert. Die Sensoren wurden in ihrer Lage und Ausrichtung auf dem Shuttle mithilfe von Referenzvermessungen kalibriert, sodass die Messwerte der Sensoren in die geforderten Parameter zur Überprüfung des Regalsystems, umgerechnet werden konnten. Getestet wurde das Vermessungssystem einerseits im Messlabor der TU Graz und andererseits im praktischen Einsatz. Die Ergebnisse aus der Vermessung mit dem Messshuttle wurden den Ergebnissen der Referenzvermessungen gegenübergestellt. Diese zeigen, dass durch Weiterentwicklung der Messplattform eine automatisierte Überprüfung in Zukunft möglich sein wird.
Ziel der Masterarbeit war es, festzustellen, ob mithilfe eines eigens konzeptionierten Schienenmesswagens die Montagequalität von automatisierten Lagerregalsystemen überprüft werden kann. Dazu wurden geeignete Sensoren ausgewählt und auf einer shuttleähnlichen Plattform montiert. Die Sensoren wurden in ihrer Lage und Ausrichtung auf dem Shuttle mithilfe von Referenzvermessungen kalibriert, sodass die Messwerte der Sensoren in die geforderten Parameter zur Überprüfung des Regalsystems, umgerechnet werden konnten. Getestet wurde das Vermessungssystem einerseits im Messlabor der TU Graz und andererseits im praktischen Einsatz. Die Ergebnisse aus der Vermessung mit dem Messshuttle wurden den Ergebnissen der Referenzvermessungen gegenübergestellt. Diese zeigen, dass durch Weiterentwicklung der Messplattform eine automatisierte Überprüfung in Zukunft möglich sein wird.
Wertermittlung von Trennstücken im Verfahren nach § 13 Liegenschaftsteilungsgesetz
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2021
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Der Gesetzgeber sieht für die Durchführung einer Grundstücksteilung anhand des vereinfachten Verfahrens nach § 13 Liegenschaftsteilungsgesetz (LiegTeilG) u.a. vor, dass der abzutrennende Grundstücksteil eine 2 000,- Euro Wertgrenze nicht überschreiten darf. Die Durchführbarkeit des kostengünstigeren und schnelleren Verfahrens, das den Eigentümern als Anreiz dienen soll, kleinere Grenz- bzw. Eigentumsänderungen ordnungsgemäß durchzuführen, ist somit von einer Bewertung des gegenständlichen Grundstücks abhängig, die zwar unkompliziert und formlos, jedoch trotzdem möglichst treffsicher und genau sein soll. Dieses Spannungsverhältnis wird in dieser Arbeit aufgegriffen und das Ziel dahingehend gesetzt, für verschiedene Grundstückskategorien die einfachste und genaueste Wertermittlungsmethode zu eruieren. Dafür wird nach einer intensiven theoretischen Einführung in die Themengebiete des Katasters und der Liegenschaftsbewertung eine Befragung der Ingenieurkonsulenten für Vermessungswesen (IKV) sowie Amts- und Dienststellenleiter der Vermessungsämter in der Steiermark mit qualitativer Inhaltsanalyse durchgeführt, um u.a. zu erheben, wie und mit welchen Methoden diese Bewertungsanforderung gegenwärtig gelöst wird. Die aus der derzeitigen Praxis ermittelten Bewertungsmethoden werden im Anschluss nach verschiedenen Kriterien aggregiert. Mit diesen Erkenntnissen werden reale § 13 LiegTeilG-Fälle den genannten Bewertungsmethoden zugeordnet. Durch einen Vergleich mit einer Referenzbewertung wird eine alternative - auf aktuelle am Markt vorhandene Lösungen angepasste - Bewertungsmethode entwickelt. Die Zielsetzung der Arbeit wurde nach umfangreichen Untersuchungen erreicht. Die Datenquellen Statistik Austria und Bodenpreise.at konnten für den konkreten Fall der Wertermittlung von Trennstücken für verschiedene Grundstückskategorien als die geeignetsten Lösungen für die entwickelte Bewertungsmethode eruiert werden und wurden abschließend in das erstellte Prozessdiagramm, das die Abläufe einer Grundstückteilung darstellt, an der Stelle der Wertermittlung integriert.
Der Gesetzgeber sieht für die Durchführung einer Grundstücksteilung anhand des vereinfachten Verfahrens nach § 13 Liegenschaftsteilungsgesetz (LiegTeilG) u.a. vor, dass der abzutrennende Grundstücksteil eine 2 000,- Euro Wertgrenze nicht überschreiten darf. Die Durchführbarkeit des kostengünstigeren und schnelleren Verfahrens, das den Eigentümern als Anreiz dienen soll, kleinere Grenz- bzw. Eigentumsänderungen ordnungsgemäß durchzuführen, ist somit von einer Bewertung des gegenständlichen Grundstücks abhängig, die zwar unkompliziert und formlos, jedoch trotzdem möglichst treffsicher und genau sein soll. Dieses Spannungsverhältnis wird in dieser Arbeit aufgegriffen und das Ziel dahingehend gesetzt, für verschiedene Grundstückskategorien die einfachste und genaueste Wertermittlungsmethode zu eruieren. Dafür wird nach einer intensiven theoretischen Einführung in die Themengebiete des Katasters und der Liegenschaftsbewertung eine Befragung der Ingenieurkonsulenten für Vermessungswesen (IKV) sowie Amts- und Dienststellenleiter der Vermessungsämter in der Steiermark mit qualitativer Inhaltsanalyse durchgeführt, um u.a. zu erheben, wie und mit welchen Methoden diese Bewertungsanforderung gegenwärtig gelöst wird. Die aus der derzeitigen Praxis ermittelten Bewertungsmethoden werden im Anschluss nach verschiedenen Kriterien aggregiert. Mit diesen Erkenntnissen werden reale § 13 LiegTeilG-Fälle den genannten Bewertungsmethoden zugeordnet. Durch einen Vergleich mit einer Referenzbewertung wird eine alternative - auf aktuelle am Markt vorhandene Lösungen angepasste - Bewertungsmethode entwickelt. Die Zielsetzung der Arbeit wurde nach umfangreichen Untersuchungen erreicht. Die Datenquellen Statistik Austria und Bodenpreise.at konnten für den konkreten Fall der Wertermittlung von Trennstücken für verschiedene Grundstückskategorien als die geeignetsten Lösungen für die entwickelte Bewertungsmethode eruiert werden und wurden abschließend in das erstellte Prozessdiagramm, das die Abläufe einer Grundstückteilung darstellt, an der Stelle der Wertermittlung integriert.
Standardized Structure from Motion - Multi View Stereo Photogrammetry Workflow to Gain High Quality Digital Elevation Models for Geomorphic Research Models for Geomorphic Research
Institut für Geographie und Raumforschung, Universität Graz, 2021
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Heutzutage werden unbemannte Luftfahrzeuge in fast allen Bereichen der physischen Geographie, insbesondere in der Geomorphologie eingesetzt. Aufgrund der relativ geringen Anschaffungskosten dieser unbemannten Luftfahrzeuge und einfach zu bedienender Software ist es möglich, ohne fundierte Kenntnisse auf dem Gebiet der Fernerkundung und Photogrammetrie Datengrundlagen für die Forschung zu erstellen. Die zu diesem Zweck eingesetzten günstigen Sensoren erfüllen in der Regel nicht die Anforderungen, die in der traditionellen Photogrammetrie üblich sind, um die Genauigkeit der Datengrundlage für die weitere Forschung zu bewerten. In dieser Arbeit wurde ein "Structure from Motion" - "Multi View Stereo" Workflow entwickelt, der auf der Basis von aufgenommenen Daten unbemannter Luftfahrzeuge mit entsprechenden theoretischen Abschätzungen der Genauigkeit und Präzision eine detaillierte Analyse der Ergebnisse durch eine Simulationsmethode ermöglicht und darüber hinaus optimierte Parameter für die Berechnung in einem „Structure from Motion“ - „Multi View Stereo“ Verfahren bereitstellt. Der Workflow selbst besteht aus einer Benutzeroberfläche, mit der sowohl Berechnungen in der SfM-Software über eine Anwendungsschnittstelle ausgelöst, als auch die Ergebnisse der Berechnungen in der Benutzeroberfläche angezeigt werden können. Durch die Anwendung des Workflows konnte in erster Linie der systematische Fehler, inhärent in dreidimensionalen Punktwolken aus der Stereobildzuordnung, um den Faktor ~5 verbessert werden und weiters ist es möglich, eine Aussage über die räumliche Verteilung der Genauigkeit in den Ergebnissen anzugeben. Um die Ergebnisse des Workflows übersichtlich und interpretierbar zusammenzufassen, wurde ein Protokoll erstellt, das relevante Informationen zu dem verwendeten unbemannten Luftfahrzeug, der Sensorik, dem Untersuchungsdesign, den Prozessierungsparametern und der Genauigkeitsbetrachtung enthält.
Heutzutage werden unbemannte Luftfahrzeuge in fast allen Bereichen der physischen Geographie, insbesondere in der Geomorphologie eingesetzt. Aufgrund der relativ geringen Anschaffungskosten dieser unbemannten Luftfahrzeuge und einfach zu bedienender Software ist es möglich, ohne fundierte Kenntnisse auf dem Gebiet der Fernerkundung und Photogrammetrie Datengrundlagen für die Forschung zu erstellen. Die zu diesem Zweck eingesetzten günstigen Sensoren erfüllen in der Regel nicht die Anforderungen, die in der traditionellen Photogrammetrie üblich sind, um die Genauigkeit der Datengrundlage für die weitere Forschung zu bewerten. In dieser Arbeit wurde ein "Structure from Motion" - "Multi View Stereo" Workflow entwickelt, der auf der Basis von aufgenommenen Daten unbemannter Luftfahrzeuge mit entsprechenden theoretischen Abschätzungen der Genauigkeit und Präzision eine detaillierte Analyse der Ergebnisse durch eine Simulationsmethode ermöglicht und darüber hinaus optimierte Parameter für die Berechnung in einem „Structure from Motion“ - „Multi View Stereo“ Verfahren bereitstellt. Der Workflow selbst besteht aus einer Benutzeroberfläche, mit der sowohl Berechnungen in der SfM-Software über eine Anwendungsschnittstelle ausgelöst, als auch die Ergebnisse der Berechnungen in der Benutzeroberfläche angezeigt werden können. Durch die Anwendung des Workflows konnte in erster Linie der systematische Fehler, inhärent in dreidimensionalen Punktwolken aus der Stereobildzuordnung, um den Faktor ~5 verbessert werden und weiters ist es möglich, eine Aussage über die räumliche Verteilung der Genauigkeit in den Ergebnissen anzugeben. Um die Ergebnisse des Workflows übersichtlich und interpretierbar zusammenzufassen, wurde ein Protokoll erstellt, das relevante Informationen zu dem verwendeten unbemannten Luftfahrzeug, der Sensorik, dem Untersuchungsdesign, den Prozessierungsparametern und der Genauigkeitsbetrachtung enthält.
Einfluss von Satelliten-Megakonstellationen auf VLBI Messungen Herbert Wicker
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Private Firmen versuchen sich zunehmend in der Entwicklung von Satelliten und generell in der Raumfahrt zu etablieren. Dem Unternehmen SpaceX ist dieser Schritt im letzten Jahr auch geglückt. In den kommenden Jahren will es eine Flotte von 40.000 Satelliten im Weltall haben und auch die personenbezogene Raumfahrt revolutionieren. Diese Megakonstellation an sogenannten Starlink Satelliten bereitet aber der Very Long Baseline Interferometry Kopfzerbrechen und es stellt sich die Frage, ob sie Auswirkungen auf die geodätischen Messungen hat. Da die VLBI als einziges Verfahren alle fünf Erdorientierungsparameter (EOP) bestimmen kann, sollten die Messungen höchst präzise und vor allem frei von Störungen sein. Folglich werden in dieser Arbeit mithilfe der online verfügbaren NORAD two line elements die Bahnen der Starlink Satelliten berechnet und auf eine Überlappung mit den Beobachtungen überprüft. Ein Radioteleskop einer VLBI Station misst die Radiostrahlung sogenannter Quasare, sollte sich nun ein Satellit in dem Öffnungswinkel einer Antenne befinden, wird er als zu nahe angesehen und die Beobachtung muss eliminiert werden. Dieser Schritt wird mit allen Satelliten und allen Beobachtungen durchgeführt und als Ergebnis erhält man einen gekürzten Datensatz. Mit dem Programm VieVS folgt als nächster Schritt eine Auswertung dieser Daten und man erhält den mean formal error, Mittelwert der Standardabweichung, für die EOPs und die Stationskoordinaten. Bei einem Vergleich der Differenz zwischen den originalen und den reduzierten Daten können Rückschlüsse auf die Auswirkungen gezogen werden. Bei einer geringen Anzahl an Satelliten (1.000) sind noch keine größeren Fehler erkennbar. Erzeugt man aber zusätzliche Satellitenbahnen, müssen bei 40.000 Satelliten bis zu 12% der Beobachtungen eliminiert werden und ernstzunehmende Verschlechterungen der mean formal errors treten auf. Die Resultate bezüglich dUT1 verschlechtern sich vom Originalwert bis zur Endkonstellation um 16%, die anderen Parameter weisen mit 13% in der Polbewegung und 11.5% in den Stationskoordinaten ähnliche Größen in den Verschlechterungen auf. Somit stellen zukünftige Megakonstellationen von Satelliten durchaus Probleme für die Very Long Baseline Interferometry dar.
Private Firmen versuchen sich zunehmend in der Entwicklung von Satelliten und generell in der Raumfahrt zu etablieren. Dem Unternehmen SpaceX ist dieser Schritt im letzten Jahr auch geglückt. In den kommenden Jahren will es eine Flotte von 40.000 Satelliten im Weltall haben und auch die personenbezogene Raumfahrt revolutionieren. Diese Megakonstellation an sogenannten Starlink Satelliten bereitet aber der Very Long Baseline Interferometry Kopfzerbrechen und es stellt sich die Frage, ob sie Auswirkungen auf die geodätischen Messungen hat. Da die VLBI als einziges Verfahren alle fünf Erdorientierungsparameter (EOP) bestimmen kann, sollten die Messungen höchst präzise und vor allem frei von Störungen sein. Folglich werden in dieser Arbeit mithilfe der online verfügbaren NORAD two line elements die Bahnen der Starlink Satelliten berechnet und auf eine Überlappung mit den Beobachtungen überprüft. Ein Radioteleskop einer VLBI Station misst die Radiostrahlung sogenannter Quasare, sollte sich nun ein Satellit in dem Öffnungswinkel einer Antenne befinden, wird er als zu nahe angesehen und die Beobachtung muss eliminiert werden. Dieser Schritt wird mit allen Satelliten und allen Beobachtungen durchgeführt und als Ergebnis erhält man einen gekürzten Datensatz. Mit dem Programm VieVS folgt als nächster Schritt eine Auswertung dieser Daten und man erhält den mean formal error, Mittelwert der Standardabweichung, für die EOPs und die Stationskoordinaten. Bei einem Vergleich der Differenz zwischen den originalen und den reduzierten Daten können Rückschlüsse auf die Auswirkungen gezogen werden. Bei einer geringen Anzahl an Satelliten (1.000) sind noch keine größeren Fehler erkennbar. Erzeugt man aber zusätzliche Satellitenbahnen, müssen bei 40.000 Satelliten bis zu 12% der Beobachtungen eliminiert werden und ernstzunehmende Verschlechterungen der mean formal errors treten auf. Die Resultate bezüglich dUT1 verschlechtern sich vom Originalwert bis zur Endkonstellation um 16%, die anderen Parameter weisen mit 13% in der Polbewegung und 11.5% in den Stationskoordinaten ähnliche Größen in den Verschlechterungen auf. Somit stellen zukünftige Megakonstellationen von Satelliten durchaus Probleme für die Very Long Baseline Interferometry dar.
VODCA2GPP - A new global, long-term (1988-2020) GPP dataset from microwave remote sensing
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc
Kurzfassung/Abstract
Long-term global monitoring of terrestrial Gross Primary Production (GPP) is crucial for assessing ecosystem response to global climate change. In recent years and decades, great advances in estimating GPP on a global level have been made and many global GPP datasets have been published. These global data records are either based on observations from optical remote sensing, are upscaled from in situ measurements, or rely on process-based models. The different estimation approaches are well established within the scientific community but also exhibit significant discrepancies among each other. Here, the new VODCA2GPP dataset is introduced, which utilizes microwave remote sensing estimates of Vegetation Optical Depth (VOD) to estimate GPP on a global scale. VODCA2GPP is able to complement existing products with long-term GPP estimates covering the period 1988 - 2020. VODCA2GPP applies a previously developed carbon sink-driven approach (Teubner et al. [2019], [2021]) to estimate GPP from the Vegetation Optical Depth Climate Archive (Zotta et al. [in preperation]; Moesinger et al. [2020]), which merges VOD observations from multiple sensors into one long-running, coherent data record. VODCA2GPP was trained and evaluated against FLUXNET in situ observations of GPP and assessed against largely independent state-of-the art GPP datasets (MODIS GPP, FLUXCOM GPP, and GPP estimates from the TRENDY-v7 model ensemble). These assessments show that VODCA2GPP exhibits very similar spatial patterns compared to existing GPP datasets across all biomes but with a consistent positive bias. In terms of temporal dynamics, a high agreement was found for regions outside the humid tropics, with median correlations around 0.75. Concerning anomalies from the long-term climatology, VODCA2GPP correlates well with MODIS and TRENDY-v7 GPP (Pearson's r: 0.53 and 0.61) but less with FLUXCOM GPP (Pearson's r: 0.29). A trend analysis for the period 1988-2019 did not exhibit a significant trend in VODCA2GPP on a global scale but rather suggests regionally differing long-term changes in GPP. Significant similar increases of global GPP that were found for VODCA2GPP, MODIS GPP, and the TRENDY-v7 ensemble for the shorter overlapping observation period (2003-2015) supports the theory of elevated CO2 uptake potentially induced by increased atmospheric CO2 concentrations and the associated rising temperatures.
Long-term global monitoring of terrestrial Gross Primary Production (GPP) is crucial for assessing ecosystem response to global climate change. In recent years and decades, great advances in estimating GPP on a global level have been made and many global GPP datasets have been published. These global data records are either based on observations from optical remote sensing, are upscaled from in situ measurements, or rely on process-based models. The different estimation approaches are well established within the scientific community but also exhibit significant discrepancies among each other. Here, the new VODCA2GPP dataset is introduced, which utilizes microwave remote sensing estimates of Vegetation Optical Depth (VOD) to estimate GPP on a global scale. VODCA2GPP is able to complement existing products with long-term GPP estimates covering the period 1988 - 2020. VODCA2GPP applies a previously developed carbon sink-driven approach (Teubner et al. [2019], [2021]) to estimate GPP from the Vegetation Optical Depth Climate Archive (Zotta et al. [in preperation]; Moesinger et al. [2020]), which merges VOD observations from multiple sensors into one long-running, coherent data record. VODCA2GPP was trained and evaluated against FLUXNET in situ observations of GPP and assessed against largely independent state-of-the art GPP datasets (MODIS GPP, FLUXCOM GPP, and GPP estimates from the TRENDY-v7 model ensemble). These assessments show that VODCA2GPP exhibits very similar spatial patterns compared to existing GPP datasets across all biomes but with a consistent positive bias. In terms of temporal dynamics, a high agreement was found for regions outside the humid tropics, with median correlations around 0.75. Concerning anomalies from the long-term climatology, VODCA2GPP correlates well with MODIS and TRENDY-v7 GPP (Pearson's r: 0.53 and 0.61) but less with FLUXCOM GPP (Pearson's r: 0.29). A trend analysis for the period 1988-2019 did not exhibit a significant trend in VODCA2GPP on a global scale but rather suggests regionally differing long-term changes in GPP. Significant similar increases of global GPP that were found for VODCA2GPP, MODIS GPP, and the TRENDY-v7 ensemble for the shorter overlapping observation period (2003-2015) supports the theory of elevated CO2 uptake potentially induced by increased atmospheric CO2 concentrations and the associated rising temperatures.
Satellite Scheduling with VieSched++
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2021
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is a space-geodetic technique observing extragalactic radio sources with globally distributed radio telescopes. Over the last years, ideas have been proposed to equip one or more satellites of the second generation of the Galileo constellation with a VLBI transmitter. Observations of satellites with VLBI antennas provide a variety of new possibilities such as the direct determination of the absolute orientation of the satellite orbit with respect to the International Celestial Reference Frame (ICRF) and providing space ties instead of using local ties for connecting reference frames of different space-geodetic techniques. As more VLBI antennas have to observe a source simultaneously, it is necessary to create an observation plan, a so-called schedule. Common scheduling software packages support the scheduling of observations to extragalactic radio sources but only a few are able to schedule observations to satellites. The newly developed scheduling software VieSched++, written in C++, was equipped with a satellite scheduling module which allows the generation of a schedule including both, observations to quasars and satellites. In this work, an overview about the new satellite scheduling module in VieSched++ is given and the different available approaches to schedule satellite observations, the semi-manual and the automatic approach, are described. Moreover, this thesis deals with an evaluation study of possible satellite observations to Galileo satellites from a VLBI network. The time periods during which a satellite is observable from the VLBI network are determined using the satellite scheduling module in VieSched++. The possible satellite observations are evaluated through the number of stations from which the satellite could be observed and by the impact on determining the orientation of the satellite constellation directly with respect to ICRF, caused by the observation geometry. The study shows that Galileo satellites exhibit a high visibility for a VLBI network. There are no differences in terms of visibility between the individual orbital planes of the Galileo constellation and between the different orbital positions within these planes. If one satellite would be equipped with a VLBI transmitter there is therefore no preferable plane or slot within a plane to place this satellite. The investigation of the best combination of two satellites equipped with a VLBI transmitter shows that it has to be distinguished if the satellites are within the same plane or in different orbital planes.
Very Long Baseline Interferometry (VLBI) is a space-geodetic technique observing extragalactic radio sources with globally distributed radio telescopes. Over the last years, ideas have been proposed to equip one or more satellites of the second generation of the Galileo constellation with a VLBI transmitter. Observations of satellites with VLBI antennas provide a variety of new possibilities such as the direct determination of the absolute orientation of the satellite orbit with respect to the International Celestial Reference Frame (ICRF) and providing space ties instead of using local ties for connecting reference frames of different space-geodetic techniques. As more VLBI antennas have to observe a source simultaneously, it is necessary to create an observation plan, a so-called schedule. Common scheduling software packages support the scheduling of observations to extragalactic radio sources but only a few are able to schedule observations to satellites. The newly developed scheduling software VieSched++, written in C++, was equipped with a satellite scheduling module which allows the generation of a schedule including both, observations to quasars and satellites. In this work, an overview about the new satellite scheduling module in VieSched++ is given and the different available approaches to schedule satellite observations, the semi-manual and the automatic approach, are described. Moreover, this thesis deals with an evaluation study of possible satellite observations to Galileo satellites from a VLBI network. The time periods during which a satellite is observable from the VLBI network are determined using the satellite scheduling module in VieSched++. The possible satellite observations are evaluated through the number of stations from which the satellite could be observed and by the impact on determining the orientation of the satellite constellation directly with respect to ICRF, caused by the observation geometry. The study shows that Galileo satellites exhibit a high visibility for a VLBI network. There are no differences in terms of visibility between the individual orbital planes of the Galileo constellation and between the different orbital positions within these planes. If one satellite would be equipped with a VLBI transmitter there is therefore no preferable plane or slot within a plane to place this satellite. The investigation of the best combination of two satellites equipped with a VLBI transmitter shows that it has to be distinguished if the satellites are within the same plane or in different orbital planes.