- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2016
Abschlussarbeiten 2016
Multi-Scale 3D Modeling and Parametrization of the Resource Forest Based on Airborne and Terrestrial Laser Scanning
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2016
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Markus Hollaus
Kurzfassung/Abstract
Ungefähr ein Drittel der Landfläche der Erde ist durch Wald bedeckt. Der Wald erfüllt Ökologische und Ökonomische Funktionen für Mensch und Tier und dient als Ressource und Habitat. Die Domäne der Forstwirtschaft und Forstwissenschaft beschäftigt sich mit der Erhaltung und Bewirtschaftung der Wälder und ihrer Funktionen. Eine wesentliche Aufgabe ist dabei die Analyse von Zuständen und Prozessen im Wald. Dazu werden unter anderem Modelle des Waldes benötigt. Als unterstützende Maßnahme zur Analyse und Lösung von verschiedenen Fragestellungen aus forstbezogenen Anwendungen können Daten und Produkte aus den Domänen der Fernerkundung und Photogrammetrie verwendet werden. Neue Fernerkundungstechnologien, wie zum Beispiel Flugplattform getragenes Laserscanning (ALS) oder terrestrisches Laserscanning (TLS) ermöglichen die Erfassung von detaillierten 3D Informationen über das Kronendach von Waldbeständen sowie die Erfassung einzelner Bäume. Basierend auf diesen Daten können verschiedene Modelle der hohen Vegetation extrahiert und beschrieben werden. Diese Modelle weisen unterschiedliche Granularität auf und modellieren die Vegetation in einem größeren oder geringeren Ausmaß. Die Granularität hängt hauptsächlich von der Zielanwendung, der Qualität der Eingangsdaten sowie dem gewünschten Zielmaßstab ab. Anwendungen, wie beispielsweise die Abgrenzung von Waldgebieten, die Erkennung von einzelnen Bäumen oder die Gewinnung von Informationen über einzelne Bäume oder Waldbestände können von Laserscandaten sowie den daraus extrahierten Modellen profitieren. Die Ziele dieser Dissertation sind (i) die Analyse und Weiterentwicklung von Methoden, die Vegetation auf mehreren Skalen modellieren und (ii) die Extraktion von Vegetationsparametern basierend auf Daten des Laserscannings. Dazu gehört die Entwicklung von ALS basierten Verfahren für die Abgrenzung von Waldflächen und Waldlücken, sowie die Schätzung von Parametern und Positionen einzelner Bäume. Außerdem wird ein TLS basiertes Verfahren zur 3D-Modellierung von Stämmen und Zweigen einzelner Bäume entwickelt. Zusätzlich wird ein geometrisch getriebenes Levels of Detail Konzept für die Modellierung hoher Vegetation vorgestellt. Das an bestehende Modellierungskonzepte der Stadtmodellierung angelehnte Konzept besteht aus sechs Stufen, und ermöglicht eine Modellierung der Ressource Wald mit unterschiedlicher Granularität. Die ersten drei Stufen beschreiben die Vegetation ausschließlich in 2D oder 2.5D. Sie können zur Modellierung von Waldflächen, Waldbeständen oder individuellen Objekten verwendet werden. Die letzten drei Stufen ermöglichen eine Modellierung von individuellen Objekten im 3D-Raum. Die Beschreibung generischer Modelle (z.B. Ellipsoid oder Alpha-Hülle auf einer Stange) sowie detaillierter Modelle von Strukturelementen (z.B. Stamm, Äste) einzelner Bäume wird in diesen Stufen ermöglicht. In fünf Forschungsartikeln wurden drei Stufen des Modellierungskonzeptes näher studiert. Die vorliegenden Studien wurden bereits in mehreren begutachteten Fachzeitschriften und Konferenzbeiträgen publiziert. Artikel I, II und III untersuchen das Potenzial von ALS für (i) eine Wald - Nichtwald Klassifizierung / Abgrenzung, (ii) die Ermittlung des Überschirmungsgrades und (iii) die Abgrenzung und Klassifizierung von Waldlücken. Die vorgestellten Methoden liefern automatische, reproduzierbare und objektive Ergebnisse bei großer Flächenleistung und zeigen hohes Potenzial für die untersuchten Anwendungen. Artikel IV untersucht das Potenzial von acht ALS basierten Einzelbaum Detektionsmethoden basierend auf einem heterogenen Datensatz von ALS Daten und Forstinventurdaten aus dem Alpenraum. Artikel V untersucht ein Verfahren zur Extraktion von Baumstruktur und Volumetrischen Modellen auf Basis von TLS Daten. Auf Grundlage der vorgelegten Studien konnte nachgewiesen werden, dass Laser-Scanning ein leistungsfähiges Werkzeug zur Erfassung und mehrskaligen Modellierung von hoher Vegetation ist. Aus dieser Dissertation ergeben sich vier Schlüsselergebnisse: 1. Die Modellierung und Quantifizierung von hoher Vegetation impliziert die Notwendigkeit für Modelle mit unterschiedlicher Granularität. Diese Modelle können in verschiedenen Detaillierungsgraden definiert und kategorisiert werden. Die vorgeschlagenen Modelle ermöglichen die Beschreibung von aggregierter Informationen mehrerer Objekte bis hin zu einer detaillierten Beschreibung einzelner Objekte. Die Beschreibung einzelner Strukturteile von Bäumen (z.B. Stamm, Äste, Nadeln/Blätter) in Stufe 5 stellt die höchstmögliche Modellierungsstufe dar. 2. Laser Scanning (ALS oder TLS) ist eine leistungsfähige 3D Erfassungsmethode, und stellt eine gute Datenquelle für die Modellierung der Ressource Wald in verschiedenen Skalen dar. Alle vorgeschlagenen Modellierungsstufen können aus Laserscandaten abgeleitet werden. Einschränkungen des Laser Scannings ergeben sich aus der begrenzten Sichtbarkeit von Objekten, den physikalischen und geometrischen Einschränkungen der Messmethode sowie der Geometrie in der Datenerfassung. Die Zielanwendung und der Maßstab des gewünschten Modells definieren, welche Art von Laserscanning Daten zu favorisieren sind. 3. Mit steigendem Detaillierungsgrad sinkt die allgemeine Qualität der Ergebnisse. Die beste Genauigkeit konnte für "einfache" Modelle wie beispielsweise im Modell der Stufe 0 ermittelt werden. 4. Die im Bereich der Forstwirtschaft und Forstwissenschaft verwendeten Definitionen sind vielfach nicht rein geometrisch, was jedoch für die Nutzung von Laserscandaten von Vorteil wäre. Bis jetzt sind viele der existierenden Definitionen nicht vollständig mit der Genauigkeit von Laserscanning kompatibel.
Ungefähr ein Drittel der Landfläche der Erde ist durch Wald bedeckt. Der Wald erfüllt Ökologische und Ökonomische Funktionen für Mensch und Tier und dient als Ressource und Habitat. Die Domäne der Forstwirtschaft und Forstwissenschaft beschäftigt sich mit der Erhaltung und Bewirtschaftung der Wälder und ihrer Funktionen. Eine wesentliche Aufgabe ist dabei die Analyse von Zuständen und Prozessen im Wald. Dazu werden unter anderem Modelle des Waldes benötigt. Als unterstützende Maßnahme zur Analyse und Lösung von verschiedenen Fragestellungen aus forstbezogenen Anwendungen können Daten und Produkte aus den Domänen der Fernerkundung und Photogrammetrie verwendet werden. Neue Fernerkundungstechnologien, wie zum Beispiel Flugplattform getragenes Laserscanning (ALS) oder terrestrisches Laserscanning (TLS) ermöglichen die Erfassung von detaillierten 3D Informationen über das Kronendach von Waldbeständen sowie die Erfassung einzelner Bäume. Basierend auf diesen Daten können verschiedene Modelle der hohen Vegetation extrahiert und beschrieben werden. Diese Modelle weisen unterschiedliche Granularität auf und modellieren die Vegetation in einem größeren oder geringeren Ausmaß. Die Granularität hängt hauptsächlich von der Zielanwendung, der Qualität der Eingangsdaten sowie dem gewünschten Zielmaßstab ab. Anwendungen, wie beispielsweise die Abgrenzung von Waldgebieten, die Erkennung von einzelnen Bäumen oder die Gewinnung von Informationen über einzelne Bäume oder Waldbestände können von Laserscandaten sowie den daraus extrahierten Modellen profitieren. Die Ziele dieser Dissertation sind (i) die Analyse und Weiterentwicklung von Methoden, die Vegetation auf mehreren Skalen modellieren und (ii) die Extraktion von Vegetationsparametern basierend auf Daten des Laserscannings. Dazu gehört die Entwicklung von ALS basierten Verfahren für die Abgrenzung von Waldflächen und Waldlücken, sowie die Schätzung von Parametern und Positionen einzelner Bäume. Außerdem wird ein TLS basiertes Verfahren zur 3D-Modellierung von Stämmen und Zweigen einzelner Bäume entwickelt. Zusätzlich wird ein geometrisch getriebenes Levels of Detail Konzept für die Modellierung hoher Vegetation vorgestellt. Das an bestehende Modellierungskonzepte der Stadtmodellierung angelehnte Konzept besteht aus sechs Stufen, und ermöglicht eine Modellierung der Ressource Wald mit unterschiedlicher Granularität. Die ersten drei Stufen beschreiben die Vegetation ausschließlich in 2D oder 2.5D. Sie können zur Modellierung von Waldflächen, Waldbeständen oder individuellen Objekten verwendet werden. Die letzten drei Stufen ermöglichen eine Modellierung von individuellen Objekten im 3D-Raum. Die Beschreibung generischer Modelle (z.B. Ellipsoid oder Alpha-Hülle auf einer Stange) sowie detaillierter Modelle von Strukturelementen (z.B. Stamm, Äste) einzelner Bäume wird in diesen Stufen ermöglicht. In fünf Forschungsartikeln wurden drei Stufen des Modellierungskonzeptes näher studiert. Die vorliegenden Studien wurden bereits in mehreren begutachteten Fachzeitschriften und Konferenzbeiträgen publiziert. Artikel I, II und III untersuchen das Potenzial von ALS für (i) eine Wald - Nichtwald Klassifizierung / Abgrenzung, (ii) die Ermittlung des Überschirmungsgrades und (iii) die Abgrenzung und Klassifizierung von Waldlücken. Die vorgestellten Methoden liefern automatische, reproduzierbare und objektive Ergebnisse bei großer Flächenleistung und zeigen hohes Potenzial für die untersuchten Anwendungen. Artikel IV untersucht das Potenzial von acht ALS basierten Einzelbaum Detektionsmethoden basierend auf einem heterogenen Datensatz von ALS Daten und Forstinventurdaten aus dem Alpenraum. Artikel V untersucht ein Verfahren zur Extraktion von Baumstruktur und Volumetrischen Modellen auf Basis von TLS Daten. Auf Grundlage der vorgelegten Studien konnte nachgewiesen werden, dass Laser-Scanning ein leistungsfähiges Werkzeug zur Erfassung und mehrskaligen Modellierung von hoher Vegetation ist. Aus dieser Dissertation ergeben sich vier Schlüsselergebnisse: 1. Die Modellierung und Quantifizierung von hoher Vegetation impliziert die Notwendigkeit für Modelle mit unterschiedlicher Granularität. Diese Modelle können in verschiedenen Detaillierungsgraden definiert und kategorisiert werden. Die vorgeschlagenen Modelle ermöglichen die Beschreibung von aggregierter Informationen mehrerer Objekte bis hin zu einer detaillierten Beschreibung einzelner Objekte. Die Beschreibung einzelner Strukturteile von Bäumen (z.B. Stamm, Äste, Nadeln/Blätter) in Stufe 5 stellt die höchstmögliche Modellierungsstufe dar. 2. Laser Scanning (ALS oder TLS) ist eine leistungsfähige 3D Erfassungsmethode, und stellt eine gute Datenquelle für die Modellierung der Ressource Wald in verschiedenen Skalen dar. Alle vorgeschlagenen Modellierungsstufen können aus Laserscandaten abgeleitet werden. Einschränkungen des Laser Scannings ergeben sich aus der begrenzten Sichtbarkeit von Objekten, den physikalischen und geometrischen Einschränkungen der Messmethode sowie der Geometrie in der Datenerfassung. Die Zielanwendung und der Maßstab des gewünschten Modells definieren, welche Art von Laserscanning Daten zu favorisieren sind. 3. Mit steigendem Detaillierungsgrad sinkt die allgemeine Qualität der Ergebnisse. Die beste Genauigkeit konnte für "einfache" Modelle wie beispielsweise im Modell der Stufe 0 ermittelt werden. 4. Die im Bereich der Forstwirtschaft und Forstwissenschaft verwendeten Definitionen sind vielfach nicht rein geometrisch, was jedoch für die Nutzung von Laserscandaten von Vorteil wäre. Bis jetzt sind viele der existierenden Definitionen nicht vollständig mit der Genauigkeit von Laserscanning kompatibel.
Estimation of error structures in remotely sensed soil moisture data sets
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr. Wouter Arnoud Dorigo MSc
Kurzfassung/Abstract
Soil moisture is one of the most important drivers of the hydrological cycle. Therefore, global soil moisture records are needed to study hydrology driven phenomena of the earth system such as climate change, vegetation growth, and many others. The most important sources for global soil moisture records are space borne microwave instruments. However, such satellite-derived soil moisture products are subject to errors and their correct interpretation and application requires an in-depth understanding of their accuracy. Triple collocation (TC) analysis is a method for estimating the individual signal- and random error variances of three collocated data sets with mutually uncorrelated errors without relying on a high-quality reference data set. It has therefore evolved as one of the most important methods for estimating error structures in remotely sensed soil moisture data sets. Nevertheless, the exploitation of the full potential of the TC method is still subject to ongoing research. On the other hand, TC analysis is based on a variety of assumption on the structure of the underlying data sets whose validity hasn't been fully investigated yet. This thesis further develops the TC method, aiming for an improved and more complete estimation of error structures in remotely sensed soil moisture data sets. Existing TC implementations are reviewed, assumptions underlying the method are evaluated, and novel generalizations and extensions to the method are proposed, which allow for a more objective interpretation of soil moisture data quality as well as for the additional estimation of spatial error auto-correlation and mutual error cross-correlation structures.
Soil moisture is one of the most important drivers of the hydrological cycle. Therefore, global soil moisture records are needed to study hydrology driven phenomena of the earth system such as climate change, vegetation growth, and many others. The most important sources for global soil moisture records are space borne microwave instruments. However, such satellite-derived soil moisture products are subject to errors and their correct interpretation and application requires an in-depth understanding of their accuracy. Triple collocation (TC) analysis is a method for estimating the individual signal- and random error variances of three collocated data sets with mutually uncorrelated errors without relying on a high-quality reference data set. It has therefore evolved as one of the most important methods for estimating error structures in remotely sensed soil moisture data sets. Nevertheless, the exploitation of the full potential of the TC method is still subject to ongoing research. On the other hand, TC analysis is based on a variety of assumption on the structure of the underlying data sets whose validity hasn't been fully investigated yet. This thesis further develops the TC method, aiming for an improved and more complete estimation of error structures in remotely sensed soil moisture data sets. Existing TC implementations are reviewed, assumptions underlying the method are evaluated, and novel generalizations and extensions to the method are proposed, which allow for a more objective interpretation of soil moisture data quality as well as for the additional estimation of spatial error auto-correlation and mutual error cross-correlation structures.
Determination of path delays in the atmosphere for geodetic VLBI by means of ray-tracing
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Observations of space geodetic techniques like the Very Long Baseline Interferometry (VLBI) are influenced by atmospheric effects that act on the signal path and the signal propagation. In order to be able to accurately analyse the observed data, it is necessary to reduce these effects in form of slant path delays from the observations. Today the influences of the atmosphere, i.e. of the troposphere as this part is the main unknown contributor with respect to VLBI observations, are a major error source in the analysis of space geodetic techniques. This fact is the fundamental motivation and incentive for this thesis. The current standard analysis approach of VLBI observations uses an indirect determination of the tropospheric slant path delays through a priori and estimated zenith delays and mapping functions. The presented research follows a different approach. The utilization of the ray-tracing technique, known from many different scientific fields, is a promising approach for the direct and accurate determination of the tropospheric slant path delays. The set goal is the improvement of the VLBI analysis by directly determining the tropospheric slant path delays using ray-tracing and applying them to the analysis. The important difference to the common correction approach is the utilization of true meteorological data along the actual signal path in order to calculate the tropospheric slant path delay. Furthermore both the actual signal path and the slant delay are determined together using the ray-tracing method and the meteorological parameters, which leads to a complete self-contained solution for the determination of the tropospheric slant path delays. As part of the thesis a fast and accurate ray-tracing program called RADIATE for the operational determination of tropospheric slant path delays has been developed. Research on the optimal operational program design is carried out leading to the following conclusion for operational ray-tracing: An utilization of vertically high resolved meteorological profiles, applied to the fast piecewise-linear (PWL) ray-tracing approach, which is a simplified realization of the strict signal propagation determination in the atmosphere, delivers accurate tropospheric slant path delays for the application to the VLBI analysis. The developed ray-tracing program RADIATE is validated in a comparison against ray-tracing packages of other institutions, which reveals a fully positive performance since the tropospheric slant total delays derived using the mapping factors agree very well with those from the other ray-tracing programs. At an elevation of 5° the individual differences of the RADIATE PWL results to those of the other programs, which use the same Numerical Weather Model (NWM) data input, are on average below 1.0 cm at station TSUKUB32 and below 2.4 cm at station WETTZELL. In a separate test zenith delays from program RADIATE are compared to estimates of a common VLBI analysis using the data set of the Continuous VLBI Campaign 2011 (CONT11) of the International VLBI Service for Geodesy and Astrometry (IVS). A good agreement is revealed also in this domain. The standard deviation of the differences regarding the zenith total delay is at almost all investigated stations below 1.5 cm, the one regarding the zenith hydrostatic delay is always below 0.5 cm and the one regarding the zenith wet delay is at almost all stations below 1.5 cm. Moreover the impact of the ray-traced delays from program RADIATE on the VLBI analysis is investigated. For this task ray-traced delays for all observations within the analysis are determined and applied to the analysis, which covers 16.5 years of observation data between January 1999 and the end of June 2015, i.e. 2340 sessions. The impact of the ray-traced delays on the analysis results is investigated with respect to the baseline length repeatability (BLR) and the Terrestrial Reference Frame (TRF) solution. The results of the BLR reveal that the application of the ray-traced delays to the analysis leads to equal results on average like a standard VLBI analysis if both analysis parameterizations include zenith wet delay and tropospheric gradient estimation. However, 55.9% of the baselines benefit from the application of the ray-traced delays. The differences in the BLR are at the sub-mm level. The impact changes significantly if no tropospheric gradients are estimated within the analysis. Then the solution with applied ray-traced delays is significantly better than the one without applied ray-traced delays since the BLR of 90.6% of the baselines is improved. This assessment result is important with respect to two aspects. On the one hand the correctness of the ray-tracing results of program RADIATE is confirmed due to the homogeneous improvement of almost all baselines. On the other hand this means that the implicit tropospheric gradient information of the ray-traced delays is correctly introduced to the analysis. On average the BLR is improved by 1.0 mm due to the application of the ray-traced delays. The mean relative improvement compared to the case of not applying the ray-traced delays is 9.3%. In terms of the TRF solutions there is almost no impact if the ray-traced delays are applied in case the tropospheric gradients are estimated within the analysis. Only a minor average uplift of the stations of 0.7 mm is seen if a set of reliable stations is investigated. Horizontal station displacements reach at the maximum only 1.1 mm. The scale of the frame is affected by only 0.1 ppb. Thus, the frame stays almost the same. If no tropospheric gradients are estimated within the analysis, the application of the ray-traced delays has a more evident impact on the station heights and horizontal positions. On average the stations are uplifted by 1.1 mm and displaced horizontally by 2.7 mm if a set of reliable stations is investigated. Especially the impact on the horizontal station positions shows that the implicit tropospheric gradient information of the ray-traced delays is correctly introduced to the analysis. Again the scale of the frame is affected by only 0.1 ppb and in general the application of the ray-traced delays does not significantly alter the frame. A comparison of the BLR results from applying RADIATE ray-traced delays or those from the National Aeronautics and Space Administration Goddard Space Flight Center (NASA GSFC) to the VLBI analysis of 2085 sessions between January 2000 and the end of January 2015 reveals that the RADIATE delays have a slightly better performance. In case tropospheric gradients are estimated within the analysis, there is on average no difference in the BLR results, but the RADIATE ray-traced delays perform better for 51.3% of the baselines at sub-mm level. If no gradients are estimated, the RADIATE ray-traced delays lead to better BLR by 0.2 mm on average. They perform better for 63.0% of the baselines. A mean relative improvement of 1.5% compared to the NASA GSFC ray-traced delays is seen. The performance differences between the ray-traced delays from RADIATE and from NASA GSFC may mainly come from the different utilized NWM.
Observations of space geodetic techniques like the Very Long Baseline Interferometry (VLBI) are influenced by atmospheric effects that act on the signal path and the signal propagation. In order to be able to accurately analyse the observed data, it is necessary to reduce these effects in form of slant path delays from the observations. Today the influences of the atmosphere, i.e. of the troposphere as this part is the main unknown contributor with respect to VLBI observations, are a major error source in the analysis of space geodetic techniques. This fact is the fundamental motivation and incentive for this thesis. The current standard analysis approach of VLBI observations uses an indirect determination of the tropospheric slant path delays through a priori and estimated zenith delays and mapping functions. The presented research follows a different approach. The utilization of the ray-tracing technique, known from many different scientific fields, is a promising approach for the direct and accurate determination of the tropospheric slant path delays. The set goal is the improvement of the VLBI analysis by directly determining the tropospheric slant path delays using ray-tracing and applying them to the analysis. The important difference to the common correction approach is the utilization of true meteorological data along the actual signal path in order to calculate the tropospheric slant path delay. Furthermore both the actual signal path and the slant delay are determined together using the ray-tracing method and the meteorological parameters, which leads to a complete self-contained solution for the determination of the tropospheric slant path delays. As part of the thesis a fast and accurate ray-tracing program called RADIATE for the operational determination of tropospheric slant path delays has been developed. Research on the optimal operational program design is carried out leading to the following conclusion for operational ray-tracing: An utilization of vertically high resolved meteorological profiles, applied to the fast piecewise-linear (PWL) ray-tracing approach, which is a simplified realization of the strict signal propagation determination in the atmosphere, delivers accurate tropospheric slant path delays for the application to the VLBI analysis. The developed ray-tracing program RADIATE is validated in a comparison against ray-tracing packages of other institutions, which reveals a fully positive performance since the tropospheric slant total delays derived using the mapping factors agree very well with those from the other ray-tracing programs. At an elevation of 5° the individual differences of the RADIATE PWL results to those of the other programs, which use the same Numerical Weather Model (NWM) data input, are on average below 1.0 cm at station TSUKUB32 and below 2.4 cm at station WETTZELL. In a separate test zenith delays from program RADIATE are compared to estimates of a common VLBI analysis using the data set of the Continuous VLBI Campaign 2011 (CONT11) of the International VLBI Service for Geodesy and Astrometry (IVS). A good agreement is revealed also in this domain. The standard deviation of the differences regarding the zenith total delay is at almost all investigated stations below 1.5 cm, the one regarding the zenith hydrostatic delay is always below 0.5 cm and the one regarding the zenith wet delay is at almost all stations below 1.5 cm. Moreover the impact of the ray-traced delays from program RADIATE on the VLBI analysis is investigated. For this task ray-traced delays for all observations within the analysis are determined and applied to the analysis, which covers 16.5 years of observation data between January 1999 and the end of June 2015, i.e. 2340 sessions. The impact of the ray-traced delays on the analysis results is investigated with respect to the baseline length repeatability (BLR) and the Terrestrial Reference Frame (TRF) solution. The results of the BLR reveal that the application of the ray-traced delays to the analysis leads to equal results on average like a standard VLBI analysis if both analysis parameterizations include zenith wet delay and tropospheric gradient estimation. However, 55.9% of the baselines benefit from the application of the ray-traced delays. The differences in the BLR are at the sub-mm level. The impact changes significantly if no tropospheric gradients are estimated within the analysis. Then the solution with applied ray-traced delays is significantly better than the one without applied ray-traced delays since the BLR of 90.6% of the baselines is improved. This assessment result is important with respect to two aspects. On the one hand the correctness of the ray-tracing results of program RADIATE is confirmed due to the homogeneous improvement of almost all baselines. On the other hand this means that the implicit tropospheric gradient information of the ray-traced delays is correctly introduced to the analysis. On average the BLR is improved by 1.0 mm due to the application of the ray-traced delays. The mean relative improvement compared to the case of not applying the ray-traced delays is 9.3%. In terms of the TRF solutions there is almost no impact if the ray-traced delays are applied in case the tropospheric gradients are estimated within the analysis. Only a minor average uplift of the stations of 0.7 mm is seen if a set of reliable stations is investigated. Horizontal station displacements reach at the maximum only 1.1 mm. The scale of the frame is affected by only 0.1 ppb. Thus, the frame stays almost the same. If no tropospheric gradients are estimated within the analysis, the application of the ray-traced delays has a more evident impact on the station heights and horizontal positions. On average the stations are uplifted by 1.1 mm and displaced horizontally by 2.7 mm if a set of reliable stations is investigated. Especially the impact on the horizontal station positions shows that the implicit tropospheric gradient information of the ray-traced delays is correctly introduced to the analysis. Again the scale of the frame is affected by only 0.1 ppb and in general the application of the ray-traced delays does not significantly alter the frame. A comparison of the BLR results from applying RADIATE ray-traced delays or those from the National Aeronautics and Space Administration Goddard Space Flight Center (NASA GSFC) to the VLBI analysis of 2085 sessions between January 2000 and the end of January 2015 reveals that the RADIATE delays have a slightly better performance. In case tropospheric gradients are estimated within the analysis, there is on average no difference in the BLR results, but the RADIATE ray-traced delays perform better for 51.3% of the baselines at sub-mm level. If no gradients are estimated, the RADIATE ray-traced delays lead to better BLR by 0.2 mm on average. They perform better for 63.0% of the baselines. A mean relative improvement of 1.5% compared to the NASA GSFC ray-traced delays is seen. The performance differences between the ray-traced delays from RADIATE and from NASA GSFC may mainly come from the different utilized NWM.
A Scale-Invariant Spatial Graph Model
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2016
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank, Prof. Dr. Georg Gottlob
Kurzfassung/Abstract
Information is called spatial if it contains references to space. The thesis aims at lifting the characterization of spatial information to a structural level. Tobler´s first law of geography and scale invariance are widely used to characterize spatial information, but their formal description is based on explicit references to space, which prevents them from being used in the structural characterization of spatial information. To overcome this problem, the author proposes a graph model that exposes, when embedded in space, typical properties of spatial information, amongst others Tobler´s law and scale invariance. The graph model, considered as an abstract graph, still exposes the effect of these typical properties on the structure of the graph and can thus be used for the discussion of these typical properties at a structural level. A comparison of the proposed model to several spatial and non-spatial data sets in this thesis suggests that spatial data sets can be characterized by a common structure, because the considered spatial data sets expose structural similarities to the proposed model but the non-spatial data sets do not. This proves the concept of a spatial structure to be meaningful, and the proposed model to be a model of spatial structure. The dimension of space has an impact on spatial information, and thus also on the spatial structure. The thesis examines how the properties of the proposed graph model, in particular in case of a uniform distribution of nodes in space, depend on the dimension of space and shows how to estimate the dimension from the structure of a data set. The results of the thesis, in particular the concept of a spatial structure and the proposed graph model, are a fundamental contribution to the discussion of spatial information at a structural level: algorithms that operate on spatial data can be improved by paying attention to the spatial structure; a statistical evaluation of considerations about spatial data is rendered possible, because the graph model can generate arbitrarily many test data sets with controlled properties; and the detection of spatial structures as well as the estimation of the dimension and other parameters can contribute to the long-term goal of using data with incomplete or missing semantics.
Information is called spatial if it contains references to space. The thesis aims at lifting the characterization of spatial information to a structural level. Tobler´s first law of geography and scale invariance are widely used to characterize spatial information, but their formal description is based on explicit references to space, which prevents them from being used in the structural characterization of spatial information. To overcome this problem, the author proposes a graph model that exposes, when embedded in space, typical properties of spatial information, amongst others Tobler´s law and scale invariance. The graph model, considered as an abstract graph, still exposes the effect of these typical properties on the structure of the graph and can thus be used for the discussion of these typical properties at a structural level. A comparison of the proposed model to several spatial and non-spatial data sets in this thesis suggests that spatial data sets can be characterized by a common structure, because the considered spatial data sets expose structural similarities to the proposed model but the non-spatial data sets do not. This proves the concept of a spatial structure to be meaningful, and the proposed model to be a model of spatial structure. The dimension of space has an impact on spatial information, and thus also on the spatial structure. The thesis examines how the properties of the proposed graph model, in particular in case of a uniform distribution of nodes in space, depend on the dimension of space and shows how to estimate the dimension from the structure of a data set. The results of the thesis, in particular the concept of a spatial structure and the proposed graph model, are a fundamental contribution to the discussion of spatial information at a structural level: algorithms that operate on spatial data can be improved by paying attention to the spatial structure; a statistical evaluation of considerations about spatial data is rendered possible, because the graph model can generate arbitrarily many test data sets with controlled properties; and the detection of spatial structures as well as the estimation of the dimension and other parameters can contribute to the long-term goal of using data with incomplete or missing semantics.
Positionsbestimmung durch Kombination geometrie- und merkmalsbasierter Verfahren unter Einbeziehung der Qualität
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2016
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Prof. Dr. Andreas Wieser
Kurzfassung/Abstract
Die Positionsbestimmung von mobilen Objekten basiert meist auf Methoden der analytischen Geometrie. Dabei werden die rohen Beobachtungen mittels Korrekturmodellen auf den Geometrieanteil, beispielsweise die euklidische Distanz zwischen GPS-Satellit und Empfänger, reduziert. Typischerweise ist bei diesen geometriebasierten Verfahren eine direkte Sichtverbindung zwischen dem mobilen Objekt und koordinativ bekannten Referenzpunkten erforderlich. Daher ist die Einsetzbarkeit dieser Verfahren in der Nähe oder innerhalb von Gebäuden, wo häufig Sichtbehinderungen auftreten, stark eingeschränkt. Alternativ zu den etablierten geometriebasierten Verfahren können merkmalsbasierte Verfahren zur Positionsbestimmung eingesetzt werden. Diese beruhen auf einem Vergleich von ortsabhängigen Merkmalen mit verorteten Referenzwerten (Referenzmodell), dabei ist keine Sichtverbindung zu bekannten Punkten notwendig. Jedoch nimmt die Qualität der merkmalsbasierten Positionslösung stark ab, wenn die Referenzmodelle nicht aktuell sind. Weiters ist die Erstellung der Referenzmodelle aufwendig. Daher ist bei vielen Anwendungen eine Kombination der Verfahren sinnvoll. Diese Kombination wird hier als hybride Positionsbestimmung bezeichnet. In dieser Dissertation wird ein Ansatz zur hybriden Positionsbestimmung vorgestellt, bei dem die Kombination direkt auf Ebene der Geometrie- und Merkmalsbeobachtungen erfolgt. In Analogie zur Kombination von Satellitenbeobachtungen und Messdaten eines Inertialmesssystems in der Navigation wird dieser Ansatz hier als enge Kopplung bezeichnet. Es wird ein Bayes-Ansatz, umgesetzt mittels Partikelfilter, vorgeschlagen, um diese enge Kopplung der unterschiedlichen Beobachtungstypen zu erreichen. Ein besonderes Augenmerk liegt auf der Qualitätsbeurteilung der Schätzergebnisse. Da bei der hybriden Positionsbestimmung die Verteilung der geschätzten Parameter zum Teil stark von einer Normalverteilung abweicht, wird ein Ansatz vorgeschlagen, der bei einer beliebigen Verteilung der Parameter eine adäquate Qualitätsbeurteilung ermöglicht. Dazu wird die vollständige Verteilung der Messungen, Referenz- und Systemmodelle im Partikelfilter fortgepflanzt und mittels Kerndichteschätzer aus den A-posteriori-Partikeln die parameterfreie A-posteriori-Dichte ermittelt. Aus der geschätzten Dichte werden anschließend Konfidenzregionen berechnet. Zur Veranschaulichung der entwickelten Methoden werden drei Anwendungsbeispiele gezeigt. Bei dem ersten Anwendungsbeispiel, einer Indoorpositionierung mittels künstlicher Magnetfelder, wird der geometriebasierte Ansatz dem merkmalsbasierten Ansatz gegenübergestellt. Dabei konnte mit dem merkmalsbasierten Ansatz die mittlere Abweichung der geschätzten Positionen zu den Referenzpositionen um mehr als die Hälfte auf 2 cm reduziert werden. Voraussetzung dafür ist, dass die Referenzmodelle aktuell sind. Das zweite Beispiel zeigt die Anwendbarkeit der vorgestellten Algorithmen für die WLAN/GNSS basierte Positionierung von Fahrzeugen am Vorfeld eines Flughafens. In der Nähe von Gebäuden sind bei dieser Anwendung Genauigkeiten im Bereich von einem Meter möglich, wenn ausreichend viele WLAN-Accesspoints vorhanden sind. Das dritte Anwendungsbeispiel, die kinematische Positionsbestimmung eines Roboters mittels RFID- und GNSS-Beobachtungen, zeigt die Vorteile des in der Arbeit vorgestellten hybriden Ansatzes. Im Übergangsbereich zwischen Innenraum und Außenumgebung beträgt die Abweichung der geschätzten Positionen zu den Referenzpositionen bei Anwendung einer reinen RFID-Auswertung im Mittel rund 5 cm und bei einer reinen GNSS-Auswertung 25 cm. Mit der hybriden kinematischen Positionsbestimmung beträgt sie im Mittel nur noch 2 cm.
Die Positionsbestimmung von mobilen Objekten basiert meist auf Methoden der analytischen Geometrie. Dabei werden die rohen Beobachtungen mittels Korrekturmodellen auf den Geometrieanteil, beispielsweise die euklidische Distanz zwischen GPS-Satellit und Empfänger, reduziert. Typischerweise ist bei diesen geometriebasierten Verfahren eine direkte Sichtverbindung zwischen dem mobilen Objekt und koordinativ bekannten Referenzpunkten erforderlich. Daher ist die Einsetzbarkeit dieser Verfahren in der Nähe oder innerhalb von Gebäuden, wo häufig Sichtbehinderungen auftreten, stark eingeschränkt. Alternativ zu den etablierten geometriebasierten Verfahren können merkmalsbasierte Verfahren zur Positionsbestimmung eingesetzt werden. Diese beruhen auf einem Vergleich von ortsabhängigen Merkmalen mit verorteten Referenzwerten (Referenzmodell), dabei ist keine Sichtverbindung zu bekannten Punkten notwendig. Jedoch nimmt die Qualität der merkmalsbasierten Positionslösung stark ab, wenn die Referenzmodelle nicht aktuell sind. Weiters ist die Erstellung der Referenzmodelle aufwendig. Daher ist bei vielen Anwendungen eine Kombination der Verfahren sinnvoll. Diese Kombination wird hier als hybride Positionsbestimmung bezeichnet. In dieser Dissertation wird ein Ansatz zur hybriden Positionsbestimmung vorgestellt, bei dem die Kombination direkt auf Ebene der Geometrie- und Merkmalsbeobachtungen erfolgt. In Analogie zur Kombination von Satellitenbeobachtungen und Messdaten eines Inertialmesssystems in der Navigation wird dieser Ansatz hier als enge Kopplung bezeichnet. Es wird ein Bayes-Ansatz, umgesetzt mittels Partikelfilter, vorgeschlagen, um diese enge Kopplung der unterschiedlichen Beobachtungstypen zu erreichen. Ein besonderes Augenmerk liegt auf der Qualitätsbeurteilung der Schätzergebnisse. Da bei der hybriden Positionsbestimmung die Verteilung der geschätzten Parameter zum Teil stark von einer Normalverteilung abweicht, wird ein Ansatz vorgeschlagen, der bei einer beliebigen Verteilung der Parameter eine adäquate Qualitätsbeurteilung ermöglicht. Dazu wird die vollständige Verteilung der Messungen, Referenz- und Systemmodelle im Partikelfilter fortgepflanzt und mittels Kerndichteschätzer aus den A-posteriori-Partikeln die parameterfreie A-posteriori-Dichte ermittelt. Aus der geschätzten Dichte werden anschließend Konfidenzregionen berechnet. Zur Veranschaulichung der entwickelten Methoden werden drei Anwendungsbeispiele gezeigt. Bei dem ersten Anwendungsbeispiel, einer Indoorpositionierung mittels künstlicher Magnetfelder, wird der geometriebasierte Ansatz dem merkmalsbasierten Ansatz gegenübergestellt. Dabei konnte mit dem merkmalsbasierten Ansatz die mittlere Abweichung der geschätzten Positionen zu den Referenzpositionen um mehr als die Hälfte auf 2 cm reduziert werden. Voraussetzung dafür ist, dass die Referenzmodelle aktuell sind. Das zweite Beispiel zeigt die Anwendbarkeit der vorgestellten Algorithmen für die WLAN/GNSS basierte Positionierung von Fahrzeugen am Vorfeld eines Flughafens. In der Nähe von Gebäuden sind bei dieser Anwendung Genauigkeiten im Bereich von einem Meter möglich, wenn ausreichend viele WLAN-Accesspoints vorhanden sind. Das dritte Anwendungsbeispiel, die kinematische Positionsbestimmung eines Roboters mittels RFID- und GNSS-Beobachtungen, zeigt die Vorteile des in der Arbeit vorgestellten hybriden Ansatzes. Im Übergangsbereich zwischen Innenraum und Außenumgebung beträgt die Abweichung der geschätzten Positionen zu den Referenzpositionen bei Anwendung einer reinen RFID-Auswertung im Mittel rund 5 cm und bei einer reinen GNSS-Auswertung 25 cm. Mit der hybriden kinematischen Positionsbestimmung beträgt sie im Mittel nur noch 2 cm.
The Potential of Modernized GNSS Signal Linear Combinations for Real-Time Positioning on Small and Medium Baselines
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
GNSS positioning has become popular in the past decade as an efficient method of precise and real-time positioning. It is relatively low cost and ease-of-use. Up to now, several parameters were defined to characterize the performance of real-time positioning: availability, precision, accuracy. This research evaluates the performance of signal linear combinations for real-time positioning, both for static as well as the kinematic positioning. This thesis starts with the investigation of linear combinations (LC) rising from the carrier frequencies of the GPS and Galileo system. Some Linear Combination show potential benefits in carrier phase integer ambiguity resolution, particularly utilizing the E5 Galileo signal phase carrier. For each system, a set of combinations was studied, analyzed, and then selected during the development of a GPS/Galileo positioning method utilizing the Least-squares Ambiguity Decorrelation Adjustment (LAMBDA). Special signal selection can affect the estimated position and its standard deviation. To further analyze, the results obtained from data processing are compared with respect to baselines and signals. The ambiguity fixing rate is correlated with the baseline length and the method as well as the signals that were used. The analysis of the measurement noise level was first conducted to set a baseline for the real-time GNSS positioning application. According to the test results with real and simulated data, the combined GPS/Galileo approach always performs the best, albeit dominated by GPS. Moreover, a combined Galileo linear combination shows the best insusceptibility in the presence of any errors using simulated and real data. Further efforts were spent for the last step. Tests, analysis and comparison of the algorithms were made in simulated scenarios of the two systems under errorconditions of typical multipath, troposphere, and ionosphere. Baselines of a length between 1 km to 70 km using real and simulated data were evaluated, followed by final conclusions and suggestions for future work. As the conclusion, Galileo signals have potencies to provide best performances for static and kinematic positioning, particularly when utilizing the E5 Galileo signal. Since the performance was tested using only a limited amount of real and simulated data, further investigations how to fulfill technical and user requirements are recommended.
GNSS positioning has become popular in the past decade as an efficient method of precise and real-time positioning. It is relatively low cost and ease-of-use. Up to now, several parameters were defined to characterize the performance of real-time positioning: availability, precision, accuracy. This research evaluates the performance of signal linear combinations for real-time positioning, both for static as well as the kinematic positioning. This thesis starts with the investigation of linear combinations (LC) rising from the carrier frequencies of the GPS and Galileo system. Some Linear Combination show potential benefits in carrier phase integer ambiguity resolution, particularly utilizing the E5 Galileo signal phase carrier. For each system, a set of combinations was studied, analyzed, and then selected during the development of a GPS/Galileo positioning method utilizing the Least-squares Ambiguity Decorrelation Adjustment (LAMBDA). Special signal selection can affect the estimated position and its standard deviation. To further analyze, the results obtained from data processing are compared with respect to baselines and signals. The ambiguity fixing rate is correlated with the baseline length and the method as well as the signals that were used. The analysis of the measurement noise level was first conducted to set a baseline for the real-time GNSS positioning application. According to the test results with real and simulated data, the combined GPS/Galileo approach always performs the best, albeit dominated by GPS. Moreover, a combined Galileo linear combination shows the best insusceptibility in the presence of any errors using simulated and real data. Further efforts were spent for the last step. Tests, analysis and comparison of the algorithms were made in simulated scenarios of the two systems under errorconditions of typical multipath, troposphere, and ionosphere. Baselines of a length between 1 km to 70 km using real and simulated data were evaluated, followed by final conclusions and suggestions for future work. As the conclusion, Galileo signals have potencies to provide best performances for static and kinematic positioning, particularly when utilizing the E5 Galileo signal. Since the performance was tested using only a limited amount of real and simulated data, further investigations how to fulfill technical and user requirements are recommended.
Anwendung eines Kalman-Filters in der Auswertung von VLBI-Daten
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Prof. Dr. Harald Schuh
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) ist eines der fundamentalen geodätischen Weltraumverfahren. Wichtige Ziele für die nächste Generation an VLBI-Technologie sind die kontinuierliche Durchführung von Beobachtungen und eine automatische Datenverarbeitung. Zu diesem Zwecke ist es notwendig, echtzeitfähige Parameterschätzungsalgorithmen, wie das Kalman-Filter, in der VLBI-Auswertung einzuführen. Im Rahmen dieser Arbeit wurde ein solches Filter in die VLBI-Software VieVS@GFZ implementiert und verschiedenste Aspekte in Bezug auf die Prozessierung von VLBI-Daten untersucht. Innerhalb des entsprechenden Moduls VIE_KAL ist es u.a. möglich, alle in der VLBI-Auswertung gängigen Parameter zu schätzen, deren stochastische Modelle anzupassen, flexibel das Datum zu definieren, externe Daten zu integrieren sowie datumsfreie Normalgleichungen zu extrahieren. Der Fokus der Untersuchungen wurde auf den Einfluss der Troposphäre, der wichtigsten Fehlerquelle in der VLBI-Auswertung, und auf die Bestimmung von Stationspositionen, welche in der Geodäsie von wesentlicher Bedeutung sind, gelegt. Für die stochastische Modellierung der troposphärischen Laufzeitverzögerungen wurden stations- und zeitabhängige Unterschiede berücksichtigt. In Vergleichen mit troposphärischen Parametern aus GNSS, Wasserdampfradiometern und numerischen Wettermodellen wies die Kalman-Filter-Lösung um 5 bis 15% geringere Differenzen als eine Kleinste-Quadrate-Lösung auf, die auf denselben Modellen und VLBI-Daten basierte. Auch in Bezug auf geschätzte Stationskoordinaten wies die Kalman-Filter-Lösung bessere Basislinienlängen- und Koordinatenwiederholbarkeiten auf. Die Anwendung des stationsabhängigen Prozessrauschens brachte eine zusätzliche Verbesserung. Des Weiteren wurde das Kalman-Filter dazu verwendet, subtägliche Stationskoordinatenvariation aufgrund von Gezeiten und Auflasteffekten zu bestimmen. Schließlich wurden die gewonnenen Erkenntnisse dazu verwendet, Kalman-Filter-basierte globale terrestrische Referenzrahmen (TRF) zu bestimmen. Für die stochastische Modellierung der Koordinatenvariationen einzelner Stationen wurden Auflastdeformationszeitreihen herangezogen. Durch den nichtdeterministischen Ansatz des Filters war es möglich, nichtlineare Positionsbewegungen, verursacht z.B. durch unregelmäßige saisonale Effekte oder postseismische Deformationen, zu berücksichtigen. In Vergleichen mit einer VLBI-TRF-Lösung mittels einer klassischen Ausgleichung und dem ITRF2008 zeigten sich gute Übereinstimmungen in Bezug auf die Transformationsparameter und Stationsgeschwindigkeiten. Das Testen verschiedener Optionen bezüglich der Parametrisierung und stochastischen Modellierung führte zu Erkenntnissen, wie zukünftige Referenzrahmen verbessert werden können.
Very Long Baseline Interferometry (VLBI) ist eines der fundamentalen geodätischen Weltraumverfahren. Wichtige Ziele für die nächste Generation an VLBI-Technologie sind die kontinuierliche Durchführung von Beobachtungen und eine automatische Datenverarbeitung. Zu diesem Zwecke ist es notwendig, echtzeitfähige Parameterschätzungsalgorithmen, wie das Kalman-Filter, in der VLBI-Auswertung einzuführen. Im Rahmen dieser Arbeit wurde ein solches Filter in die VLBI-Software VieVS@GFZ implementiert und verschiedenste Aspekte in Bezug auf die Prozessierung von VLBI-Daten untersucht. Innerhalb des entsprechenden Moduls VIE_KAL ist es u.a. möglich, alle in der VLBI-Auswertung gängigen Parameter zu schätzen, deren stochastische Modelle anzupassen, flexibel das Datum zu definieren, externe Daten zu integrieren sowie datumsfreie Normalgleichungen zu extrahieren. Der Fokus der Untersuchungen wurde auf den Einfluss der Troposphäre, der wichtigsten Fehlerquelle in der VLBI-Auswertung, und auf die Bestimmung von Stationspositionen, welche in der Geodäsie von wesentlicher Bedeutung sind, gelegt. Für die stochastische Modellierung der troposphärischen Laufzeitverzögerungen wurden stations- und zeitabhängige Unterschiede berücksichtigt. In Vergleichen mit troposphärischen Parametern aus GNSS, Wasserdampfradiometern und numerischen Wettermodellen wies die Kalman-Filter-Lösung um 5 bis 15% geringere Differenzen als eine Kleinste-Quadrate-Lösung auf, die auf denselben Modellen und VLBI-Daten basierte. Auch in Bezug auf geschätzte Stationskoordinaten wies die Kalman-Filter-Lösung bessere Basislinienlängen- und Koordinatenwiederholbarkeiten auf. Die Anwendung des stationsabhängigen Prozessrauschens brachte eine zusätzliche Verbesserung. Des Weiteren wurde das Kalman-Filter dazu verwendet, subtägliche Stationskoordinatenvariation aufgrund von Gezeiten und Auflasteffekten zu bestimmen. Schließlich wurden die gewonnenen Erkenntnisse dazu verwendet, Kalman-Filter-basierte globale terrestrische Referenzrahmen (TRF) zu bestimmen. Für die stochastische Modellierung der Koordinatenvariationen einzelner Stationen wurden Auflastdeformationszeitreihen herangezogen. Durch den nichtdeterministischen Ansatz des Filters war es möglich, nichtlineare Positionsbewegungen, verursacht z.B. durch unregelmäßige saisonale Effekte oder postseismische Deformationen, zu berücksichtigen. In Vergleichen mit einer VLBI-TRF-Lösung mittels einer klassischen Ausgleichung und dem ITRF2008 zeigten sich gute Übereinstimmungen in Bezug auf die Transformationsparameter und Stationsgeschwindigkeiten. Das Testen verschiedener Optionen bezüglich der Parametrisierung und stochastischen Modellierung führte zu Erkenntnissen, wie zukünftige Referenzrahmen verbessert werden können.
Anforderungen an zukünftige Schwerefeldmissionen für die Detektion von meso-skaligen Ozeanvariabilitäten
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2016
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Die Schwerefeldmission GRACE liefert wichtige Informationen über das Schwerefeld der Erde. Allerdings ist die Detektion von zeit-variablen Signalen stark durch die räumliche und zeitliche Auflösung von GRACE limitiert. Meso-skalige Ozeanprozesse mit einer durschnittlichen räumlichen Auflösung von 100 km blieben dadurch von GRACE bislang unentdeckt. Die Erforschung der meso-skaligen Ozeanprozesse gewinnt aber immer mehr an Bedeutung, da ihnen ein Einfluss auf unser Klima nachgesagt wird, weswegen sich auch zukünftige Satellitenmissionen mit der Detektion von meso-skaligen Veränderungen beschäftigen. Um die jetzigen Möglichkeiten von GRACE bezüglich der Detektion solcher Prozesse festzustellen und eine Abschätzung für die Genauigkeitsverbesserung von zukünftigen Schwerefeldmissionen zu geben, wurde eine Analyse an Hand der ITSG-Grace2014 Schwerefeldlösung und der Ozeankomponente des aktualisierten ESA ESM durchgeführt. Die Schwierigkeit der Extraktion des Ozeansignals aus dem integralen GRACE Signal wird mittels der Berechnung des eustatischen Meeresspiegels herausgearbeitet. Für die Untersuchungen bezüglich der meso-skaligen Variabilitäten werden Ozeanbodendruckanomalien in zwei repräsentativen Beobachtungsgebieten (Argentinisches Becken und Agulhas Becken) analysiert. Eine global gültige Abschätzung für die nötige Verbesserung in der Genauigkeit kann auf Grund der unterschiedlichen Fehlerquellen von GRACE, als auch des regionalen Charakters der meso-skaligen Ozeanprozesse nicht gegeben werden.
Die Schwerefeldmission GRACE liefert wichtige Informationen über das Schwerefeld der Erde. Allerdings ist die Detektion von zeit-variablen Signalen stark durch die räumliche und zeitliche Auflösung von GRACE limitiert. Meso-skalige Ozeanprozesse mit einer durschnittlichen räumlichen Auflösung von 100 km blieben dadurch von GRACE bislang unentdeckt. Die Erforschung der meso-skaligen Ozeanprozesse gewinnt aber immer mehr an Bedeutung, da ihnen ein Einfluss auf unser Klima nachgesagt wird, weswegen sich auch zukünftige Satellitenmissionen mit der Detektion von meso-skaligen Veränderungen beschäftigen. Um die jetzigen Möglichkeiten von GRACE bezüglich der Detektion solcher Prozesse festzustellen und eine Abschätzung für die Genauigkeitsverbesserung von zukünftigen Schwerefeldmissionen zu geben, wurde eine Analyse an Hand der ITSG-Grace2014 Schwerefeldlösung und der Ozeankomponente des aktualisierten ESA ESM durchgeführt. Die Schwierigkeit der Extraktion des Ozeansignals aus dem integralen GRACE Signal wird mittels der Berechnung des eustatischen Meeresspiegels herausgearbeitet. Für die Untersuchungen bezüglich der meso-skaligen Variabilitäten werden Ozeanbodendruckanomalien in zwei repräsentativen Beobachtungsgebieten (Argentinisches Becken und Agulhas Becken) analysiert. Eine global gültige Abschätzung für die nötige Verbesserung in der Genauigkeit kann auf Grund der unterschiedlichen Fehlerquellen von GRACE, als auch des regionalen Charakters der meso-skaligen Ozeanprozesse nicht gegeben werden.
Robust Method to determine the epicenter of a seismic event by means of amplitude measurements
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2016
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
In this study, a robust new method to locate medium and low magnitude scale earthquakes is presented. This method is based on an empirical model of the ground motion obtained from amplitude data. Firstly, the amplitude is recorded at each station of the seismic network. Secondly, the maximum resultant amplitude within a time window is computed. Subsequently, the maximum resultant amplitude is back-projected to every grid-point covering the whole area of interest while applying an empirical amplitude - distance relation. The number of operating seismic stations in the local network equals the number of back-projected amplitude at each grid-point. This method introduces the new idea of selecting the minimum back-projected amplitude at each grid-point for further analysis. We refer to these back-projected ground velocities as pseudoMagnitudes. In case no detectable seismic event occurred, the spatial distribution of the minimum pseudoMagnitude constrains the magnitude of weak earthquakes hidden in the ambient noise. In the case of a detectable event, the spatial distribution of the pseudoMangitudes shows a significant maximum at the grid-point nearest to the actual epicenter. The application of this method is restricted to the area confined by the convex hull of the seismic station network. Additionally, one must ensure that there are no dead traces involved in the processing. This new method is almost wholly insensitive to outliers (data from locally disturbed seismic stations). This is possible due to the method of obtaining and storing a Pack-Projection Matrix, independent of the registered amplitude, for each seismic station. As a direct consequence, it is possible to save computational time for the calculation of the pseudoMagnitude at every grid-point. The capability of the method was firstly demonstrated by using synthetic data. In addition, a first impression of the importance of the network distribution is derived from the results obtained from the synthetic test results. Following, this method was applied using 43 local earthquakes of low and medium magnitude scale (1.7 < magnitude scale < 4.3). These earthquakes were recorded and detected by the seismic network ALPAACT (seismological and geodetic monitoring of Alpine PAnnonian ACtive Tectonics) within the period 2010/06/11 to 2013/09/20. The method gave accuracies of less than 10km for about 27% of the events for the [1-10Hz] band-pass filter and about 18% for the [1-5Hz] filter. On the other hand, about 68% of the events for the [1-10Hz] filter has a deviation from the epicenter location provided by ZAMG of 11km to 30km, whereas for the [1-5Hz] 63% of the events are to be found in this range. Moreover, the estimated epicenter in this thesis for the strongest event turned out to be 4km away from the one taken as real. Finally, the method was applied to data recorded in the quarry of Spitz (NÖ-Austria). An existing seismic warning system did not fulfill the expected efficiency and reliability standards since the ratio of well-detected events to undetected events or false alarms was not satisfactory. The aim was to analyze how a seismic warning system must be designed in order to overcome these deficiencies. A small-scale seismic network was deployed in the Spitz quarry to evaluate the possibility of improving the early-warning rockfall monitoring network by means of seismic observations.
In this study, a robust new method to locate medium and low magnitude scale earthquakes is presented. This method is based on an empirical model of the ground motion obtained from amplitude data. Firstly, the amplitude is recorded at each station of the seismic network. Secondly, the maximum resultant amplitude within a time window is computed. Subsequently, the maximum resultant amplitude is back-projected to every grid-point covering the whole area of interest while applying an empirical amplitude - distance relation. The number of operating seismic stations in the local network equals the number of back-projected amplitude at each grid-point. This method introduces the new idea of selecting the minimum back-projected amplitude at each grid-point for further analysis. We refer to these back-projected ground velocities as pseudoMagnitudes. In case no detectable seismic event occurred, the spatial distribution of the minimum pseudoMagnitude constrains the magnitude of weak earthquakes hidden in the ambient noise. In the case of a detectable event, the spatial distribution of the pseudoMangitudes shows a significant maximum at the grid-point nearest to the actual epicenter. The application of this method is restricted to the area confined by the convex hull of the seismic station network. Additionally, one must ensure that there are no dead traces involved in the processing. This new method is almost wholly insensitive to outliers (data from locally disturbed seismic stations). This is possible due to the method of obtaining and storing a Pack-Projection Matrix, independent of the registered amplitude, for each seismic station. As a direct consequence, it is possible to save computational time for the calculation of the pseudoMagnitude at every grid-point. The capability of the method was firstly demonstrated by using synthetic data. In addition, a first impression of the importance of the network distribution is derived from the results obtained from the synthetic test results. Following, this method was applied using 43 local earthquakes of low and medium magnitude scale (1.7 < magnitude scale < 4.3). These earthquakes were recorded and detected by the seismic network ALPAACT (seismological and geodetic monitoring of Alpine PAnnonian ACtive Tectonics) within the period 2010/06/11 to 2013/09/20. The method gave accuracies of less than 10km for about 27% of the events for the [1-10Hz] band-pass filter and about 18% for the [1-5Hz] filter. On the other hand, about 68% of the events for the [1-10Hz] filter has a deviation from the epicenter location provided by ZAMG of 11km to 30km, whereas for the [1-5Hz] 63% of the events are to be found in this range. Moreover, the estimated epicenter in this thesis for the strongest event turned out to be 4km away from the one taken as real. Finally, the method was applied to data recorded in the quarry of Spitz (NÖ-Austria). An existing seismic warning system did not fulfill the expected efficiency and reliability standards since the ratio of well-detected events to undetected events or false alarms was not satisfactory. The aim was to analyze how a seismic warning system must be designed in order to overcome these deficiencies. A small-scale seismic network was deployed in the Spitz quarry to evaluate the possibility of improving the early-warning rockfall monitoring network by means of seismic observations.
Semi-automatisierte Wegenetzerstellung aus Rasterkarten sowie Einbindung dieser in eine passive Indoor-Navigationsanwendung
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2016
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
Die Diplomarbeit beschäftigt sich mit der Generierung von Indoor-Wegenetzen und mit der Berechnung und Visualisierung des schnellsten Weges zwischen zwei gewählten Punkten. Dazu wurden mit einem WebGIS und einer WebApp zwei Plattformen entwickelt, die über einen Web- und Datenbankserver laufen. Um die Plattformen praktisch zu testen, wurden Gebäudepläne der Technischen Universität Graz verwendet. Mit dem WebGIS ist es möglich, Wegenetze für den Indoor-Bereich zu generieren und zu verwalten. Die WebApp ist eine für mobile Geräte optimierte Webseite, die standortbezogene Dienste anbietet und eine visuelle Zielführung zwischen Standort und Zielpunkt anhand von Karten ermöglicht. Die Berechnung und Visualisierung des optimalen Weges wurde neben dem Indoor-Bereich auch für den Outdoor-Bereich realisiert, um zwischen den Gebäuden ebenfalls routen zu können. Hierfür kommen zusätzlich OpenStreetMap-Daten zur Anwendung. Indoor- und Outdoor-Daten werden entsprechend miteinander verknüpft. Für die Ortung des mobilen Gerätes wurden, neben der Positionierung mittels QR-Code, noch weitere Methoden implementiert. Die Positionsbestimmung erfolgt nur durch das bewusste Eingreifen des Nutzers. Bei der Angabe des Zielpunktes stehen mehrere Methoden zur Auswahl. Die umfangreichen Anwendungsmöglichkeiten werden durch den Einsatz von Symbolen und einer einfachen und übersichtlich gehaltenen Menüführung unterstützt.
Die Diplomarbeit beschäftigt sich mit der Generierung von Indoor-Wegenetzen und mit der Berechnung und Visualisierung des schnellsten Weges zwischen zwei gewählten Punkten. Dazu wurden mit einem WebGIS und einer WebApp zwei Plattformen entwickelt, die über einen Web- und Datenbankserver laufen. Um die Plattformen praktisch zu testen, wurden Gebäudepläne der Technischen Universität Graz verwendet. Mit dem WebGIS ist es möglich, Wegenetze für den Indoor-Bereich zu generieren und zu verwalten. Die WebApp ist eine für mobile Geräte optimierte Webseite, die standortbezogene Dienste anbietet und eine visuelle Zielführung zwischen Standort und Zielpunkt anhand von Karten ermöglicht. Die Berechnung und Visualisierung des optimalen Weges wurde neben dem Indoor-Bereich auch für den Outdoor-Bereich realisiert, um zwischen den Gebäuden ebenfalls routen zu können. Hierfür kommen zusätzlich OpenStreetMap-Daten zur Anwendung. Indoor- und Outdoor-Daten werden entsprechend miteinander verknüpft. Für die Ortung des mobilen Gerätes wurden, neben der Positionierung mittels QR-Code, noch weitere Methoden implementiert. Die Positionsbestimmung erfolgt nur durch das bewusste Eingreifen des Nutzers. Bei der Angabe des Zielpunktes stehen mehrere Methoden zur Auswahl. Die umfangreichen Anwendungsmöglichkeiten werden durch den Einsatz von Symbolen und einer einfachen und übersichtlich gehaltenen Menüführung unterstützt.
Einsatzfähigkeit des Erdmagnetfeldes in Kombination mit WLAN und RFID für Indoor-Positionierungsverfahren
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2016
Betreuer: Ao. Univ.-Prof. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Das Erdmagnetfeld benötigt keine Sender-Infrastruktur und kann überall gemessen werden. Dessen Einsatz im Fingerprinting-Verfahren zur Indoor-Positionierung und Navigation scheint daher sinnvoll. Beim Fingprinting wird an bestimmten Punkten die magnetische Induktion des Erdmagnetfeldes - oder auch Signalstärken von z.B. WLAN oder RFID - gemessen. Diese Messungen werden mit den entsprechenden Punktkoordinaten in einer Signalstärkenkarte (der sogenannten Radio Map) abgespeichert. Befindet man sich nun an einer unbekannten Position und misst dort die magnetische Induktion des Erdmagnetfeldes, werden die Koordinaten des aktuellen Standpunktes durch Vergleich der aktuellen Messwerte mit jenen aus der Radio Map ermittelt. In dieser Arbeit werden zwei Untersuchungsgebiete definiert bei denen die Messungen vom Nutzer durchgeführt werden. In einem dieser Untersuchungsgebiete kommt zusätzlich ein fahrbarer Roboter zum Einsatz. Verwendet werden zwei Sensoren, nämlich ein Smartphone und eine low-cost-IMU. Um den Einfluss des menschlichen Körpers zu minimieren, wird bei den Messungen zur Erstellung der Radio Maps in vier Orientierungen gemessen. Bei der Analyse der Radio Maps stellt man fest, dass die räumlichen Variationen des Erdmagnetfeldes sehr gering sind. Das wirkt sich negativ auf die Positionierung aus. Bei den statischen Testmessungen, können die Positionierungsfehler größer als 50m werden, wenn man nur das Magnetfeld-Fingerprinting verwendet. Nutzt man das Ergebnis des WLAN-Fingerprintings als Näherungslösung für das Magnetfeld-Fingerprinting, beträgt der durchschnittliche Positionierungsfehler bei statischen Testmessungen ca. 2,0 bis 4,5m. Nutzt man zusätzlich noch die RFID-Fingerprinting-Lösung, dann bleibt der durchschnittliche Positionierungsfehler in der gleichen Größenordnung. Die Ergebnisse werden auch hinsichtlich zweier Distanzkriterien miteinander verglichen. Die Mahalnobis-Distanz liefert bei den statischen Testmessungen etwas bessere Ergebnisse als die euklidische Distanz. Bei den kinematischen Testmessungen werden zur Positionierung die Kombination von Magnetfeld- und WLAN-Fingerprinting und die Mahalnobis-Distanz verwendet. Die Ergebnisse des Fingerprintings dienen als Beobachtungen in einem Kalman-Filter. Für die Prädiktion im Kalman Filter wird auch ein Bewegungsmodell erarbeitet, um mit Hilfe von gemessenem Azimut und zurückgelegter Distanz die aktuelle Position zu berechnen. In einem Untersuchungsgebiet wurden die Trajektorien sehr gut bestimmt. Die durchschnittliche Querabweichung beträgt hier ca. 1,0m und der Positionierungsfehler wird nicht größer als 6,0m. Im anderen Untersuchungsgebiet und bei den kinematischen Messungen durch den Roboter versagt der verwendete Positionierungsalgorithmus. Mit Hilfe kontinuierlicher 24-Stunden Messungen sowie Epochenmessungen werden die Kurzzeit- und Langzeit-Variationen analysiert. Kurzfristig ist das Erdmagnetfeld einigermaßen stabil, langfristig kommt es aber zu Änderungen von mehreren Mikro Tesla. Deshalb wird aufgrund von Wiederholungsmessungen auf bestimmten Punkten die Radio Map aktualisiert. Diese Aktualisierung hat jedoch keine Steigerung der Positionierungsgenauigkeit gebracht.
Das Erdmagnetfeld benötigt keine Sender-Infrastruktur und kann überall gemessen werden. Dessen Einsatz im Fingerprinting-Verfahren zur Indoor-Positionierung und Navigation scheint daher sinnvoll. Beim Fingprinting wird an bestimmten Punkten die magnetische Induktion des Erdmagnetfeldes - oder auch Signalstärken von z.B. WLAN oder RFID - gemessen. Diese Messungen werden mit den entsprechenden Punktkoordinaten in einer Signalstärkenkarte (der sogenannten Radio Map) abgespeichert. Befindet man sich nun an einer unbekannten Position und misst dort die magnetische Induktion des Erdmagnetfeldes, werden die Koordinaten des aktuellen Standpunktes durch Vergleich der aktuellen Messwerte mit jenen aus der Radio Map ermittelt. In dieser Arbeit werden zwei Untersuchungsgebiete definiert bei denen die Messungen vom Nutzer durchgeführt werden. In einem dieser Untersuchungsgebiete kommt zusätzlich ein fahrbarer Roboter zum Einsatz. Verwendet werden zwei Sensoren, nämlich ein Smartphone und eine low-cost-IMU. Um den Einfluss des menschlichen Körpers zu minimieren, wird bei den Messungen zur Erstellung der Radio Maps in vier Orientierungen gemessen. Bei der Analyse der Radio Maps stellt man fest, dass die räumlichen Variationen des Erdmagnetfeldes sehr gering sind. Das wirkt sich negativ auf die Positionierung aus. Bei den statischen Testmessungen, können die Positionierungsfehler größer als 50m werden, wenn man nur das Magnetfeld-Fingerprinting verwendet. Nutzt man das Ergebnis des WLAN-Fingerprintings als Näherungslösung für das Magnetfeld-Fingerprinting, beträgt der durchschnittliche Positionierungsfehler bei statischen Testmessungen ca. 2,0 bis 4,5m. Nutzt man zusätzlich noch die RFID-Fingerprinting-Lösung, dann bleibt der durchschnittliche Positionierungsfehler in der gleichen Größenordnung. Die Ergebnisse werden auch hinsichtlich zweier Distanzkriterien miteinander verglichen. Die Mahalnobis-Distanz liefert bei den statischen Testmessungen etwas bessere Ergebnisse als die euklidische Distanz. Bei den kinematischen Testmessungen werden zur Positionierung die Kombination von Magnetfeld- und WLAN-Fingerprinting und die Mahalnobis-Distanz verwendet. Die Ergebnisse des Fingerprintings dienen als Beobachtungen in einem Kalman-Filter. Für die Prädiktion im Kalman Filter wird auch ein Bewegungsmodell erarbeitet, um mit Hilfe von gemessenem Azimut und zurückgelegter Distanz die aktuelle Position zu berechnen. In einem Untersuchungsgebiet wurden die Trajektorien sehr gut bestimmt. Die durchschnittliche Querabweichung beträgt hier ca. 1,0m und der Positionierungsfehler wird nicht größer als 6,0m. Im anderen Untersuchungsgebiet und bei den kinematischen Messungen durch den Roboter versagt der verwendete Positionierungsalgorithmus. Mit Hilfe kontinuierlicher 24-Stunden Messungen sowie Epochenmessungen werden die Kurzzeit- und Langzeit-Variationen analysiert. Kurzfristig ist das Erdmagnetfeld einigermaßen stabil, langfristig kommt es aber zu Änderungen von mehreren Mikro Tesla. Deshalb wird aufgrund von Wiederholungsmessungen auf bestimmten Punkten die Radio Map aktualisiert. Diese Aktualisierung hat jedoch keine Steigerung der Positionierungsgenauigkeit gebracht.
Erfassung und Auswertung von dynamischen Messungen eines Schienenmesswagens
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2016
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Kurzfassung/Abstract
Herkömmlich eingesetzte Schienenmesswagen nehmen Überhöhungsdaten statisch in einem benutzerdefinierten Intervall auf. Um dieses Verfahren zu beschleunigen, wurden die Messdaten dynamisch auf einer Eisenbahnstrecke aufgenommen. Im Hinblick auf Eisenbahnbaustellen, wo oft mit großem Zeitdruck auf Grund von teuren Streckensperren gearbeitet wird, führt eine dynamische Messung zu einer Zeitersparnis und des Weiteren zu immensen Kostenersparnis. Die Messdaten dienen als Basis bzw. als Kontrolle für Gleisstopfmaschinen, die die Instandhaltung bzw. Erneuerung des Gleisoberbaus durchführen. Die Arbeit inkludierte die Erfassung im Feld, die mit Hilfe der Firma RTE erfolgte, sowie die anschließende Auswertung der aufgenommenen Daten. Zusätzlich wurden Referenzmessungen mit dem bereits verwendeten System VERSINUS aufgenommen, um Aussagen bezüglich der Genauigkeit liefern zu können. Die Aufnahme der Daten erfolgte dabei mit verschiedenen Messgeschwindigkeiten sowie zwei verschiedenen A/D Wandlern. Durch die kinematische Datenaufnahme wurden die Messdaten durch Seitenbeschleunigungen sowie durch andere Schwingungen überlagert. Dafür wurden die Überhöhungsdaten, die mit einem Neigungssensor aufgenommen wurden, entsprechend gefiltert und die Seitenbeschleunigungen eliminiert. Der dabei programmierte Algorithmus wurde in Matlab realisiert. Abschließend konnten Aussagen bezüglich der Mindestabtastrate, der Auflösung der A/D Wandler sowie der Aufnahmegeschwindigkeiten getätigt werden, mit der die geforderte Genauigkeit von 0,3 mm der Überhöhung erreicht werden konnte.
Herkömmlich eingesetzte Schienenmesswagen nehmen Überhöhungsdaten statisch in einem benutzerdefinierten Intervall auf. Um dieses Verfahren zu beschleunigen, wurden die Messdaten dynamisch auf einer Eisenbahnstrecke aufgenommen. Im Hinblick auf Eisenbahnbaustellen, wo oft mit großem Zeitdruck auf Grund von teuren Streckensperren gearbeitet wird, führt eine dynamische Messung zu einer Zeitersparnis und des Weiteren zu immensen Kostenersparnis. Die Messdaten dienen als Basis bzw. als Kontrolle für Gleisstopfmaschinen, die die Instandhaltung bzw. Erneuerung des Gleisoberbaus durchführen. Die Arbeit inkludierte die Erfassung im Feld, die mit Hilfe der Firma RTE erfolgte, sowie die anschließende Auswertung der aufgenommenen Daten. Zusätzlich wurden Referenzmessungen mit dem bereits verwendeten System VERSINUS aufgenommen, um Aussagen bezüglich der Genauigkeit liefern zu können. Die Aufnahme der Daten erfolgte dabei mit verschiedenen Messgeschwindigkeiten sowie zwei verschiedenen A/D Wandlern. Durch die kinematische Datenaufnahme wurden die Messdaten durch Seitenbeschleunigungen sowie durch andere Schwingungen überlagert. Dafür wurden die Überhöhungsdaten, die mit einem Neigungssensor aufgenommen wurden, entsprechend gefiltert und die Seitenbeschleunigungen eliminiert. Der dabei programmierte Algorithmus wurde in Matlab realisiert. Abschließend konnten Aussagen bezüglich der Mindestabtastrate, der Auflösung der A/D Wandler sowie der Aufnahmegeschwindigkeiten getätigt werden, mit der die geforderte Genauigkeit von 0,3 mm der Überhöhung erreicht werden konnte.
Entwicklung einer Geospatial Augmented Reality Anwendung zur Texturierung von 3D Modellen
Institut für Maschinelles Sehen und Darstellen, Technische Universität Graz, 2016
Betreuer: Dipl.-Ing. Dr. Clemens Arth
Kurzfassung/Abstract
Zur Texturierung für Georeferenzierten 3D-Modelle, wie beispielsweise Gebäude von Stadtmodellen, sind digitale Kamerabilder mit zusätzlicher Positions- und Orientierungsinformation notwendig. Gängige Smartphones bieten sowohl die notwendigen Sensoren (Bild, Position, Orientierung) als auch die dafür notwendige Rechenleistung um 3D-Modelle in Echtzeit zu texturieren. Mit der Entwicklung eines mobilen Augmented Reality Browser, werden die Konzepte der raumbezogenen AR-Systeme durchleuchtet. Schwerpunkt dieser Arbeit liegt dabei sowohl in der Entwicklung eines mobile AR Viewer mit Open-Source-Bibliotheken als auch die Untersuchung einer kombinierten GNSS-basierte AR-Anwendung mit Geodaten und dessen Herausforderungen.
Zur Texturierung für Georeferenzierten 3D-Modelle, wie beispielsweise Gebäude von Stadtmodellen, sind digitale Kamerabilder mit zusätzlicher Positions- und Orientierungsinformation notwendig. Gängige Smartphones bieten sowohl die notwendigen Sensoren (Bild, Position, Orientierung) als auch die dafür notwendige Rechenleistung um 3D-Modelle in Echtzeit zu texturieren. Mit der Entwicklung eines mobilen Augmented Reality Browser, werden die Konzepte der raumbezogenen AR-Systeme durchleuchtet. Schwerpunkt dieser Arbeit liegt dabei sowohl in der Entwicklung eines mobile AR Viewer mit Open-Source-Bibliotheken als auch die Untersuchung einer kombinierten GNSS-basierte AR-Anwendung mit Geodaten und dessen Herausforderungen.
Scheduling for VGOS Twin-Telescopes
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Caroline Schönberger
Kurzfassung/Abstract
The technique of Very Long Baseline Interferometry (VLBI) allows the estimation of all five Earth Orientation Parameters (EOP), the International Celestial Reference Frame (ICRF) and it is a primary contributor to the International Terrestrial Reference Frame (ITRF), in particular with information about its scale. The International VLBI Service for Geodesy and Astrometry (IVS) aims at an improvement of accuracies for the next generation VLBI system by one order of magnitude, as compared to today-s level. This concerns the accuracies of the station positions and velocities that should be achieved at the 1 mm and 0.1 mm/year level, respectively, within the next years. Therefore a concept has been developed which was called VLBI2010 and then VLBI Global Observing System (VGOS). To reach these ambitious aims new VLBI Twin Telescopes (TT) are built next to already existing radio telescopes. The smaller TT, which are faster in their slewing movement, shall contribute to the goals of VGOS by an increasing number of scans and observations per site at a time. This study covers the utilisation of TT and goes into more detail about suchlike stations at the sites of Onsala in Sweden and Wettzell in Germany, which are in the works and are already built respectively. Therefore a global VLBI campaign named CONT11, which was held in September 2011, is rescheduled and simulated to compare the results between the subjoined TT and all other thirteen participating stations from this network of telescopes. As expected the distribution and absolute number of scans and observations in conjunction with these TT surpass the other antennas. Also the differences between simulated and estimated zenith delays are smaller for TT. However, baseline length repeatabilities derived from Monte Carlo simulations do not yield improved values for TT for the scheduling strategies tested in this thesis. Consequently more research for scheduling Twin Telescopes is required.
The technique of Very Long Baseline Interferometry (VLBI) allows the estimation of all five Earth Orientation Parameters (EOP), the International Celestial Reference Frame (ICRF) and it is a primary contributor to the International Terrestrial Reference Frame (ITRF), in particular with information about its scale. The International VLBI Service for Geodesy and Astrometry (IVS) aims at an improvement of accuracies for the next generation VLBI system by one order of magnitude, as compared to today-s level. This concerns the accuracies of the station positions and velocities that should be achieved at the 1 mm and 0.1 mm/year level, respectively, within the next years. Therefore a concept has been developed which was called VLBI2010 and then VLBI Global Observing System (VGOS). To reach these ambitious aims new VLBI Twin Telescopes (TT) are built next to already existing radio telescopes. The smaller TT, which are faster in their slewing movement, shall contribute to the goals of VGOS by an increasing number of scans and observations per site at a time. This study covers the utilisation of TT and goes into more detail about suchlike stations at the sites of Onsala in Sweden and Wettzell in Germany, which are in the works and are already built respectively. Therefore a global VLBI campaign named CONT11, which was held in September 2011, is rescheduled and simulated to compare the results between the subjoined TT and all other thirteen participating stations from this network of telescopes. As expected the distribution and absolute number of scans and observations in conjunction with these TT surpass the other antennas. Also the differences between simulated and estimated zenith delays are smaller for TT. However, baseline length repeatabilities derived from Monte Carlo simulations do not yield improved values for TT for the scheduling strategies tested in this thesis. Consequently more research for scheduling Twin Telescopes is required.
Dynamisches Brückenmonitoring mit automatisierten Totalstationen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2016
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Kurzfassung/Abstract
In dieser Diplomarbeit wird die dynamische Überwachungsmessung von Brücken mittels moderner Totalstationen behandelt. Die dynamische Messung beschäftigt sich mit der Detektion von hochfrequenten Bewegungen. Totalstationen stoßen im normalen Umgang bezüglich des zeitlichen Auflösevermögens an ihre Grenzen, wodurch zur Steigerung des Auflösevermögens mehrere Untersuchungen unter Laborbedingungen durchgeführt wurden. Die größte Auswirkung auf die Auflösung wird durch die Distanzmessung hervorgerufen, weshalb ein neuer Ansatz zur automatisierten Messung der horizontalen und vertikalen Richtungen unter Vernachlässigung der Distanzmessung entwickelt und getestet wurde. Zur Realisierung dieses Ansatzes wurde die von Leica Geosystems entwickelte Programmierschnittelle GeoCOM herangezogen und die dort zur Verfügung stehenden, unterschiedlichen Befehle zur Aufzeichnung von Messwerten untersucht. Die zeitliche Auflösung wird zusätzlich durch weitere Faktoren, wie beispielsweise die Einstellung der Baudrate verringert. Diese Erkenntnis sowie die Auswirkung weiterer Einflussfaktoren wurden im Labor im Zuge unterschiedlichster Testmessungen erlangt. Die Software für die Überwachungsmessung wurde am Augartensteg, Graz unter realen Bedingungen getestet, wobei die Steigerung der Messfrequenz bestätigt werden konnte. Zur Auswertung der Messdaten wurde eine Software erstellt, welche es ermöglicht aus den Messungen Positionen zu berechnen, welche für die Detektion der Eigenfrequenz vom Zeit- in den Frequenzbereich transformiert werden.
In dieser Diplomarbeit wird die dynamische Überwachungsmessung von Brücken mittels moderner Totalstationen behandelt. Die dynamische Messung beschäftigt sich mit der Detektion von hochfrequenten Bewegungen. Totalstationen stoßen im normalen Umgang bezüglich des zeitlichen Auflösevermögens an ihre Grenzen, wodurch zur Steigerung des Auflösevermögens mehrere Untersuchungen unter Laborbedingungen durchgeführt wurden. Die größte Auswirkung auf die Auflösung wird durch die Distanzmessung hervorgerufen, weshalb ein neuer Ansatz zur automatisierten Messung der horizontalen und vertikalen Richtungen unter Vernachlässigung der Distanzmessung entwickelt und getestet wurde. Zur Realisierung dieses Ansatzes wurde die von Leica Geosystems entwickelte Programmierschnittelle GeoCOM herangezogen und die dort zur Verfügung stehenden, unterschiedlichen Befehle zur Aufzeichnung von Messwerten untersucht. Die zeitliche Auflösung wird zusätzlich durch weitere Faktoren, wie beispielsweise die Einstellung der Baudrate verringert. Diese Erkenntnis sowie die Auswirkung weiterer Einflussfaktoren wurden im Labor im Zuge unterschiedlichster Testmessungen erlangt. Die Software für die Überwachungsmessung wurde am Augartensteg, Graz unter realen Bedingungen getestet, wobei die Steigerung der Messfrequenz bestätigt werden konnte. Zur Auswertung der Messdaten wurde eine Software erstellt, welche es ermöglicht aus den Messungen Positionen zu berechnen, welche für die Detektion der Eigenfrequenz vom Zeit- in den Frequenzbereich transformiert werden.
Monitoring Sensitivity Parameters for Improved AUSTRAL VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Dr. Matthias Madzak
Kurzfassung/Abstract
Within this work a detailed investigation of the sensitivity by means of the system temperature (Tsys) and the system equivalent flux density (SEFD) is carried out. 130 AUSTRAL VLBI sessions of the AuScope VLBI array are analyzed and a significant elevation dependency of the sensitivity is found. To account for this systematics, mapping function coefficients are estimated for each station which can be implemented in the state-of-the-art VLBI scheduling packages. An increase in both the VLBI measurement precision and in schedule performance is expected. A method is presented to examine these expectations based on the re-estimation of the SEFD. The study of the past AUSTRAL sessions shows a strong scatter of the re-estimated SEFDs. This indicates the difficulties in the prediction of VLBI scheduling parameters. Comparing the Tsys measurements and the SEFD reveals that the absolute magnitudes of the Tsys measurements must be under critical examination, due to systematics in the calibration signal. The relative variations in the Tsys measurements show reliable values and can be applied for real-time sensitivity determination of the AuScope VLBI antennas. Only Yarragadee shows unexpected offsets in the time series of Tsys measurements and must be reviewed critically. Besides the elevation systematics, a daily and a yearly signal of the sensitivity are found. This correlates with the atmospheric temperature signal at the site. An impact on the position accuracy level due to unconsidered variations of the VLBI antennas sensitivity cannot be found. This work provides a better understanding of the AuScope VLBI scheduling characteristics based on the elaboration of the AuScope VLBI network sensitivity parameters. Additionally, software is developed to monitor these parameters.
Within this work a detailed investigation of the sensitivity by means of the system temperature (Tsys) and the system equivalent flux density (SEFD) is carried out. 130 AUSTRAL VLBI sessions of the AuScope VLBI array are analyzed and a significant elevation dependency of the sensitivity is found. To account for this systematics, mapping function coefficients are estimated for each station which can be implemented in the state-of-the-art VLBI scheduling packages. An increase in both the VLBI measurement precision and in schedule performance is expected. A method is presented to examine these expectations based on the re-estimation of the SEFD. The study of the past AUSTRAL sessions shows a strong scatter of the re-estimated SEFDs. This indicates the difficulties in the prediction of VLBI scheduling parameters. Comparing the Tsys measurements and the SEFD reveals that the absolute magnitudes of the Tsys measurements must be under critical examination, due to systematics in the calibration signal. The relative variations in the Tsys measurements show reliable values and can be applied for real-time sensitivity determination of the AuScope VLBI antennas. Only Yarragadee shows unexpected offsets in the time series of Tsys measurements and must be reviewed critically. Besides the elevation systematics, a daily and a yearly signal of the sensitivity are found. This correlates with the atmospheric temperature signal at the site. An impact on the position accuracy level due to unconsidered variations of the VLBI antennas sensitivity cannot be found. This work provides a better understanding of the AuScope VLBI scheduling characteristics based on the elaboration of the AuScope VLBI network sensitivity parameters. Additionally, software is developed to monitor these parameters.
Langzeitarchivierung von digitalen Geo-Dokumenten
Institut für Geodäsie, Technische Universität Graz, 2016
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Vorliegende Masterarbeit beschäftigt sich mit dem Prozess der Findung des geeignetsten Langzeitarchivformats von Geo - Dokumenten. Das Augenmerk wird dabei auf die Langzeitarchivierung mittels PDF/A (Portable Document Format/Archiving) gelegt. In Anlehnung daran wird in einem weiteren Teil der Arbeit ein Prozess für die Texterkennung mittels OCR (Optical Character Recognition) für gescannte Geo - Dokumente und deren abschließende Umwandlung in das Langzeitarchivformat PDF/A behandelt. Dementsprechend bietet der erste Teil der Arbeit einen Einblick in die theoretischen Grundlagen der in dieser Masterarbeit behandelten Themenbereiche, während ein zweiter Teil den Aufbau, die Funktionsweise und die Durchführung des praktischen Teils beschreibt. Der praktische Teil umfasst dabei einerseits die Umsetzung eines PDF/A - Prozesses, bei dem mit Hilfe der gewählten Software, zwei verschiedene Varianten zur Findung der geeignetsten Archivvariante im Hinblick auf PDF/A untersucht werden und andererseits die Umsetzung eines OCR - Prozesses, bei dem nicht unmittelbar zugängliche Informationen aus den zuvor abgeleiteten PDF/A - Dokumenten herausgefiltert und diese Dokumente ebenfalls in ein für die Archivierung geeignetes Langzeitarchivformat mit Fokus auf PDF/A umgewandelt werden sollen. Ein letzter Teil der Arbeit geht auf die Anwendungen und die verschiedenen Einsatzgebiete von PDF/A ein, bei der vor allem klar gemacht werden soll, wie wichtig der Einsatz eines langzeitarchivfähigen Formates im Geo - Bereich ist bzw. auch das PDF/A - Format zunehmend an Bedeutung gewinnt.
Vorliegende Masterarbeit beschäftigt sich mit dem Prozess der Findung des geeignetsten Langzeitarchivformats von Geo - Dokumenten. Das Augenmerk wird dabei auf die Langzeitarchivierung mittels PDF/A (Portable Document Format/Archiving) gelegt. In Anlehnung daran wird in einem weiteren Teil der Arbeit ein Prozess für die Texterkennung mittels OCR (Optical Character Recognition) für gescannte Geo - Dokumente und deren abschließende Umwandlung in das Langzeitarchivformat PDF/A behandelt. Dementsprechend bietet der erste Teil der Arbeit einen Einblick in die theoretischen Grundlagen der in dieser Masterarbeit behandelten Themenbereiche, während ein zweiter Teil den Aufbau, die Funktionsweise und die Durchführung des praktischen Teils beschreibt. Der praktische Teil umfasst dabei einerseits die Umsetzung eines PDF/A - Prozesses, bei dem mit Hilfe der gewählten Software, zwei verschiedene Varianten zur Findung der geeignetsten Archivvariante im Hinblick auf PDF/A untersucht werden und andererseits die Umsetzung eines OCR - Prozesses, bei dem nicht unmittelbar zugängliche Informationen aus den zuvor abgeleiteten PDF/A - Dokumenten herausgefiltert und diese Dokumente ebenfalls in ein für die Archivierung geeignetes Langzeitarchivformat mit Fokus auf PDF/A umgewandelt werden sollen. Ein letzter Teil der Arbeit geht auf die Anwendungen und die verschiedenen Einsatzgebiete von PDF/A ein, bei der vor allem klar gemacht werden soll, wie wichtig der Einsatz eines langzeitarchivfähigen Formates im Geo - Bereich ist bzw. auch das PDF/A - Format zunehmend an Bedeutung gewinnt.
Generierung von digitalen Geländemodellen auf Basis von Laserscan - Punktwolken für das Land Steiermark am Fallbeispiel Sankt Lorenzen im Paltental
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2016
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
Diese Masterarbeit wurde im Auftrag der Abteilung 7 Landes- und Gemeindeentwicklung, Referat Statistik und Geoinformation des Landes Steiermark durchgeführt und beschäftigt sich mit dem Thema der digitalen Geländegenerierung aus LAS Dateien. Zur Evaluierung der Ergebnisse wurde das Gebiet um den Ort Sankt Lorenzen im Paltental in der Steiermark gewählt, da es mehrere typische Geländestrukturen besitzt, wie zum Beispiel ein flaches Talgebiet, eine Mittelgebirgsregion und eine Hochgebirgsregion, und somit die Genauigkeit der generierten DTMs bei unterschiedlichen Topographien vergleichen zu können. Die Inverse Distance Weigthing (IDW) Methode stellt sich in verschiedenen Studien unter anderem als geeigneter Interpolator für LIDAR Daten dar. Die IDW Methode lässt sich ebenfalls ohne Probleme programmieren und damit ein Tool zur Geländeinterpolation aus LAS Daten entwickeln. Im Vergleich zu den lizenzpflichtigen Tools, wie LASTools und LP360 konnte vor allem die programmierte IDW Methode gute Ergebnisse zeigen. Der Root-mean-square Fehler (RMSE) liegt bei komplexem Gelände nur im Zentimeterbereich höher als bei den lizenzpflichtigen Tools. Bei flachem Gelände liefert die IDW Methode genauso gute Ergebnisse. Den Unterschied zwischen allen Tools sieht man vor allem in Fällen von Geländeänderungen, von kleinen Gräben bis hin zu großen Höhendifferenzen mit Steilhängen, sowie bei fehlender bis geringer LIDAR Bodenpunktabdeckung, wo sehr unterschiedlich von den Tools interpoliert wird.
Diese Masterarbeit wurde im Auftrag der Abteilung 7 Landes- und Gemeindeentwicklung, Referat Statistik und Geoinformation des Landes Steiermark durchgeführt und beschäftigt sich mit dem Thema der digitalen Geländegenerierung aus LAS Dateien. Zur Evaluierung der Ergebnisse wurde das Gebiet um den Ort Sankt Lorenzen im Paltental in der Steiermark gewählt, da es mehrere typische Geländestrukturen besitzt, wie zum Beispiel ein flaches Talgebiet, eine Mittelgebirgsregion und eine Hochgebirgsregion, und somit die Genauigkeit der generierten DTMs bei unterschiedlichen Topographien vergleichen zu können. Die Inverse Distance Weigthing (IDW) Methode stellt sich in verschiedenen Studien unter anderem als geeigneter Interpolator für LIDAR Daten dar. Die IDW Methode lässt sich ebenfalls ohne Probleme programmieren und damit ein Tool zur Geländeinterpolation aus LAS Daten entwickeln. Im Vergleich zu den lizenzpflichtigen Tools, wie LASTools und LP360 konnte vor allem die programmierte IDW Methode gute Ergebnisse zeigen. Der Root-mean-square Fehler (RMSE) liegt bei komplexem Gelände nur im Zentimeterbereich höher als bei den lizenzpflichtigen Tools. Bei flachem Gelände liefert die IDW Methode genauso gute Ergebnisse. Den Unterschied zwischen allen Tools sieht man vor allem in Fällen von Geländeänderungen, von kleinen Gräben bis hin zu großen Höhendifferenzen mit Steilhängen, sowie bei fehlender bis geringer LIDAR Bodenpunktabdeckung, wo sehr unterschiedlich von den Tools interpoliert wird.
Transition of TU Wien Change Detection Method from ASAR to Sentinel-1: A Statistical Analysis
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Bernhard Bauer-Marschallinger
Kurzfassung/Abstract
Soil moisture is an important variable in the hydrological and meteorological cycle of the earth. It can have profound impacts on the planet‘s climate system and also influences processes such as flooding and runoff generation or drought developments. Hence, the knowledge of the distribution and amount of water in the soil is of great interest for many applications. The Remote Sensing Research Group at TU Wien developed a method to retrieve soil moisture from backscatter measurements obtained from active microwave sensors. This method was initially developed for scatterometer data, but was then also adapted for the Advanced Synthetic Aperture Radar (ASAR) on board of the Envisat satellite. In 2014, the first of two Sentinel-1 satellites was launched into its orbit, carrying a synthetic aperture radar (SAR) that is similar to the ASAR instrument. Consequently, a transfer of the ASAR soil moisture algorithm to Sentinel-1 was expected to be straight forward. The aim of this thesis is to investigate if the ASAR soil moisture algorithm can be transferred to Sentinel-1 using retrieval parameters calculated from ASAR Wide Swath (WS) data. Due to the lack of historical data, it is not yet feasible to derive the model parameters that are needed in the retrieval from Sentinel-1 data itself. Therefore the Sentinel-1 surface soil moisture (SSM) was calculated with ASAR WS parameters and compared to the ASAR SSM products using coarse spatial resolution soil moisture acquisitions from the Advanced Scatterometer (ASCAT) and from the Global Land and Data Assimilation System (GLDAS). The evaluation of the different products was performed over central Europe by calculation standard performance metrics, i.e. the temporal correlation and the root mean square difference (RMSD) of the SSM time series. Furthermore, the correlation and the RMSD were determined for different land cover types. The results show a better correlation and RMSD performance for ASAR WS than for Sentinel-1, which can be explained with the smaller sample size and shorter period of Sentinel-1 dataset. Furthermore, if one wants to realise the full potential of Sentinel-1 for soil moisture retrieval, then (i) an adaptation of the model and (ii) the calibration of the model parameters with Sentinel-1 data should be considered.
Soil moisture is an important variable in the hydrological and meteorological cycle of the earth. It can have profound impacts on the planet‘s climate system and also influences processes such as flooding and runoff generation or drought developments. Hence, the knowledge of the distribution and amount of water in the soil is of great interest for many applications. The Remote Sensing Research Group at TU Wien developed a method to retrieve soil moisture from backscatter measurements obtained from active microwave sensors. This method was initially developed for scatterometer data, but was then also adapted for the Advanced Synthetic Aperture Radar (ASAR) on board of the Envisat satellite. In 2014, the first of two Sentinel-1 satellites was launched into its orbit, carrying a synthetic aperture radar (SAR) that is similar to the ASAR instrument. Consequently, a transfer of the ASAR soil moisture algorithm to Sentinel-1 was expected to be straight forward. The aim of this thesis is to investigate if the ASAR soil moisture algorithm can be transferred to Sentinel-1 using retrieval parameters calculated from ASAR Wide Swath (WS) data. Due to the lack of historical data, it is not yet feasible to derive the model parameters that are needed in the retrieval from Sentinel-1 data itself. Therefore the Sentinel-1 surface soil moisture (SSM) was calculated with ASAR WS parameters and compared to the ASAR SSM products using coarse spatial resolution soil moisture acquisitions from the Advanced Scatterometer (ASCAT) and from the Global Land and Data Assimilation System (GLDAS). The evaluation of the different products was performed over central Europe by calculation standard performance metrics, i.e. the temporal correlation and the root mean square difference (RMSD) of the SSM time series. Furthermore, the correlation and the RMSD were determined for different land cover types. The results show a better correlation and RMSD performance for ASAR WS than for Sentinel-1, which can be explained with the smaller sample size and shorter period of Sentinel-1 dataset. Furthermore, if one wants to realise the full potential of Sentinel-1 for soil moisture retrieval, then (i) an adaptation of the model and (ii) the calibration of the model parameters with Sentinel-1 data should be considered.
Routingdienst für Einsatzkräfte auf Basis von Open Source und freien Geodaten
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2016
Betreuer: Dipl.-Ing. Dr. Clemens Strauß
Kurzfassung/Abstract
Ziel dieser Masterarbeit ist es, auf Basis freier Geodaten und Open Source Software einen Routingdienst für Einsatzkräfte zu erstellen. Dieser Routingdienst soll für Aufgaben im In- sowie im Ausland eingesetzt werden können, sofern entsprechende Geodatensätze vorhanden sind. Mögliche Anwendung findet der Dienst beispielsweise bei Feuerwehr, Bundesheer, Rettung und Exekutive. Da es sich um ein Open Source GIS handelt, wird als Grundgerüst QGIS verwendet. In einer eigens auf QGIS-Basis erstellten grafischen Benutzeroberfläche (Standalone-Applikation) werden routingrelevante Operationen durchgeführt. Die für das Routing benötigten geocodierten Straßendaten entstammen der OpenStreetMap und werden für die Erstellung einer routingfähigen Knoten-Kanten-Struktur herangezogen. Um auch Höheninformationen in das Routing mit einfließen zu lassen, wurden unterschiedliche Höhendatensätze näher untersucht. Mit dieser Anwendung können neben dem Auffinden des schnellsten Weges zwischen zwei Orten A und B auch Bedingungen miteinbezogen werden. So ist es möglich, Tunnel und Brücken, aufgrund von Umwelteinflüssen oder nicht passenden Fahrzeugeigenschaften (Breite oder Gesamtgewicht) teilweise oder zur Gänze von der Routenfindung auszuschließen. Weiters können Sperrzonen in den Straßendaten definiert werden, die vom Routing ausgeschlossen werden sollen. Diese Sperrbereiche können nicht nur selbst erstellt, sondern auch von Dritten bezogen und in Form von Shape-Dateien oder aus Tabellen einer Datenbank in die Anwendung geladen werden.
Ziel dieser Masterarbeit ist es, auf Basis freier Geodaten und Open Source Software einen Routingdienst für Einsatzkräfte zu erstellen. Dieser Routingdienst soll für Aufgaben im In- sowie im Ausland eingesetzt werden können, sofern entsprechende Geodatensätze vorhanden sind. Mögliche Anwendung findet der Dienst beispielsweise bei Feuerwehr, Bundesheer, Rettung und Exekutive. Da es sich um ein Open Source GIS handelt, wird als Grundgerüst QGIS verwendet. In einer eigens auf QGIS-Basis erstellten grafischen Benutzeroberfläche (Standalone-Applikation) werden routingrelevante Operationen durchgeführt. Die für das Routing benötigten geocodierten Straßendaten entstammen der OpenStreetMap und werden für die Erstellung einer routingfähigen Knoten-Kanten-Struktur herangezogen. Um auch Höheninformationen in das Routing mit einfließen zu lassen, wurden unterschiedliche Höhendatensätze näher untersucht. Mit dieser Anwendung können neben dem Auffinden des schnellsten Weges zwischen zwei Orten A und B auch Bedingungen miteinbezogen werden. So ist es möglich, Tunnel und Brücken, aufgrund von Umwelteinflüssen oder nicht passenden Fahrzeugeigenschaften (Breite oder Gesamtgewicht) teilweise oder zur Gänze von der Routenfindung auszuschließen. Weiters können Sperrzonen in den Straßendaten definiert werden, die vom Routing ausgeschlossen werden sollen. Diese Sperrbereiche können nicht nur selbst erstellt, sondern auch von Dritten bezogen und in Form von Shape-Dateien oder aus Tabellen einer Datenbank in die Anwendung geladen werden.
GNSS-RTK basierte Methoden zur Ableitung physikalisch definierter Landeshöhen und dynamischer Höhen
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Fabian Hinterberger
Kurzfassung/Abstract
Die hier vorliegende Arbeit untersucht Methoden zur Ableitung von physikalisch definierten Höhen aus GNSS-RTK-Messungen. Als Grundlage für die GNSS-Messungen dient ein Höhennetz bestehend aus homogen verteilten Bolzen, die über das gesamte Gebiet der Gemeinde Forchtenstein verteilt sind. Jeder dieser Bolzen verfügt über eine Höhenangabe im Landessystem (normal-sphäroidische Höhe über Adria). Zunächst wurde das bestehende Höhennetz mittels GNSS nachgemessen. Dies geschah in zwei voneinander unabhängigen Messepochen. Für die Einmessung wurden die Korrekturdatendienste APOS und EPOSA verwendet. Nach der Einmessung wurden die mit GNSS ermittelten Landeshöhen mit der Referenzhöhe (Höhennetz) verglichen, um die Unterschiede der jeweiligen Anbieter aufzuzeigen. Dabei konnten teilweise erhebliche Abweichungen aufgezeigt werden, da die Anbieter zwar dieselbe Methode für die Koordinatentransformation ins Landessystem verwenden jedoch andere Rasterresiduen anbringen. In weiterer Folge werden der Übergang und der Zusammenhang zu physikalisch definierten Höhen aufgezeigt. Ausgehend von der ellipsoidischen Höhe, die durch GNSS-Messungen ermittelt wurde, wird die geometrische Beziehung zwischen dieser und der orthometrischen Höhe, sowie der Normalhöhe dargestellt. Im Falle der orthometrischen Höhe muss die Geoidundulation (Abstand Geoid - Ellipsoid) im Messgebiet bekannt sein. Für den Übergang zur Normalhöhe wird vorab die Höhenanomalie mathematisch berechnet. Sowohl orthometrische Höhe und die Normalhöhe weichen voneinander im Subzentimeterbereich ab. Abschließend wurde auch die Dynamische Höhe für die jeweiligen Höhennetzpunkte ermittelt. Die Dynamische Höhe findet vor allem in der Hydrologie Anwendung und ist für Wasserbauer unverzichtbar. Das Feld der Dynamischen Höhen wird aus den geopotentiellen Koten abgeleitet. Für die Berechnung der Koten wurden die bereits bekannte Normalhöhen und der theoretische Schwerewert verwendet. Abschließend wurden die unterschiedlichen Höhen gegenübergestellt.
Die hier vorliegende Arbeit untersucht Methoden zur Ableitung von physikalisch definierten Höhen aus GNSS-RTK-Messungen. Als Grundlage für die GNSS-Messungen dient ein Höhennetz bestehend aus homogen verteilten Bolzen, die über das gesamte Gebiet der Gemeinde Forchtenstein verteilt sind. Jeder dieser Bolzen verfügt über eine Höhenangabe im Landessystem (normal-sphäroidische Höhe über Adria). Zunächst wurde das bestehende Höhennetz mittels GNSS nachgemessen. Dies geschah in zwei voneinander unabhängigen Messepochen. Für die Einmessung wurden die Korrekturdatendienste APOS und EPOSA verwendet. Nach der Einmessung wurden die mit GNSS ermittelten Landeshöhen mit der Referenzhöhe (Höhennetz) verglichen, um die Unterschiede der jeweiligen Anbieter aufzuzeigen. Dabei konnten teilweise erhebliche Abweichungen aufgezeigt werden, da die Anbieter zwar dieselbe Methode für die Koordinatentransformation ins Landessystem verwenden jedoch andere Rasterresiduen anbringen. In weiterer Folge werden der Übergang und der Zusammenhang zu physikalisch definierten Höhen aufgezeigt. Ausgehend von der ellipsoidischen Höhe, die durch GNSS-Messungen ermittelt wurde, wird die geometrische Beziehung zwischen dieser und der orthometrischen Höhe, sowie der Normalhöhe dargestellt. Im Falle der orthometrischen Höhe muss die Geoidundulation (Abstand Geoid - Ellipsoid) im Messgebiet bekannt sein. Für den Übergang zur Normalhöhe wird vorab die Höhenanomalie mathematisch berechnet. Sowohl orthometrische Höhe und die Normalhöhe weichen voneinander im Subzentimeterbereich ab. Abschließend wurde auch die Dynamische Höhe für die jeweiligen Höhennetzpunkte ermittelt. Die Dynamische Höhe findet vor allem in der Hydrologie Anwendung und ist für Wasserbauer unverzichtbar. Das Feld der Dynamischen Höhen wird aus den geopotentiellen Koten abgeleitet. Für die Berechnung der Koten wurden die bereits bekannte Normalhöhen und der theoretische Schwerewert verwendet. Abschließend wurden die unterschiedlichen Höhen gegenübergestellt.
Orthophotoerstellung unter Verwendung einer abwickelbaren Referenzfläche und eines Höhenmodells
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Camillo Ress
Kurzfassung/Abstract
In der vorliegenden Diplomarbeit wird ein Algorithmus beschrieben, welcher es ermöglicht, Orthphotos von über Zylinder- und Kegelflächen beschreibbaren Oberflächen zu erstellen. Dafür wird der Prozess der Abwicklung in den Orthophotoerstellungsprozess eingebaut, sodass eine verzerrungsfreie Wiedergabe der abwickelbaren Oberfläche im Orthophoto möglich wird. Zusätzlich wird im Orthophtoerstellungsprozess auch ein Digitales Höhenmodell (DHM) verwendet, wodurch auch die geometrisch korrekte Abbildung eines Reliefs in den Orthophotos ermöglicht wird. Der entwickelte Algorithmus wurde in Matlab® implementiert und auf zwei Objekte angewendet. Eines der Objekte ist eine schlichte Säule, welche über eine einzelne abwickelbare Quadrik beschrieben werden kann. Das zweite Objekt weist eine komplexere Form auf und wird hier über zwei Kreiszylinder modelliert. Für das erste Objekt wird neben einer visuellen Kontrolle auch eine quantitative Beurteilung durchgeführt. Dafür werden Kontrollpunkte in den originalen Bildern sowie im fertigen Orthophotomosaik gemessen. Die mittels Vorwärtsschnitt und Abwicklung aus den Bildmessungen ermittelten Koordinaten werden dann mit dem im Orthophotomosaik direkt gemessenen Koordinaten verglichen. Die Differenzen zwischen diesen Koordinaten werden zur Beurteilung der Verfahren herangezogen. Für das erste Objekt werden sowohl ein Kreiszylinder als auch ein Kreiskegel zur Beschreibung verwendet. Für beide Varianten werden sowohl mit als auch ohne Berücksichtigung eines Digitalen Höhenmodells Orthophotos erstellt. Der visuelle als auch quantitative Vergleich der Ergebnisse der unterschiedlichen Varianten zeigt, dass die Wahl der Referenzfläche keine entscheidende Rolle spielt, solange zusätzlich ein digitales Höhenmodell verwendet wird. Wird ein solches verwendet, so erhält man bei beiden Referenzflächen für die Koordinatendifferenzen der Kontrollpunkte RMS-Werte zwischen 0,26 mm (1,05 Pixel) und 0,30 mm (1,20 Pixel). Wird kein DHM verwendet, so ist bei der Wahl der Referenzfläche danach zu trachten, dass diese bestmöglich das Objekt beschreibt. Hier ist dies bei der konischen Referenzfläche der Fall. Der RMS der Koordinatendifferenzen der Kontrollpunkte beträgt bei dieser in den beiden Koordinatenrichtungen 0,98 mm (3,9 Pixel) bzw. 1,69 mm (6,74 Pixel). Bei Verwendung einer zylindrischen Referenzfläche ergeben sich die RMS-Werte der Koordinatendifferenzen der Kontrollpunkte in den beiden Koordinatenrichtungen zu 2,26 mm (9,03 Pixel) bzw. 4,99 mm (19,97 Pixel). Durch die Anwendung des Algorithmus auf das zweite, komplexere Objekt kann schließlich noch gezeigt werden, dass der Algorithmus auch auf einfach zusammengesetzte Objekte angewendet werden kann. Da der Algorithmus grundsätzlich nur für einfache, durch eine einzige abwickelbare Quadrik beschreibbare Objekte konzipiert ist, muss abhängig von der Komplexität der zusammengesetzten Objekte unter Umständen mit gewissen Abstrichen im Resultat gerechnet werden.
In der vorliegenden Diplomarbeit wird ein Algorithmus beschrieben, welcher es ermöglicht, Orthphotos von über Zylinder- und Kegelflächen beschreibbaren Oberflächen zu erstellen. Dafür wird der Prozess der Abwicklung in den Orthophotoerstellungsprozess eingebaut, sodass eine verzerrungsfreie Wiedergabe der abwickelbaren Oberfläche im Orthophoto möglich wird. Zusätzlich wird im Orthophtoerstellungsprozess auch ein Digitales Höhenmodell (DHM) verwendet, wodurch auch die geometrisch korrekte Abbildung eines Reliefs in den Orthophotos ermöglicht wird. Der entwickelte Algorithmus wurde in Matlab® implementiert und auf zwei Objekte angewendet. Eines der Objekte ist eine schlichte Säule, welche über eine einzelne abwickelbare Quadrik beschrieben werden kann. Das zweite Objekt weist eine komplexere Form auf und wird hier über zwei Kreiszylinder modelliert. Für das erste Objekt wird neben einer visuellen Kontrolle auch eine quantitative Beurteilung durchgeführt. Dafür werden Kontrollpunkte in den originalen Bildern sowie im fertigen Orthophotomosaik gemessen. Die mittels Vorwärtsschnitt und Abwicklung aus den Bildmessungen ermittelten Koordinaten werden dann mit dem im Orthophotomosaik direkt gemessenen Koordinaten verglichen. Die Differenzen zwischen diesen Koordinaten werden zur Beurteilung der Verfahren herangezogen. Für das erste Objekt werden sowohl ein Kreiszylinder als auch ein Kreiskegel zur Beschreibung verwendet. Für beide Varianten werden sowohl mit als auch ohne Berücksichtigung eines Digitalen Höhenmodells Orthophotos erstellt. Der visuelle als auch quantitative Vergleich der Ergebnisse der unterschiedlichen Varianten zeigt, dass die Wahl der Referenzfläche keine entscheidende Rolle spielt, solange zusätzlich ein digitales Höhenmodell verwendet wird. Wird ein solches verwendet, so erhält man bei beiden Referenzflächen für die Koordinatendifferenzen der Kontrollpunkte RMS-Werte zwischen 0,26 mm (1,05 Pixel) und 0,30 mm (1,20 Pixel). Wird kein DHM verwendet, so ist bei der Wahl der Referenzfläche danach zu trachten, dass diese bestmöglich das Objekt beschreibt. Hier ist dies bei der konischen Referenzfläche der Fall. Der RMS der Koordinatendifferenzen der Kontrollpunkte beträgt bei dieser in den beiden Koordinatenrichtungen 0,98 mm (3,9 Pixel) bzw. 1,69 mm (6,74 Pixel). Bei Verwendung einer zylindrischen Referenzfläche ergeben sich die RMS-Werte der Koordinatendifferenzen der Kontrollpunkte in den beiden Koordinatenrichtungen zu 2,26 mm (9,03 Pixel) bzw. 4,99 mm (19,97 Pixel). Durch die Anwendung des Algorithmus auf das zweite, komplexere Objekt kann schließlich noch gezeigt werden, dass der Algorithmus auch auf einfach zusammengesetzte Objekte angewendet werden kann. Da der Algorithmus grundsätzlich nur für einfache, durch eine einzige abwickelbare Quadrik beschreibbare Objekte konzipiert ist, muss abhängig von der Komplexität der zusammengesetzten Objekte unter Umständen mit gewissen Abstrichen im Resultat gerechnet werden.
Comparing grace with CCI soil moisture data on a global scale
Department für Geodäsie und Geoinformation, Forschungsgruppen Höhere Geodäsie und Fernerkundung, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dr. Wouter Arnoud Dorigo MSc
Kurzfassung/Abstract
Water storage and water storage changes have become a topic of increasing interest, because they can be used as an indicator of climate change impacts. Total water storage (TWS) is understood as the sum of groundwater, soil moisture (SM), surface water and snow. Changes in TWS (TWSC) can be detected using spaceborne gravimetric measurements. The Gravity Recovery and Climate Experiment (GRACE) Tellus Land dataset provides estimates of TWSC over land. Surface SM estimates can be derived from microwave remote sensing. The Climate Change Initiative Soil Moisture (CCI SM) project combines different microwave remote sensing products to one SM dataset mapping the whole world. The aim of this thesis is to evaluate the correspondence between the CCI SM and the GRACE Tellus dataset using the Pearson correlation coefficient on a global scale. Precipitation datasets (GPCC and GPCP), the ERA-Interim/Land dataset and a map of area equipped for irrigation will help to understand the results of the comparison. As expected both datasets (CCI SM and GRACE Tellus) match each other well, indicated by positive correlation coefficients. Most of the values are between 0.6 and 0.8 with no lag between the datasets. A lag of one month results in higher values (between 0.8 and 1). In the very north of the northern hemisphere and Saudi Arabia negative correlation coefficients are predominant (values between -0.6 and -0.3). For the northern hemisphere this can be explained by the fact that the CCI SM dataset only indicates liquid water. During colder periods snow and ice lead to an increase in TWS, but a decrease in SM. The decrease in SM is caused by the fact that ice and snow are masked in the CCI SM datasets. The area surrounding Saudi Arabia shows some contradictory results, considering the different datasets used. Especially the fact that TWS increases during warmer periods and decreases in colder periods needs to be reviewed critically. Concluding the CCI SM dataset can help to understand the water cycle, especially in combination with the GRACE Tellus dataset on a global scale. It is important to take into account that the mentioned areas need some further research to understand the main drivers for the resulting negative correlation coefficients.
Water storage and water storage changes have become a topic of increasing interest, because they can be used as an indicator of climate change impacts. Total water storage (TWS) is understood as the sum of groundwater, soil moisture (SM), surface water and snow. Changes in TWS (TWSC) can be detected using spaceborne gravimetric measurements. The Gravity Recovery and Climate Experiment (GRACE) Tellus Land dataset provides estimates of TWSC over land. Surface SM estimates can be derived from microwave remote sensing. The Climate Change Initiative Soil Moisture (CCI SM) project combines different microwave remote sensing products to one SM dataset mapping the whole world. The aim of this thesis is to evaluate the correspondence between the CCI SM and the GRACE Tellus dataset using the Pearson correlation coefficient on a global scale. Precipitation datasets (GPCC and GPCP), the ERA-Interim/Land dataset and a map of area equipped for irrigation will help to understand the results of the comparison. As expected both datasets (CCI SM and GRACE Tellus) match each other well, indicated by positive correlation coefficients. Most of the values are between 0.6 and 0.8 with no lag between the datasets. A lag of one month results in higher values (between 0.8 and 1). In the very north of the northern hemisphere and Saudi Arabia negative correlation coefficients are predominant (values between -0.6 and -0.3). For the northern hemisphere this can be explained by the fact that the CCI SM dataset only indicates liquid water. During colder periods snow and ice lead to an increase in TWS, but a decrease in SM. The decrease in SM is caused by the fact that ice and snow are masked in the CCI SM datasets. The area surrounding Saudi Arabia shows some contradictory results, considering the different datasets used. Especially the fact that TWS increases during warmer periods and decreases in colder periods needs to be reviewed critically. Concluding the CCI SM dataset can help to understand the water cycle, especially in combination with the GRACE Tellus dataset on a global scale. It is important to take into account that the mentioned areas need some further research to understand the main drivers for the resulting negative correlation coefficients.
Untersuchung des Einflusses der Scangeometrie und des Messobjektes auf die reflektorlose Distanzmessung beim Scanvorgang
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2016
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Ing. Miriam Zamecnikova Ph.D.
Kurzfassung/Abstract
Das terrestrische Laserscanning hat sich heute längst in der Ingenieurgeodäsie etabliert. Bei der dabei verwendeten reflektorlosen Distanzmessung können verschiedene Fehlereinflüsse auftreten. Dazu zählen die Messdistanz, der Winkel, in dem der Laserstrahl auf das Objekt trifft (Auftreffwinkel) und die Oberflächenbeschaffenheit des Objekts. An der Forschungsgruppe Ingenieurgeodäsie der TU Wien, wurde eine Methodik entwickelt, die den direkten Vergleich der mittels terrestrischem Laserscanner (TLS) bestimmten Distanz mit einer Referenzdistanz ermöglicht. In dieser Arbeit wurden zwei neue Verfahren zur Bestimmung der Referenzdistanz entwickelt und die Einflüsse von Distanz, Rauheit und Auftreffwinkel auf die reflektorlose Distanzmessung untersucht. Als TLS wurde die Leica MultiStation MS50 eingesetzt, die mit dem Impulslaufzeitverfahren arbeitet. Die untersuchten Distanzen betrugen zwischen 10m und 30 m. Es konnte eine signifikante Distanzänderung in Abhängigkeit vom Auftreffwinkel und von der Distanz zum Objekt festgestellt werden.
Das terrestrische Laserscanning hat sich heute längst in der Ingenieurgeodäsie etabliert. Bei der dabei verwendeten reflektorlosen Distanzmessung können verschiedene Fehlereinflüsse auftreten. Dazu zählen die Messdistanz, der Winkel, in dem der Laserstrahl auf das Objekt trifft (Auftreffwinkel) und die Oberflächenbeschaffenheit des Objekts. An der Forschungsgruppe Ingenieurgeodäsie der TU Wien, wurde eine Methodik entwickelt, die den direkten Vergleich der mittels terrestrischem Laserscanner (TLS) bestimmten Distanz mit einer Referenzdistanz ermöglicht. In dieser Arbeit wurden zwei neue Verfahren zur Bestimmung der Referenzdistanz entwickelt und die Einflüsse von Distanz, Rauheit und Auftreffwinkel auf die reflektorlose Distanzmessung untersucht. Als TLS wurde die Leica MultiStation MS50 eingesetzt, die mit dem Impulslaufzeitverfahren arbeitet. Die untersuchten Distanzen betrugen zwischen 10m und 30 m. Es konnte eine signifikante Distanzänderung in Abhängigkeit vom Auftreffwinkel und von der Distanz zum Objekt festgestellt werden.
Determination of the Freeze/Thaw Surface State from ERS-2 Backscatter Data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Christoph Reimer
Kurzfassung/Abstract
The freeze/thaw cycle of the Earth's surface determines the timing and the length of the vegetation growing season and has a high impact on the land-atmosphere carbon dioxide exchange. For applications like permafrost monitoring and climate studies, information on the freeze/thaw state of the surface is highly valuable. The Remote Sensing research group at TU Wien has developed methods to retrieve global freeze/thaw states of the Earth's surface from backscatter measurements obtained from microwave scatterometers. The algorithm for the retrieval of the surface state was originally developed for data from the Advanced Scatterometer (ASCAT), covering the period from 2007 until present. Since geoscientific studies require data from different periods, it's desirable to have long time series available. The aim of this thesis was to investigate if the ASCAT surface state algorithm can also be applied on data from the scatterometer (ESCAT) on-board the European Remote Sensing (ERS) satellites in order to obtain prolonged freeze/thaw time series, despite the lower amount of available observations because of limitations in the observation geometry and technical problems during the mission. The algorithm requires a certain amount of observations under different conditions in order to derive a surface state, which made the data availability the largest factor of uncertainty when starting the work on the algorithm adaptation. Different climate and land cover regions were selected to compare the ESCAT surface state flags with those retrieved from ASCAT backscatter data. The overall outcome shows very satisfying results, contradicting the expectation that the low data availability might prevent a successful determination of the surface state from ESCAT data. Furthermore, the ESCAT surface state flags were validated against soiland surface temperature data from the Global Land Data Assimilation System (GLDAS) and in-situ networks, as well as against arctic freeze/thaw soil state from the National Snow and Ice Data Center (NSIDC). All validations show very good coherence between the datasets.
The freeze/thaw cycle of the Earth's surface determines the timing and the length of the vegetation growing season and has a high impact on the land-atmosphere carbon dioxide exchange. For applications like permafrost monitoring and climate studies, information on the freeze/thaw state of the surface is highly valuable. The Remote Sensing research group at TU Wien has developed methods to retrieve global freeze/thaw states of the Earth's surface from backscatter measurements obtained from microwave scatterometers. The algorithm for the retrieval of the surface state was originally developed for data from the Advanced Scatterometer (ASCAT), covering the period from 2007 until present. Since geoscientific studies require data from different periods, it's desirable to have long time series available. The aim of this thesis was to investigate if the ASCAT surface state algorithm can also be applied on data from the scatterometer (ESCAT) on-board the European Remote Sensing (ERS) satellites in order to obtain prolonged freeze/thaw time series, despite the lower amount of available observations because of limitations in the observation geometry and technical problems during the mission. The algorithm requires a certain amount of observations under different conditions in order to derive a surface state, which made the data availability the largest factor of uncertainty when starting the work on the algorithm adaptation. Different climate and land cover regions were selected to compare the ESCAT surface state flags with those retrieved from ASCAT backscatter data. The overall outcome shows very satisfying results, contradicting the expectation that the low data availability might prevent a successful determination of the surface state from ESCAT data. Furthermore, the ESCAT surface state flags were validated against soiland surface temperature data from the Global Land Data Assimilation System (GLDAS) and in-situ networks, as well as against arctic freeze/thaw soil state from the National Snow and Ice Data Center (NSIDC). All validations show very good coherence between the datasets.
Entwicklung einer Tourenplanungssoftware (SNOWMAPS) auf Basis von abgeleiteten Karten aus Höhendaten
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2016
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
Basierend auf Karten, welche aus Airborne-Laser-Scanning-Höhendaten abgeleitet werden, soll eine Tourenplanungssoftware für Wintersportler in Zusammenarbeit mit dem steirischen Lawinenwarndienst realisiert werden. Als Planungsgrundlage dienen dem Benutzer neben topografischen Grundkarten auch Orthofotos, Hangneigungskarten, Expositionskarten sowie Bewuchskarten. Zur Erstellung der Hangneigungskarten werden verschiedene Ansätze der Umsetzung der Hangneigungen aus Höhendaten untersucht und die Ergebnisse untereinander sowie mit bereits vorhandenen Hangneigungskarten verglichen. Ebenso werden verschiedene Varianten der Berechnung und Darstellung der Hangexposition untersucht. Teil der Arbeit ist auch eine Untersuchung der vorliegenden Höhendaten auf Tauglichkeit zur automatischen Berechnung der Bewuchshöhen. Weiters sollen Möglichkeiten zur automatisierten Generierung der Wald- und Baumgrenze untersucht werden, um die aktuellen Lawinenwarnstufen höhenabhängig darstellen zu können.
Basierend auf Karten, welche aus Airborne-Laser-Scanning-Höhendaten abgeleitet werden, soll eine Tourenplanungssoftware für Wintersportler in Zusammenarbeit mit dem steirischen Lawinenwarndienst realisiert werden. Als Planungsgrundlage dienen dem Benutzer neben topografischen Grundkarten auch Orthofotos, Hangneigungskarten, Expositionskarten sowie Bewuchskarten. Zur Erstellung der Hangneigungskarten werden verschiedene Ansätze der Umsetzung der Hangneigungen aus Höhendaten untersucht und die Ergebnisse untereinander sowie mit bereits vorhandenen Hangneigungskarten verglichen. Ebenso werden verschiedene Varianten der Berechnung und Darstellung der Hangexposition untersucht. Teil der Arbeit ist auch eine Untersuchung der vorliegenden Höhendaten auf Tauglichkeit zur automatischen Berechnung der Bewuchshöhen. Weiters sollen Möglichkeiten zur automatisierten Generierung der Wald- und Baumgrenze untersucht werden, um die aktuellen Lawinenwarnstufen höhenabhängig darstellen zu können.
Comparison of analysis strategies for the determination of the ITRF
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Younghee Kwak Ph.D.
Kurzfassung/Abstract
Reference systems are essential for navigation and surveying as well as for determining the shape of the Earth and its position and orientation in space. They are required for the precise determination of satellite orbits and serve as basis for Earth science applications such as measurements of the Earth's gravity field, atmosphere studies, detection of plate tectonic motion or global sea level change monitoring. The International Terrestrial Reference Frame is the realization of the International Terrestrial Reference System. It is generated by combining observational data of the space geodetic techniques Global Navigation and Satellite Systems, Very Long Baseline Interferometry, Satellite Laser Ranging and Doppler Orbitography and Radiopositioning Integrated by Satellite. The purpose of combining the techniques is to exploit their individual strengths, since each technique is characterized by varying potential when it comes to determining certain geodetic parameters. The combination centers of the International Earth Rotation and Reference Systems Service are responsible for the creation of the ITRF. They apply different strategies for the combination of the data. Comparisons of the independent solutions improve the reliability and provide an assessment of the accuracy of the ITRF. In this thesis the similarities and differences of the two approaches are discussed. Furthermore, based on the VLBI campaign CONT14, both methods are compared by estimating coordinates of the participating stations. Thereby the results of the combination of solutions depend more on arbitrary operator decisions. However, when identical conditions are applied to define the geodetic datum, the resulting station coordinates only differ on the sub-millimeter level.
Reference systems are essential for navigation and surveying as well as for determining the shape of the Earth and its position and orientation in space. They are required for the precise determination of satellite orbits and serve as basis for Earth science applications such as measurements of the Earth's gravity field, atmosphere studies, detection of plate tectonic motion or global sea level change monitoring. The International Terrestrial Reference Frame is the realization of the International Terrestrial Reference System. It is generated by combining observational data of the space geodetic techniques Global Navigation and Satellite Systems, Very Long Baseline Interferometry, Satellite Laser Ranging and Doppler Orbitography and Radiopositioning Integrated by Satellite. The purpose of combining the techniques is to exploit their individual strengths, since each technique is characterized by varying potential when it comes to determining certain geodetic parameters. The combination centers of the International Earth Rotation and Reference Systems Service are responsible for the creation of the ITRF. They apply different strategies for the combination of the data. Comparisons of the independent solutions improve the reliability and provide an assessment of the accuracy of the ITRF. In this thesis the similarities and differences of the two approaches are discussed. Furthermore, based on the VLBI campaign CONT14, both methods are compared by estimating coordinates of the participating stations. Thereby the results of the combination of solutions depend more on arbitrary operator decisions. However, when identical conditions are applied to define the geodetic datum, the resulting station coordinates only differ on the sub-millimeter level.
Segmentierung großer Punktwolken mittels Region Growing
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka
Kurzfassung/Abstract
Die immer größer werdenden Datenmengen von 3D-Punktwolken, gewonnen durch Airborne Laserscanning, terrestrisches Laserscanning und Image Matching, ermöglichen eine Vielzahl unterschiedlichster Berechnungen und Datenanalysen. Die Anwendungsgebiete reichen von Monitoring-Aufgaben (z.B. Bauwerksüberwachung, Monitoring von Hangrutschungen, etc.) über archäologische Auswertungen und Vegetationskartierung bis hin zu 3D-Stadtmodellierung. Für Berechnungen auf Datensätzen mit vielen Millionen von Punkten wird dabei von den Algorithmen eine hohe Effizienz hinsichtlich der Laufzeit gefordert. Das Verfahren der Segmentierung liefert für Punktwolken eine Gruppierung von gleichartigen Punkten anhand eines Homogenitätskriteriums. Diese Gruppeninformation ermöglicht einen effizienten Zugriff auf Punkte mit gleichen Eigenschaften. Die Segmentierung ist damit einer der ersten Schritte in der Prozessierungskette vieler Anwendungen. Die vorliegende Arbeit stellt ein Konzept für eine Segmentierung von großen Punktwolken mit Seeded Region Growing vor. Da die Verarbeitungseinheit nicht beliebig große Datensätze in den Arbeitsspeicher einlesen kann, müssen diese in kleinere Einheiten aufgeteilt werden. Die Punktwolke wird in rechteckige Teilpunktwolken (Kacheln) ohne Überlappungsbereich unterteilt. Die mosaikartig zusammengesetzten Kacheln werden unabhängig voneinander segmentiert. Dadurch wird eine parallele Prozessierung der Kacheln - auf mehrere Threads verteilt - ermöglicht. Anschließend werden benachbarte gleichartige Segmente aus den Teilpunktwolken zusammengeführt. Wie diese Arbeit zeigt sind die Ergebnisse der Segmentierung nicht von der Größe der Teilpunktwolke sondern hauptsächlich vom Homogenitätskriterium abhängig. Die Punktwolke kann dadurch in Kacheln mit beliebiger Größe unterteilt werden, um die Laufzeit und den Speicherplatzbedarf der Segmentierung zu optimieren.
Die immer größer werdenden Datenmengen von 3D-Punktwolken, gewonnen durch Airborne Laserscanning, terrestrisches Laserscanning und Image Matching, ermöglichen eine Vielzahl unterschiedlichster Berechnungen und Datenanalysen. Die Anwendungsgebiete reichen von Monitoring-Aufgaben (z.B. Bauwerksüberwachung, Monitoring von Hangrutschungen, etc.) über archäologische Auswertungen und Vegetationskartierung bis hin zu 3D-Stadtmodellierung. Für Berechnungen auf Datensätzen mit vielen Millionen von Punkten wird dabei von den Algorithmen eine hohe Effizienz hinsichtlich der Laufzeit gefordert. Das Verfahren der Segmentierung liefert für Punktwolken eine Gruppierung von gleichartigen Punkten anhand eines Homogenitätskriteriums. Diese Gruppeninformation ermöglicht einen effizienten Zugriff auf Punkte mit gleichen Eigenschaften. Die Segmentierung ist damit einer der ersten Schritte in der Prozessierungskette vieler Anwendungen. Die vorliegende Arbeit stellt ein Konzept für eine Segmentierung von großen Punktwolken mit Seeded Region Growing vor. Da die Verarbeitungseinheit nicht beliebig große Datensätze in den Arbeitsspeicher einlesen kann, müssen diese in kleinere Einheiten aufgeteilt werden. Die Punktwolke wird in rechteckige Teilpunktwolken (Kacheln) ohne Überlappungsbereich unterteilt. Die mosaikartig zusammengesetzten Kacheln werden unabhängig voneinander segmentiert. Dadurch wird eine parallele Prozessierung der Kacheln - auf mehrere Threads verteilt - ermöglicht. Anschließend werden benachbarte gleichartige Segmente aus den Teilpunktwolken zusammengeführt. Wie diese Arbeit zeigt sind die Ergebnisse der Segmentierung nicht von der Größe der Teilpunktwolke sondern hauptsächlich vom Homogenitätskriterium abhängig. Die Punktwolke kann dadurch in Kacheln mit beliebiger Größe unterteilt werden, um die Laufzeit und den Speicherplatzbedarf der Segmentierung zu optimieren.
Preprocessing of IMU Observables and Multi‐Sensor Kalman Filtering
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Fabian Hinterberger
Kurzfassung/Abstract
The aim of navigation is to determine the position and the spatial orientation of a moving vehicle. This so-called trajectory can be achieved by using the combination of multiple sensors. The advantages of such a setup is that the benefits of the different systems are used to obtain improved navigation information. A possible multi-sensor system is the integration of GNSS (Global Navigation Satellite Systems) and IMU (Inertial Measurement Unit)), where GNSS provides accurate position information and in contrast, the inertial sensor captures high-dynamic movements and provides a direct orientation determination. At GNSS outages (loss of signal), the navigation information is based on the IMU until the GNSS solution is available again. One of the limiting factors are the temporal increasing sensor errors of the inertial navigation. To achieve a navigation solution in the cm-range, these sensor errors must be modelled. Furthermore, the IMU measurements contain vehicle vibrations and measurement noise beside the actual vehicle motion wanted. Therefore, the resulting position error is proportional to these disorders. The entire multi-sensor navigation solution will most likely be improved when these disorders get eliminated. In this thesis, the wavelet analysis is used to minimize the undesirable effects due to measurement noise and other disturbances. Kalman filtering is used for the sensor integration of GNSS and IMU and in addition, the sensor errors can be estimated within this technique. Finally, the effect of preprocessing the IMU observables is analysed within the multi-sensor navigation system. Thereby improvements of the initial orientation have been achieved, which leads to a smaller position and orientation error at the beginning of the trajectory. Likewise, it was shown that undesirably recorded vibrations can be eliminated, resulting subsequently in a smaller position error at GNSS outages.
The aim of navigation is to determine the position and the spatial orientation of a moving vehicle. This so-called trajectory can be achieved by using the combination of multiple sensors. The advantages of such a setup is that the benefits of the different systems are used to obtain improved navigation information. A possible multi-sensor system is the integration of GNSS (Global Navigation Satellite Systems) and IMU (Inertial Measurement Unit)), where GNSS provides accurate position information and in contrast, the inertial sensor captures high-dynamic movements and provides a direct orientation determination. At GNSS outages (loss of signal), the navigation information is based on the IMU until the GNSS solution is available again. One of the limiting factors are the temporal increasing sensor errors of the inertial navigation. To achieve a navigation solution in the cm-range, these sensor errors must be modelled. Furthermore, the IMU measurements contain vehicle vibrations and measurement noise beside the actual vehicle motion wanted. Therefore, the resulting position error is proportional to these disorders. The entire multi-sensor navigation solution will most likely be improved when these disorders get eliminated. In this thesis, the wavelet analysis is used to minimize the undesirable effects due to measurement noise and other disturbances. Kalman filtering is used for the sensor integration of GNSS and IMU and in addition, the sensor errors can be estimated within this technique. Finally, the effect of preprocessing the IMU observables is analysed within the multi-sensor navigation system. Thereby improvements of the initial orientation have been achieved, which leads to a smaller position and orientation error at the beginning of the trajectory. Likewise, it was shown that undesirably recorded vibrations can be eliminated, resulting subsequently in a smaller position error at GNSS outages.
Untersuchung der Qualität von GPS Echtzeit Ephemeriden für die Bestimmung troposphärischer Laufzeitverzögerungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2016
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Gregor Möller
Kurzfassung/Abstract
Für die kurzfristige Wettervorhersage bilden die Parameter der Troposphäre, vor allem der Wasserdampfgehalt in der Atmosphäre, eine wichtige Informationsquelle. Anhand der GPS-Meteorologie ist es möglich, durch Auswertung von Beobachtungen von GPS-Referenzstationen mittels Precise Point Positioning, diese Troposphärenparameter zu schätzen. Die Grundlage bilden Informationen über die Satellitenposition und den Satellitenuhroffset in Form von präzisen Ephemeriden. Deren Genauigkeit ist jedoch vom Zeitpunkt der Bereitstellung der Daten abhängig. Die Schätzung der Troposphärenparameter für die kurzfristige Wettervorhersage wird durch die Bereitstellung von IGS-Echtzeitkorrekturen ermöglicht. Für die Untersuchung der Qualität und Auswirkung der Echtzeitdaten auf die Troposphären-Parameterschätzung wurden in einem definierten Untersuchungszeitraum Satellitenpositionen und Uhroffsets aus Broadcast Ephemeriden berechnet und mit den Daten aus den unterschiedlichen Korrekturdatenströmen verbessert. Anschließend wurden auf Grundlage dieser Werte in NAPEOS Troposphärenparameter geschätzt und mit Referenzwerten, berechnet aus IGSFinal und Ultra Rapid Produkten, qualitativ verglichen. Die Vergleiche mit den aus IGS-Final Produkten geschätzten troposphärischen Verzögerungen zeigen die geringsten Abweichungen zu den aus IGC01 Echtzeitkorrekturen geschätzten Werten. Eine möglichst hohe zeitliche Auflösung bei der Erstellung der Ephemeriden wirkt sich auf die Qualität der geschätzten Troposphärenparameter positiv aus. Bei der Schätzung der Troposphärenparameter basierend auf Echtzeit-korrigierten Ephemeriden werden im Vergleich zu jener aus Ultra Rapid Orbits deutliche Verbesserungen erzielt.
Für die kurzfristige Wettervorhersage bilden die Parameter der Troposphäre, vor allem der Wasserdampfgehalt in der Atmosphäre, eine wichtige Informationsquelle. Anhand der GPS-Meteorologie ist es möglich, durch Auswertung von Beobachtungen von GPS-Referenzstationen mittels Precise Point Positioning, diese Troposphärenparameter zu schätzen. Die Grundlage bilden Informationen über die Satellitenposition und den Satellitenuhroffset in Form von präzisen Ephemeriden. Deren Genauigkeit ist jedoch vom Zeitpunkt der Bereitstellung der Daten abhängig. Die Schätzung der Troposphärenparameter für die kurzfristige Wettervorhersage wird durch die Bereitstellung von IGS-Echtzeitkorrekturen ermöglicht. Für die Untersuchung der Qualität und Auswirkung der Echtzeitdaten auf die Troposphären-Parameterschätzung wurden in einem definierten Untersuchungszeitraum Satellitenpositionen und Uhroffsets aus Broadcast Ephemeriden berechnet und mit den Daten aus den unterschiedlichen Korrekturdatenströmen verbessert. Anschließend wurden auf Grundlage dieser Werte in NAPEOS Troposphärenparameter geschätzt und mit Referenzwerten, berechnet aus IGSFinal und Ultra Rapid Produkten, qualitativ verglichen. Die Vergleiche mit den aus IGS-Final Produkten geschätzten troposphärischen Verzögerungen zeigen die geringsten Abweichungen zu den aus IGC01 Echtzeitkorrekturen geschätzten Werten. Eine möglichst hohe zeitliche Auflösung bei der Erstellung der Ephemeriden wirkt sich auf die Qualität der geschätzten Troposphärenparameter positiv aus. Bei der Schätzung der Troposphärenparameter basierend auf Echtzeit-korrigierten Ephemeriden werden im Vergleich zu jener aus Ultra Rapid Orbits deutliche Verbesserungen erzielt.
Präzise Orbitbestimmung von GNSS-Satelliten unter Verwendung des Raw-Observation-Ansatzes
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2016
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Globale Satellitennavigationssysteme (GNSS) spielen eine immer wichtigere Rolle in der Wirtschaft, Gesellschaft und Wissenschaft. Viele Applikationen, z.B. Precise Point Positioning (PPP), benötigen hochpräzise GNSS-Satellitenorbits. Diese werden regelmäßig von den Analysezentren des International GNSS Service (IGS) bestimmt. Ziel dieser Arbeit war die Bestimmung präziser GNSS-Satellitenorbits unter Verwendung des Raw-Observation-Ansatzes. Dieser neue Ansatz bietet einige Vorteile gegenüber etablierten Ansätzen, z.B. eine unkomplizierte Einbindung neuer Beobachtungstypen, da Beobachtungsdifferenzen und Linearkombinationen vermieden werden. Dieser Aspekt ist im Hinblick auf aktuelle Entwicklungen im Bereich von GNSS, etwa der derzeitigen Einführung von zwei neuen Satellitensystemen, besonders wichtig. Die Modellierung von Kräften, die auf GNSS-Satelliten wirken, ist ein wesentlicher Teil der GNSS-Orbitbestimmung. In numerischen Analysen zeigte sich, dass einige kleine konservative Kräfte vernachlässigbar sind. Die korrekte Modellierung von nichtkonservativen Kräften, im Besonderen des Strahlungsdrucks der Sonne, ist jedoch äußerst wichtig. Im Rahmen dieser Arbeit wurden Satellitenorbits des Global Positioning Systems (GPS) über einen Zeitraum von neun Jahren aus Beobachtungen des globalen IGS-Stationsnetzwerks bestimmt. Die Ergebnisse zeigten, dass der Raw-Observation-Ansatz zur Orbitbestimmung von GNSS-Satelliten verwendbar ist. In manchen Bereichen wurde die Notwendigkeit von weiteren Arbeiten erkannt, die zukünftige Verbesserungen des Ansatzes ermöglichen.
Globale Satellitennavigationssysteme (GNSS) spielen eine immer wichtigere Rolle in der Wirtschaft, Gesellschaft und Wissenschaft. Viele Applikationen, z.B. Precise Point Positioning (PPP), benötigen hochpräzise GNSS-Satellitenorbits. Diese werden regelmäßig von den Analysezentren des International GNSS Service (IGS) bestimmt. Ziel dieser Arbeit war die Bestimmung präziser GNSS-Satellitenorbits unter Verwendung des Raw-Observation-Ansatzes. Dieser neue Ansatz bietet einige Vorteile gegenüber etablierten Ansätzen, z.B. eine unkomplizierte Einbindung neuer Beobachtungstypen, da Beobachtungsdifferenzen und Linearkombinationen vermieden werden. Dieser Aspekt ist im Hinblick auf aktuelle Entwicklungen im Bereich von GNSS, etwa der derzeitigen Einführung von zwei neuen Satellitensystemen, besonders wichtig. Die Modellierung von Kräften, die auf GNSS-Satelliten wirken, ist ein wesentlicher Teil der GNSS-Orbitbestimmung. In numerischen Analysen zeigte sich, dass einige kleine konservative Kräfte vernachlässigbar sind. Die korrekte Modellierung von nichtkonservativen Kräften, im Besonderen des Strahlungsdrucks der Sonne, ist jedoch äußerst wichtig. Im Rahmen dieser Arbeit wurden Satellitenorbits des Global Positioning Systems (GPS) über einen Zeitraum von neun Jahren aus Beobachtungen des globalen IGS-Stationsnetzwerks bestimmt. Die Ergebnisse zeigten, dass der Raw-Observation-Ansatz zur Orbitbestimmung von GNSS-Satelliten verwendbar ist. In manchen Bereichen wurde die Notwendigkeit von weiteren Arbeiten erkannt, die zukünftige Verbesserungen des Ansatzes ermöglichen.
Indoor-Positionierung mit differenziellem WLAN
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2016
Betreuer: Ao. Univ.-Prof. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Der momentane Ort des Smartphone-Users ist für zahlreiche Anwendungen essenziell. In der Indoor-Positionierung ist sehr viel Forschungspotential vorhanden, da Global Navigation Satellite Systems (GNSS) eine unzureichende Verfügbarkeit bieten. Im Rahmen dieser Arbeit wird, unter Verwendung von Wireless Local Area Network (WLAN), die Position des Users auf Basis der Trilateration bestimmt. Dazu werden vier Methoden zur Konvertierung der gescannten Signalstärken vorgestellt, um einen Längenzusammenhang herzustellen. In der ersten Variante, dem One-Slope-Modell, wird mit einer logarithmischen Funktion dieser Zusammenhang geschaffen, zusätzlich werden im Multi-Wall-Modell Dämpfungseffekte der Wände berücksichtigt. In den beiden differenziellen Methoden wird versucht, durch die Verwendung von Referenzstationen, die zeitliche Variation und diverse Ausbreitungseffekte der WLAN-Signale zu minimieren. In der 1. Methode des differenziellen Ansatzes werden Korrekturen von den Referenzstationsdaten abgeleitet und am User angebracht. Im Gegensatz dazu wird in der 2. Methode eine Differenzenbildung der empfangenen Signalstärken durchgeführt und in Distanzdifferenzen umgewandelt. In den praktischen Anwendungen wurden, mit drei unterschiedlichen Smartphones, kinematische und statische Scans im Foyer und Hörsaal VII des Elektrotechnischen Institutsgebäude der TU Wien durchgeführt. Als Referenzstationen wurden drei Raspberry Pi's eingesetzt, welche das WLAN-Signal permanent scannen. In der statischen Positionierung zeigte sich in der 1. Methode des differenziellen Ansatzes, bei guten räumlichen Bedingungen, eine Reduktion der mittleren Positionsabweichung von 9 m auf 5 m. In der kinematischen Anwendung zeigten sich bereits ohne Referenzstationsdaten gute Ergebnisse und die mittleren Positionsabweichungen liegen bei 7 m. In der kinematischen, wie auch in der statischen Positionierung, konnten große räumliche Unterschiede festgestellt werden, wobei die Dämpfung der WLAN-Signale durch physikalische Objekte einen signifikanten Einfluss auf die Positionierung ausüben. Die Analysen ergaben in der 1. Methode des differenziellen Ansatzes einen deutlichen Zusammenhang zwischen Positionierungsfehler und dem Abstand des Users zur Referenzstation. In weiterer Folge wurde im Vergleich der verwendeten Smartphones festgestellt, dass das HTC Desire X im Vorteil gegenüber den beiden Samsung Geräten in der Positionierung des Smartphone-Users ist. Als Resümee kann festgehalten werden, dass in großen, freien Räumen das One-Slope-Modell ohne Referenzstationen durchaus gute Ergebnisse in der statischen, wie auch in der kinematischen Positionierung liefert. Bei auftretender Dämpfung der Signale durch physikalische Objekte, zeigte die Verwendung von Referenzstationsdaten in der Positionierung durchaus Verbesserungen.
Der momentane Ort des Smartphone-Users ist für zahlreiche Anwendungen essenziell. In der Indoor-Positionierung ist sehr viel Forschungspotential vorhanden, da Global Navigation Satellite Systems (GNSS) eine unzureichende Verfügbarkeit bieten. Im Rahmen dieser Arbeit wird, unter Verwendung von Wireless Local Area Network (WLAN), die Position des Users auf Basis der Trilateration bestimmt. Dazu werden vier Methoden zur Konvertierung der gescannten Signalstärken vorgestellt, um einen Längenzusammenhang herzustellen. In der ersten Variante, dem One-Slope-Modell, wird mit einer logarithmischen Funktion dieser Zusammenhang geschaffen, zusätzlich werden im Multi-Wall-Modell Dämpfungseffekte der Wände berücksichtigt. In den beiden differenziellen Methoden wird versucht, durch die Verwendung von Referenzstationen, die zeitliche Variation und diverse Ausbreitungseffekte der WLAN-Signale zu minimieren. In der 1. Methode des differenziellen Ansatzes werden Korrekturen von den Referenzstationsdaten abgeleitet und am User angebracht. Im Gegensatz dazu wird in der 2. Methode eine Differenzenbildung der empfangenen Signalstärken durchgeführt und in Distanzdifferenzen umgewandelt. In den praktischen Anwendungen wurden, mit drei unterschiedlichen Smartphones, kinematische und statische Scans im Foyer und Hörsaal VII des Elektrotechnischen Institutsgebäude der TU Wien durchgeführt. Als Referenzstationen wurden drei Raspberry Pi's eingesetzt, welche das WLAN-Signal permanent scannen. In der statischen Positionierung zeigte sich in der 1. Methode des differenziellen Ansatzes, bei guten räumlichen Bedingungen, eine Reduktion der mittleren Positionsabweichung von 9 m auf 5 m. In der kinematischen Anwendung zeigten sich bereits ohne Referenzstationsdaten gute Ergebnisse und die mittleren Positionsabweichungen liegen bei 7 m. In der kinematischen, wie auch in der statischen Positionierung, konnten große räumliche Unterschiede festgestellt werden, wobei die Dämpfung der WLAN-Signale durch physikalische Objekte einen signifikanten Einfluss auf die Positionierung ausüben. Die Analysen ergaben in der 1. Methode des differenziellen Ansatzes einen deutlichen Zusammenhang zwischen Positionierungsfehler und dem Abstand des Users zur Referenzstation. In weiterer Folge wurde im Vergleich der verwendeten Smartphones festgestellt, dass das HTC Desire X im Vorteil gegenüber den beiden Samsung Geräten in der Positionierung des Smartphone-Users ist. Als Resümee kann festgehalten werden, dass in großen, freien Räumen das One-Slope-Modell ohne Referenzstationen durchaus gute Ergebnisse in der statischen, wie auch in der kinematischen Positionierung liefert. Bei auftretender Dämpfung der Signale durch physikalische Objekte, zeigte die Verwendung von Referenzstationsdaten in der Positionierung durchaus Verbesserungen.
Comparison of active and passive optical methods for mapping river bathymetry
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2016
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Gottfried Mandlburger
Kurzfassung/Abstract
Optical methods for high resolution shallow water depth estimation are currently in a phase of rapid development driven by technical progress and growing interest in several scientific fields. Throughout the last years a diversity of potential applications has driven the creation of evolved methods and sensors. However, this trend primarily concerns Airborne Laser Bathymetry (ALB) while passive methods, particularly two-media photogrammetry, lack comparable advancements. A possible reason for the lesser amount of interest could be the limited spatial resolution when working with feature-based image matching. On account of this restraint, two-media photogrammetric methods concentrated on the reconstruction of individual points so far. Adopting the relatively new technique of dense image matching, this thesis takes a different approach and aims at a high-resolution description of the river bed as seen from aerial images through the water column. The effect of light refraction at the boundary between the two media, air and water, is theoretically investigated under varying conditions. Based on these findings, a practical refraction correction procedure is derived, implemented and embedded into the photogrammetric workflow. For evaluation under realistic conditions, the enhanced photogrammetric processing chain is applied to a set of aerial images of the pre-Alpine Pielach River in Lower Austria. Reference data are provided by a simultaneous ALB campaign. With both methods, digital terrain models (DTMs) including the river course and water depth models are derived, enabling direct comparison of the respective characteristics and quality assessment of the introduced photogrammetric procedure. Under favorable conditions, differences between the two methods rarely exceed 10-20 cm, but obstacles like overhanging trees oreffects like sun glint are responsible for larger deviations. In the study area, a mean absolute difference between photogrammetric and ALB depth models of about 15 cm is achieved. Despite revealing some shortcomings in the demanding study area, the general capability of two-media photogrammetry to map shallow water bodies can be approved. Running through the procedure provides important insights into the possibilities and necessities of adapting the processing pipeline of commercial photogrammetric software packages to the peculiarities of the two-media problem. Besides, flights for data acquisition have to be planned carefully as well in order to restrict effects like sun glint or overexposure of bright objects while at the same time ideally resolving river bed texture. One of the most critical steps for active as well as passive methods is the extraction of the water surface which is needed for refraction correction. In addition to qualitative considerations, mainly the achievable degree of automatization is a question of particular importance since it decisively influences the practical applicability of a certain method for more extensive surveys.
Optical methods for high resolution shallow water depth estimation are currently in a phase of rapid development driven by technical progress and growing interest in several scientific fields. Throughout the last years a diversity of potential applications has driven the creation of evolved methods and sensors. However, this trend primarily concerns Airborne Laser Bathymetry (ALB) while passive methods, particularly two-media photogrammetry, lack comparable advancements. A possible reason for the lesser amount of interest could be the limited spatial resolution when working with feature-based image matching. On account of this restraint, two-media photogrammetric methods concentrated on the reconstruction of individual points so far. Adopting the relatively new technique of dense image matching, this thesis takes a different approach and aims at a high-resolution description of the river bed as seen from aerial images through the water column. The effect of light refraction at the boundary between the two media, air and water, is theoretically investigated under varying conditions. Based on these findings, a practical refraction correction procedure is derived, implemented and embedded into the photogrammetric workflow. For evaluation under realistic conditions, the enhanced photogrammetric processing chain is applied to a set of aerial images of the pre-Alpine Pielach River in Lower Austria. Reference data are provided by a simultaneous ALB campaign. With both methods, digital terrain models (DTMs) including the river course and water depth models are derived, enabling direct comparison of the respective characteristics and quality assessment of the introduced photogrammetric procedure. Under favorable conditions, differences between the two methods rarely exceed 10-20 cm, but obstacles like overhanging trees oreffects like sun glint are responsible for larger deviations. In the study area, a mean absolute difference between photogrammetric and ALB depth models of about 15 cm is achieved. Despite revealing some shortcomings in the demanding study area, the general capability of two-media photogrammetry to map shallow water bodies can be approved. Running through the procedure provides important insights into the possibilities and necessities of adapting the processing pipeline of commercial photogrammetric software packages to the peculiarities of the two-media problem. Besides, flights for data acquisition have to be planned carefully as well in order to restrict effects like sun glint or overexposure of bright objects while at the same time ideally resolving river bed texture. One of the most critical steps for active as well as passive methods is the extraction of the water surface which is needed for refraction correction. In addition to qualitative considerations, mainly the achievable degree of automatization is a question of particular importance since it decisively influences the practical applicability of a certain method for more extensive surveys.