- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2015
Abschlussarbeiten 2015
Linking Earth Observation and mobile Technologies for improved Decision-Support in Case of Droughts and related Food Insecurity
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2015
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Droughts are complex events that constitute a natural part of the climate. Among all natural disasters they show the largest spatio-temporal extent, cause enormous economic loss and numerous casualties. Although droughts pose a threat to both industrialized and developing countries the latter often suffer from chronic poverty and vulnerability, which pave the way for wide-ranging impacts. Earth observation can support aid organizations that are often struggling to cope with the impact of large-scale drought events. However, exploiting the added-value of new technologies requires tools that are adapted to individual user requirements and in-depth knowledge transfer. Within the framework of a project named SATIDA (Satellite Technologies for Improved Drought Risk Assessment) this dissertation links satellite-derived information that aims at the detection of environmental anomalies to information about socio-economic conditions, collected via a corresponding open-source mobile application. The satellite component is based on the combination of different satellite observations (rainfall, soil moisture, land surface temperature and vegetation health) in an Enhanced Combined Drought Index (ECDI). The soil moisture component, which is considered a key variable between atmospheric and land surface conditions, is improved by linking near-real-time (NRT) observations from active and passive microwave sensors to an offline dataset that was generated within the Climate Change Initiative (CCI) of the European Space Agency (ESA). This way, it is possible to detect soil moisture anomalies based on more than 37 years of data (1978- 2015). Supported by Doctors without Borders, the tests were conducted in the Central African Republic and in Ethiopia. The dissertation results in three key findings. First, current NRT observations of soil moisture are mature enough to be considered for operational drought monitoring. Second, the method to combine different variables in the ECDI facilitates exploiting the individual strengths of all input datasets, and the robust detection of major drought events. Third, the combination of earth observation and mobile technologies is beneficial for humanitarian aid organizations that aim at pro-active disaster risk reduction.
Droughts are complex events that constitute a natural part of the climate. Among all natural disasters they show the largest spatio-temporal extent, cause enormous economic loss and numerous casualties. Although droughts pose a threat to both industrialized and developing countries the latter often suffer from chronic poverty and vulnerability, which pave the way for wide-ranging impacts. Earth observation can support aid organizations that are often struggling to cope with the impact of large-scale drought events. However, exploiting the added-value of new technologies requires tools that are adapted to individual user requirements and in-depth knowledge transfer. Within the framework of a project named SATIDA (Satellite Technologies for Improved Drought Risk Assessment) this dissertation links satellite-derived information that aims at the detection of environmental anomalies to information about socio-economic conditions, collected via a corresponding open-source mobile application. The satellite component is based on the combination of different satellite observations (rainfall, soil moisture, land surface temperature and vegetation health) in an Enhanced Combined Drought Index (ECDI). The soil moisture component, which is considered a key variable between atmospheric and land surface conditions, is improved by linking near-real-time (NRT) observations from active and passive microwave sensors to an offline dataset that was generated within the Climate Change Initiative (CCI) of the European Space Agency (ESA). This way, it is possible to detect soil moisture anomalies based on more than 37 years of data (1978- 2015). Supported by Doctors without Borders, the tests were conducted in the Central African Republic and in Ethiopia. The dissertation results in three key findings. First, current NRT observations of soil moisture are mature enough to be considered for operational drought monitoring. Second, the method to combine different variables in the ECDI facilitates exploiting the individual strengths of all input datasets, and the robust detection of major drought events. Third, the combination of earth observation and mobile technologies is beneficial for humanitarian aid organizations that aim at pro-active disaster risk reduction.
Entwicklung eines Positionierungsfilters für die Smartphone-basierte Navigation von blinden Personen
Institut für Geodäsie, Technische Universität Graz, 2015
Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Gemäß dem Bundesministerium für Arbeit, Soziales und Konsumentenschutz leiden in etwa 3.9% der österreichischen Bevölkerung an einer Sehbehinderung. Viele alltägliche Aufgaben können von dieser Gesellschaftsgruppe nur sehr schwer gemeistert werden. Ein Beispiel dafür ist die Navigation durch städtische Umgebungen, in der für sehbeeinträchtige Personen viele Gefahren lauern. Ein zuverlässiges, genaues Navigationssystem würde das Leben blinder Personen immens erleichtern und ihre Sicherheit im Alltag und vor allem im städtischen Verkehr erhöhen. Die Navigation an sich besteht aus drei Komponenten, der Positionierung, dem Routing und der Zielführung. Je genauer die Positionierung ist, desto höher ist die Qualität der Routenberechnung und die entsprechende Zielführung. Das Ziel der Dissertation ist die Entwicklung eines Positionierungstools auf Basis der Sensoren eines Smartphones, welches sowohl in als auch außerhalb von Gebäuden Positionen mit hoher Genauigkeit und Zuverlässigkeit liefert. Das Kernstück des Positionierungstools, ein Rao-Blackwell Partikel Filter (RBPF), kombiniert dafür relative und absolute Positionsdaten. Diese Daten stammen aus einer Code-basierten GNSS Einzelpunktbestimmung, einem WLAN-Fingerprinting auf Basis von RSSI-Messungen, einem inertialen Pedestrian Dead Reckoning (PDR) und einer barometrischen Höhenbestimmung. Die Positionsbestimmung wird außerdem durch Karten und Informationen aus einer Pedestrian Activity Classification (PAC) räumlich eingeschränkt. Eine blindenspezifische Karte, welche das Gehverhalten blinder Personen repräsentiert, wird außerhalb von Gebäuden zur Einschränkung des möglichen Zustandsraumes verwendet. Das ist daher möglich, da das Gehverhalten sehbeeinträchtigter Leute prädizierbarer ist als das nicht-blinder Personen, zum Beispiel, blinde Personen gehen bevorzugt auf Gehsteigen, kreuzen die Straßen nur über Zebrastreifen und folgen taktilen Leitstreifen. Dieses Wissen kann dazu verwendet werden, um räumliche Aufenthaltswahrscheinlichkeiten abzuleiten. Aufgrund der kleinräumigen Infrastruktur und des sehr individuellen Navigationsverhaltens von blinden Personen innerhalb von Gebäuden können solche Wahrscheinlichkeiten nicht für den Innenraum definiert werden. Stattdessen tragen sogenannte Occupancy Grid Maps und Pfadüberprüfungen zur Positionsbestimmung in Gebäuden bei. Da aktivitätsbezogene Informationen implizit ortsrelevante Daten beinhalten (die Aktivität Treppensteigen reduziert den möglichen Aufenthaltsort auf eine Treppe), wird außerdem die im PAC detektierte Aktivität in die Positionsschätzung integriert. Aufgrund des hohen Arbeitsaufwandes, der für die Erstellung der blindenspezifischen Karte notwendig ist, wird ein eingeschränktes Testgebiet für die Untersuchungen definiert. Um in Zukunft den entwickelten RBPF auch in anderen Gebieten einsetzen zu können, wird innerhalb der Dissertation ein Simultaneous Localization and Mapping (SLAM) Ansatz untersucht, um die Kartengenerierung zu umgehen. Die automatische Kartenerstellung erfordert jedoch eine GNSS-Positionslösung mit Genauigkeiten im Dezimeterbereich. Daher wird im Rahmen der SLAM-Methode Precise Point Positioning (PPP) anstatt der code-basierten Einzelpunktbestimmung verwendet. Da eine durchgehende PPP-Positionierung im städtischen Bereich erst bei voller Operationalität von Galileo und COMPASS möglich sein wird, wird der SLAM-Ansatz innerhalb einer Simulationsumgebung entwickelt. Durch den Einsatz des entwickelten RBPF kann die Positionierung außerhalb von Gebäuden um 47% bis 69% und innerhalb um 40% bis 60% verbessert werden. In Gebäuden liegt die Positionsgenauigkeit somit im Tastbereich der blinden Person, während im Freien die Person am richtigen Gehsteig lokalisiert werden kann. Die Evaluierung auf Basis von simulierten Daten zeigt, dass die entwickelte SLAM-Methode das optimale Werkzeug für eine automatische Kartengenerierung ist.
Gemäß dem Bundesministerium für Arbeit, Soziales und Konsumentenschutz leiden in etwa 3.9% der österreichischen Bevölkerung an einer Sehbehinderung. Viele alltägliche Aufgaben können von dieser Gesellschaftsgruppe nur sehr schwer gemeistert werden. Ein Beispiel dafür ist die Navigation durch städtische Umgebungen, in der für sehbeeinträchtige Personen viele Gefahren lauern. Ein zuverlässiges, genaues Navigationssystem würde das Leben blinder Personen immens erleichtern und ihre Sicherheit im Alltag und vor allem im städtischen Verkehr erhöhen. Die Navigation an sich besteht aus drei Komponenten, der Positionierung, dem Routing und der Zielführung. Je genauer die Positionierung ist, desto höher ist die Qualität der Routenberechnung und die entsprechende Zielführung. Das Ziel der Dissertation ist die Entwicklung eines Positionierungstools auf Basis der Sensoren eines Smartphones, welches sowohl in als auch außerhalb von Gebäuden Positionen mit hoher Genauigkeit und Zuverlässigkeit liefert. Das Kernstück des Positionierungstools, ein Rao-Blackwell Partikel Filter (RBPF), kombiniert dafür relative und absolute Positionsdaten. Diese Daten stammen aus einer Code-basierten GNSS Einzelpunktbestimmung, einem WLAN-Fingerprinting auf Basis von RSSI-Messungen, einem inertialen Pedestrian Dead Reckoning (PDR) und einer barometrischen Höhenbestimmung. Die Positionsbestimmung wird außerdem durch Karten und Informationen aus einer Pedestrian Activity Classification (PAC) räumlich eingeschränkt. Eine blindenspezifische Karte, welche das Gehverhalten blinder Personen repräsentiert, wird außerhalb von Gebäuden zur Einschränkung des möglichen Zustandsraumes verwendet. Das ist daher möglich, da das Gehverhalten sehbeeinträchtigter Leute prädizierbarer ist als das nicht-blinder Personen, zum Beispiel, blinde Personen gehen bevorzugt auf Gehsteigen, kreuzen die Straßen nur über Zebrastreifen und folgen taktilen Leitstreifen. Dieses Wissen kann dazu verwendet werden, um räumliche Aufenthaltswahrscheinlichkeiten abzuleiten. Aufgrund der kleinräumigen Infrastruktur und des sehr individuellen Navigationsverhaltens von blinden Personen innerhalb von Gebäuden können solche Wahrscheinlichkeiten nicht für den Innenraum definiert werden. Stattdessen tragen sogenannte Occupancy Grid Maps und Pfadüberprüfungen zur Positionsbestimmung in Gebäuden bei. Da aktivitätsbezogene Informationen implizit ortsrelevante Daten beinhalten (die Aktivität Treppensteigen reduziert den möglichen Aufenthaltsort auf eine Treppe), wird außerdem die im PAC detektierte Aktivität in die Positionsschätzung integriert. Aufgrund des hohen Arbeitsaufwandes, der für die Erstellung der blindenspezifischen Karte notwendig ist, wird ein eingeschränktes Testgebiet für die Untersuchungen definiert. Um in Zukunft den entwickelten RBPF auch in anderen Gebieten einsetzen zu können, wird innerhalb der Dissertation ein Simultaneous Localization and Mapping (SLAM) Ansatz untersucht, um die Kartengenerierung zu umgehen. Die automatische Kartenerstellung erfordert jedoch eine GNSS-Positionslösung mit Genauigkeiten im Dezimeterbereich. Daher wird im Rahmen der SLAM-Methode Precise Point Positioning (PPP) anstatt der code-basierten Einzelpunktbestimmung verwendet. Da eine durchgehende PPP-Positionierung im städtischen Bereich erst bei voller Operationalität von Galileo und COMPASS möglich sein wird, wird der SLAM-Ansatz innerhalb einer Simulationsumgebung entwickelt. Durch den Einsatz des entwickelten RBPF kann die Positionierung außerhalb von Gebäuden um 47% bis 69% und innerhalb um 40% bis 60% verbessert werden. In Gebäuden liegt die Positionsgenauigkeit somit im Tastbereich der blinden Person, während im Freien die Person am richtigen Gehsteig lokalisiert werden kann. Die Evaluierung auf Basis von simulierten Daten zeigt, dass die entwickelte SLAM-Methode das optimale Werkzeug für eine automatische Kartengenerierung ist.
Precise Point Positioning mit Ambiguitätenlösung für Echtzeitanwendungen
Institut für Geodäsie, Technische Universität Graz, 2015
Begutachter: Univ.-Prof. Dipl.-Ing. Dr.h.c.mult. Dr. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
In den letzten beiden Jahrzehnten hat sich PPP zu einer renommierten GNSS-basierten Positionierungstechnik für Anwendungen im Postprocessing entwickelt. Mithilfe von Code und Phasenmessungen von einzelnen GNSS Empfängern, sowie mithilfe von präzisen Ephemeriden aus globalen Netzwerken, können hochgenaue Positionen bestimmt werden. Unglücklicherweise leidet PPP immer noch unter langen Konvergenzzeiten, die die Einsetzbarkeit für Echtzeitanwendungen einschränken. Diese werden dadurch verursacht, dass in der PPP-Prozessierung üblicherweise nur reell-wertige Ambiguitäten geschätzt werden. Mittlerweile gibt es zwar schon Standards zur Übertragung von Echtzeitkorrekturen für PPP über das Internet, allerdings gibt es noch keine einheitliche Lösung des Problems der Ambiguitätenfixierung in einem PPP-client. Grundsätzlich wird diese durch die Einführung von phasenspezifischen Biases (UPDs) ermöglicht, welche zuvor in einer Netzwerklösung berechnet wurden, und die Ganzzahligkeit der Ambiguitäten wiederherstellen. Jedenfalls ist die Ambiguitätenfixierung der Schlüssel zu einer schnelleren PPP Lösung in Echtzeit, da die Phasenmessungen nach der Fixierung als hochgenaue und nun eindeutige Pseudostrecken verwendet werden können, mit welchen sofort eine hochgenaue Positionslösung erreicht werden kann. Diese Doktorarbeit beschäftigt sich mit der Entwicklung geeigneter Algorithmen für PPP auf Basis von Phasenmessungen, sowie mit Produkten und Methoden, die die Ambiguitätenlösung in einem PPP-client ermöglichen. Zur Unterstützung der Untersuchungen wurde eine Matlab-Software entwickelt, die schlussendlich fähig ist, PPP mit der Fixierung von Integer-Ambiguitäten zu rechnen. Das Design der Software und der implementierten Algorithmen für Echtzeit-PPP, sowie die Ergebnisse der PPP Lösung mit und ohne Fixierung von Ambiguitäten werden vorgestellt. Des Weiteren werden die UPD Daten verschiedener Organisationen (CNES und TU Vienna) verglichen und Ergebnisse, die mit diesen gerechnet wurden, präsentiert. Probleme die mit der Ambiguitätenlösung einhergehen werden auf Basis der neuesten Ergebnisse untersucht. Die Konvergenzzeiten und Qualität der Lösungen in Abhängigkeit der Satellitengeometrie, sowie Probleme die mit der Fixierung von Ambiguitäten einhergehen, werden aufgezeigt. Am Ende der Arbeit werden Vor-und Nachteile von PPP mit und ohne Ambiguitätenlösung analysiert.
In den letzten beiden Jahrzehnten hat sich PPP zu einer renommierten GNSS-basierten Positionierungstechnik für Anwendungen im Postprocessing entwickelt. Mithilfe von Code und Phasenmessungen von einzelnen GNSS Empfängern, sowie mithilfe von präzisen Ephemeriden aus globalen Netzwerken, können hochgenaue Positionen bestimmt werden. Unglücklicherweise leidet PPP immer noch unter langen Konvergenzzeiten, die die Einsetzbarkeit für Echtzeitanwendungen einschränken. Diese werden dadurch verursacht, dass in der PPP-Prozessierung üblicherweise nur reell-wertige Ambiguitäten geschätzt werden. Mittlerweile gibt es zwar schon Standards zur Übertragung von Echtzeitkorrekturen für PPP über das Internet, allerdings gibt es noch keine einheitliche Lösung des Problems der Ambiguitätenfixierung in einem PPP-client. Grundsätzlich wird diese durch die Einführung von phasenspezifischen Biases (UPDs) ermöglicht, welche zuvor in einer Netzwerklösung berechnet wurden, und die Ganzzahligkeit der Ambiguitäten wiederherstellen. Jedenfalls ist die Ambiguitätenfixierung der Schlüssel zu einer schnelleren PPP Lösung in Echtzeit, da die Phasenmessungen nach der Fixierung als hochgenaue und nun eindeutige Pseudostrecken verwendet werden können, mit welchen sofort eine hochgenaue Positionslösung erreicht werden kann. Diese Doktorarbeit beschäftigt sich mit der Entwicklung geeigneter Algorithmen für PPP auf Basis von Phasenmessungen, sowie mit Produkten und Methoden, die die Ambiguitätenlösung in einem PPP-client ermöglichen. Zur Unterstützung der Untersuchungen wurde eine Matlab-Software entwickelt, die schlussendlich fähig ist, PPP mit der Fixierung von Integer-Ambiguitäten zu rechnen. Das Design der Software und der implementierten Algorithmen für Echtzeit-PPP, sowie die Ergebnisse der PPP Lösung mit und ohne Fixierung von Ambiguitäten werden vorgestellt. Des Weiteren werden die UPD Daten verschiedener Organisationen (CNES und TU Vienna) verglichen und Ergebnisse, die mit diesen gerechnet wurden, präsentiert. Probleme die mit der Ambiguitätenlösung einhergehen werden auf Basis der neuesten Ergebnisse untersucht. Die Konvergenzzeiten und Qualität der Lösungen in Abhängigkeit der Satellitengeometrie, sowie Probleme die mit der Fixierung von Ambiguitäten einhergehen, werden aufgezeigt. Am Ende der Arbeit werden Vor-und Nachteile von PPP mit und ohne Ambiguitätenlösung analysiert.
Short period ocean tidal variations in Earth rotation
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Univ.Ass. Dipl.-Ing. Dr. Michael Schindelegger
Kurzfassung/Abstract
Profound knowledge of the variable Earth rotation is required to derive accurate and reliable statements and parameters from space geodetic techniques. The geophysical know-how, which forms the basis of Earth rotation studies, benefits in turn from precise measurements and time-series of Earth rotation parameters (ERP). They allow science to broaden the expertise in the field of dynamic processes and interactions of the system Earth and thereby to improve global geophysical models. This dissertation deals with Earth rotation variations in the diurnal and sub-diurnal frequency range with the main objective of developing a new high-frequency ERP prediction model. It should, furthermore, answer the question, if an empirical ocean tide model, being the most independent data source, can be used to derive accurate ERP predictions which could potentially replace the current conventional model. The conventional prediction model for short-period ocean tidal effects on Earth rotation recommended by the International Earth Rotation and Reference Systems Service (IERS) has been found to yield imperfect geodetic results and introduces biases in Global Positioning System (GPS) orbits. An updated model for polar motion and Universal Time 1 (UT1) is, therefore, highly desirable by the scientific community. Due to the high precision of measurements, several empirical ERP models have been developed by harmonic analysis of the residuals of space geodetic techniques. However, they lack of independence, and single-technique models differ in inter-technique comparisons. There are, in addition, combination models determined from several techniques, presumed to be the most precise models currently available. On the other hand, ocean tide models have been improving over the last decades and may serve as input to an independent ERP prediction model. The present thesis addresses the pivotal question of whether an empirical ocean tide model may be used for the development of an high-frequency ERP model and seeks to detect challenges and limitations thereof. As empirical ocean tide models do not include any hydrodynamic equations, the determination of consistent oceanic tidal currents is one major task addressed in this dissertation. An algorithm based on simplified momentum equations and continuity constraints is developed to derive barotropic volume transports and, therewith, motion terms of ocean tidal angular momentum (OTAM). The resultant OTAM values indicate the necessity for different weights of the continuity equation for different components. Equatorial components of diurnal tides require a large weight of 10000 compared to weights between 400 and 800 for the polar component. Semi-diurnal tides, on the other hand, show reasonable results for smaller weights between 100 and 200 for the equatorial components and between 400 to 2000 for polar components. If these variable weights are used, OTAM from estimated volume transports and assimilation models differ by 4.7-19.7% (mean over x-, y-, and z-component). A final model, based on the empirical ocean tide model EOT11a, supplemented by ten additional tidal constituents through quadratic admittance interpolation of angular momentum values, is derived and used as a priori model in the analysis of Very Long Baseline Interferometry (VLBI) observations. In a comparison with other types of high-frequency ERP models, (VLBI) data between 2011 and 2013 are analyzed using the Vienna VLBI Software. Post-fit ERP residual spectra and baseline length repeatabilities are calculated in order to validate four models. The results show that the empirical ERP model yields superior results than those based on ocean tide models. It improves the majority of baselines regarding their repeatabilities and gives generally smallest ERP residuals. The model based on empirical ocean tides is found to perform similarly accurate as the (IERS) conventional model with respect to baseline length repeatabilities. When using the empirical ERP model as reference, the newly derived model shows smaller baseline length variations for 40% of all 161 baselines, the conventional model improves 41%. For the comparison of post-fit residual spectra, the EOT11a-based model yields smaller amplitudes for more tidal frequencies than the conventional model and the same number as the empirical model. However, three main tidal constituents show a significant degradation with respect to post-fit residual spectra. Given that a similar behavior is visible for another ERP model based on ocean tides, imperfect hydrodynamic modeling or observational inaccuracies of altimetry are possible causes. These findings emphasize the need for further studies on high-frequency ERP predictions. An independent and consistently derived model, such as the one developed in the present work, may serve as new reference for diurnal and sub-diurnal polar motion and UT1 variations in the analysis of space geodetic techniques.
Profound knowledge of the variable Earth rotation is required to derive accurate and reliable statements and parameters from space geodetic techniques. The geophysical know-how, which forms the basis of Earth rotation studies, benefits in turn from precise measurements and time-series of Earth rotation parameters (ERP). They allow science to broaden the expertise in the field of dynamic processes and interactions of the system Earth and thereby to improve global geophysical models. This dissertation deals with Earth rotation variations in the diurnal and sub-diurnal frequency range with the main objective of developing a new high-frequency ERP prediction model. It should, furthermore, answer the question, if an empirical ocean tide model, being the most independent data source, can be used to derive accurate ERP predictions which could potentially replace the current conventional model. The conventional prediction model for short-period ocean tidal effects on Earth rotation recommended by the International Earth Rotation and Reference Systems Service (IERS) has been found to yield imperfect geodetic results and introduces biases in Global Positioning System (GPS) orbits. An updated model for polar motion and Universal Time 1 (UT1) is, therefore, highly desirable by the scientific community. Due to the high precision of measurements, several empirical ERP models have been developed by harmonic analysis of the residuals of space geodetic techniques. However, they lack of independence, and single-technique models differ in inter-technique comparisons. There are, in addition, combination models determined from several techniques, presumed to be the most precise models currently available. On the other hand, ocean tide models have been improving over the last decades and may serve as input to an independent ERP prediction model. The present thesis addresses the pivotal question of whether an empirical ocean tide model may be used for the development of an high-frequency ERP model and seeks to detect challenges and limitations thereof. As empirical ocean tide models do not include any hydrodynamic equations, the determination of consistent oceanic tidal currents is one major task addressed in this dissertation. An algorithm based on simplified momentum equations and continuity constraints is developed to derive barotropic volume transports and, therewith, motion terms of ocean tidal angular momentum (OTAM). The resultant OTAM values indicate the necessity for different weights of the continuity equation for different components. Equatorial components of diurnal tides require a large weight of 10000 compared to weights between 400 and 800 for the polar component. Semi-diurnal tides, on the other hand, show reasonable results for smaller weights between 100 and 200 for the equatorial components and between 400 to 2000 for polar components. If these variable weights are used, OTAM from estimated volume transports and assimilation models differ by 4.7-19.7% (mean over x-, y-, and z-component). A final model, based on the empirical ocean tide model EOT11a, supplemented by ten additional tidal constituents through quadratic admittance interpolation of angular momentum values, is derived and used as a priori model in the analysis of Very Long Baseline Interferometry (VLBI) observations. In a comparison with other types of high-frequency ERP models, (VLBI) data between 2011 and 2013 are analyzed using the Vienna VLBI Software. Post-fit ERP residual spectra and baseline length repeatabilities are calculated in order to validate four models. The results show that the empirical ERP model yields superior results than those based on ocean tide models. It improves the majority of baselines regarding their repeatabilities and gives generally smallest ERP residuals. The model based on empirical ocean tides is found to perform similarly accurate as the (IERS) conventional model with respect to baseline length repeatabilities. When using the empirical ERP model as reference, the newly derived model shows smaller baseline length variations for 40% of all 161 baselines, the conventional model improves 41%. For the comparison of post-fit residual spectra, the EOT11a-based model yields smaller amplitudes for more tidal frequencies than the conventional model and the same number as the empirical model. However, three main tidal constituents show a significant degradation with respect to post-fit residual spectra. Given that a similar behavior is visible for another ERP model based on ocean tides, imperfect hydrodynamic modeling or observational inaccuracies of altimetry are possible causes. These findings emphasize the need for further studies on high-frequency ERP predictions. An independent and consistently derived model, such as the one developed in the present work, may serve as new reference for diurnal and sub-diurnal polar motion and UT1 variations in the analysis of space geodetic techniques.
Orbit determination and gravity field recovery from tracking data to geodetic satellites and the Lunar Reconnaissance Orbiter
Institut für Geodäsie, Technische Universität Graz, 2015
Begutachter: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Die Bahnen künstlicher Satelliten, die planetare Körper umkreisen, werden von gravitativen und nicht-gravitativen Kräften beeinflusst. Die vorliegende Arbeit behandelt die Bestimmung des langwelligen Anteiles des Schwerefeldes der Erde sowie des Mondes mittels Beobachtungen von Bodenstationen zu Satelliten. Da die Schwerefeldinformation aus Bahnstörungen abgeleitet wird, nimmt die präzise Bahnbestimmung eine zentral Rolle ein. Im Fall der Erde ist der wichtigste (da numerisch größte) Schwerefeldkoeffizient der dynamische Abplattungsterm C20. Dieser kann am genauesten mittels optischen Zweiweg-Laserdistanzmessungen zu geodätischen Satelliten bestimmt werden. Über einen Zeitraum von fast 14 Jahren (Jänner 2000 bis Oktober 2013) wurden Laserdistanzen zu sechs geodätischen Satelliten (LAGEOS-1/2, Ajisai, Stella, Starlette, Larets) analysiert. Es wurde einerseits eine statische Schwerefeldlösung bis zu sphärisch harmonischem Grad und Ordnung 4 berechnet, andererseits wurden monatliche Lösungen geschätzt welche die zeitliche Variabilität des Erdschwerefeldes widerspiegeln. Um Informationen über das Mondschwerefeld zu gewinnen, wurden Beobachtungen zum Lunar Reconnaissance Orbiter verwendet. Neben dem primären Beobachtungstyp Zweiweg-Dopplermessungen stehen optische Einweg-Laserdistanzmessungen zur Verfügung. Um die optimale Parametrisierung der Satellitenbahn zu eruieren wurden Bahndifferenzen in zeitlich überlappenden Bahnbögen untersucht. Die Trajektorie wurde zwischen Jänner 2011 und Februar 2012 aus Dopplermessungen berechnet. Die Bahndifferenzen in den Überlappungsbereichen lassen auf eine Präzision von 13.8m in along-track, 14.2m in cross-track, sowie 1.3m in radialer Richtung schließen. Für die Schätzung der Bahn aus Doppler- und Lasermessungen gemeinsam muss die Satellitenuhr modelliert werden. Deren Approximation durch ein Polynom zweiten Grades, welches von der verwendeten Software unterstützt wird, resultierte jedoch in einer weniger präzisen Bahn verglichen mit jener die nur aus Dopplerdaten bestimmt wurde. Aus diesem Grund basieren die Schwerefeldkoeffizienten, welche bis Grad und Ordnung 60 geschätzt wurden, auf jener Bahn in deren Bestimmung ausschließlich Dopplermessungen eingeflossen sind.
Die Bahnen künstlicher Satelliten, die planetare Körper umkreisen, werden von gravitativen und nicht-gravitativen Kräften beeinflusst. Die vorliegende Arbeit behandelt die Bestimmung des langwelligen Anteiles des Schwerefeldes der Erde sowie des Mondes mittels Beobachtungen von Bodenstationen zu Satelliten. Da die Schwerefeldinformation aus Bahnstörungen abgeleitet wird, nimmt die präzise Bahnbestimmung eine zentral Rolle ein. Im Fall der Erde ist der wichtigste (da numerisch größte) Schwerefeldkoeffizient der dynamische Abplattungsterm C20. Dieser kann am genauesten mittels optischen Zweiweg-Laserdistanzmessungen zu geodätischen Satelliten bestimmt werden. Über einen Zeitraum von fast 14 Jahren (Jänner 2000 bis Oktober 2013) wurden Laserdistanzen zu sechs geodätischen Satelliten (LAGEOS-1/2, Ajisai, Stella, Starlette, Larets) analysiert. Es wurde einerseits eine statische Schwerefeldlösung bis zu sphärisch harmonischem Grad und Ordnung 4 berechnet, andererseits wurden monatliche Lösungen geschätzt welche die zeitliche Variabilität des Erdschwerefeldes widerspiegeln. Um Informationen über das Mondschwerefeld zu gewinnen, wurden Beobachtungen zum Lunar Reconnaissance Orbiter verwendet. Neben dem primären Beobachtungstyp Zweiweg-Dopplermessungen stehen optische Einweg-Laserdistanzmessungen zur Verfügung. Um die optimale Parametrisierung der Satellitenbahn zu eruieren wurden Bahndifferenzen in zeitlich überlappenden Bahnbögen untersucht. Die Trajektorie wurde zwischen Jänner 2011 und Februar 2012 aus Dopplermessungen berechnet. Die Bahndifferenzen in den Überlappungsbereichen lassen auf eine Präzision von 13.8m in along-track, 14.2m in cross-track, sowie 1.3m in radialer Richtung schließen. Für die Schätzung der Bahn aus Doppler- und Lasermessungen gemeinsam muss die Satellitenuhr modelliert werden. Deren Approximation durch ein Polynom zweiten Grades, welches von der verwendeten Software unterstützt wird, resultierte jedoch in einer weniger präzisen Bahn verglichen mit jener die nur aus Dopplerdaten bestimmt wurde. Aus diesem Grund basieren die Schwerefeldkoeffizienten, welche bis Grad und Ordnung 60 geschätzt wurden, auf jener Bahn in deren Bestimmung ausschließlich Dopplermessungen eingeflossen sind.
Characterization of local seismic events on the deep-seated gravitational slope deformation Gradenbach
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Begutachter: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
The pattern of motion of deep-seated gravitational slope deformations can often be characterized by a base activity with slow velocities which is interrupted by phases of acceleration. This variation of the slope movement can not always be related to a certain triggering event. Especially the sometimes where fast change from an acceleration phase back to the base activity shows, that geodetic measurements alone are not sufficient to understand the underlying processes and to make forecast the movement of a deep-seated gravitational slope deformation. For reliable forecast models, other parameters than the surface deformation have to be taken into account. The seismic activity of mass movements, which is studied in this thesis is one of these additional parameters. The mass movement Gradenbach in Carinthia, Austria, was selected to study the seismic activity of deep-seated gravitational slope deformations. The mass movement Gradenbach can be assigned to the rheology of brittle. The movement of the slope deformation was expected to follow a stik-slip pattern along one or more sliding zones. Therefore, accompanying creation of seismic events can be expected. In 2007, a permanent seismic monitoring network with continuous data recording was installed at the mass movement Gradenbach. In spring 2009, an acceleration phase with a duration of approximately 3 months was observed. The mass movement accelerated from a base activity of ~10cm/a to a velocity of ~0.8 cm/d. After 3 months, the deformation re-stabilized to the base activity. The seismic data recorded during this acceleration phase is the basis for the characterization of the seismic activity of the deep-seated gravitational slope deformation Gradenbach. For the semi-automatic processing of the seismic data, a method for the detection of seismic signals based on the segmentation of spectrograms using digital image processing algorithms was developed. The evaluation and classification of the detected events was done using an interactive, computer aided screening of the data. The classification of the events was based on various parameters like the waveform, pattern in the time-frequency domain, polarization of the wavefield or the epi-centers of the seismic event. To account for the processing of continuous seismic data and the need for the development of new processing algorithms, a MATLAB software was developed, which enabled a quick access to the data and an easy testing environment for processing algorithms. During the acceleration phase an increase of the seismic activity was observed. Event types where identified which occurred already a month before the acceleration of the slope measured by a wire-extensometer at the toe of the slope. For six different event types, the deformation of the mass movement was identified as the seismic source. The local magnitudes of the registered events were between -2.3 and -0.5. A comparison of the seismictiy with complementary data like the slope displacement, meteorological and hydrological data showed connections between the occurrence of the various event types and the acceleration or deceleration of the mass movement. Furthermore, a sensitive reaction of the mass movement to infiltrating melt water was observed by an increase of the seismic activity. This work was funded by the Austrian Academy of Sciences within the framework of the International Strategy of Desaster Reduction (ISDR) Programme.
The pattern of motion of deep-seated gravitational slope deformations can often be characterized by a base activity with slow velocities which is interrupted by phases of acceleration. This variation of the slope movement can not always be related to a certain triggering event. Especially the sometimes where fast change from an acceleration phase back to the base activity shows, that geodetic measurements alone are not sufficient to understand the underlying processes and to make forecast the movement of a deep-seated gravitational slope deformation. For reliable forecast models, other parameters than the surface deformation have to be taken into account. The seismic activity of mass movements, which is studied in this thesis is one of these additional parameters. The mass movement Gradenbach in Carinthia, Austria, was selected to study the seismic activity of deep-seated gravitational slope deformations. The mass movement Gradenbach can be assigned to the rheology of brittle. The movement of the slope deformation was expected to follow a stik-slip pattern along one or more sliding zones. Therefore, accompanying creation of seismic events can be expected. In 2007, a permanent seismic monitoring network with continuous data recording was installed at the mass movement Gradenbach. In spring 2009, an acceleration phase with a duration of approximately 3 months was observed. The mass movement accelerated from a base activity of ~10cm/a to a velocity of ~0.8 cm/d. After 3 months, the deformation re-stabilized to the base activity. The seismic data recorded during this acceleration phase is the basis for the characterization of the seismic activity of the deep-seated gravitational slope deformation Gradenbach. For the semi-automatic processing of the seismic data, a method for the detection of seismic signals based on the segmentation of spectrograms using digital image processing algorithms was developed. The evaluation and classification of the detected events was done using an interactive, computer aided screening of the data. The classification of the events was based on various parameters like the waveform, pattern in the time-frequency domain, polarization of the wavefield or the epi-centers of the seismic event. To account for the processing of continuous seismic data and the need for the development of new processing algorithms, a MATLAB software was developed, which enabled a quick access to the data and an easy testing environment for processing algorithms. During the acceleration phase an increase of the seismic activity was observed. Event types where identified which occurred already a month before the acceleration of the slope measured by a wire-extensometer at the toe of the slope. For six different event types, the deformation of the mass movement was identified as the seismic source. The local magnitudes of the registered events were between -2.3 and -0.5. A comparison of the seismictiy with complementary data like the slope displacement, meteorological and hydrological data showed connections between the occurrence of the various event types and the acceleration or deceleration of the mass movement. Furthermore, a sensitive reaction of the mass movement to infiltrating melt water was observed by an increase of the seismic activity. This work was funded by the Austrian Academy of Sciences within the framework of the International Strategy of Desaster Reduction (ISDR) Programme.
GOCE Schweregradienten zur Bestimmung von Geoid und Moho unter Anwendung der Methode der Kollokation nach kleinsten Quadraten
Institut für Geodäsie, Technische Universität Graz, 2015
Begutachter: Univ.-Prof. Mag. Dr. Roland Pail (TU München)
Kurzfassung/Abstract
Die Gravity field and steady-state Ocean Circulation Explorer (GOCE) Satellitenmission war von Frühling 2009 bis Herbst 2013 operationell und wurde für die Bestimmung der statischen Komponente des globalen Erdschwerefeldes, insbesondere im Bereich der mittleren Wellenlängen des Gravitationssignalspektrums, konzipiert. Das Herzstück von GOCE war das Gradiometerinstrument, das die Messung der zweiten Ableitungen des Gravitationspotentials und somit des Schweregradiententensors ermöglichte. In dieser Arbeit wird die Verwendbarkeit der GOCE Gradienten für regionale und lokale Anwendungen in der Geodäsie und Geophysik untersucht. Für die Schwerefeldberechnungen wurde die Methode der Kollokation nach kleinsten Quadraten verwendet. Deren großer Vorteil ist die Möglichkeit, verschiedenste Schwerefeldgrößen zu verarbeiten, sei es als Beobachtungen oder als zu schätzende Signale. Mit dem implementierten Ansatz können die entsprechenden Kovarianzen in ein beliebiges Referenzsystem rotiert werden, was im Fall von GOCE Gradienten vorteilhaft ist. Die Berechnungen in dieser Arbeit basieren auf einem konsistenten Remove-Compute-Restore Konzept, in dem die systematischen Einflüsse eines globalen Schwerefeldmodells, der Topographie, der Isostasie und der Atmosphäre durch eine adäquate Modellierung berücksichtigt werden. Aufgrund der Konzeption der Mission können die GOCE Gradienten nicht direkt als Beobachtungen eingeführt werden. Zum einen wurden die Messungen im Referenzsystem des Gradiometers aufgezeichnet und sind nur in einem eingeschränkten Frequenzbereich mit ausreichender Genauigkeit verfügbar. Zum anderen wurden nicht alle Komponenten des Gradiententensors mit derselben Genauigkeit gemessen. Daher wurden entsprechende Strategien zur Lösung dieser Problematiken entwickelt, wobei eine Kombination aus Wiener- und Hochpassfiltern zur Reduktion des farbigen Rauschens der GOCE Beobachtungen angewendet wurde. Neben den gefilterten Beobachtungen sind auch die Informationen über die verbleibenden Messfehler wichtige Ergebnisse dieser Vorprozessierung. In einer ersten Anwendung wurden die GOCE Gradienten in Kombination mit terrestrischen Schweremessungen zur Bestimmung einer Geoidlösung im österreichischen Gebiet verwendet. Der Vergleich einer rein terrestrischen Lösung mit der Kombinationslösung zeigt den Mehrwert der Hinzunahme von GOCE Gradienten im Speziellen im mittelwelligen Bereich des Schweresignals. Eine Validierung mit unabhängigen GPS/Nivellement Beobachtungen des Bundesamts für Eich- und Vermessungswesen zeigt, dass das quadratische Mittel der Differenzen durch die zusätzlichen GOCE Beobachtungen von 5.5 cm auf 4.6 cm gesenkt werden kann. Als zweite Anwendung der GOCE Gradienten auf regionaler Ebene wurde ein Ansatz zur Bestimmung der Moho Grenzfläche basierend auf dem Konzept der Isostasie nach Airy-Heiskanen entwickelt. Da das Gradiometer die langwelligen Anteile des Schwerefeldes nicht auflösen kann, wurde eine residuale Moho geschätzt, die dem spektralen Bereich einer sphärisch-harmonischen Reihenentwicklung von Grad und Ordnung 50 bis etwa 250 entspricht. Auf Basis von empirischen Werten für eine mittlere Moho Tiefe von 30 km und einem konstanten Dichtekontrast zwischen Erdkruste und -mantel von 350 kg/m³, welche im zentraleuropäischen Untersuchungsgebiet gelten, wurden Variationen in der Moho zwischen −19.9 km und 13.5 km bestimmt. Die Ergebnisse wurden mit externen globalen und lokalen Moho Modellen validiert, die aus seismischen und gravimetrischen Messungen abgeleitet wurden. Die Untersuchungen zeigen, dass das berechnete Moho Modell detailliertere räumliche Strukturen abbildet, was auf die dichte und homogene Datenüberdeckung der GOCE Mission zurückzuführen ist. Weitere Vergleiche mit mehreren lokalen seismischen Studien zeigen, dass die resultierenden Moho Strukturen direkt mit geophysikalischen und tektonischen Einheiten in Verbindung gebracht werden können.
Die Gravity field and steady-state Ocean Circulation Explorer (GOCE) Satellitenmission war von Frühling 2009 bis Herbst 2013 operationell und wurde für die Bestimmung der statischen Komponente des globalen Erdschwerefeldes, insbesondere im Bereich der mittleren Wellenlängen des Gravitationssignalspektrums, konzipiert. Das Herzstück von GOCE war das Gradiometerinstrument, das die Messung der zweiten Ableitungen des Gravitationspotentials und somit des Schweregradiententensors ermöglichte. In dieser Arbeit wird die Verwendbarkeit der GOCE Gradienten für regionale und lokale Anwendungen in der Geodäsie und Geophysik untersucht. Für die Schwerefeldberechnungen wurde die Methode der Kollokation nach kleinsten Quadraten verwendet. Deren großer Vorteil ist die Möglichkeit, verschiedenste Schwerefeldgrößen zu verarbeiten, sei es als Beobachtungen oder als zu schätzende Signale. Mit dem implementierten Ansatz können die entsprechenden Kovarianzen in ein beliebiges Referenzsystem rotiert werden, was im Fall von GOCE Gradienten vorteilhaft ist. Die Berechnungen in dieser Arbeit basieren auf einem konsistenten Remove-Compute-Restore Konzept, in dem die systematischen Einflüsse eines globalen Schwerefeldmodells, der Topographie, der Isostasie und der Atmosphäre durch eine adäquate Modellierung berücksichtigt werden. Aufgrund der Konzeption der Mission können die GOCE Gradienten nicht direkt als Beobachtungen eingeführt werden. Zum einen wurden die Messungen im Referenzsystem des Gradiometers aufgezeichnet und sind nur in einem eingeschränkten Frequenzbereich mit ausreichender Genauigkeit verfügbar. Zum anderen wurden nicht alle Komponenten des Gradiententensors mit derselben Genauigkeit gemessen. Daher wurden entsprechende Strategien zur Lösung dieser Problematiken entwickelt, wobei eine Kombination aus Wiener- und Hochpassfiltern zur Reduktion des farbigen Rauschens der GOCE Beobachtungen angewendet wurde. Neben den gefilterten Beobachtungen sind auch die Informationen über die verbleibenden Messfehler wichtige Ergebnisse dieser Vorprozessierung. In einer ersten Anwendung wurden die GOCE Gradienten in Kombination mit terrestrischen Schweremessungen zur Bestimmung einer Geoidlösung im österreichischen Gebiet verwendet. Der Vergleich einer rein terrestrischen Lösung mit der Kombinationslösung zeigt den Mehrwert der Hinzunahme von GOCE Gradienten im Speziellen im mittelwelligen Bereich des Schweresignals. Eine Validierung mit unabhängigen GPS/Nivellement Beobachtungen des Bundesamts für Eich- und Vermessungswesen zeigt, dass das quadratische Mittel der Differenzen durch die zusätzlichen GOCE Beobachtungen von 5.5 cm auf 4.6 cm gesenkt werden kann. Als zweite Anwendung der GOCE Gradienten auf regionaler Ebene wurde ein Ansatz zur Bestimmung der Moho Grenzfläche basierend auf dem Konzept der Isostasie nach Airy-Heiskanen entwickelt. Da das Gradiometer die langwelligen Anteile des Schwerefeldes nicht auflösen kann, wurde eine residuale Moho geschätzt, die dem spektralen Bereich einer sphärisch-harmonischen Reihenentwicklung von Grad und Ordnung 50 bis etwa 250 entspricht. Auf Basis von empirischen Werten für eine mittlere Moho Tiefe von 30 km und einem konstanten Dichtekontrast zwischen Erdkruste und -mantel von 350 kg/m³, welche im zentraleuropäischen Untersuchungsgebiet gelten, wurden Variationen in der Moho zwischen −19.9 km und 13.5 km bestimmt. Die Ergebnisse wurden mit externen globalen und lokalen Moho Modellen validiert, die aus seismischen und gravimetrischen Messungen abgeleitet wurden. Die Untersuchungen zeigen, dass das berechnete Moho Modell detailliertere räumliche Strukturen abbildet, was auf die dichte und homogene Datenüberdeckung der GOCE Mission zurückzuführen ist. Weitere Vergleiche mit mehreren lokalen seismischen Studien zeigen, dass die resultierenden Moho Strukturen direkt mit geophysikalischen und tektonischen Einheiten in Verbindung gebracht werden können.
Photogrammetric shape reconstruction of diffuse and specular objects in time
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2015
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Kurzfassung/Abstract
A multi-view imaging system is built and equipped with a set of software tools to perform 4D (3D and time) precision measurements of diffuse and specular surfaces. It consists of three consumer grade dSLR cameras, acquiring images in single frame and video modes. The feasibility of the system is proved in a series of measurements of a 4x4m platform, floating on the water surface. Both the motion of the platform´s building blocks as well as the modelling of the instantaneous shape of the water surface are put in focus. The first part of the dissertation deals with the camera orientation and triangulation tasks. Prior to the measurements, the cameras are calibrated, that is their interior orientation, lens distortions and relative orientation are retrieved. The simultaneous retrieval of all the parameters is carried out in a self-adjusting bundle adjustment using the method of moved reference bar. During the measurement, the three cameras have remained static with respect to one another, thus their relative orientation is regarded constant. However, at times the position of the whole system has undergone a motion. It has been due to the observed object drift, requiring a corresponding motion of the imaging system to maintain the same field of view. This motion has been unknown yet resolved by introducing a 3D rigid transformation into the bundle adjustment equations at appropriate time instances. It is possible with a minimum of three static object points observed. The dynamic referencing and triangulation of the platform targets are simultaneously solved in a bundle adjustment routine. The surveyed object has been signalised with circular retro-reflective targets. Thanks to their particular micro-structure, a ray of light cast onto its surface returns a strong signal back to the camera. This type of targeting is attractive due to its better image observation precision and the fact that it is less susceptible to ambient lighting, such as numerous reflections from water or other shiny parts. Nonetheless, the workplace constraints, the dynamism of the floating platform and the lower quality sensors have all contributed to occasional and temporary losses of the tracked object points. To overcome the timely gaps in the target´s signal, its motion is modeled in image space with up to second derivative with respect to the position, and embedded inside the Kalman filter. The Kalman filter is adopted as a predicting tool, thereby, when anomalous target´s behaviour is detected, the physical measurement is replaced with the measurement suggested by the state of the model, or simply discarded. The second part of the dissertation deals with modeling the water surface in time. Two methods are proposed, treating the water as a diffuse and specular surface, respectively. In either case the water is presumed to take the shape of a travelling sine wave reducing the task of the 3D reconstruction to resolving the wave parameters. The first conceived method performs the modeling part purely in 3D space. Having triangulated the points in a separate and unrelated phase, a sine wave is fitted into the data in a least squares manner. The second method presents a more complete approach for the entire calculation workflow begins in image space. The water is perceived as a specular surface, and the travelling specularities are the only observations visible to the cameras. The travelling highlights implicitly carry information about the underlying shape of the surface. From the law of reflection it is known that such virtual points can be exclusively single image observations, hence the depth ambiguity must be removed with additional constraints. Besides the constraint that all points lie on the parametric surface, the incident camera ray and the exitant ray from the highlight to its real position must be symmetric and coplanar with respect to the normal at the virtual points. The latter two compose the law of reflection. The condition and constraint equations land in a single system of equations that is solved with the method of least squares adjustment. All devised approaches are validated against data of superior temporal and spatial resolution. In parallel to the developed system, the platform has been observed by an online motion capture system (MCS). The outcome platform motions are compared in terms of ship motions. As for the modelled shape of the water surface, a check against the data coming from a Capacitive Level Sensor, and a check on physical targets floating on the surface is performed. The wave parameters are confronted between the two developed methods too. In all cases the outcomes agree to a high degree.
A multi-view imaging system is built and equipped with a set of software tools to perform 4D (3D and time) precision measurements of diffuse and specular surfaces. It consists of three consumer grade dSLR cameras, acquiring images in single frame and video modes. The feasibility of the system is proved in a series of measurements of a 4x4m platform, floating on the water surface. Both the motion of the platform´s building blocks as well as the modelling of the instantaneous shape of the water surface are put in focus. The first part of the dissertation deals with the camera orientation and triangulation tasks. Prior to the measurements, the cameras are calibrated, that is their interior orientation, lens distortions and relative orientation are retrieved. The simultaneous retrieval of all the parameters is carried out in a self-adjusting bundle adjustment using the method of moved reference bar. During the measurement, the three cameras have remained static with respect to one another, thus their relative orientation is regarded constant. However, at times the position of the whole system has undergone a motion. It has been due to the observed object drift, requiring a corresponding motion of the imaging system to maintain the same field of view. This motion has been unknown yet resolved by introducing a 3D rigid transformation into the bundle adjustment equations at appropriate time instances. It is possible with a minimum of three static object points observed. The dynamic referencing and triangulation of the platform targets are simultaneously solved in a bundle adjustment routine. The surveyed object has been signalised with circular retro-reflective targets. Thanks to their particular micro-structure, a ray of light cast onto its surface returns a strong signal back to the camera. This type of targeting is attractive due to its better image observation precision and the fact that it is less susceptible to ambient lighting, such as numerous reflections from water or other shiny parts. Nonetheless, the workplace constraints, the dynamism of the floating platform and the lower quality sensors have all contributed to occasional and temporary losses of the tracked object points. To overcome the timely gaps in the target´s signal, its motion is modeled in image space with up to second derivative with respect to the position, and embedded inside the Kalman filter. The Kalman filter is adopted as a predicting tool, thereby, when anomalous target´s behaviour is detected, the physical measurement is replaced with the measurement suggested by the state of the model, or simply discarded. The second part of the dissertation deals with modeling the water surface in time. Two methods are proposed, treating the water as a diffuse and specular surface, respectively. In either case the water is presumed to take the shape of a travelling sine wave reducing the task of the 3D reconstruction to resolving the wave parameters. The first conceived method performs the modeling part purely in 3D space. Having triangulated the points in a separate and unrelated phase, a sine wave is fitted into the data in a least squares manner. The second method presents a more complete approach for the entire calculation workflow begins in image space. The water is perceived as a specular surface, and the travelling specularities are the only observations visible to the cameras. The travelling highlights implicitly carry information about the underlying shape of the surface. From the law of reflection it is known that such virtual points can be exclusively single image observations, hence the depth ambiguity must be removed with additional constraints. Besides the constraint that all points lie on the parametric surface, the incident camera ray and the exitant ray from the highlight to its real position must be symmetric and coplanar with respect to the normal at the virtual points. The latter two compose the law of reflection. The condition and constraint equations land in a single system of equations that is solved with the method of least squares adjustment. All devised approaches are validated against data of superior temporal and spatial resolution. In parallel to the developed system, the platform has been observed by an online motion capture system (MCS). The outcome platform motions are compared in terms of ship motions. As for the modelled shape of the water surface, a check against the data coming from a Capacitive Level Sensor, and a check on physical targets floating on the surface is performed. The wave parameters are confronted between the two developed methods too. In all cases the outcomes agree to a high degree.
A better understanding of the tunnel boring machine as a seismic source for Tunnel Seismic while Drilling
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Begutachter: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
An efficient tunneling requires timely and accurate predictions on the geological situation ahead the tunnel face. Hence, there is a growing demand in the development of geophysical methods to improve the prognosis on changes in the rock such as the occurrence of faults. To this regard, the seismic prediction system Tunnel Seismic While Drilling (TSWD) has been proposed, considering that the cutting process of the tunnel boring machine (TBM) itself is a source of seismic waves. However, the source mechanism underlying the origin of the seismic waves is not well understood. Therefore, within this thesis we analyze datasets collected at different tunnels sites. Here, I demonstrate that an adequate processing of the measured signals provide consistent results for the modeling of the seismic source, independently on the characteristic of the TBM and geology on site. In this thesis, we investigate the validation of three hypotheses commonly assumed for the processing and interpretation of the seismic data in TSWD: i) the pilot sensor response to an individual event is a minimum delay wavelet; ii) additional seismic sources are neglected such as the reaction forces over the gripper, which are used to fix the TBM to the tunnel walls during drilling; and iii) the radiation pattern of the seismic waves due to the cutting process of the TBM represents a single force mechanism. To achieve this, an attempt to determine the transfer function is shown to consider the propagation of the source wavelet from the cutter to the used pilot sensor position at the main bearing. My test data are not sufficient to determine the actual transfer function, but criteria are proposed to localize an optimum recording position on the TBM. In case of a second seismic source, it would be then necessary to quantify it for the analysis of the data collected in TSWD. My results reveal that the effect of grippers as a further source can be considered as negligible, however further research is needed to incorporate it in the modeling of seismic waves. To investigate the source mechanism of the cutting process the seismic radiation pattern was observed at several tunnel sites in Austria, where TSWD was implemented. The data is based on 3-component geophones situated on the surface above the tunnel axis, as well as data recorded in boreholes at the tunnel wall in a two-tube tunnel system. The seismic receivers collected the forward and backward radiated wave field during the tunneling. For the analyses of the source mechanism the polarization of p-waves and s-waves and their amplitude ratio were determined. The observed seismic radiation pattern corresponds mainly to the single force mechanism. Smaller parts, especially p-waves radiated perpendicular to the tunnel axis in vertical direction, are explained by including tensile cracks, which occur during the cutting process.
An efficient tunneling requires timely and accurate predictions on the geological situation ahead the tunnel face. Hence, there is a growing demand in the development of geophysical methods to improve the prognosis on changes in the rock such as the occurrence of faults. To this regard, the seismic prediction system Tunnel Seismic While Drilling (TSWD) has been proposed, considering that the cutting process of the tunnel boring machine (TBM) itself is a source of seismic waves. However, the source mechanism underlying the origin of the seismic waves is not well understood. Therefore, within this thesis we analyze datasets collected at different tunnels sites. Here, I demonstrate that an adequate processing of the measured signals provide consistent results for the modeling of the seismic source, independently on the characteristic of the TBM and geology on site. In this thesis, we investigate the validation of three hypotheses commonly assumed for the processing and interpretation of the seismic data in TSWD: i) the pilot sensor response to an individual event is a minimum delay wavelet; ii) additional seismic sources are neglected such as the reaction forces over the gripper, which are used to fix the TBM to the tunnel walls during drilling; and iii) the radiation pattern of the seismic waves due to the cutting process of the TBM represents a single force mechanism. To achieve this, an attempt to determine the transfer function is shown to consider the propagation of the source wavelet from the cutter to the used pilot sensor position at the main bearing. My test data are not sufficient to determine the actual transfer function, but criteria are proposed to localize an optimum recording position on the TBM. In case of a second seismic source, it would be then necessary to quantify it for the analysis of the data collected in TSWD. My results reveal that the effect of grippers as a further source can be considered as negligible, however further research is needed to incorporate it in the modeling of seismic waves. To investigate the source mechanism of the cutting process the seismic radiation pattern was observed at several tunnel sites in Austria, where TSWD was implemented. The data is based on 3-component geophones situated on the surface above the tunnel axis, as well as data recorded in boreholes at the tunnel wall in a two-tube tunnel system. The seismic receivers collected the forward and backward radiated wave field during the tunneling. For the analyses of the source mechanism the polarization of p-waves and s-waves and their amplitude ratio were determined. The observed seismic radiation pattern corresponds mainly to the single force mechanism. Smaller parts, especially p-waves radiated perpendicular to the tunnel axis in vertical direction, are explained by including tensile cracks, which occur during the cutting process.
Untersuchung des Einflusses der Lotabweichungen auf geodätische Ingenieurnetze im Gebiet Sarajevo
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2015
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Em.O.Univ.-Prof. Dipl.-Ing. Dr. Heribert Kahmen
Kurzfassung/Abstract
Im Gegensatz zu Streckenmessungen werden Richtungsmessungen und Zenitwinkel vom Schwerefeld beeinflusst, weshalb für höchste Genauigkeitsforderungen die Berücksichtigung von Lotabweichungen nötig ist. Diese Arbeit untersucht den Einfluss der Lotabweichungen auf geodätische Ingenieurnetze im Gebiet Sarajevo. Die Berechnung der Lotabweichungen erfolgte mit Hilfe verschiedener Methoden (Quadermethode und schnelle Fourier-Transformation). Die benötigten Berechnungsprogramme wurden vom Department für Geodäsie und Geoinformation (TU Wien) zur Verfügung gestellt. Bis heute wurden im Bereich von Sarajevo nur sehr wenige Forschungsarbeiten über das lokale Lotabweichungsfeld durchgeführt, obwohl dessen Berücksichtigung wesentliche Folgen für den Bau von bedeutenden Infrastrukturprojekten wie z.B. Tunnel, Brücken usw. hat. In der Region Sarajevo wurden 105 in Profilen angeordnete Testpunkte ausgewählt (Punktabstand 2-3 km), in denen die Terrainkorrektur berechnet wurde. Die Lage und Länge der Profile ergab sich aus dem Reduktionsradius von 30 km und wird von der geringen Ausdehnung des vorhandenen 50m-Höhenrasters diktiert. Mit Hilfe der Terrainkorrektur kann auf die von der lokalen Topographie hervorgerufenen Lotabweichungskomponenten in Länge und Breite geschlossen werden. Mit Hilfe von Simulationsrechnungen wird in der vorliegenden Arbeit der Einfluss der Lotabweichungen auf geodätische Messgrößen in verschiedenen Azimuten und Zenitwinkeln untersucht. Im Rahmen dieser Untersuchungen wurden auf Basis von Modellannahmen Graphiken erstellt, welche dem Vermessungsingenieur erlauben die Wirkung der Lotabweichung auf Zielpunktskoordinaten abhängig vom Azimut und dem Zenitwinkel der Messung zu bestimmen. Als Testnetz wurde ein GPS-Netzwerk in Sarajevo mit rund 250 GPS-Punkten mit einem durchschnittlichen Abstand von 1 km genutzt. Dieses Netz wurde mit einem Polygonnetz verdichtet, das mit Totalstationen eingemessen wurde.
Im Gegensatz zu Streckenmessungen werden Richtungsmessungen und Zenitwinkel vom Schwerefeld beeinflusst, weshalb für höchste Genauigkeitsforderungen die Berücksichtigung von Lotabweichungen nötig ist. Diese Arbeit untersucht den Einfluss der Lotabweichungen auf geodätische Ingenieurnetze im Gebiet Sarajevo. Die Berechnung der Lotabweichungen erfolgte mit Hilfe verschiedener Methoden (Quadermethode und schnelle Fourier-Transformation). Die benötigten Berechnungsprogramme wurden vom Department für Geodäsie und Geoinformation (TU Wien) zur Verfügung gestellt. Bis heute wurden im Bereich von Sarajevo nur sehr wenige Forschungsarbeiten über das lokale Lotabweichungsfeld durchgeführt, obwohl dessen Berücksichtigung wesentliche Folgen für den Bau von bedeutenden Infrastrukturprojekten wie z.B. Tunnel, Brücken usw. hat. In der Region Sarajevo wurden 105 in Profilen angeordnete Testpunkte ausgewählt (Punktabstand 2-3 km), in denen die Terrainkorrektur berechnet wurde. Die Lage und Länge der Profile ergab sich aus dem Reduktionsradius von 30 km und wird von der geringen Ausdehnung des vorhandenen 50m-Höhenrasters diktiert. Mit Hilfe der Terrainkorrektur kann auf die von der lokalen Topographie hervorgerufenen Lotabweichungskomponenten in Länge und Breite geschlossen werden. Mit Hilfe von Simulationsrechnungen wird in der vorliegenden Arbeit der Einfluss der Lotabweichungen auf geodätische Messgrößen in verschiedenen Azimuten und Zenitwinkeln untersucht. Im Rahmen dieser Untersuchungen wurden auf Basis von Modellannahmen Graphiken erstellt, welche dem Vermessungsingenieur erlauben die Wirkung der Lotabweichung auf Zielpunktskoordinaten abhängig vom Azimut und dem Zenitwinkel der Messung zu bestimmen. Als Testnetz wurde ein GPS-Netzwerk in Sarajevo mit rund 250 GPS-Punkten mit einem durchschnittlichen Abstand von 1 km genutzt. Dieses Netz wurde mit einem Polygonnetz verdichtet, das mit Totalstationen eingemessen wurde.
Atmosphärische Anregung der mehrjährigen Polbewegung aus meteorologischen Reanalysen des 20. Jahrhunderts
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Univ.Ass. Dipl.-Ing. Dr. Michael Schindelegger
Kurzfassung/Abstract
The origin of decadal variations in the excitation of polar motion occurs to be one of the remaining open questions in Earth rotation studies. Since William Markowitz discovered the multi-decadal wobble that has been named after him, geodetic science has been in search of the possible underlying physical mechanisms for it. Although a combination of different processes is the most likely scenario and most studies suggest processes in the core to account for the main contribution, a complete picture of the whole phenomenon is still missing. Atmospheric processes, although of subordinate magnitude, also take part in decadal polar motion excitation. The present study investigates this decadal-scale atmospheric excitation over the whole twentieth century by using meteorological data from two different reanalysis systems. On one hand the thesis estimates the atmospheric contribution to decadal-scale wobbles by comparing geophysical excitation measures to geodetic observations of polar motion variations. On the other hand two reanalysis models are tested for their rational skill and consistency trough the angular momentum budget equation, i.e., the mathematical framework that is the foundation of a reliable estimation of the atmospheric contribution. In the end, an objective judgement on the usability of the reanalyses for Earth rotation studies is given, and the possible superiority of one of the probed datasets is pointed out. The atmospheric contribution is found to be small but not negligible. Beside that, good results in the angular momentum budget check justify the usage of both reanalyses models.
The origin of decadal variations in the excitation of polar motion occurs to be one of the remaining open questions in Earth rotation studies. Since William Markowitz discovered the multi-decadal wobble that has been named after him, geodetic science has been in search of the possible underlying physical mechanisms for it. Although a combination of different processes is the most likely scenario and most studies suggest processes in the core to account for the main contribution, a complete picture of the whole phenomenon is still missing. Atmospheric processes, although of subordinate magnitude, also take part in decadal polar motion excitation. The present study investigates this decadal-scale atmospheric excitation over the whole twentieth century by using meteorological data from two different reanalysis systems. On one hand the thesis estimates the atmospheric contribution to decadal-scale wobbles by comparing geophysical excitation measures to geodetic observations of polar motion variations. On the other hand two reanalysis models are tested for their rational skill and consistency trough the angular momentum budget equation, i.e., the mathematical framework that is the foundation of a reliable estimation of the atmospheric contribution. In the end, an objective judgement on the usability of the reanalyses for Earth rotation studies is given, and the possible superiority of one of the probed datasets is pointed out. The atmospheric contribution is found to be small but not negligible. Beside that, good results in the angular momentum budget check justify the usage of both reanalyses models.
Aufbau eines lokalen GNSS-Referenznetzes
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Fabian Hinterberger
Kurzfassung/Abstract
Die relative satellitengestützte Positionierung mittels GNSS erlaubt heute Positionierungsgenauigkeiten im Zentimeterbereich in nahezu Echtzeit. Da die räumliche Korrelation von GNSS-Streckenmessfehlern ab Distanzen von über 15km zur nächsten Referenzstation deutlich abnimmt, wird durch Vernetzung von mehreren Referenzstationen eine regionale Fehlermodellierung durchgeführt, welche die Berechnung von cm-genauen Korrekturen über Distanzen von über 50km zwischen dem Rover und den nächstgelegenen Referenzstationen ermöglicht. In dieser Arbeit wurden zwei Programmpakete (Testversionen von Spider (Leica Geosystems AG) und TopNET (Topcon Corporation)) an einem institutseigenen Server installiert und deren Funktionsweise bei der Verarbeitung von Echtmessdaten eines minimalen Referenzstationsnetzes (3 Stationen) getestet. Nach der Einrichtung des Netzes wurde untersucht, wie einfach die beiden Programme zu bedienen sind, welche Parameter eingestellt werden können und ob sie fehlerfrei arbeiten. Da die installierte Version von TopNET nur die Beobachtungen der nächstgelegenen Referenzstationen versendet, konnten zwar nur wenige Einstellungen getroffen werden, das Programm war allerdings auch sehr einfach zu bedienen. Spider ist wesentlich komplexer konzipiert und erlaubte die Berechnung von Netzwerkkorrekturen. In beiden Programmen wurden die Datenströme der Referenzstationen mit RTCM 3.1 eingebunden. Da es nicht gelang die an und für sich vorhandenen GLONASS-Beobachtungen in beide Programmpakete einzulesen, wurden alle Untersuchungen und Testmessungen nur mit GPS-Daten durchgeführt, um gleiche Bedingungen zu schaffen. Bei den Testmessungen wurden auf der Terrasse der TU-Wien Positionierungen einerseits mit den von beiden Programmen gelieferten Korrekturströmen und andererseits mit den Korrekturdaten eines österreichweiten Positionierungsdienst (EPOSA) durchgeführt. Während in den Lagekoordinaten nur geringe Unterschiede zwischen den Korrekturdiensten und dem Referenzwert festgestellt werden konnten, zeigte die mit den selbst installierten Datenströmen bestimmte Höhenkomponente eine deutliche Abweichung von ca. 8 cm zum Sollwert. Diese systematische Abweichung in der Höhe konnte durch Eingabe einer Null-Antennenkalibrierung anstelle der bekannten Referenzantennenkalibrierung weitgehend beseitigt werden. Die ebenfalls untersuchte Mehrdeutigkeitsfixierung gelang mit dem Dienst von TopNET am schnellsten, was allerdings darauf zurückzuführen ist, dass keine Netzwerk-Korrekturen berechnet werden, sondern nur Beobachtungen versendet werden. Der EPOSA-Dienst und die eigene Spider-Installation berechnen und versenden jedoch Netzkorrekturen.
Die relative satellitengestützte Positionierung mittels GNSS erlaubt heute Positionierungsgenauigkeiten im Zentimeterbereich in nahezu Echtzeit. Da die räumliche Korrelation von GNSS-Streckenmessfehlern ab Distanzen von über 15km zur nächsten Referenzstation deutlich abnimmt, wird durch Vernetzung von mehreren Referenzstationen eine regionale Fehlermodellierung durchgeführt, welche die Berechnung von cm-genauen Korrekturen über Distanzen von über 50km zwischen dem Rover und den nächstgelegenen Referenzstationen ermöglicht. In dieser Arbeit wurden zwei Programmpakete (Testversionen von Spider (Leica Geosystems AG) und TopNET (Topcon Corporation)) an einem institutseigenen Server installiert und deren Funktionsweise bei der Verarbeitung von Echtmessdaten eines minimalen Referenzstationsnetzes (3 Stationen) getestet. Nach der Einrichtung des Netzes wurde untersucht, wie einfach die beiden Programme zu bedienen sind, welche Parameter eingestellt werden können und ob sie fehlerfrei arbeiten. Da die installierte Version von TopNET nur die Beobachtungen der nächstgelegenen Referenzstationen versendet, konnten zwar nur wenige Einstellungen getroffen werden, das Programm war allerdings auch sehr einfach zu bedienen. Spider ist wesentlich komplexer konzipiert und erlaubte die Berechnung von Netzwerkkorrekturen. In beiden Programmen wurden die Datenströme der Referenzstationen mit RTCM 3.1 eingebunden. Da es nicht gelang die an und für sich vorhandenen GLONASS-Beobachtungen in beide Programmpakete einzulesen, wurden alle Untersuchungen und Testmessungen nur mit GPS-Daten durchgeführt, um gleiche Bedingungen zu schaffen. Bei den Testmessungen wurden auf der Terrasse der TU-Wien Positionierungen einerseits mit den von beiden Programmen gelieferten Korrekturströmen und andererseits mit den Korrekturdaten eines österreichweiten Positionierungsdienst (EPOSA) durchgeführt. Während in den Lagekoordinaten nur geringe Unterschiede zwischen den Korrekturdiensten und dem Referenzwert festgestellt werden konnten, zeigte die mit den selbst installierten Datenströmen bestimmte Höhenkomponente eine deutliche Abweichung von ca. 8 cm zum Sollwert. Diese systematische Abweichung in der Höhe konnte durch Eingabe einer Null-Antennenkalibrierung anstelle der bekannten Referenzantennenkalibrierung weitgehend beseitigt werden. Die ebenfalls untersuchte Mehrdeutigkeitsfixierung gelang mit dem Dienst von TopNET am schnellsten, was allerdings darauf zurückzuführen ist, dass keine Netzwerk-Korrekturen berechnet werden, sondern nur Beobachtungen versendet werden. Der EPOSA-Dienst und die eigene Spider-Installation berechnen und versenden jedoch Netzkorrekturen.
GNSS Interference Monitoring - Detection and Classification of GNSS jammers
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2015
Betreuer: Univ.-Prof. Dipl.-Ing. Dr.h.c.mult. Dr. Bernhard Hofmann-Wellenhof und Dipl.-Ing. Dr. Philipp Berglez
Kurzfassung/Abstract
Die vorliegende Arbeit beschreibt die Entwicklung eines GNSS airport interference monitoring system (GAIMS), welches die zuverlässige Detektion und Klassifikation von GNSS Störsendern ermöglicht. Dies ist ein wichtiges Thema speziell für sicherheitskritische Anwendungen, da solche Störsender die Funktion von GNSS Anwendungen verschlechtern oder gar gänzlich verhindern können. Beginnend mit einem Überblick über die aktuelle Situation bezüglich Interferenz von GNSS Signalen, ist der Nutzen dieses Systems für unterschiedliche Anwendungen beschrieben. Der Innovationsgehalt des GAIMS wird innerhalb einer Diskussion über aktuelle Systeme beschrieben. Hier werden die Vor- und Nachteile der unterschiedlichen Systeme im Hinblick auf die Überwachung solcher Störungen beschrieben. Ein wichtiger Teil der vorliegenden Arbeit ist die Erarbeitung des theoretischen Hintergrunds möglicher Methoden zur Detektion und Klassifikation von Störsendern. Dieses Kapitel erklärt das generelle Konzept eines GNSS Empfängers gemeinsam mit den Vorteilen, die ein Software-basierter Empfänger für die Entwicklung bringt und beinhaltet eine Betrachtung der Auswirkungen unterschiedlicher Arten von Störsendern auf unterschiedliche Messgrößen. Basierend auf der aufgearbeiteten Theorie und dem erworbenen Wissen über GNSS Störsender, ist die Entwicklung des GAIMS im Rahmen eines Software-basierten Empfängers beschrieben. Unterschiedliche Algorithmen zur Detektion und Klassifikation werden verwendet um gleichzeitig und unabhängig voneinander die Signale zu überwachen. Diese Kombination unterschiedlicher Algorithmen soll die bestmöglichen Resultate garantieren. Das entwickelte System wird mit Hilfe einer Simulation, sowie mit aufgezeichneten Daten eines GNSS Empfängers, getestet und evaluiert. Das Prozessieren der simulierten Daten validiert die Funktion der eingebauten Algorithmen, wobei die im Zuge einer Messkampagne aufgezeichneten Daten die Eignung des Systems für den realen Betrieb evaluieren. Im Zuge dieser Messkampagne konnte zum ersten mal in Österreich ein GNSS Störsender entdeckt und dokumentiert werden. Abschließend beinhaltet die vorliegende Arbeit eine kritische Betrachtung des entwickelten Systems, welche Vorschläge für weitere Verbesserungen der Detektion und Klassifikation beinhaltet. Ebenso wird ein Ausblick über den praktischen Nutzen und die nächsten Schritte in der Weiterentwicklung des GAIMS gegeben.
Die vorliegende Arbeit beschreibt die Entwicklung eines GNSS airport interference monitoring system (GAIMS), welches die zuverlässige Detektion und Klassifikation von GNSS Störsendern ermöglicht. Dies ist ein wichtiges Thema speziell für sicherheitskritische Anwendungen, da solche Störsender die Funktion von GNSS Anwendungen verschlechtern oder gar gänzlich verhindern können. Beginnend mit einem Überblick über die aktuelle Situation bezüglich Interferenz von GNSS Signalen, ist der Nutzen dieses Systems für unterschiedliche Anwendungen beschrieben. Der Innovationsgehalt des GAIMS wird innerhalb einer Diskussion über aktuelle Systeme beschrieben. Hier werden die Vor- und Nachteile der unterschiedlichen Systeme im Hinblick auf die Überwachung solcher Störungen beschrieben. Ein wichtiger Teil der vorliegenden Arbeit ist die Erarbeitung des theoretischen Hintergrunds möglicher Methoden zur Detektion und Klassifikation von Störsendern. Dieses Kapitel erklärt das generelle Konzept eines GNSS Empfängers gemeinsam mit den Vorteilen, die ein Software-basierter Empfänger für die Entwicklung bringt und beinhaltet eine Betrachtung der Auswirkungen unterschiedlicher Arten von Störsendern auf unterschiedliche Messgrößen. Basierend auf der aufgearbeiteten Theorie und dem erworbenen Wissen über GNSS Störsender, ist die Entwicklung des GAIMS im Rahmen eines Software-basierten Empfängers beschrieben. Unterschiedliche Algorithmen zur Detektion und Klassifikation werden verwendet um gleichzeitig und unabhängig voneinander die Signale zu überwachen. Diese Kombination unterschiedlicher Algorithmen soll die bestmöglichen Resultate garantieren. Das entwickelte System wird mit Hilfe einer Simulation, sowie mit aufgezeichneten Daten eines GNSS Empfängers, getestet und evaluiert. Das Prozessieren der simulierten Daten validiert die Funktion der eingebauten Algorithmen, wobei die im Zuge einer Messkampagne aufgezeichneten Daten die Eignung des Systems für den realen Betrieb evaluieren. Im Zuge dieser Messkampagne konnte zum ersten mal in Österreich ein GNSS Störsender entdeckt und dokumentiert werden. Abschließend beinhaltet die vorliegende Arbeit eine kritische Betrachtung des entwickelten Systems, welche Vorschläge für weitere Verbesserungen der Detektion und Klassifikation beinhaltet. Ebenso wird ein Ausblick über den praktischen Nutzen und die nächsten Schritte in der Weiterentwicklung des GAIMS gegeben.
Ableitung von Geländemodellen aus UAV-Daten am Beispiel der Deponie Rautenweg
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Christian Briese, Dipl.-Ing. Dr. Camillo Ressl, Univ.Ass. Dipl.-Ing. Martin Wieser
Kurzfassung/Abstract
Große Gebiete, wie z.B. Deponien oder Tagebaue, lassen sich vom Boden aus - beispielsweise mittels GNSS - kaum wirtschaftlich vermessen. Es wird daher häufig auf luftgestützte Verfahren, wie das ALS (engl.: Airborne Laserscanning) oder auf photogrammetrische Verfahren, bei denen Luftbilder ausgewertet werden, zurückgegriffen. Heute kommen für derartige Vermessungen vermehrt autonom fliegende kleine Luftfahrzeuge, sogenannte UAVs (engl.: Unmanned Aerial Vehicle), die mit digitalen Amateurkameras bestückt werden, zum Einsatz. Inhalt dieser Diplomarbeit ist der Vergleich von digitalen Höhenmodellen der Deponie Rautenweg in Wien, welche mit Hilfe von ALS einerseits und UAV-Photogrammetrie andererseits, erstellt wurden. Es werden dazu digitale Geländemodelle (DGMe) aus UAV- und ALS-Daten verglichen. Zusätzlich werden Höhendifferenzen zwischen gemessenen GNSS-Kontrollpunkten und den abgleiten DGMen ermittelt. In einem kleinen Testgebiet innerhalb der Deponie wird genauer untersucht, welchen Einfluss die Vegetation, die bei der Vermessung aus der Luft stets einen Störfaktor darstellt, auf die erstellten Geländemodelle besitzt. Es wird ein Lösungsansatz vorgestellt, der mit Hilfe des Vegetationsindexes NDVI, eine stufenweise Ermittlung von DGMen aus Luftbildern vorschlägt. Hierfür wird das Messgebiet in zwei Klassen (vegetationsfrei und mit Vegetation), welche auf den NDVI-Werten beruhen, eingeteilt. Für Gebiete mit Vegetation wird eine Reduktionsmethode getestet, bei der versucht wird Bodenpunkte in Vegetationslücken zu finden, um so das DGM zu verbessern. Es wird gezeigt, dass durch diese Methode eine Verbesserung des UAV-DGMs in bewachsenen Gebieten erzielt werden kann. Das Ergebnis dieser Diplomarbeit ist ein aus UAV-Luftbildern abgeleitetes DGM. Die Analysen zeigen, dass die Messmethode der UAV-Photogrammetrie sehr genaue Ergebnisse liefern kann und somit eine wirtschaftliche Alternative zum ALS darstellt. Systematische Fehler zwischen den Messmethoden werden analysiert. Die Analysen zeigen, dass ein eindeutiges und wohl definiertes Koordinatensystem für alle beteiligten Messmethoden eine Grundvoraussetzung genauerer Gegenüberstellungen verschiedener Messmethoden darstellt.
Große Gebiete, wie z.B. Deponien oder Tagebaue, lassen sich vom Boden aus - beispielsweise mittels GNSS - kaum wirtschaftlich vermessen. Es wird daher häufig auf luftgestützte Verfahren, wie das ALS (engl.: Airborne Laserscanning) oder auf photogrammetrische Verfahren, bei denen Luftbilder ausgewertet werden, zurückgegriffen. Heute kommen für derartige Vermessungen vermehrt autonom fliegende kleine Luftfahrzeuge, sogenannte UAVs (engl.: Unmanned Aerial Vehicle), die mit digitalen Amateurkameras bestückt werden, zum Einsatz. Inhalt dieser Diplomarbeit ist der Vergleich von digitalen Höhenmodellen der Deponie Rautenweg in Wien, welche mit Hilfe von ALS einerseits und UAV-Photogrammetrie andererseits, erstellt wurden. Es werden dazu digitale Geländemodelle (DGMe) aus UAV- und ALS-Daten verglichen. Zusätzlich werden Höhendifferenzen zwischen gemessenen GNSS-Kontrollpunkten und den abgleiten DGMen ermittelt. In einem kleinen Testgebiet innerhalb der Deponie wird genauer untersucht, welchen Einfluss die Vegetation, die bei der Vermessung aus der Luft stets einen Störfaktor darstellt, auf die erstellten Geländemodelle besitzt. Es wird ein Lösungsansatz vorgestellt, der mit Hilfe des Vegetationsindexes NDVI, eine stufenweise Ermittlung von DGMen aus Luftbildern vorschlägt. Hierfür wird das Messgebiet in zwei Klassen (vegetationsfrei und mit Vegetation), welche auf den NDVI-Werten beruhen, eingeteilt. Für Gebiete mit Vegetation wird eine Reduktionsmethode getestet, bei der versucht wird Bodenpunkte in Vegetationslücken zu finden, um so das DGM zu verbessern. Es wird gezeigt, dass durch diese Methode eine Verbesserung des UAV-DGMs in bewachsenen Gebieten erzielt werden kann. Das Ergebnis dieser Diplomarbeit ist ein aus UAV-Luftbildern abgeleitetes DGM. Die Analysen zeigen, dass die Messmethode der UAV-Photogrammetrie sehr genaue Ergebnisse liefern kann und somit eine wirtschaftliche Alternative zum ALS darstellt. Systematische Fehler zwischen den Messmethoden werden analysiert. Die Analysen zeigen, dass ein eindeutiges und wohl definiertes Koordinatensystem für alle beteiligten Messmethoden eine Grundvoraussetzung genauerer Gegenüberstellungen verschiedener Messmethoden darstellt.
Usability evaluation for a community based reporting system for visual impaired and blind people
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: Dipl.-Ing. (FH) Dr.in Melanie Tomintz, Dipl.-Ing. Dr. Victor Garcia-Barrios
Kurzfassung/Abstract
In Austria, 20.5 percent of people living in private households suffer from long-standing health problems. 3.9 percent have a form of visual impairments. A governmental aim is to provide equal access for all population groups. However, it is shown that handicapped people have continuous accessibility problems. The aim of this thesis is the design, implementation and evaluation of a community based reporting system for the user group of visual impaired and blind people to identify their needs, as they are often disadvantaged in development of Web applications. The purpose of this system is the collection and visualization of barriers in outdoor areas. Therefore, users and scenarios are defined to identify must-have requirements for designing the mockups. Following, the mockups are evaluated and out of this result a first prototype of the community based Web application is implemented. After that the usability evaluation is done using methods, like Heuristic Evaluation and Thinking Aloud. The results show that visual impaired and blind people have some special needs on community based reporting systems. The first one is to give users the possibility to jump, at the beginning of the website to the content. Another point is that a resize function for the content is needed. Further it is important to provide next to a map view another possibility to show the same information because the navigation on websites with a map can be difficult for people using a screen-reader. Also necessary is that the application has to be designed with high contrast between the individual elements. The usability evaluation of the reporting system focusing on visual impaired people identified the requirements for this user group and presents a way to visualize barriers for visual impaired and blind people. These findings can contribute to the development for future community based reporting systems and to the finalization of this prototype so that it can support to the population.
In Austria, 20.5 percent of people living in private households suffer from long-standing health problems. 3.9 percent have a form of visual impairments. A governmental aim is to provide equal access for all population groups. However, it is shown that handicapped people have continuous accessibility problems. The aim of this thesis is the design, implementation and evaluation of a community based reporting system for the user group of visual impaired and blind people to identify their needs, as they are often disadvantaged in development of Web applications. The purpose of this system is the collection and visualization of barriers in outdoor areas. Therefore, users and scenarios are defined to identify must-have requirements for designing the mockups. Following, the mockups are evaluated and out of this result a first prototype of the community based Web application is implemented. After that the usability evaluation is done using methods, like Heuristic Evaluation and Thinking Aloud. The results show that visual impaired and blind people have some special needs on community based reporting systems. The first one is to give users the possibility to jump, at the beginning of the website to the content. Another point is that a resize function for the content is needed. Further it is important to provide next to a map view another possibility to show the same information because the navigation on websites with a map can be difficult for people using a screen-reader. Also necessary is that the application has to be designed with high contrast between the individual elements. The usability evaluation of the reporting system focusing on visual impaired people identified the requirements for this user group and presents a way to visualize barriers for visual impaired and blind people. These findings can contribute to the development for future community based reporting systems and to the finalization of this prototype so that it can support to the population.
Development of a Custom Site Selection Model for Microbreweries in San Diego County based on Geodemographics and Twitter Data
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andrew Frank, Prof. Piotr Jankowski Ph.D.
Kurzfassung/Abstract
The performance of a microbrewery is heavily dependent on its location. Badly chosen locations, often due to ad-hoc or poorly conducted site selection analysis, are a key factor for businesses to go down. The emergence and rapid development of Geographic Information Systems (GIS) with their spatial analytical capabilities open new doors to strategic site performance analysis. Combining GIS analysis and mathematical models with geodemographic and social media data can help planners and decision makers in the essential evaluation process of potential candidate sites. The focus of this research project lies on gaining new knowledge about craft beer consumption characteristics and behaviors, and utilizing this knowledge to develop of a custom site selection model for microbreweries which calculates the number of potential craft beer consumers within a specified geographic area. The study area comprises the entire County of San Diego. An exploratory analysis is conducted in order to gain new knowledge of craft beer consumers based on a set of Twitter data collected over a time period of one year. All tweets contain locational, temporal and textual data on which spatial, qualitative and quantitative analyses methods are applied to obtain information about the spatial distribution and demographic characteristics of craft beer consumers. The demographic information gained from the exploratory analysis is used for the development of the site selection model which corresponds to a geodemographic probability model taking as an input the demographic characteristics of a specific geographical area. The model is applied in two location analysis scenarios at different scales. The first one is a macro level analysis with the objective of estimating the number of potential craft beer consumers for each ZIP code in San Diego County. The second scenario corresponds to a micro level site suitability analysis, evaluating the feasibility for opening a new microbrewery on a certain number of vacant sites which are either for sale or rent.
The performance of a microbrewery is heavily dependent on its location. Badly chosen locations, often due to ad-hoc or poorly conducted site selection analysis, are a key factor for businesses to go down. The emergence and rapid development of Geographic Information Systems (GIS) with their spatial analytical capabilities open new doors to strategic site performance analysis. Combining GIS analysis and mathematical models with geodemographic and social media data can help planners and decision makers in the essential evaluation process of potential candidate sites. The focus of this research project lies on gaining new knowledge about craft beer consumption characteristics and behaviors, and utilizing this knowledge to develop of a custom site selection model for microbreweries which calculates the number of potential craft beer consumers within a specified geographic area. The study area comprises the entire County of San Diego. An exploratory analysis is conducted in order to gain new knowledge of craft beer consumers based on a set of Twitter data collected over a time period of one year. All tweets contain locational, temporal and textual data on which spatial, qualitative and quantitative analyses methods are applied to obtain information about the spatial distribution and demographic characteristics of craft beer consumers. The demographic information gained from the exploratory analysis is used for the development of the site selection model which corresponds to a geodemographic probability model taking as an input the demographic characteristics of a specific geographical area. The model is applied in two location analysis scenarios at different scales. The first one is a macro level analysis with the objective of estimating the number of potential craft beer consumers for each ZIP code in San Diego County. The second scenario corresponds to a micro level site suitability analysis, evaluating the feasibility for opening a new microbrewery on a certain number of vacant sites which are either for sale or rent.
Untersuchung von geophysikalischen Auflasteffekten mit der VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Dr.Hana Krasna
Kurzfassung/Abstract
Die Aufgabe dieser Arbeit ist die Untersuchung von geophysikalischen Auflasteffekten mittels Very Long Baseline Interferometry (VLBI). Als geophysikalische Auflasteffekte werden die ozeanischen, atmosphärischen und hydrologischen Massenumverteilungen bezeichnet. Diese haben einen Einfluss auf die Variation der Koordinaten der VLBI Station. Hauptsächlich werden geophysikalische Auflasteffekte in den Höhenkoordinaten der Stationen sichtbar. Die Einflüsse an den Stationen können recht unterschiedlich sein, je nachdem in welchem Breitengrad (atmosphärische Auflasteffekte) und in welcher Entfernung zum Meer (ozeanische Auflasteffekte) und zu Gebieten mit großer variabler Wasserspeicherung von Bodenwasser, Grundwasser, Schnee und Eis, sowie von Flüssen, Seen und Feuchtgebieten (hydrologische Auflasteffekte) die VLBI Stationen stehen. Für diese Untersuchung werden VLBI Beobachtungen aus den Jahren 2000 bis 2012 von 118 Stationen herangezogen und mit VieVS und Matlab untersucht. Aus diesen Stationen werden all jene ausgewählt, die mindestens drei Jahre kontinuierlich gemessen haben. Für die 20 ausgewählten Stationen werden die Koordinatenzuschläge mit und ohne geophysikalischen Korrekturmodellen geplottet und verglichen. Durch die Schätzung einer jährlichen und halbjährlichen Schwingung, sowie der Standardabweichung, werden Aussagen über den Einfluss der geophysikalischen Auflasteffekte getroffen. Das Ergebnis ist, je nach Standort der VLBI Station, der unterschiedliche Einfluss der geophysikalischen Auflasteffekte in der Höhenkomponente der Stationskoordinaten. Allgemein lässt sich sagen, dass sich geophysikalische Auflasteffekte unterschiedlich stark auf die Höhenkoordinate der verschiedenen VLBI Stationen auswirken. Geophysikalischen Korrekturmodelle führen im allgemeinen zu Verbesserungen der Standardabweichung der Koordinatenzuschläge der Höhenkoordinate und der Amplituden der jährlichen und halbjährlichen Schwingung und sie sind daher bei allen Beobachtungen und Berechnungen anzubringen.
Die Aufgabe dieser Arbeit ist die Untersuchung von geophysikalischen Auflasteffekten mittels Very Long Baseline Interferometry (VLBI). Als geophysikalische Auflasteffekte werden die ozeanischen, atmosphärischen und hydrologischen Massenumverteilungen bezeichnet. Diese haben einen Einfluss auf die Variation der Koordinaten der VLBI Station. Hauptsächlich werden geophysikalische Auflasteffekte in den Höhenkoordinaten der Stationen sichtbar. Die Einflüsse an den Stationen können recht unterschiedlich sein, je nachdem in welchem Breitengrad (atmosphärische Auflasteffekte) und in welcher Entfernung zum Meer (ozeanische Auflasteffekte) und zu Gebieten mit großer variabler Wasserspeicherung von Bodenwasser, Grundwasser, Schnee und Eis, sowie von Flüssen, Seen und Feuchtgebieten (hydrologische Auflasteffekte) die VLBI Stationen stehen. Für diese Untersuchung werden VLBI Beobachtungen aus den Jahren 2000 bis 2012 von 118 Stationen herangezogen und mit VieVS und Matlab untersucht. Aus diesen Stationen werden all jene ausgewählt, die mindestens drei Jahre kontinuierlich gemessen haben. Für die 20 ausgewählten Stationen werden die Koordinatenzuschläge mit und ohne geophysikalischen Korrekturmodellen geplottet und verglichen. Durch die Schätzung einer jährlichen und halbjährlichen Schwingung, sowie der Standardabweichung, werden Aussagen über den Einfluss der geophysikalischen Auflasteffekte getroffen. Das Ergebnis ist, je nach Standort der VLBI Station, der unterschiedliche Einfluss der geophysikalischen Auflasteffekte in der Höhenkomponente der Stationskoordinaten. Allgemein lässt sich sagen, dass sich geophysikalische Auflasteffekte unterschiedlich stark auf die Höhenkoordinate der verschiedenen VLBI Stationen auswirken. Geophysikalischen Korrekturmodelle führen im allgemeinen zu Verbesserungen der Standardabweichung der Koordinatenzuschläge der Höhenkoordinate und der Amplituden der jährlichen und halbjährlichen Schwingung und sie sind daher bei allen Beobachtungen und Berechnungen anzubringen.
Sensorintegration zum Zweck der RPAS-Navigation
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2015
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
RPAS (Remotely Piloted Aircraft Systems) sind ein hochaktuelles Thema mit unzähligen verschiedenen Einsatzgebieten und Applikationen. Die Navigation stellt dafür wichtige Parameter wie Position, Geschwindigkeit und Ausrichtung (Attitude) zur Verfügung. Die Anforderungen an die Navigationssensoren sind dabei allerdings sehr hoch. Da RPAS nur begrenzt Platz zur Verfügung haben und nur begrenzt Gewicht transportieren können, gibt es genaue Anforderungen an Größe und Gewicht. Auch die Kosten für solche Systeme dürfen nicht zu hoch sein, um günstige RPAS-Flüge für viele zivile Anwendungen anbieten zu können, wodurch meist nur low-cost Sensorik zur Verfügung steht. Trotzdem soll eine möglichst zuverlässige und genaue Navigationslösung erzielt werden. Um diesen Spagat zu schaffen, ist eine bestmögliche Sensorintegration mehrerer verschiedener low-cost Sensoren notwendig. Diese Arbeit zeigt die Integration von Inertialsensoren, GNSS-Empfänger, Magnetometer und Barometer mit Hilfe eines lose gekoppelten Kalman-Filters (Modellierung als Fehlerzustandsvektor), womit die Genauigkeit und Zuverlässigkeit gegenüber den Ergebnissen der einzelnen Sensoren deutlich verbessert werden kann. Eine wichtige Untersuchung behandelt das Filtertuning, um möglichst realitätsnahe Parameter mit möglichst guter Genauigkeit zu erhalten. Durch dieses Filtertuning ist eine korrekte Biasschätzung im Kalman-Filter möglich, was zu einer Verbesserung des Fehlerverhaltens während GNSS-Ausfällen und damit zu einer zuverlässigeren Lösung führt. Ein besonderes Augenmerk wird in dieser Arbeit auf die Besonderheiten der RPAS Navigation im Gegensatz zur Navigation an Land gelegt. Aus GNSS-Messungen kann der zurückgelegte Kurs bestimmt werden, welcher sich bei RPAS Anwendungen aufgrund des Windes nicht zur Stützung des Headings eignet. Daher werden Messungen von 3-Achs-Magnetometern zur Stützung herangezogen. Diese Messungen erfordern allerdings eine Kalibrierung, um konstante Deviationseffekte zu korrigieren. Außerdem werden temporäre Deviationseffekte durch eine Ausreißerdetektion eliminiert und die Deklination berücksichtigt. Der in dieser Arbeit vorgestellte Algorithmus macht das Magnetometer Heading für eine durchgeführte Testfahrt mit einem Auto überhaupt erst verwendbar. Die Genauigkeit der barometrisch bestimmten Höhe verschlechtert sich mit wechselnden Wetterverhältnissen. In dieser Arbeit wird daher ein zusätzliches Kalman-Filter eingeführt, das die Änderungen des Wetters mitmodelliert, wodurch die Genauigkeit der barometrisch bestimmten Höhe über die Zeit konstant bleibt.
RPAS (Remotely Piloted Aircraft Systems) sind ein hochaktuelles Thema mit unzähligen verschiedenen Einsatzgebieten und Applikationen. Die Navigation stellt dafür wichtige Parameter wie Position, Geschwindigkeit und Ausrichtung (Attitude) zur Verfügung. Die Anforderungen an die Navigationssensoren sind dabei allerdings sehr hoch. Da RPAS nur begrenzt Platz zur Verfügung haben und nur begrenzt Gewicht transportieren können, gibt es genaue Anforderungen an Größe und Gewicht. Auch die Kosten für solche Systeme dürfen nicht zu hoch sein, um günstige RPAS-Flüge für viele zivile Anwendungen anbieten zu können, wodurch meist nur low-cost Sensorik zur Verfügung steht. Trotzdem soll eine möglichst zuverlässige und genaue Navigationslösung erzielt werden. Um diesen Spagat zu schaffen, ist eine bestmögliche Sensorintegration mehrerer verschiedener low-cost Sensoren notwendig. Diese Arbeit zeigt die Integration von Inertialsensoren, GNSS-Empfänger, Magnetometer und Barometer mit Hilfe eines lose gekoppelten Kalman-Filters (Modellierung als Fehlerzustandsvektor), womit die Genauigkeit und Zuverlässigkeit gegenüber den Ergebnissen der einzelnen Sensoren deutlich verbessert werden kann. Eine wichtige Untersuchung behandelt das Filtertuning, um möglichst realitätsnahe Parameter mit möglichst guter Genauigkeit zu erhalten. Durch dieses Filtertuning ist eine korrekte Biasschätzung im Kalman-Filter möglich, was zu einer Verbesserung des Fehlerverhaltens während GNSS-Ausfällen und damit zu einer zuverlässigeren Lösung führt. Ein besonderes Augenmerk wird in dieser Arbeit auf die Besonderheiten der RPAS Navigation im Gegensatz zur Navigation an Land gelegt. Aus GNSS-Messungen kann der zurückgelegte Kurs bestimmt werden, welcher sich bei RPAS Anwendungen aufgrund des Windes nicht zur Stützung des Headings eignet. Daher werden Messungen von 3-Achs-Magnetometern zur Stützung herangezogen. Diese Messungen erfordern allerdings eine Kalibrierung, um konstante Deviationseffekte zu korrigieren. Außerdem werden temporäre Deviationseffekte durch eine Ausreißerdetektion eliminiert und die Deklination berücksichtigt. Der in dieser Arbeit vorgestellte Algorithmus macht das Magnetometer Heading für eine durchgeführte Testfahrt mit einem Auto überhaupt erst verwendbar. Die Genauigkeit der barometrisch bestimmten Höhe verschlechtert sich mit wechselnden Wetterverhältnissen. In dieser Arbeit wird daher ein zusätzliches Kalman-Filter eingeführt, das die Änderungen des Wetters mitmodelliert, wodurch die Genauigkeit der barometrisch bestimmten Höhe über die Zeit konstant bleibt.
On the use of the Doppler centroid anomaly for the detection of water bodies under the severe wind conditions
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Over the last years, methods for automated retrieval of the water bodies and flooded areas from Synthetic Aperture Radar (SAR) satellite data are an important research topic. However, most of these methods have restrictions over rough water surfaces caused by high wind conditions. Therefore there is the need for methods that could work also over roughened water surface. One possibility could be the use of other information that is available from the SAR data apart from the traditionally used normalized radar cross-section (NRCS) images. One of the ancillary datasets delivered along the Envisat Advanced Synthetic Aperture Radar (ASAR) Wide Swath (WS) mode data is a measured Doppler centroid value. The Doppler centroid value is dependent on a relative speed of the satellite and Earth surface towards or from each other. With the knowledge of satellite orbit and attitudes and Earth rotation speed, the theoretical, modelled Doppler centroid values may be computed. For a stable Earth surface, the difference between these two values (Doppler centroid anomaly) should be close to 0, whereas for the moving surface, such as water surface influenced by surface currents and winds, the anomaly should be dependent on the relative speed of the water surface in the perpendicular direction to the satellite orbit track. The radial surface velocities based on the Doppler centroid anomalies have already been successfully used for retrieving wind speed and direction over the oceans as well as a usefulness for the studies of ocean currents has been investigated. In this Thesis, the use of the radial surface velocity for detection of inland water surfaces is studied - whether the inland water surfaces are detectable in the Doppler centroid anomaly data and what the limitations of this method are. Although the relationship between wind speed in the radar line of sight direction and radial surface velocity data was confirmed also for inland water pixels (Pearson correlation coefficient of 0.79), the currently available ASAR WS radial surface velocity data were found unsuitable for the inland water mapping. The main limitations are very coarse spatial resolution and low retrieval accuracy, especially in densely urbanized areas. However, both the spatial resolution and retrieval accuracy are expected to improve in case of the radial surface velocity data derived from the recently launched Sentinel-1 satellite.
Over the last years, methods for automated retrieval of the water bodies and flooded areas from Synthetic Aperture Radar (SAR) satellite data are an important research topic. However, most of these methods have restrictions over rough water surfaces caused by high wind conditions. Therefore there is the need for methods that could work also over roughened water surface. One possibility could be the use of other information that is available from the SAR data apart from the traditionally used normalized radar cross-section (NRCS) images. One of the ancillary datasets delivered along the Envisat Advanced Synthetic Aperture Radar (ASAR) Wide Swath (WS) mode data is a measured Doppler centroid value. The Doppler centroid value is dependent on a relative speed of the satellite and Earth surface towards or from each other. With the knowledge of satellite orbit and attitudes and Earth rotation speed, the theoretical, modelled Doppler centroid values may be computed. For a stable Earth surface, the difference between these two values (Doppler centroid anomaly) should be close to 0, whereas for the moving surface, such as water surface influenced by surface currents and winds, the anomaly should be dependent on the relative speed of the water surface in the perpendicular direction to the satellite orbit track. The radial surface velocities based on the Doppler centroid anomalies have already been successfully used for retrieving wind speed and direction over the oceans as well as a usefulness for the studies of ocean currents has been investigated. In this Thesis, the use of the radial surface velocity for detection of inland water surfaces is studied - whether the inland water surfaces are detectable in the Doppler centroid anomaly data and what the limitations of this method are. Although the relationship between wind speed in the radar line of sight direction and radial surface velocity data was confirmed also for inland water pixels (Pearson correlation coefficient of 0.79), the currently available ASAR WS radial surface velocity data were found unsuitable for the inland water mapping. The main limitations are very coarse spatial resolution and low retrieval accuracy, especially in densely urbanized areas. However, both the spatial resolution and retrieval accuracy are expected to improve in case of the radial surface velocity data derived from the recently launched Sentinel-1 satellite.
Deformationsmessung an Holztüren mit digitaler Photogrammetrie
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2015
Betreuer: Dipl.-Ing. Dr. Camillo Ressl, apl. Prof. Dr. Franz Rottensteiner, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Am österreichischen Holzforschungsinstitut wurden 1997 Laubengangtüren auf Differenzklima getestet. Ziel dieser Arbeit ist es, zu ermitteln, ob ein rein digitales photogrammetrisches Auswerteverfahren die gewünschte Höhengenauigkeit eines Differenzmodells ergibt. Ein Vergleich einer analogen Messbildkamera mit einer digitalen Amateurkamera soll zeigen, ob die Digitaltechnologie des Institutes für Photogrammetrie und Fernerkundung schon bereit für photogrammetrische Präzisionsvermessungen ist. Es wurden in einem Versuch Deformationsmessungen in zwei Epochen mit beiden Kameras digital ausgewertet. Dazu wurden retroreflektierende Zielmarken erstellt, die dann auch zur automatischen Messung der Bildkoordinaten verwendet wurden. Die Objektkoordinaten wurden mit einem Bündelblockausgleich berechnet. Eine Höhengenauigkeit kleiner als 0,2 mm konnte nur mit der analogen Messbildkamera erreicht werden. Die Genauigkeit der mit Hilfe der Amateurkamera erzeugten Modelle erreichten 0,4 mm. Durch die Glättung der Fläche konnte die Genauigkeit noch gesteigert werden. Verschiedene graphische Höhendarstellungen sollen den Technikern als Entscheidungshilfe dienen. Zur Erreichung von Subpixel- und Submillimeter- Genauigkeiten war die Software, die am Institut für Photogrammetrie und Fernerkundung entwickelt wurde, einzusetzen. Der Umweg über analoge Bilder liefert einen größeren Bildmaßstab und daher auch die erforderliche Genauigkeit. Die digitale Photogrammetrie benötigt detailreiche digitale Bilder.
Am österreichischen Holzforschungsinstitut wurden 1997 Laubengangtüren auf Differenzklima getestet. Ziel dieser Arbeit ist es, zu ermitteln, ob ein rein digitales photogrammetrisches Auswerteverfahren die gewünschte Höhengenauigkeit eines Differenzmodells ergibt. Ein Vergleich einer analogen Messbildkamera mit einer digitalen Amateurkamera soll zeigen, ob die Digitaltechnologie des Institutes für Photogrammetrie und Fernerkundung schon bereit für photogrammetrische Präzisionsvermessungen ist. Es wurden in einem Versuch Deformationsmessungen in zwei Epochen mit beiden Kameras digital ausgewertet. Dazu wurden retroreflektierende Zielmarken erstellt, die dann auch zur automatischen Messung der Bildkoordinaten verwendet wurden. Die Objektkoordinaten wurden mit einem Bündelblockausgleich berechnet. Eine Höhengenauigkeit kleiner als 0,2 mm konnte nur mit der analogen Messbildkamera erreicht werden. Die Genauigkeit der mit Hilfe der Amateurkamera erzeugten Modelle erreichten 0,4 mm. Durch die Glättung der Fläche konnte die Genauigkeit noch gesteigert werden. Verschiedene graphische Höhendarstellungen sollen den Technikern als Entscheidungshilfe dienen. Zur Erreichung von Subpixel- und Submillimeter- Genauigkeiten war die Software, die am Institut für Photogrammetrie und Fernerkundung entwickelt wurde, einzusetzen. Der Umweg über analoge Bilder liefert einen größeren Bildmaßstab und daher auch die erforderliche Genauigkeit. Die digitale Photogrammetrie benötigt detailreiche digitale Bilder.
Haskell OpenLayers Wrapper
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Frank, Univ.Ass. Mag. Jürgen Hahn
Kurzfassung/Abstract
Die Grundlage zur Erarbeitung dieses Themas liefert die vielschichtige Entwicklung von Webtechnologien und in weiterer Folge die steigende Bedeutung und Notwendigkeit der Visualisierung von Geodaten auf Weboberflachen. Eine vermehrte Verwendung von digitalen Karten im Web ist beispielsweise auf den Kontaktseiten von Websiten zu erkennen. Weiters wurde es durch die Ausbreitung von Smartphones mit inkludiertem Standortempfänger für die Benutzer einfacher, sich mit dem Thema digitaler Karten und standortbezogener Dienste auseinanderzusetzen. Diesem Trend folgte in den 2000er Jahren die Entwicklung von mehreren Webdiensten für Geoinformationssysteme (GIS), wie z. B. OpenLayers. Solche Dienste ermöglichen, in wenigen einfachen Schritten Geodaten auf Webseiten einzubinden. Um im Web Kartendienste implementieren zu können, werden hauptsächlich Programmbibliotheken und Programmierschnittstellen (APIs) in JavaScript zur Verfügung gestellt. JavaScript ist eine bekannte Skriptsprache und moderne Webtechnologie, welche seit 1995 stetig weiterentwickelt wird. Jedoch sind es viele Webentwickler leid mit JavaScript zu arbeiten und dies wird besonders von der Haskell-Community als The JavaScript Problem publiziert und erläutert. Zur Umgehung der Entwicklung mit JavaScript existieren bereits einige funktionierende Lösungsansätze. Dabei wird JavaScript Code anhand einer anderen Programmiersprache transkompiliert. Haskell ist eine rein funktionale Programmiersprache und liefert mit dem Paket FAY eine durchwegs praktikable Lösung des "JavaScript Problems". Somit stellt sich die Frage, ob mit Haskell das Erstellen einer Web-GIS-Anwendung mit den Funktionen von OpenLayers möglich ist. Das Produkt wird Haskell OpenLayers Wrapper (kurz: olwrapper) bezeichnet. Der olwrapper ermöglicht eine einfache Handhabung als Webframework und API während der Entwicklung für digitale Kartenanwendungen.
Die Grundlage zur Erarbeitung dieses Themas liefert die vielschichtige Entwicklung von Webtechnologien und in weiterer Folge die steigende Bedeutung und Notwendigkeit der Visualisierung von Geodaten auf Weboberflachen. Eine vermehrte Verwendung von digitalen Karten im Web ist beispielsweise auf den Kontaktseiten von Websiten zu erkennen. Weiters wurde es durch die Ausbreitung von Smartphones mit inkludiertem Standortempfänger für die Benutzer einfacher, sich mit dem Thema digitaler Karten und standortbezogener Dienste auseinanderzusetzen. Diesem Trend folgte in den 2000er Jahren die Entwicklung von mehreren Webdiensten für Geoinformationssysteme (GIS), wie z. B. OpenLayers. Solche Dienste ermöglichen, in wenigen einfachen Schritten Geodaten auf Webseiten einzubinden. Um im Web Kartendienste implementieren zu können, werden hauptsächlich Programmbibliotheken und Programmierschnittstellen (APIs) in JavaScript zur Verfügung gestellt. JavaScript ist eine bekannte Skriptsprache und moderne Webtechnologie, welche seit 1995 stetig weiterentwickelt wird. Jedoch sind es viele Webentwickler leid mit JavaScript zu arbeiten und dies wird besonders von der Haskell-Community als The JavaScript Problem publiziert und erläutert. Zur Umgehung der Entwicklung mit JavaScript existieren bereits einige funktionierende Lösungsansätze. Dabei wird JavaScript Code anhand einer anderen Programmiersprache transkompiliert. Haskell ist eine rein funktionale Programmiersprache und liefert mit dem Paket FAY eine durchwegs praktikable Lösung des "JavaScript Problems". Somit stellt sich die Frage, ob mit Haskell das Erstellen einer Web-GIS-Anwendung mit den Funktionen von OpenLayers möglich ist. Das Produkt wird Haskell OpenLayers Wrapper (kurz: olwrapper) bezeichnet. Der olwrapper ermöglicht eine einfache Handhabung als Webframework und API während der Entwicklung für digitale Kartenanwendungen.
Quantifizierung von Sedimentspeichern in einem hochalpinen Tal
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Sedimentspeicher in hochalpinen Tälern, in denen Permafrost vorkommt, gehören zu jenen Gebieten die am stärksten von der Klimaänderung betroffen sind und haben deswegen einen großen Einfluss auf das hydrologische Regime. Das ÖAW - Projekt "Permafrost in Austria" versucht genau diese Auswirkungen zu erfassen und zu verstehen. Die Hauptziele dieses Projektes sind die quantitative Abschätzung der Permafrostverteilung in einem definierten Untersuchungsgebiet und die Entwicklung eines hydrologischen Modelles. Die vorliegende Arbeit ermittelt unter anderem das Sedimentvolumen, das ein wichtiger Eingangsparameter für die hydrologische Modellierung im Einzugsgebiet Krummgampental ist. Im Zuge dieser Arbeit werden 25 Refraktionsseismik- und 12 Georadar-Profile im Krummgampental durchgeführt um die Felsoberfläche zu detektieren. Nach einem kurzen Überblick über den derzeitigen Stand der geophysikalischen Untersuchungen an Sedimentspeichern wird ein Ansatz vorgestellt, der auf Basis der geophysikalischen Messergebnisse eine Modellierung der Felsoberfläche ermöglicht. Über geometrische Abschätzungen und visuelle Interpretationen werden Stützstellen in mehreren Querprofilen verteilt und durch kubische Splinekurven interpoliert. Für eine Genauigkeitsabschätzung des berechneten Sedimentvolumens werden sowohl die Unsicherheiten der geophysikalischen Methoden als auch die der modellierten Felsoberfläche betrachtet.
Sedimentspeicher in hochalpinen Tälern, in denen Permafrost vorkommt, gehören zu jenen Gebieten die am stärksten von der Klimaänderung betroffen sind und haben deswegen einen großen Einfluss auf das hydrologische Regime. Das ÖAW - Projekt "Permafrost in Austria" versucht genau diese Auswirkungen zu erfassen und zu verstehen. Die Hauptziele dieses Projektes sind die quantitative Abschätzung der Permafrostverteilung in einem definierten Untersuchungsgebiet und die Entwicklung eines hydrologischen Modelles. Die vorliegende Arbeit ermittelt unter anderem das Sedimentvolumen, das ein wichtiger Eingangsparameter für die hydrologische Modellierung im Einzugsgebiet Krummgampental ist. Im Zuge dieser Arbeit werden 25 Refraktionsseismik- und 12 Georadar-Profile im Krummgampental durchgeführt um die Felsoberfläche zu detektieren. Nach einem kurzen Überblick über den derzeitigen Stand der geophysikalischen Untersuchungen an Sedimentspeichern wird ein Ansatz vorgestellt, der auf Basis der geophysikalischen Messergebnisse eine Modellierung der Felsoberfläche ermöglicht. Über geometrische Abschätzungen und visuelle Interpretationen werden Stützstellen in mehreren Querprofilen verteilt und durch kubische Splinekurven interpoliert. Für eine Genauigkeitsabschätzung des berechneten Sedimentvolumens werden sowohl die Unsicherheiten der geophysikalischen Methoden als auch die der modellierten Felsoberfläche betrachtet.
Traufenmodellierung mittels Matching von Liniensegmenten
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2015
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa, Dipl.-Ing. Dr. Robert Tobler
Kurzfassung/Abstract
Zur Erstellung genauer Orthophotos werden exakte Digitale Oberflächenmodelle benötigt. Vor allem an Traufenkanten treten aber häufig Ungenauigkeiten auf, welche meist auf Abrundungseffekte, die bei der Interpolation zur Berechnung von Digitalen Oberflächenmodellen auftreten, zurückzuführen sind und sich im Orthophoto durch Reliefverschiebungen und unscharfe Abbildung der Traufen zeigen. Daher wurden zwei Methoden hinsichtlich ihrer Eignung, Traufenkanten genau und automatisch zu modellieren und damit Digitale Höhenmodelle zu verbessern, untersucht, wobei eine davon im Rahmen dieser Masterarbeit eigenständig entwickelt wurde. Die Methoden verwenden orientierte Luftbilder und basieren auf demselben Prinzip, dabei beschränken sie sich nicht nur auf Traufen, sondern sollen alle sichtbaren Kanten rekonstruieren. Zunächst werden die abgebildeten Kanten in den einzelnen Luftbildern als Liniensegmente detektiert. Dann sollen im Zuge eines Matchings der Liniensegmente korrespondierende Kanten in den verschiedenen Luftbildern gefunden werden, um diese anschließend durch einen Vorwärtsschnitt dreidimensional zu rekonstruieren, wobei bei drei oder mehr korrespondierenden Liniensegmenten ein überbestimmter Vorwärtsschnitt vorliegt, der einer Ausgleichung unterzogen werden muss. Die Untersuchungen zeigen, dass beide Methoden für die getesteten Luftbilder, welche eine typische Szene im urbanen Raum abbilden, keine verlässlichen Ergebnisse liefern. Abschließend wird anhand von Beispielen erläutert, woran die beiden Algorithmen scheitern und damit aufgezeigt, wo sie an ihre Grenzen stoßen.
Zur Erstellung genauer Orthophotos werden exakte Digitale Oberflächenmodelle benötigt. Vor allem an Traufenkanten treten aber häufig Ungenauigkeiten auf, welche meist auf Abrundungseffekte, die bei der Interpolation zur Berechnung von Digitalen Oberflächenmodellen auftreten, zurückzuführen sind und sich im Orthophoto durch Reliefverschiebungen und unscharfe Abbildung der Traufen zeigen. Daher wurden zwei Methoden hinsichtlich ihrer Eignung, Traufenkanten genau und automatisch zu modellieren und damit Digitale Höhenmodelle zu verbessern, untersucht, wobei eine davon im Rahmen dieser Masterarbeit eigenständig entwickelt wurde. Die Methoden verwenden orientierte Luftbilder und basieren auf demselben Prinzip, dabei beschränken sie sich nicht nur auf Traufen, sondern sollen alle sichtbaren Kanten rekonstruieren. Zunächst werden die abgebildeten Kanten in den einzelnen Luftbildern als Liniensegmente detektiert. Dann sollen im Zuge eines Matchings der Liniensegmente korrespondierende Kanten in den verschiedenen Luftbildern gefunden werden, um diese anschließend durch einen Vorwärtsschnitt dreidimensional zu rekonstruieren, wobei bei drei oder mehr korrespondierenden Liniensegmenten ein überbestimmter Vorwärtsschnitt vorliegt, der einer Ausgleichung unterzogen werden muss. Die Untersuchungen zeigen, dass beide Methoden für die getesteten Luftbilder, welche eine typische Szene im urbanen Raum abbilden, keine verlässlichen Ergebnisse liefern. Abschließend wird anhand von Beispielen erläutert, woran die beiden Algorithmen scheitern und damit aufgezeigt, wo sie an ihre Grenzen stoßen.
Modellierung von atmosphärischen Auflasteffekten aus globalen Druckfeldern
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Univ.Ass. Dipl.-Ing. Dr. Michael Schindelegger
Kurzfassung/Abstract
Änderungen in der Atmosphäre bewirken Deformationen der Erdkruste und somit haben sie großen Einfluss auf die Positionen von geodätischen Beobachtungsstationen. Diese Einflüsse, sogenannte atmosphärische Auflasteffekte (atmospheric pressure loading, APL), verursachen horizontale und vertikale Verschiebungen bis zu 3 cm. Daher müssen sie bei der Analyse von geodätischen Weltraumverfahren, wie z.B. der Very Long Baseline Interferometry (VLBI), berücksichtigt werden. Ziel dieser Arbeit ist die Optimierung der an der TU Wien verwendeten Standardberechnung von Auflasteffekten. Diese soll durch eine höhere Auflösung von 0,2° anstelle von 1° erzielt werden. Die Berechnung der Auflasteffekte ist in einen Land- und Ozeanteil aufgespalten, da sich die Änderung in der Atmosphäre auf den Ozean anders auswirkt als auf Land. Dazu benötigt man eine Land-Meer-Maske (land-sea-mask, LSM). In dieser Arbeit wurden drei verschiedene Masken erstellt um deren Auswirkung auf die Berechnung der APL zu ermitteln. Einerseits wurde eine höhere Auflösung von 0,2° gewählt (LSM2), sowie bei der zweiten Maske die Küstenlinie bei -200m gesetzt. Der dritte Ansatz verwendet eine reine Land-Maske. Dadurch ist es nicht notwendig, den inversen Barometer-Effekt zu berücksichtigen. Die Daten zur Erstellung der LSM liefert das Topographiemodell ETOPO2 des NOAA (National Oceanic and Atmospheric Administration). Anschließend wurden VLBI Basislinien mit der neuen Lösung korrigiert. Um die neue Lösung zu evaluieren, wurden die mit dem neuen Ansatz berechneten Basislinienlängen einerseits mit jenen der Standard-Methode und andererseits mit Korrekturen vom GSFC verglichen. Beim Vergleich zwischen der hochauflösenderen Lösung mit der Standard-Methode verbessert die neue Methode nur 40% der Basislinien. 45% verbessern sich mit der Standard- Methode. Die Versetzung der Küstenlinie bringt keine wesentlichen Verbesserungen. Beim Vergleich LSM2 - GSFC stellt sich heraus, dass die Wiederholgenauigkeit der Basislinienlängen sich bei 53% der Basislinien verbessert. Abschließend ist anzumerken, dass die neuen hochauflösenderen Lösungen keine Verbesserungen bewirken und neue Ansätze zur Optimierung gefunden werden müssen.
Änderungen in der Atmosphäre bewirken Deformationen der Erdkruste und somit haben sie großen Einfluss auf die Positionen von geodätischen Beobachtungsstationen. Diese Einflüsse, sogenannte atmosphärische Auflasteffekte (atmospheric pressure loading, APL), verursachen horizontale und vertikale Verschiebungen bis zu 3 cm. Daher müssen sie bei der Analyse von geodätischen Weltraumverfahren, wie z.B. der Very Long Baseline Interferometry (VLBI), berücksichtigt werden. Ziel dieser Arbeit ist die Optimierung der an der TU Wien verwendeten Standardberechnung von Auflasteffekten. Diese soll durch eine höhere Auflösung von 0,2° anstelle von 1° erzielt werden. Die Berechnung der Auflasteffekte ist in einen Land- und Ozeanteil aufgespalten, da sich die Änderung in der Atmosphäre auf den Ozean anders auswirkt als auf Land. Dazu benötigt man eine Land-Meer-Maske (land-sea-mask, LSM). In dieser Arbeit wurden drei verschiedene Masken erstellt um deren Auswirkung auf die Berechnung der APL zu ermitteln. Einerseits wurde eine höhere Auflösung von 0,2° gewählt (LSM2), sowie bei der zweiten Maske die Küstenlinie bei -200m gesetzt. Der dritte Ansatz verwendet eine reine Land-Maske. Dadurch ist es nicht notwendig, den inversen Barometer-Effekt zu berücksichtigen. Die Daten zur Erstellung der LSM liefert das Topographiemodell ETOPO2 des NOAA (National Oceanic and Atmospheric Administration). Anschließend wurden VLBI Basislinien mit der neuen Lösung korrigiert. Um die neue Lösung zu evaluieren, wurden die mit dem neuen Ansatz berechneten Basislinienlängen einerseits mit jenen der Standard-Methode und andererseits mit Korrekturen vom GSFC verglichen. Beim Vergleich zwischen der hochauflösenderen Lösung mit der Standard-Methode verbessert die neue Methode nur 40% der Basislinien. 45% verbessern sich mit der Standard- Methode. Die Versetzung der Küstenlinie bringt keine wesentlichen Verbesserungen. Beim Vergleich LSM2 - GSFC stellt sich heraus, dass die Wiederholgenauigkeit der Basislinienlängen sich bei 53% der Basislinien verbessert. Abschließend ist anzumerken, dass die neuen hochauflösenderen Lösungen keine Verbesserungen bewirken und neue Ansätze zur Optimierung gefunden werden müssen.
Über die Qualität der Standortbestimmung für Location Based Services im Kontext der Entwicklung von Mobilfunk- und globalen Satellitennavigationssystemen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Location Based Services (LBS) sind mittlerweile mit all ihren Varianten eine gut eingeführte Technologie und auch in der Wissenschaft eine breit diskutierte und beschriebene Thematik. Vieles davon wird heute schon als „selbstverständlich“ empfunden und täglich am stets griffbereiten Mobilgerät konsumiert. Bei genauerer und kritischer Betrachtung ist jedoch bald zu bemerken, dass noch eine Reihe von Schwierigkeiten vorhanden sind, für die, aus unterschiedlichsten Gründen, sobald keine zufriedenstellende Lösung gefunden und umgesetzt werden kann. Das betrifft insbesondere den Kern eines jeden LBS, die Bestimmung des Ortes, an dem der Anwender auf einen solchen Dienst zugreift. Die Genauigkeit bzw. Qualität einer solchen Lokalisierung entscheidet letztendlich, welche LBS möglich, sinnvoll und auch ökonomisch sind. Doch gerade die Beschreibung und Beurteilung der Qualität dieser Standortbestimmungen sind ein schwieriger und daher meist unterschätzter Aspekt der LBS. Dies trifft natürlich nicht gleichermaßen auf alle Dienste zu, mit besonderer Schwere jedoch auf jene, die von einer akribischen und zuverlässigen Ortung abhängig sind, wie z.B. der mobile Notruf oder zukünftig die (hoffentlich) EU-weit einheitliche und in Fahrzeugen integrierte Variante eCall. Die vorliegende Arbeit setzt sich genau mit dieser Problemstellung auseinander. Welche Faktoren, Parameter, Maße und Vorschriften wurden und werden herangezogen, um Genauigkeiten anzugeben? Wo funktionieren sie und wo scheitern sie und was könnten die Gründe dafür sein? Dazu werden u.a. eigene Messdaten und Berechnungen aus Satellitenortungen verwendet und eingehend diskutiert. Letztendlich lassen sich einige sehr entscheidende Aussagen zu Voraussetzungen machen, ohne die sich Genauigkeiten zu Ortsbestimmungen für LBS nicht beurteilen lassen. Insbesondere bei mobilen Notfalldiensten ist für die Hilfesuchenden die exakte und verlässliche Ermittlung ihrer Position entscheidend, egal wo sie sich befinden und mit welchen Methoden dies durchgeführt wird.
Location Based Services (LBS) sind mittlerweile mit all ihren Varianten eine gut eingeführte Technologie und auch in der Wissenschaft eine breit diskutierte und beschriebene Thematik. Vieles davon wird heute schon als „selbstverständlich“ empfunden und täglich am stets griffbereiten Mobilgerät konsumiert. Bei genauerer und kritischer Betrachtung ist jedoch bald zu bemerken, dass noch eine Reihe von Schwierigkeiten vorhanden sind, für die, aus unterschiedlichsten Gründen, sobald keine zufriedenstellende Lösung gefunden und umgesetzt werden kann. Das betrifft insbesondere den Kern eines jeden LBS, die Bestimmung des Ortes, an dem der Anwender auf einen solchen Dienst zugreift. Die Genauigkeit bzw. Qualität einer solchen Lokalisierung entscheidet letztendlich, welche LBS möglich, sinnvoll und auch ökonomisch sind. Doch gerade die Beschreibung und Beurteilung der Qualität dieser Standortbestimmungen sind ein schwieriger und daher meist unterschätzter Aspekt der LBS. Dies trifft natürlich nicht gleichermaßen auf alle Dienste zu, mit besonderer Schwere jedoch auf jene, die von einer akribischen und zuverlässigen Ortung abhängig sind, wie z.B. der mobile Notruf oder zukünftig die (hoffentlich) EU-weit einheitliche und in Fahrzeugen integrierte Variante eCall. Die vorliegende Arbeit setzt sich genau mit dieser Problemstellung auseinander. Welche Faktoren, Parameter, Maße und Vorschriften wurden und werden herangezogen, um Genauigkeiten anzugeben? Wo funktionieren sie und wo scheitern sie und was könnten die Gründe dafür sein? Dazu werden u.a. eigene Messdaten und Berechnungen aus Satellitenortungen verwendet und eingehend diskutiert. Letztendlich lassen sich einige sehr entscheidende Aussagen zu Voraussetzungen machen, ohne die sich Genauigkeiten zu Ortsbestimmungen für LBS nicht beurteilen lassen. Insbesondere bei mobilen Notfalldiensten ist für die Hilfesuchenden die exakte und verlässliche Ermittlung ihrer Position entscheidend, egal wo sie sich befinden und mit welchen Methoden dies durchgeführt wird.
Detecting clay pans with active microwave sensing – A comparsion of ASCAT and AMSR-E
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Sebastian Hahn
Kurzfassung/Abstract
Since the emergence of the space program in the middle of the last century, numerous technical advancements could be achieved. Nowadays, many scientific fields use observations gained by satellite technology. That applies for remote sensing too. One section of it is microwave remote sensing. The unique interaction between microwaves and water molecules is used to gain information about any objects containing water or with a lack of water content. With the present satellite availability, it is possible to collect surface data with approximately global and daily coverage. This study is based on the facts and principle described above. Furthermore, it is based on a preceding study which focuses on the detection of clay fields with passive microwave sensors. Task of this thesis is to ascertain whether active microwaves are qualified, whether similar results in a test area can be achieved and whether the method is applicable in an extended area. Three datasets are the basis of this work. Soil data from the Australian Soil Resource Information System (ASRIS) serve as a reference. The used active microwave data were surveyed by the ASCAT sensor mounted on the METOP satellite and subsequently processed with the TU-Wien algorithm. For comparative reason, the results of the research about passive microwave sensors are utilized. These were observed by the AMSR-E sensor and processed with specially developed models. With a threshold of 40% clay content in soil and a spatial resampling of the soil data a claymask is created to distinguish between clay pans and others. Initially, the backscatter dataset exist in timelines for every observed grid point. In order to simplify analysis, this data is condensed to statistical moments and subsequently separated in two classes using the claymask. The Welch-s t-test compares the two samples. It indicates a potential of discriminability between the specific datasets. Furthermore, a model is developed which improves the results. The reliability of the model decreases with an application in an extended area because of ignored circumstances. This research in hand gives no preference to either technology because of incomparable active and passive microwave data. Generally, there is the possibility to detect clay pans under certain conditions. With additional meteorological data, filtering of ignored circumstances or detailed consideration of individual timelines an advancement of the identification of clay pans can be achieved. Potentially, a refinement of the distinguishability between various soil types with active microwave sensors can be realized.
Since the emergence of the space program in the middle of the last century, numerous technical advancements could be achieved. Nowadays, many scientific fields use observations gained by satellite technology. That applies for remote sensing too. One section of it is microwave remote sensing. The unique interaction between microwaves and water molecules is used to gain information about any objects containing water or with a lack of water content. With the present satellite availability, it is possible to collect surface data with approximately global and daily coverage. This study is based on the facts and principle described above. Furthermore, it is based on a preceding study which focuses on the detection of clay fields with passive microwave sensors. Task of this thesis is to ascertain whether active microwaves are qualified, whether similar results in a test area can be achieved and whether the method is applicable in an extended area. Three datasets are the basis of this work. Soil data from the Australian Soil Resource Information System (ASRIS) serve as a reference. The used active microwave data were surveyed by the ASCAT sensor mounted on the METOP satellite and subsequently processed with the TU-Wien algorithm. For comparative reason, the results of the research about passive microwave sensors are utilized. These were observed by the AMSR-E sensor and processed with specially developed models. With a threshold of 40% clay content in soil and a spatial resampling of the soil data a claymask is created to distinguish between clay pans and others. Initially, the backscatter dataset exist in timelines for every observed grid point. In order to simplify analysis, this data is condensed to statistical moments and subsequently separated in two classes using the claymask. The Welch-s t-test compares the two samples. It indicates a potential of discriminability between the specific datasets. Furthermore, a model is developed which improves the results. The reliability of the model decreases with an application in an extended area because of ignored circumstances. This research in hand gives no preference to either technology because of incomparable active and passive microwave data. Generally, there is the possibility to detect clay pans under certain conditions. With additional meteorological data, filtering of ignored circumstances or detailed consideration of individual timelines an advancement of the identification of clay pans can be achieved. Potentially, a refinement of the distinguishability between various soil types with active microwave sensors can be realized.
Seismische Kartierung von alpinem Permafrost im Lockergestein
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Hochalpine Täler, in denen Permafrost vorkommt, gehören zu den Gebieten, die am stärksten von einer Klimaänderung betroffen sind, und haben dadurch einen großen Einfluss auf das hydrologische Regime. Das ÖAW-Projekt "Permafrost in Austria" versucht genau diese Auswirkungen zu erfassen und zu verstehen. Die vorliegende Arbeit behandelt eine punktweise Erfassung von Permafrost im Lockergestein. Im Rahmen der Diplomarbeit wurden im Krummgampental 32 seismische Feldmessungen von 2D-Profilen mit Längen von 90m bis 210m mittels Hammerschlag-Refraktionsseismik durchgeführt. Dabei wurden Profile auf den unterschiedlichen geomorphologischen Strukturen wie Schutthalden, Blockgletscher und Moränen gemessen. Um eine bessere Aussage über die detektierte P-Wellengeschwindigkeit treffen zu können, wurden noch vier seismische Profile auf dem an die Oberfläche ragenden Felsen zur Interpretation hinzugezogen. Aufgrund der refraktionsseismischen Daten werden durch eine Tauchwellentomographie die seismischen Geschwindigkeiten im Untergrund bestimmt. Um die einzelnen Tomographien berechnen zu können, werden für die Inversionen drei Startmodelle mit unterschiedlichen P-Wellengeschwindigkeiten für die Klasse des ungefrorenen Schuttes, des Permafrostes und des Felses erstellt. Danach wird ein Modell mit synthetisch erstellten seismischen Laufzeiten (Ersteinsätzen) für einen Permafrost ähnlichen ebenen Zweischichtfall generiert. Um den Einfluss der drei Startmodelle auf das Ergebnis der 1D-Tomographie zu testen wird dieses zuvor erstellte Modell mit jedem der drei Startmodelle berechnet. Anschließend wird die Dicke der Lockerschicht im Modell mit den synthetisch produzierten Ersteinsätzen variiert und eine Grafik zur Klassifizierung der folgenden Berechnungen erstellt. Dabei zeigt sich, dass sich die berechneten Geschwindigkeits-Tiefenkurven der 1D-Tomographie bei allen zuvor berechneten Modellen gut an die gewählte Geschwindigkeit des Permafrostes annähern. Anschließend werden alle 32 Profile 1D-tomographisch ausgewertet. Hier sieht man, dass die Berechnungen nur bei homogen geschichteten Profilen niedrige RMS-Werte liefern und laterale Änderungen im Geschwindigkeitsfeld direkt proportional mit den hohen RMS-Werten der Berechnung korrelierten. Dies führt zu der Bildung einer Schranke (RMS>5ms), ab der die Profile noch 2D-refraktionstomographisch ausgewertet werden. Durch diese 2D-Tomographien werden dann einzelne signifikante vertikale Schnitte gelegt und gemeinsam mit den Geschwindigkeits-Tiefenkurven der 1D-Tomographie als “kein Permafrost“, "Permafrost möglich" und "Permafrost" klassifiziert. Um eine finale Aussage über das Vorhandensein von Permafrost im Lockergestein zu tätigen, werden die seismischen Ergebnisse noch mit den zugehörigen mittleren Bodentemperaturdaten der winterlichen Schneedecke, aus dem ÖAW-Projekt "Permafrost in Austria" korreliert und anschließend in einem Orthofoto des Geländes kartiert. Dabei zeigt sich, dass sich bei 48% der Profile die Klassifizierungen aus der Seismik mit den Ergebnissen aus der Temperaturklassifizierung decken. Bei 39% findet man eine mögliche Übereinstimmung der zwei unterschiedlichen Verfahren. Das heißt, dass eine Klassifizierung mit der vollen und der möglichen Übereinstimmung beider Verfahren 87% der Ergebnisse beinhaltet, was ein weiteres Indiz für ein gutes Zusammenspiel der beiden Verfahren darstellt.
Hochalpine Täler, in denen Permafrost vorkommt, gehören zu den Gebieten, die am stärksten von einer Klimaänderung betroffen sind, und haben dadurch einen großen Einfluss auf das hydrologische Regime. Das ÖAW-Projekt "Permafrost in Austria" versucht genau diese Auswirkungen zu erfassen und zu verstehen. Die vorliegende Arbeit behandelt eine punktweise Erfassung von Permafrost im Lockergestein. Im Rahmen der Diplomarbeit wurden im Krummgampental 32 seismische Feldmessungen von 2D-Profilen mit Längen von 90m bis 210m mittels Hammerschlag-Refraktionsseismik durchgeführt. Dabei wurden Profile auf den unterschiedlichen geomorphologischen Strukturen wie Schutthalden, Blockgletscher und Moränen gemessen. Um eine bessere Aussage über die detektierte P-Wellengeschwindigkeit treffen zu können, wurden noch vier seismische Profile auf dem an die Oberfläche ragenden Felsen zur Interpretation hinzugezogen. Aufgrund der refraktionsseismischen Daten werden durch eine Tauchwellentomographie die seismischen Geschwindigkeiten im Untergrund bestimmt. Um die einzelnen Tomographien berechnen zu können, werden für die Inversionen drei Startmodelle mit unterschiedlichen P-Wellengeschwindigkeiten für die Klasse des ungefrorenen Schuttes, des Permafrostes und des Felses erstellt. Danach wird ein Modell mit synthetisch erstellten seismischen Laufzeiten (Ersteinsätzen) für einen Permafrost ähnlichen ebenen Zweischichtfall generiert. Um den Einfluss der drei Startmodelle auf das Ergebnis der 1D-Tomographie zu testen wird dieses zuvor erstellte Modell mit jedem der drei Startmodelle berechnet. Anschließend wird die Dicke der Lockerschicht im Modell mit den synthetisch produzierten Ersteinsätzen variiert und eine Grafik zur Klassifizierung der folgenden Berechnungen erstellt. Dabei zeigt sich, dass sich die berechneten Geschwindigkeits-Tiefenkurven der 1D-Tomographie bei allen zuvor berechneten Modellen gut an die gewählte Geschwindigkeit des Permafrostes annähern. Anschließend werden alle 32 Profile 1D-tomographisch ausgewertet. Hier sieht man, dass die Berechnungen nur bei homogen geschichteten Profilen niedrige RMS-Werte liefern und laterale Änderungen im Geschwindigkeitsfeld direkt proportional mit den hohen RMS-Werten der Berechnung korrelierten. Dies führt zu der Bildung einer Schranke (RMS>5ms), ab der die Profile noch 2D-refraktionstomographisch ausgewertet werden. Durch diese 2D-Tomographien werden dann einzelne signifikante vertikale Schnitte gelegt und gemeinsam mit den Geschwindigkeits-Tiefenkurven der 1D-Tomographie als “kein Permafrost“, "Permafrost möglich" und "Permafrost" klassifiziert. Um eine finale Aussage über das Vorhandensein von Permafrost im Lockergestein zu tätigen, werden die seismischen Ergebnisse noch mit den zugehörigen mittleren Bodentemperaturdaten der winterlichen Schneedecke, aus dem ÖAW-Projekt "Permafrost in Austria" korreliert und anschließend in einem Orthofoto des Geländes kartiert. Dabei zeigt sich, dass sich bei 48% der Profile die Klassifizierungen aus der Seismik mit den Ergebnissen aus der Temperaturklassifizierung decken. Bei 39% findet man eine mögliche Übereinstimmung der zwei unterschiedlichen Verfahren. Das heißt, dass eine Klassifizierung mit der vollen und der möglichen Übereinstimmung beider Verfahren 87% der Ergebnisse beinhaltet, was ein weiteres Indiz für ein gutes Zusammenspiel der beiden Verfahren darstellt.
Methoden der Geoidberechnung und ihre Anwendung im ingenieurgeodätischen Bereich
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2015
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Diese Arbeit gliedert sich in zwei Teile: Zunächst werden Methoden der Geoidberechnung verglichen, wobei der Schwerpunkt auf den Vergleich der klassischen Remove-Restore-Technik mit der Window Technique, welche auf optimale Kombination topographisch-isostatischer Reduktionen mit globalen Schwerefeldmodellen abzielt, gelegt ist. Außerdem wird untersucht, wie die Abschneideeffekte bei lokalen Anwendungen durch die Meissl-Modifikation des Stokes-Integralkerns minimiert werden können. Die verschiedenen Geoidberechnungsmethoden (gravimetrisch und astrogeodätisch) werden verglichen. Der zweite Teil dieser Arbeit präsentiert die praktische Anwendung der Schwerefeldproblematik auf die beiden österreichischen Tunnelbauprojekte Semmering-Basistunnel und Koralmtunnel. Besonderes Augenmerk wird hier auf die Auswirkungen der Datenqualität auf Nivellement- und Lotungskorrekturen gelegt.
Diese Arbeit gliedert sich in zwei Teile: Zunächst werden Methoden der Geoidberechnung verglichen, wobei der Schwerpunkt auf den Vergleich der klassischen Remove-Restore-Technik mit der Window Technique, welche auf optimale Kombination topographisch-isostatischer Reduktionen mit globalen Schwerefeldmodellen abzielt, gelegt ist. Außerdem wird untersucht, wie die Abschneideeffekte bei lokalen Anwendungen durch die Meissl-Modifikation des Stokes-Integralkerns minimiert werden können. Die verschiedenen Geoidberechnungsmethoden (gravimetrisch und astrogeodätisch) werden verglichen. Der zweite Teil dieser Arbeit präsentiert die praktische Anwendung der Schwerefeldproblematik auf die beiden österreichischen Tunnelbauprojekte Semmering-Basistunnel und Koralmtunnel. Besonderes Augenmerk wird hier auf die Auswirkungen der Datenqualität auf Nivellement- und Lotungskorrekturen gelegt.
Location of solar potential on rooftops by application of different methodologies
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2015
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa, Dipl.-Ing. Dr. Camillo Ressl
Kurzfassung/Abstract
In this thesis three different methodologies to assess solar irradiation values of rooftops for specific days throughout a test area are implemented, and the resulting outputs are compared with each other. The irradiation values are visualized in a raster map. A high number of different approaches in the estimation of solar irradiation in large scale applications is available for several software programs. The test area in this thesis is located in the 9th district of Vienna, has primarily residential character and a rather sparse distribution of vegetation. Trees are assumed to be an important factor in influencing the solar irradiation performance on roofs in general. The basis of the computations constitutes a dense three-dimensional point cloud which was recorded by an airborne laser scanner. The point cloud has to be transformed into an elevation model to enable further processing steps in all three software programs. Besides ArcMap and QGIS that offer highly accurate tools for various applications of solar radiation calculations, a new program that is still in its development phase, namely VOSTOK, is included in this thesis. Vegetation has a significant influence on the annual solar irradiation in the observed test area. Therefore a Digital Surface Model (DSM), that includes vegetation, serves as the basic elevation model. Since VOSTOK is not able to compute solar irradiation values for the whole test area, a subset area is selected to enable a meaningful comparison. This area yield solar irradiation values for all pixels in every program. Unlike VOSTOK, ArcMap and QGIS provide editable parameters which describe the state of the atmosphere and the reflection properties of the Earth surface. The programs use different algorithms to yield solar irradiation. In the first calculation step the calculation is performed with the default values for ArcMap and QGIS. The results for QGIS and VOSTOK show a high similarity. After that the atmospheric influence and the ground reflection are excluded from the computations. The irradiation maps have a high correlation for the analysed days. The assumption is made that the similarity between default parameters and the implemented algorithm in QGIS and VOSTOK is high, due to their similar results. All resulting maps are analysed by means of statistical calculations to yield their degrees of correlation.
In this thesis three different methodologies to assess solar irradiation values of rooftops for specific days throughout a test area are implemented, and the resulting outputs are compared with each other. The irradiation values are visualized in a raster map. A high number of different approaches in the estimation of solar irradiation in large scale applications is available for several software programs. The test area in this thesis is located in the 9th district of Vienna, has primarily residential character and a rather sparse distribution of vegetation. Trees are assumed to be an important factor in influencing the solar irradiation performance on roofs in general. The basis of the computations constitutes a dense three-dimensional point cloud which was recorded by an airborne laser scanner. The point cloud has to be transformed into an elevation model to enable further processing steps in all three software programs. Besides ArcMap and QGIS that offer highly accurate tools for various applications of solar radiation calculations, a new program that is still in its development phase, namely VOSTOK, is included in this thesis. Vegetation has a significant influence on the annual solar irradiation in the observed test area. Therefore a Digital Surface Model (DSM), that includes vegetation, serves as the basic elevation model. Since VOSTOK is not able to compute solar irradiation values for the whole test area, a subset area is selected to enable a meaningful comparison. This area yield solar irradiation values for all pixels in every program. Unlike VOSTOK, ArcMap and QGIS provide editable parameters which describe the state of the atmosphere and the reflection properties of the Earth surface. The programs use different algorithms to yield solar irradiation. In the first calculation step the calculation is performed with the default values for ArcMap and QGIS. The results for QGIS and VOSTOK show a high similarity. After that the atmospheric influence and the ground reflection are excluded from the computations. The irradiation maps have a high correlation for the analysed days. The assumption is made that the similarity between default parameters and the implemented algorithm in QGIS and VOSTOK is high, due to their similar results. All resulting maps are analysed by means of statistical calculations to yield their degrees of correlation.
Ein Vergleich der Effektivität verschiedener Auswertungsmethoden in der Beurteilung räumlichen Wissenserwerbs
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.Ass. Dr. Haosheng Huang MSc
Kurzfassung/Abstract
In dieser Arbeit werden einige beliebte Methoden in der Raumkognitionswissenschaft zum Nachweis von räumlichem Wissen verwendet. Diese sind Distanz- und Richtungsschätzung, Zeichnen einer Skizze (sketch map) und Landmarken-Foto-Aufgabe. Es wird davon ausgegangen, dass Personen, je vertrauter sie mit einer Umgebung sind, mehr räumliches Wissen besitzen. Das Ziel dieser Arbeit ist es, herauszufinden, ob Personen mit unterschiedlicher Vertrautheit mit einer Umgebung, unterschiedliche Leistungen in den Aufgaben haben. Und wenn ja, welche Methoden am effektivsten sind, Personen mit unterschiedlicher Vertrautheit differenzieren zu können. Dazu werden in einem Feldversuch mit 36 Teilnehmern drei Gruppen mit unterschiedlicher Ortskenntnis definiert ("nicht vertraute", "etwas vertraute" und "sehr vertraute" Personen), bei denen nach Erkundung in einer realen Umwelt, ihr räumliches Wissen mit den für diese Arbeit ausgewählten Auswertemethoden überprüft wird. Ein weiterer Aspekt, der ausgewertet werden soll, ist der Vergleich der Leistungen von Männern und Frauen bei den Aufgaben.
In dieser Arbeit werden einige beliebte Methoden in der Raumkognitionswissenschaft zum Nachweis von räumlichem Wissen verwendet. Diese sind Distanz- und Richtungsschätzung, Zeichnen einer Skizze (sketch map) und Landmarken-Foto-Aufgabe. Es wird davon ausgegangen, dass Personen, je vertrauter sie mit einer Umgebung sind, mehr räumliches Wissen besitzen. Das Ziel dieser Arbeit ist es, herauszufinden, ob Personen mit unterschiedlicher Vertrautheit mit einer Umgebung, unterschiedliche Leistungen in den Aufgaben haben. Und wenn ja, welche Methoden am effektivsten sind, Personen mit unterschiedlicher Vertrautheit differenzieren zu können. Dazu werden in einem Feldversuch mit 36 Teilnehmern drei Gruppen mit unterschiedlicher Ortskenntnis definiert ("nicht vertraute", "etwas vertraute" und "sehr vertraute" Personen), bei denen nach Erkundung in einer realen Umwelt, ihr räumliches Wissen mit den für diese Arbeit ausgewählten Auswertemethoden überprüft wird. Ein weiterer Aspekt, der ausgewertet werden soll, ist der Vergleich der Leistungen von Männern und Frauen bei den Aufgaben.
Estimation of Short- and Long-term Temporal Variations in Earth's Gravity Field from GRACE Data in a Combined Least Squares Adjustment
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2015
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Das Schwerefeld der Erde und seine zeitliche Änderung stellen wichtige Beobachtungsgrößen in der Erforschung des dynamischen Systems Erde dar. Die Satelliten der GRACE (Gravity Recovery And Climate Experiment) Mission wurden entwickelt um ebendiese zeitlichen Variationen und den langwelligen Anteil des Erdschwerefeldes erstmals mit global Überdeckung hoch genau zu erfassen. In der Bestimmung von Erdschwerefeldern müssen diese Variationen berücksichtigt werden. Üblicherweise wird dies durch die Reduktion der Satellitendaten über geophysikalische Modelle durchgeführt. Die Modelle bilden jedoch die Wirklichkeit nicht vollständig ab, was dazu führt, dass Restsignal der zeitlichen Änderung in den Daten verbleibt. Um zuverlässige Schwerefeldlösungen zu erhalten ist die Modellierung dieser zeitlichen Variationen daher unumgänglich. Die Modellierung der zeitlichen Variationen stellt allerdings eine rechentechnische Herausforderung dar. Werden tägliche Schwerevariationen in Kugelfunktionskoeffizienten bis Grad und Ordnung 40 angesetzt, ergeben sich pro Tag 1677 zusätzliche Unbekannte. Für den gesamten Beobachtungszeitraum der GRACE Mission startend in 2003 bedeutet das eine Parameteranzahl von ca. 7.2 Millionen. Ein Ausgleich nach kleinsten Quadraten dieser Größe ist nicht in ansprechendem Zeitrahmen lösbar, was Strategien zur Reduktion der Problemgröße erforderlich macht. In dieser Arbeit wird eine Methode für den gemeinsamen Ausgleich von Kurz- und Langzeitvariationen sowie dem statischen Anteil des Erdschwerefeldes präsentiert. Der entwickelte Ansatz wird auf GRACE-L1B Daten angewendet und verschiedene Repräsentationen des zeitvariablen Erschwerefeldanteils werden untersucht. Die Leistungsfähigkeit der kombinierten Ausgleichung wird anhand von drei abgeleiteten GRACE-only Lösungen gezeigt.
Das Schwerefeld der Erde und seine zeitliche Änderung stellen wichtige Beobachtungsgrößen in der Erforschung des dynamischen Systems Erde dar. Die Satelliten der GRACE (Gravity Recovery And Climate Experiment) Mission wurden entwickelt um ebendiese zeitlichen Variationen und den langwelligen Anteil des Erdschwerefeldes erstmals mit global Überdeckung hoch genau zu erfassen. In der Bestimmung von Erdschwerefeldern müssen diese Variationen berücksichtigt werden. Üblicherweise wird dies durch die Reduktion der Satellitendaten über geophysikalische Modelle durchgeführt. Die Modelle bilden jedoch die Wirklichkeit nicht vollständig ab, was dazu führt, dass Restsignal der zeitlichen Änderung in den Daten verbleibt. Um zuverlässige Schwerefeldlösungen zu erhalten ist die Modellierung dieser zeitlichen Variationen daher unumgänglich. Die Modellierung der zeitlichen Variationen stellt allerdings eine rechentechnische Herausforderung dar. Werden tägliche Schwerevariationen in Kugelfunktionskoeffizienten bis Grad und Ordnung 40 angesetzt, ergeben sich pro Tag 1677 zusätzliche Unbekannte. Für den gesamten Beobachtungszeitraum der GRACE Mission startend in 2003 bedeutet das eine Parameteranzahl von ca. 7.2 Millionen. Ein Ausgleich nach kleinsten Quadraten dieser Größe ist nicht in ansprechendem Zeitrahmen lösbar, was Strategien zur Reduktion der Problemgröße erforderlich macht. In dieser Arbeit wird eine Methode für den gemeinsamen Ausgleich von Kurz- und Langzeitvariationen sowie dem statischen Anteil des Erdschwerefeldes präsentiert. Der entwickelte Ansatz wird auf GRACE-L1B Daten angewendet und verschiedene Repräsentationen des zeitvariablen Erschwerefeldanteils werden untersucht. Die Leistungsfähigkeit der kombinierten Ausgleichung wird anhand von drei abgeleiteten GRACE-only Lösungen gezeigt.
Charakterisierung von hydrogeologischen Parametern in Überschwemmungsgebieten mittels geoelektrischer Bildgebung
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Betreuer: Univ.Ass. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Dieses gezielte Projekt beschäftigt sich mit Untersuchungen von Anwendungen zur Erstellung von elektrischen Darstellungen, um hydrogeologische Parameter in Überschwemmungsgebieten beschreiben zu können. Die herkömmliche Art und Weise, solche Parameter zu charakterisieren, geschieht mittels geologischen Kernbohrungen, welche jedoch nicht die gewünschte räumliche Auflösung bieten. Deshalb wird die Anwendbarkeit von geophysikalischen, geoelektrischen Methoden in dieser Arbeit untersucht, um die hydrogeologische Charakterisierung dieses Areals verbessern zu können. Die behandelten Messwerte wurden zu einem früheren Zeitpunkt auf dem Gelände einer ehemaligen Urananreicherungsanlage gemessen. Sie umfassen 70 2D Profile, die über das gesamte Überschwemmungsgebiet verteilt sind und beinhalten spezifische elektrische Widerstandswerte, sowie Werte für die "Induzierte Polarisation". Diese Werte werden herangezogen, um die Verteilung der Untergrundparameter mittels Inversion zu modellieren. Ferner werden Karten dieser Parameter für unterschiedliche Tiefen erzeugt. Dafür werden verschieden Arten von Interpolationen benutzt.
Dieses gezielte Projekt beschäftigt sich mit Untersuchungen von Anwendungen zur Erstellung von elektrischen Darstellungen, um hydrogeologische Parameter in Überschwemmungsgebieten beschreiben zu können. Die herkömmliche Art und Weise, solche Parameter zu charakterisieren, geschieht mittels geologischen Kernbohrungen, welche jedoch nicht die gewünschte räumliche Auflösung bieten. Deshalb wird die Anwendbarkeit von geophysikalischen, geoelektrischen Methoden in dieser Arbeit untersucht, um die hydrogeologische Charakterisierung dieses Areals verbessern zu können. Die behandelten Messwerte wurden zu einem früheren Zeitpunkt auf dem Gelände einer ehemaligen Urananreicherungsanlage gemessen. Sie umfassen 70 2D Profile, die über das gesamte Überschwemmungsgebiet verteilt sind und beinhalten spezifische elektrische Widerstandswerte, sowie Werte für die "Induzierte Polarisation". Diese Werte werden herangezogen, um die Verteilung der Untergrundparameter mittels Inversion zu modellieren. Ferner werden Karten dieser Parameter für unterschiedliche Tiefen erzeugt. Dafür werden verschieden Arten von Interpolationen benutzt.
Ingenieurgeodätische Überwachung eines Schlotes in der Arena Wien
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2015
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Claudius Schmitt MSc
Kurzfassung/Abstract
Im Rahmen einer Fallstudie sollte untersucht werden, ob für einen Schlot in der Arena Wien eine ingenieurgeodätische Überwachung notwendig ist und, wenn ja, wie diese durchgeführt werden könnte. Zunächst wurde abgeschätzt, welche Kräfte den Schlot belasten und wie sich diese auf dessen Form und Position auswirken. Durch die Analyse vorhandener Messdaten sollte festgestellt werden, ob bereits Verformungen aufgetreten sind und wie groß diese sind. Aufgrund fehlender Informationen zur Genauigkeit und Referenzierung der vorhandenen Daten ergab sich die Notwendigkeit zur Messung zusätzlicher Daten. Dazu wurde eine tachymetrische Referenznetzmessung sowie ein Präzisionsnivellement geplant und in drei Epochen gemessen. Dabei wurden mittels Laserscanning Punkwolken des Schlotes als zusätzliche Information erstellt. Die Auswertung der Nivellements und die Ausgleichung der Netzmessungen mit anschließender Deformationsanalyse haben gezeigt, dass Bewegungen im Bereich von einigen mm in Richtung Nordwesten vorhanden sind. Außerdem wurden Höhenänderungen detektiert. Aus der Analyse der Punktwolken resultierte ein ähnliches Ergebnis. Abschließend wurde anhand der Finite-Elemente-Methode gezeigt, welche Möglichkeiten es gibt, den Schlot zu modellieren und wie dabei die in den Punktwolken enthaltene Geometrie des Schlotes miteinbezogen werden kann. Durch Bewertung der Messung und der Ergebnisse konnten Empfehlungen für die weitere Überwachung des Schlotes gegeben werden.
Im Rahmen einer Fallstudie sollte untersucht werden, ob für einen Schlot in der Arena Wien eine ingenieurgeodätische Überwachung notwendig ist und, wenn ja, wie diese durchgeführt werden könnte. Zunächst wurde abgeschätzt, welche Kräfte den Schlot belasten und wie sich diese auf dessen Form und Position auswirken. Durch die Analyse vorhandener Messdaten sollte festgestellt werden, ob bereits Verformungen aufgetreten sind und wie groß diese sind. Aufgrund fehlender Informationen zur Genauigkeit und Referenzierung der vorhandenen Daten ergab sich die Notwendigkeit zur Messung zusätzlicher Daten. Dazu wurde eine tachymetrische Referenznetzmessung sowie ein Präzisionsnivellement geplant und in drei Epochen gemessen. Dabei wurden mittels Laserscanning Punkwolken des Schlotes als zusätzliche Information erstellt. Die Auswertung der Nivellements und die Ausgleichung der Netzmessungen mit anschließender Deformationsanalyse haben gezeigt, dass Bewegungen im Bereich von einigen mm in Richtung Nordwesten vorhanden sind. Außerdem wurden Höhenänderungen detektiert. Aus der Analyse der Punktwolken resultierte ein ähnliches Ergebnis. Abschließend wurde anhand der Finite-Elemente-Methode gezeigt, welche Möglichkeiten es gibt, den Schlot zu modellieren und wie dabei die in den Punktwolken enthaltene Geometrie des Schlotes miteinbezogen werden kann. Durch Bewertung der Messung und der Ergebnisse konnten Empfehlungen für die weitere Überwachung des Schlotes gegeben werden.
Visualisierung von Katasterqualität
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die österreichische digitale Katastralmappe (DKM) ist durch Digitalisieren der analogen Katastralmappe zwischen 1987 und 2003 entstanden und deshalb entspricht auch ihre Genauigkeit der analogen Katastralmappe. Man unterscheidet vier Qualitätsstufen mit Genauigkeiten in Bereichen von wenigen Zentimetern bis hin zu mehreren Metern. Die Unterschiede kann man in der maßstabsfreien Darstellung der DKM nur sehr schwer erkennen. Deshalb ist das Ziel dieser Arbeit die Katasterqualität zu visualisieren, um die Genauigkeitsunterschiede in der DKM auf den ersten Blick sichtbar und somit für Experten und Laien besser lesbar zu machen. Erreicht wird diese Verbesserung der Visualisierung einerseits durch neue Linientypen, die handgezeichneten Linien nachempfunden sind, und andererseits durch einen seitlichen Versatz der Linien. Die neuen Linientypen werden gemeinsam mit dem seitlichen Versatz auf Grenzlinien in einem Mappenblatt der DKM angewendet, die Genauigkeiten im Dezimeter- bis Meterbereich aufweisen. Grenzlinien mit Genauigkeiten im Zentimeterbereich bleiben unverändert. Das umgestaltete Mappenblatt und das Originalmappenblatt wurden gemeinsam mit einem Fragebogen zur Katasterqualität, 25 Experten und 25 Laien vorgelegt. Das Ergebnis der Befragung zeigt, dass 90% aller Befragten diese Art der Darstellung sinnvoll finden. Deshalb ist eine Ausweitung der Visualisierung der Katasterqualität auf die gesamte österreichische DKM zu empfehlen.
Die österreichische digitale Katastralmappe (DKM) ist durch Digitalisieren der analogen Katastralmappe zwischen 1987 und 2003 entstanden und deshalb entspricht auch ihre Genauigkeit der analogen Katastralmappe. Man unterscheidet vier Qualitätsstufen mit Genauigkeiten in Bereichen von wenigen Zentimetern bis hin zu mehreren Metern. Die Unterschiede kann man in der maßstabsfreien Darstellung der DKM nur sehr schwer erkennen. Deshalb ist das Ziel dieser Arbeit die Katasterqualität zu visualisieren, um die Genauigkeitsunterschiede in der DKM auf den ersten Blick sichtbar und somit für Experten und Laien besser lesbar zu machen. Erreicht wird diese Verbesserung der Visualisierung einerseits durch neue Linientypen, die handgezeichneten Linien nachempfunden sind, und andererseits durch einen seitlichen Versatz der Linien. Die neuen Linientypen werden gemeinsam mit dem seitlichen Versatz auf Grenzlinien in einem Mappenblatt der DKM angewendet, die Genauigkeiten im Dezimeter- bis Meterbereich aufweisen. Grenzlinien mit Genauigkeiten im Zentimeterbereich bleiben unverändert. Das umgestaltete Mappenblatt und das Originalmappenblatt wurden gemeinsam mit einem Fragebogen zur Katasterqualität, 25 Experten und 25 Laien vorgelegt. Das Ergebnis der Befragung zeigt, dass 90% aller Befragten diese Art der Darstellung sinnvoll finden. Deshalb ist eine Ausweitung der Visualisierung der Katasterqualität auf die gesamte österreichische DKM zu empfehlen.
Optimierung eines GNSS-Beobachtungsnetzes mit Hilfe von 1-Frequenzempfängern zur 3D-Bestimmung meteorologischer Parameter in der Troposphäre
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Univ.Ass. Dipl.-Ing. Gregor Möller
Kurzfassung/Abstract
Der Wasserdampfgehalt spielt eine entscheidende Rolle in der Atmosphäre. Eine genaue Kenntnis über die Verteilung des Wasserdampfgehaltes könnte dabei helfen präzisere Wettermodelle bzw. Vorhersagen und Beurteilungen von aufkommenden Unwettern zu erstellen. Die GNSS-Tomographie ist eine Methode, die zeitlich und räumlich hochaufgelöste Wasserdampffelder mit hoher Genauigkeit zur Verfügung stellen kann. Voraussetzung dafür ist ein ausreichend dichtes GNSS-Stationsnetz, damit genügend Beobachtungen für die Berechnung des Modells vorliegen. Ziel dieser Arbeit ist es, Untersuchungen betreffend der Stationsverteilung und der Stationsdichte durchzuführen, insbesondere um das bestehende Stationsnetz mit zusätzlichen GNSS-Einfrequenzempfängern zu ergänzen. Weiters soll der Einfluss einer vollständigen Galileo-Satellitenkonstellation, zusätzlich zum bestehenden GPS-System, auf das Tomographiemodell (Voxelmodell) getestet werden. Hierzu wurde ein MATLAB-Skript erstellt, welches den Line of Sight-Vektor, von den Satelliten zur GNSS-Station, berechnet und durchquerte Zellen im Voxelmodell registriert. In diesen Zellen kann anhand der GNSS-Tomographie die troposphärische Refraktion ermittelt werden. Die Untersuchungen haben gezeigt, dass die GNSS-Stationshöhe den wichtigsten Parameter für das Stationsnetz darstellt. Die horizontale Positionierung spielt insofern keine wichtige Rolle, als dass die Stationen nicht unmittelbar an den äußeren Grenzen des Voxelmodells platziert werden sollten, sondern möglichst nahe an gemeinsamen Eckpunkten von Voxelzellen. Die Verwendung einer vollständigen Galileo-Satellitenkonstellation vermag die Beobachtungen nahezu zu verdoppeln, wobei eine hohe Redundanz an Beobachtungen gegeben wäre, was einen positiven Aspekt bei der Auswertung des Tomographiemodells darstellt. Innerhalb eines Testgebietes konnte der Anteil an durchlaufenen Voxeln mit zusätzlichen GNSS-Hilfsstationen um 34% auf ungefähr 86%, erhöht werden. Dies sollte für eine Auswertung des Tomographiemodells und der Berechnung des Wasserdampfgehaltes ausreichen.
Der Wasserdampfgehalt spielt eine entscheidende Rolle in der Atmosphäre. Eine genaue Kenntnis über die Verteilung des Wasserdampfgehaltes könnte dabei helfen präzisere Wettermodelle bzw. Vorhersagen und Beurteilungen von aufkommenden Unwettern zu erstellen. Die GNSS-Tomographie ist eine Methode, die zeitlich und räumlich hochaufgelöste Wasserdampffelder mit hoher Genauigkeit zur Verfügung stellen kann. Voraussetzung dafür ist ein ausreichend dichtes GNSS-Stationsnetz, damit genügend Beobachtungen für die Berechnung des Modells vorliegen. Ziel dieser Arbeit ist es, Untersuchungen betreffend der Stationsverteilung und der Stationsdichte durchzuführen, insbesondere um das bestehende Stationsnetz mit zusätzlichen GNSS-Einfrequenzempfängern zu ergänzen. Weiters soll der Einfluss einer vollständigen Galileo-Satellitenkonstellation, zusätzlich zum bestehenden GPS-System, auf das Tomographiemodell (Voxelmodell) getestet werden. Hierzu wurde ein MATLAB-Skript erstellt, welches den Line of Sight-Vektor, von den Satelliten zur GNSS-Station, berechnet und durchquerte Zellen im Voxelmodell registriert. In diesen Zellen kann anhand der GNSS-Tomographie die troposphärische Refraktion ermittelt werden. Die Untersuchungen haben gezeigt, dass die GNSS-Stationshöhe den wichtigsten Parameter für das Stationsnetz darstellt. Die horizontale Positionierung spielt insofern keine wichtige Rolle, als dass die Stationen nicht unmittelbar an den äußeren Grenzen des Voxelmodells platziert werden sollten, sondern möglichst nahe an gemeinsamen Eckpunkten von Voxelzellen. Die Verwendung einer vollständigen Galileo-Satellitenkonstellation vermag die Beobachtungen nahezu zu verdoppeln, wobei eine hohe Redundanz an Beobachtungen gegeben wäre, was einen positiven Aspekt bei der Auswertung des Tomographiemodells darstellt. Innerhalb eines Testgebietes konnte der Anteil an durchlaufenen Voxeln mit zusätzlichen GNSS-Hilfsstationen um 34% auf ungefähr 86%, erhöht werden. Dies sollte für eine Auswertung des Tomographiemodells und der Berechnung des Wasserdampfgehaltes ausreichen.
Die Bedeutung des Radioastronomischen Observatoriums in Hartebeesthoek für die VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Prof. Dr. Ludwig Combrinck
Kurzfassung/Abstract
This master thesis provides an insight into the only fundamental geodetic station in Africa, the Hartebeesthoek Radio Astronomy Observatory (HartRAO). In particular, the Very Long Baseline Interferometry (VLBI), one of the space geodetic techniques present at the site, is examined in detail. It's importance for the whole network of stations is evaluated on the basis of typical VLBI results, such as the International Celestial Reference Frame (ICRF), the International Terrestrial Reference Frame (ITRF) and Earth Orientation Parameters (EOP). In order to provide a prediction of the importance of the station in the past, two datasets with real data were used, namely the continuous VLBI campaign from 2008 (CONT08) and IVS-R1 sessions from the year 2011 and 2012. HartRAO's possible contribution to the future VLBI2010 Global Observing System (VGOS) network is investigated as well which was done using simulated data for di#erent telescope types (a 15 m legacy antenna, a VGOS antenna or two VGOS antennas) at HartRAO. A VGOS network similar to the ones suggested in the literature is used. Simulations and schedules are created with the Vienna VLBI Software (VieVS). The results from the real data sets suggest that HartRAO was and is one of the most important stations for the VLBI network. Especially EOP estimation is heavily dependent on HartRAO due to it's remote location. This effect is very prominent in the real data sets, with a formal error increase of about 50% for nutation and 50% to 100% for polar motion when HartRAO is removed from the network. It can be seen in the simulated VGOS network as well but, since the stations are more evenly distributed, it is not that prominent. Nevertheless, HartRAO is still the most remote station of the network and, therefore, contributes significantly to the estimation of EOP, with the error of polar motion becoming 40% larger when comparing the VGOS network without HartRAO with the VGOS network with a twin telescope at Hartebeesthoek (HartTWIN). Furthermore, HartRAO is of significant importance for the estimation of sources; in particular, sources on the Southern Hemisphere depend heavily on the African telescope.
This master thesis provides an insight into the only fundamental geodetic station in Africa, the Hartebeesthoek Radio Astronomy Observatory (HartRAO). In particular, the Very Long Baseline Interferometry (VLBI), one of the space geodetic techniques present at the site, is examined in detail. It's importance for the whole network of stations is evaluated on the basis of typical VLBI results, such as the International Celestial Reference Frame (ICRF), the International Terrestrial Reference Frame (ITRF) and Earth Orientation Parameters (EOP). In order to provide a prediction of the importance of the station in the past, two datasets with real data were used, namely the continuous VLBI campaign from 2008 (CONT08) and IVS-R1 sessions from the year 2011 and 2012. HartRAO's possible contribution to the future VLBI2010 Global Observing System (VGOS) network is investigated as well which was done using simulated data for di#erent telescope types (a 15 m legacy antenna, a VGOS antenna or two VGOS antennas) at HartRAO. A VGOS network similar to the ones suggested in the literature is used. Simulations and schedules are created with the Vienna VLBI Software (VieVS). The results from the real data sets suggest that HartRAO was and is one of the most important stations for the VLBI network. Especially EOP estimation is heavily dependent on HartRAO due to it's remote location. This effect is very prominent in the real data sets, with a formal error increase of about 50% for nutation and 50% to 100% for polar motion when HartRAO is removed from the network. It can be seen in the simulated VGOS network as well but, since the stations are more evenly distributed, it is not that prominent. Nevertheless, HartRAO is still the most remote station of the network and, therefore, contributes significantly to the estimation of EOP, with the error of polar motion becoming 40% larger when comparing the VGOS network without HartRAO with the VGOS network with a twin telescope at Hartebeesthoek (HartTWIN). Furthermore, HartRAO is of significant importance for the estimation of sources; in particular, sources on the Southern Hemisphere depend heavily on the African telescope.
Verteilte faseroptische Dehnungsmessung mit dem hochauflösenden Luna OBR 4600
Institut für Ingenieurgeodäsie, Technische Universität Graz, 2015
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Kurzfassung/Abstract
Im Rahmen der Überwachung der strukturellen Eigenschaften von Objekten bieten faseroptische Messsysteme eine wesentliche Erweiterung zur bestehenden Sensorik der Messtechnik. Insbesondere kann deren Potential im kontinuierlichen Monitoring von Bauwerken, dem sogenannten Structural Health Monitoring, genutzt werden, um Gefahren schneller erkennen und rechtzeitig notwendige Maßnahmen treffen zu können. Die vorliegende Masterarbeit beschäftigt sich mit der detaillierten Untersuchung des hochauflösenden Optical Backscatter Reflectometer 4600 des Herstellers Luna Technologies, USA. Dieses verteilte faseroptische Messinstrument operiert auf Basis der Rayleigh-Streuung und kann eine Bestimmung von Dehnungen sowie Temperaturänderungen mit einer Ortsauflösung von bis zu einem Millimeter durchführen. Ausgehend von einer Analyse des zugehörigen Messprinzips, welches auf der klassischen Optical Time Domain Reflectometry basiert, werden die Eigenschaften des Systems in ausführlichen Laboruntersuchungen überprüft, woraus wesentliche Kenngrößen des Instruments wie der maximale Messbereich oder die Präzision und auch das Temperaturverhalten resultieren. Als Sensoren dienen hier sowohl blanke Glasfasern mit unterschiedlichen Beschichtungen als auch vorgefertigte Sensorkabel, von welchen jeweils die Sensorkennlinie bestimmt wird. Die Umsetzung der Erkenntnisse der Systemüberprüfungen erfolgt in zwei unterschiedlichen Einsatzbereichen, um das breite Anwendungspotential faseroptischer Messsysteme demonstrieren zu können. In einer geotechnischen Überwachungsmessung erfolgt die Bestimmung der Deformationen eines Rammpfahls im Zuge von Belastungsversuchen unter Verwendung eines Sensorkabels. Demgegenüber wird die Instrumentierung einer dünnhäutigen Oberfläche aus Kunststoff mittels einer Bare Fiber durchgeführt und die auftretenden Dehnungen verteilt entlang des Objekts erfasst.
Im Rahmen der Überwachung der strukturellen Eigenschaften von Objekten bieten faseroptische Messsysteme eine wesentliche Erweiterung zur bestehenden Sensorik der Messtechnik. Insbesondere kann deren Potential im kontinuierlichen Monitoring von Bauwerken, dem sogenannten Structural Health Monitoring, genutzt werden, um Gefahren schneller erkennen und rechtzeitig notwendige Maßnahmen treffen zu können. Die vorliegende Masterarbeit beschäftigt sich mit der detaillierten Untersuchung des hochauflösenden Optical Backscatter Reflectometer 4600 des Herstellers Luna Technologies, USA. Dieses verteilte faseroptische Messinstrument operiert auf Basis der Rayleigh-Streuung und kann eine Bestimmung von Dehnungen sowie Temperaturänderungen mit einer Ortsauflösung von bis zu einem Millimeter durchführen. Ausgehend von einer Analyse des zugehörigen Messprinzips, welches auf der klassischen Optical Time Domain Reflectometry basiert, werden die Eigenschaften des Systems in ausführlichen Laboruntersuchungen überprüft, woraus wesentliche Kenngrößen des Instruments wie der maximale Messbereich oder die Präzision und auch das Temperaturverhalten resultieren. Als Sensoren dienen hier sowohl blanke Glasfasern mit unterschiedlichen Beschichtungen als auch vorgefertigte Sensorkabel, von welchen jeweils die Sensorkennlinie bestimmt wird. Die Umsetzung der Erkenntnisse der Systemüberprüfungen erfolgt in zwei unterschiedlichen Einsatzbereichen, um das breite Anwendungspotential faseroptischer Messsysteme demonstrieren zu können. In einer geotechnischen Überwachungsmessung erfolgt die Bestimmung der Deformationen eines Rammpfahls im Zuge von Belastungsversuchen unter Verwendung eines Sensorkabels. Demgegenüber wird die Instrumentierung einer dünnhäutigen Oberfläche aus Kunststoff mittels einer Bare Fiber durchgeführt und die auftretenden Dehnungen verteilt entlang des Objekts erfasst.
Utilizing the Kp value in the uncertainty estimation of METOP Scatterometer Backscatter Data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
In the TU Wien soil moisture retrieval model the estimated standard deviation (ESD) is a measure for the different error types of the backscatter. This parameter is considered as a noise estimate, incorporating speckle and residual azimuthal effects, based on differences between fore- and after beam of the Advanced SCATterometer (ASCAT) on board the meteorological operational satellite METOP-A. However, for a robust estimate of the estimated standard deviation ESD, time series backscatter data of long period of time is necessary. This can be even up to several years. Thus in this work, the relationship of the current estimation of the standard deviation of the backscatter (ESD) with the standard deviation information (Kp) included in the Metop ASCAT Level 1b backscatter product is analyzed. For a comparison of ESD and Kp a new type of ESD is defined based on the radiometric resolution Kp, denoted as ESDKp. The elaborate analysis of the two ESD types reveals a nonlinear relation between the ESD and ESDKp, with much less impact of the azimuthal noise on the ESDKp. In particular, for arid regions with large azimuthal noise a substantial difference is observed, whereas for rain forests the values of the two ESD quantities are almost equal. As a contrast to the ESD, the value the ESDKp reaches steady value within a period of few weeks.
In the TU Wien soil moisture retrieval model the estimated standard deviation (ESD) is a measure for the different error types of the backscatter. This parameter is considered as a noise estimate, incorporating speckle and residual azimuthal effects, based on differences between fore- and after beam of the Advanced SCATterometer (ASCAT) on board the meteorological operational satellite METOP-A. However, for a robust estimate of the estimated standard deviation ESD, time series backscatter data of long period of time is necessary. This can be even up to several years. Thus in this work, the relationship of the current estimation of the standard deviation of the backscatter (ESD) with the standard deviation information (Kp) included in the Metop ASCAT Level 1b backscatter product is analyzed. For a comparison of ESD and Kp a new type of ESD is defined based on the radiometric resolution Kp, denoted as ESDKp. The elaborate analysis of the two ESD types reveals a nonlinear relation between the ESD and ESDKp, with much less impact of the azimuthal noise on the ESDKp. In particular, for arid regions with large azimuthal noise a substantial difference is observed, whereas for rain forests the values of the two ESD quantities are almost equal. As a contrast to the ESD, the value the ESDKp reaches steady value within a period of few weeks.
Simplizität im Kataster - Untersuchungen zu struktureller und prozessorientierter Simplizität
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Diese Arbeit untersucht Möglichkeiten einer Simplizität im Kataster. Ziel ist es, ein Set von Funktionen zu spezifizieren, die ein Katastersystem erfüllen muss. In der Forschungsliteratur (Navratil, Frank 2007) wurde die Möglichkeiten eines "simplen Katasters" wiederholt angedacht, um die Vergleichbarkeit von Systemen zu erleichtern, das eigene System besser zu verstehen und eine Kommunikationsbasis für Prozesse zu bieten. Zu Beginn behandelt die Arbeit terminologische Probleme, historisch begründete Diskrepanzen bei Katastersystemen sowie neueste Trends und Potenziale der Landadministration. Als Beispiel dient das österreichische Katastersystem. System- und modelltheoretische Grundlagen werden zur Erklärung des Phänomens "Kataster" herangezogen. Ein hypothetischer Ansatz unterscheidet zwischen struktureller und prozessorientierter Simplizität. Bei Prozessen werden Schwachstellen aufgezeigt, aus denen sich Potenziale für Vereinfachungen ergeben. Als Resultat wird ein Plattformmodell vorgestellt, das eine Interaktion und Kooperation aller Akteure, die mit dem Kataster zu tun haben, ermöglichen soll. Das Arbeiten erfolgt 'in situ´ und folgt den Prinzipien von Interoperabilität und Synchronizität. So werden Effizienz und Transparenz unterstützt, die eine Voraussetzungen für Simplizität darstellen.
Diese Arbeit untersucht Möglichkeiten einer Simplizität im Kataster. Ziel ist es, ein Set von Funktionen zu spezifizieren, die ein Katastersystem erfüllen muss. In der Forschungsliteratur (Navratil, Frank 2007) wurde die Möglichkeiten eines "simplen Katasters" wiederholt angedacht, um die Vergleichbarkeit von Systemen zu erleichtern, das eigene System besser zu verstehen und eine Kommunikationsbasis für Prozesse zu bieten. Zu Beginn behandelt die Arbeit terminologische Probleme, historisch begründete Diskrepanzen bei Katastersystemen sowie neueste Trends und Potenziale der Landadministration. Als Beispiel dient das österreichische Katastersystem. System- und modelltheoretische Grundlagen werden zur Erklärung des Phänomens "Kataster" herangezogen. Ein hypothetischer Ansatz unterscheidet zwischen struktureller und prozessorientierter Simplizität. Bei Prozessen werden Schwachstellen aufgezeigt, aus denen sich Potenziale für Vereinfachungen ergeben. Als Resultat wird ein Plattformmodell vorgestellt, das eine Interaktion und Kooperation aller Akteure, die mit dem Kataster zu tun haben, ermöglichen soll. Das Arbeiten erfolgt 'in situ´ und folgt den Prinzipien von Interoperabilität und Synchronizität. So werden Effizienz und Transparenz unterstützt, die eine Voraussetzungen für Simplizität darstellen.
Ist der österreichische Kataster auf Katastrophen vorbereitet?
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2015
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Österreich verfügt über ein gut funktionierendes Katastersystem. Dieses ist die Grundlage für zahlreiche öffentlich-rechtliche sowie privatrechtliche Aufgaben wie der Grundstücksbesteuerung, Eigentumssicherung, Raumplanung, etc. Ein Katastrophenereignis kann jedoch unter Umständen beträchtliche Auswirkungen auf den Kataster haben. Einerseits können Fest- und Grenzpunkte in der Natur zerstört oder verschoben werden und andererseits kann es zu einem Verlust von Daten kommen. Ziel dieser Arbeit ist anhand unterschiedlicher Szenarien zu untersuchen wie die vernichtete Katasterrealisierung in der Natur bzw. ein Datenverlust wiederhergestellt werden können. Dadurch soll die Hypothese der Arbeit "Der österreichische Kataster ist aufgrund seiner regelmäßigen Konfrontation mit unterschiedlichen Katastrophen in der Vergangenheit auch heute gegen Gefahren gut gerüstet" bestätigt werden. Zur Untermauerung dieser Hypothese werden die Folgen dreier Naturgefahren (Hochwasser, spontane Massenbewegungen und Erdbeben) unter Bezugnahme konkreter Ereignisse beleuchtet. Im Fokus der Bearbeitung stehen mögliche Auswirkungen auf den Verlauf der Eigentumsgrenzen, die technische Rekonstruktion sowie die für eine Rekonstruktion zur Verfügung stehenden gesetzlichen Verfahren. Im Zuge von Katastrophen kann es auch zum Verlust von Kataster- und Grundbuchsunterlagen kommen. Sowohl Grundbuch als auch Kataster werden mittlerweile bereits seit über drei Jahrzehnten automationsgestützt in Form der Grundstücksdatenbank geführt. Aufgrund modernster technischer Sicherheitsvorkehrungen besteht für diese digital vorliegenden Daten ein nur sehr geringes Ausfallsrisiko. Einige wenige Bestandteile des Katasters und des Grundbuchs liegen jedoch noch in analoger Form vor. Bei deren Vernichtung können diese allerdings zum Teil anhand anderer Archive, in denen Duplikate vorliegen, rekonstruiert werden. Zu klären ist, in welchen Archiven diese Informationen aufbewahrt werden und inwieweit die Rekonstruktion aus diesen Grundlagendaten gelingt. Die Untersuchung dieser Fragen wird letztendlich Aufschluss über die Robustheit des österreichischen Katasters geben.
Österreich verfügt über ein gut funktionierendes Katastersystem. Dieses ist die Grundlage für zahlreiche öffentlich-rechtliche sowie privatrechtliche Aufgaben wie der Grundstücksbesteuerung, Eigentumssicherung, Raumplanung, etc. Ein Katastrophenereignis kann jedoch unter Umständen beträchtliche Auswirkungen auf den Kataster haben. Einerseits können Fest- und Grenzpunkte in der Natur zerstört oder verschoben werden und andererseits kann es zu einem Verlust von Daten kommen. Ziel dieser Arbeit ist anhand unterschiedlicher Szenarien zu untersuchen wie die vernichtete Katasterrealisierung in der Natur bzw. ein Datenverlust wiederhergestellt werden können. Dadurch soll die Hypothese der Arbeit "Der österreichische Kataster ist aufgrund seiner regelmäßigen Konfrontation mit unterschiedlichen Katastrophen in der Vergangenheit auch heute gegen Gefahren gut gerüstet" bestätigt werden. Zur Untermauerung dieser Hypothese werden die Folgen dreier Naturgefahren (Hochwasser, spontane Massenbewegungen und Erdbeben) unter Bezugnahme konkreter Ereignisse beleuchtet. Im Fokus der Bearbeitung stehen mögliche Auswirkungen auf den Verlauf der Eigentumsgrenzen, die technische Rekonstruktion sowie die für eine Rekonstruktion zur Verfügung stehenden gesetzlichen Verfahren. Im Zuge von Katastrophen kann es auch zum Verlust von Kataster- und Grundbuchsunterlagen kommen. Sowohl Grundbuch als auch Kataster werden mittlerweile bereits seit über drei Jahrzehnten automationsgestützt in Form der Grundstücksdatenbank geführt. Aufgrund modernster technischer Sicherheitsvorkehrungen besteht für diese digital vorliegenden Daten ein nur sehr geringes Ausfallsrisiko. Einige wenige Bestandteile des Katasters und des Grundbuchs liegen jedoch noch in analoger Form vor. Bei deren Vernichtung können diese allerdings zum Teil anhand anderer Archive, in denen Duplikate vorliegen, rekonstruiert werden. Zu klären ist, in welchen Archiven diese Informationen aufbewahrt werden und inwieweit die Rekonstruktion aus diesen Grundlagendaten gelingt. Die Untersuchung dieser Fragen wird letztendlich Aufschluss über die Robustheit des österreichischen Katasters geben.
Remotely Piloted Aircraft System based Infrastructure Inspection
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Die Prüfung von Infrastruktureinrichtungen (IE) gilt als wichtiger Schlüsselprozess in vielen sicherheitsrelevanten Anwendungsbereichen. In Kärnten gibt es an die 5.590 IE, welche regelmäßig geprüft werden, um Schäden frühzeitig zu erkennen und Sicherheit zu gewährleisten. Verglichen mit der klassischen Infrastrukturprüfung haben autonome RPAS ein Potenzial um die Sicherheit für Prüfer zu erhöhen, Durchführungskosten zu verringern und bessere Zugänglichkeiten zu gewährleisten. Aufgrund der genannten Tatsachen beinhaltet die Fragestellung dieses Projektes, ob die Daten der RPAS-basierten Infrastrukturprüfung genau genug sind, um Schäden an IE zu erkennen und ob diese einen Beitrag zur traditionellen Infrastrukturprüfung bzw. Dokumentation leisten können. Ein konzeptionelles RPAS-basiertes Infrastruktur Prüfungsprozess Modell wird auf Grundlage einer Literaturrecherche entwickelt. Die Datenerfassung wird geplant und ein Prototyp für die Prüfung und Dokumentation von Schäden entworfen. Die Datenerfassung der Stützmauer wird mit einem Multirotor RPAS System durchgeführt. Anschließend wird ein 3D Modell anhand der aufgenommenen Bilder mittels der Software Photoscan generiert. Die erreichte Auflösung der generierten 3D Modelle einer Stützmauer und einer Straßenbrücke zeigen die Möglichkeit der visuellen Prüfung von Schäden anhand der RPAS Daten. Weiteres verdeutlicht ein angeführtes Szenario der Inspektion und Dokumentation die Funktionalitäten und Vorteile des Prototyps. Letztendlich zeigt das Projekt eine anwendbare Methodik zur Realisierung der RPAS basierten Infrastrukturprüfung und Dokumentation an einer Stützmauer und einer Straßenbrücke. Der Prototyp macht deutlich wie RPAS generierte Daten in den Dokumentationsworkflow integriert und wie Experten dadurch unterstützt werden können. Dennoch muss berücksichtigt werden, dass ein RPAS die traditionelle Inspektion nicht ersetzen, aber in gefährlichen Situationen einen wichtigen Beitrag dazu leisten kann.
Die Prüfung von Infrastruktureinrichtungen (IE) gilt als wichtiger Schlüsselprozess in vielen sicherheitsrelevanten Anwendungsbereichen. In Kärnten gibt es an die 5.590 IE, welche regelmäßig geprüft werden, um Schäden frühzeitig zu erkennen und Sicherheit zu gewährleisten. Verglichen mit der klassischen Infrastrukturprüfung haben autonome RPAS ein Potenzial um die Sicherheit für Prüfer zu erhöhen, Durchführungskosten zu verringern und bessere Zugänglichkeiten zu gewährleisten. Aufgrund der genannten Tatsachen beinhaltet die Fragestellung dieses Projektes, ob die Daten der RPAS-basierten Infrastrukturprüfung genau genug sind, um Schäden an IE zu erkennen und ob diese einen Beitrag zur traditionellen Infrastrukturprüfung bzw. Dokumentation leisten können. Ein konzeptionelles RPAS-basiertes Infrastruktur Prüfungsprozess Modell wird auf Grundlage einer Literaturrecherche entwickelt. Die Datenerfassung wird geplant und ein Prototyp für die Prüfung und Dokumentation von Schäden entworfen. Die Datenerfassung der Stützmauer wird mit einem Multirotor RPAS System durchgeführt. Anschließend wird ein 3D Modell anhand der aufgenommenen Bilder mittels der Software Photoscan generiert. Die erreichte Auflösung der generierten 3D Modelle einer Stützmauer und einer Straßenbrücke zeigen die Möglichkeit der visuellen Prüfung von Schäden anhand der RPAS Daten. Weiteres verdeutlicht ein angeführtes Szenario der Inspektion und Dokumentation die Funktionalitäten und Vorteile des Prototyps. Letztendlich zeigt das Projekt eine anwendbare Methodik zur Realisierung der RPAS basierten Infrastrukturprüfung und Dokumentation an einer Stützmauer und einer Straßenbrücke. Der Prototyp macht deutlich wie RPAS generierte Daten in den Dokumentationsworkflow integriert und wie Experten dadurch unterstützt werden können. Dennoch muss berücksichtigt werden, dass ein RPAS die traditionelle Inspektion nicht ersetzen, aber in gefährlichen Situationen einen wichtigen Beitrag dazu leisten kann.
Application of geospatial technologies for the delineation of flood hazards and its socio-economic implication to communities
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Gernot Paulus, Kevin Mickey (Indiana University Purdue-University, USA)
Kurzfassung/Abstract
In order to protect human life and infrastructure, it is fundamental to know which areas are at risk of flooding and which are not. Identifying areas at risk involves knowledge about possible flood height and intensity, and about the geomorphology of the river. Further, it is essential to have knowledge about existing flood protective structures like levees or dams. However, some of these structures were not built for flood protection, but they have significant impact on the propagation of water. These structures also called non-levee embankments or non-dam embankments and they are sometimes just a few meters high. In case of flooding every single meter of protective soil can make a difference. Non-levee embankments can have mitigating effects in case of flooding, though in some cases these structures can deflect the flood water to areas that were previously known to be safe. In contrast to engineered levees, the location of most of the non-levee embankment structures is unknown. Due to the fact that these undocumented structures can influence the water propagation in case of flooding it is of high importance to detect them. The major findings of this thesis are that the combination of simple geomorphometric parameters can create useful results in detecting non-levee embankment structures. The developed NLE and NDE detection can be used to detect non-levee embankment structures in different physiographic regions and different countries. Furthermore, it might be possible that the combination of the used parameters can be used to describe other terrain features within a DEM, but this should be seen as part of future research.
In order to protect human life and infrastructure, it is fundamental to know which areas are at risk of flooding and which are not. Identifying areas at risk involves knowledge about possible flood height and intensity, and about the geomorphology of the river. Further, it is essential to have knowledge about existing flood protective structures like levees or dams. However, some of these structures were not built for flood protection, but they have significant impact on the propagation of water. These structures also called non-levee embankments or non-dam embankments and they are sometimes just a few meters high. In case of flooding every single meter of protective soil can make a difference. Non-levee embankments can have mitigating effects in case of flooding, though in some cases these structures can deflect the flood water to areas that were previously known to be safe. In contrast to engineered levees, the location of most of the non-levee embankment structures is unknown. Due to the fact that these undocumented structures can influence the water propagation in case of flooding it is of high importance to detect them. The major findings of this thesis are that the combination of simple geomorphometric parameters can create useful results in detecting non-levee embankment structures. The developed NLE and NDE detection can be used to detect non-levee embankment structures in different physiographic regions and different countries. Furthermore, it might be possible that the combination of the used parameters can be used to describe other terrain features within a DEM, but this should be seen as part of future research.
Mass movement modelling over the Ciloto area based on integrated GNSS and TLS observations
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2015
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Univ.Ass. Dipl.-Ing. Dr. Miriam Zamecnikova
Kurzfassung/Abstract
The objective of this master thesis is the evaluation and modelling of a mass movement which occurs at the landslide area in Ciloto (West Java - Indonesia). The movement is mainly triggered by accumulated water from surrounding areas and moving in a south-easterly direction. The strong vegetated landslide zone, which includes rotational, translational and compounded slides, is located between the volcano Gunung Gede and the mountain Gunung Lemo. For decades this sliding area serves as a residential zone, agricultural land as well as an important infrastructural region for the inhabitants of West Java. Detailed knowledge of the mass movement can help scientists in counselling government officials to provide effective prevention policies and support for inhabitants at risk. Previous measurements by means of Global Positioning System (GPS) and Total Positioning Stations (total station - TPS) indicated regionally and sectorally different motions within the landslide. Based on these results the measurement campaign for this research was planned along an assumed border between a rotational and a translational movement. Within three observation periods the viewpoints are monitored by GPS and Terrestrial Laser Scanning (TLS). Statistical methods are used to obtain a precise estimation of the accuracy of the measurements. To ensure an exact linkage between the GPS and TLS scans a bundle block adjustment was carried out. Furthermore, by means of the covariance error propagation law, the accuracies of the measured, the registrated as well as the georeferenced points plus the GPS accuracy, are taken into account to estimate the overall accuracy. Finally, the t-Student distribution was used to evaluate the significant displacements of observation points. For the analysis the TLS results are split in horizontal (X and Y) and vertical (Z) movements.
The objective of this master thesis is the evaluation and modelling of a mass movement which occurs at the landslide area in Ciloto (West Java - Indonesia). The movement is mainly triggered by accumulated water from surrounding areas and moving in a south-easterly direction. The strong vegetated landslide zone, which includes rotational, translational and compounded slides, is located between the volcano Gunung Gede and the mountain Gunung Lemo. For decades this sliding area serves as a residential zone, agricultural land as well as an important infrastructural region for the inhabitants of West Java. Detailed knowledge of the mass movement can help scientists in counselling government officials to provide effective prevention policies and support for inhabitants at risk. Previous measurements by means of Global Positioning System (GPS) and Total Positioning Stations (total station - TPS) indicated regionally and sectorally different motions within the landslide. Based on these results the measurement campaign for this research was planned along an assumed border between a rotational and a translational movement. Within three observation periods the viewpoints are monitored by GPS and Terrestrial Laser Scanning (TLS). Statistical methods are used to obtain a precise estimation of the accuracy of the measurements. To ensure an exact linkage between the GPS and TLS scans a bundle block adjustment was carried out. Furthermore, by means of the covariance error propagation law, the accuracies of the measured, the registrated as well as the georeferenced points plus the GPS accuracy, are taken into account to estimate the overall accuracy. Finally, the t-Student distribution was used to evaluate the significant displacements of observation points. For the analysis the TLS results are split in horizontal (X and Y) and vertical (Z) movements.
Visualisation of spatio-temporal data with environmental context using web mapping
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
Durch die Visualisierung wird bekanntlich die Kommunikation von Information erleichtert. Mit Hilfe von Karten kann räumliche Information kommuniziert werden, wie auch der zeitliche Aspekt der Daten. Durch den Aufschwung des Internets, hat die digitale Version von Karten immer mehr an Bedeutung gewonnen und somit auch online Kartendarstellungs- oder Kartierungs-Werkzeuge. Da vieles im Umweltmonitoring überwacht, auf unterschiedlichste Art und Weise visualisiert und verschiedenste Arten von Daten extrahiert werden können, ist das Umweltmonitoring ein komplexes Unterfangen, das in den verschiedensten Gebieten zur Anwendung kommen kann. Um diese Komplexität zu verringern und große Datenmengen einfach und verständlich darzustellen, wird die Visualisierung von Raum-Zeit-Daten mit Hilfe von interaktiven Karten unter der Verwendung von online Werkzeugen durchgeführt. Ein weiterer wichtiger Punkt ist sich einen Überblick über die Anforderungen für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext, welcher den Vergleich zwischen verschiedenen online Werkzeugen hinsichtlich ihrer Anwendbarkeit für die Visualisierung dieser Art von Daten erlauben soll, zu verschaffen. Um die benötigte Information für die Evaluierung der Werkzeuge hinsichtlich ihrer Eignung für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext zu bekommen, wird zuerst eine Stand-der-Technologie Analyse durchgeführt, danach werden Story Maps klassifiziert, eine Merkmalsmatrix wird erstellt, Szenarien und Anwendungsfälle werden beschrieben, Anforderungen werden abgeleitet und Story Maps werden beispielhaft umgesetzt. Anhand des Lösungsansatzes ergeben sich bestimmte Resultate: ein Überblick über den Stand der Technologie, Klassifizierung von Story Maps, Merkmalsmatrix für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext, Szenarien und Anwendungsfälle, die Raum-Zeit-Daten mit Umweltkontext verwenden, Anforderungen für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext und exemplarisch umgesetzte Story Maps, die Raum-Zeit-Daten mit Umweltkontext visualisieren. Schlussendlich zeigen die Resultate, dass sich beinahe alle evaluierten Werkzeuge (MapStory, CartoDB, TimeMapper, StoryMapJS, MangoMap, Google Earth, TileMill und Story Maps) mehr oder weniger gut für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext eignen. Beinahe alle haben einen mehr oder weniger guten Prozentsatz (ca. 60%) von erfüllten Anforderungen. Den höchsten Prozentsatz von erfüllten Anforderungen haben die Werkzeuge Story Maps (mit ca. 89%) und MangoMap und Google Earth, beide mit ca. 81%. Anhand von den Anforderungen kann gesagt werden, dass sich die Technologie Story Maps am besten für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext eignet.
Durch die Visualisierung wird bekanntlich die Kommunikation von Information erleichtert. Mit Hilfe von Karten kann räumliche Information kommuniziert werden, wie auch der zeitliche Aspekt der Daten. Durch den Aufschwung des Internets, hat die digitale Version von Karten immer mehr an Bedeutung gewonnen und somit auch online Kartendarstellungs- oder Kartierungs-Werkzeuge. Da vieles im Umweltmonitoring überwacht, auf unterschiedlichste Art und Weise visualisiert und verschiedenste Arten von Daten extrahiert werden können, ist das Umweltmonitoring ein komplexes Unterfangen, das in den verschiedensten Gebieten zur Anwendung kommen kann. Um diese Komplexität zu verringern und große Datenmengen einfach und verständlich darzustellen, wird die Visualisierung von Raum-Zeit-Daten mit Hilfe von interaktiven Karten unter der Verwendung von online Werkzeugen durchgeführt. Ein weiterer wichtiger Punkt ist sich einen Überblick über die Anforderungen für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext, welcher den Vergleich zwischen verschiedenen online Werkzeugen hinsichtlich ihrer Anwendbarkeit für die Visualisierung dieser Art von Daten erlauben soll, zu verschaffen. Um die benötigte Information für die Evaluierung der Werkzeuge hinsichtlich ihrer Eignung für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext zu bekommen, wird zuerst eine Stand-der-Technologie Analyse durchgeführt, danach werden Story Maps klassifiziert, eine Merkmalsmatrix wird erstellt, Szenarien und Anwendungsfälle werden beschrieben, Anforderungen werden abgeleitet und Story Maps werden beispielhaft umgesetzt. Anhand des Lösungsansatzes ergeben sich bestimmte Resultate: ein Überblick über den Stand der Technologie, Klassifizierung von Story Maps, Merkmalsmatrix für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext, Szenarien und Anwendungsfälle, die Raum-Zeit-Daten mit Umweltkontext verwenden, Anforderungen für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext und exemplarisch umgesetzte Story Maps, die Raum-Zeit-Daten mit Umweltkontext visualisieren. Schlussendlich zeigen die Resultate, dass sich beinahe alle evaluierten Werkzeuge (MapStory, CartoDB, TimeMapper, StoryMapJS, MangoMap, Google Earth, TileMill und Story Maps) mehr oder weniger gut für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext eignen. Beinahe alle haben einen mehr oder weniger guten Prozentsatz (ca. 60%) von erfüllten Anforderungen. Den höchsten Prozentsatz von erfüllten Anforderungen haben die Werkzeuge Story Maps (mit ca. 89%) und MangoMap und Google Earth, beide mit ca. 81%. Anhand von den Anforderungen kann gesagt werden, dass sich die Technologie Story Maps am besten für die Visualisierung von Raum-Zeit-Daten mit Umweltkontext eignet.
Low elevation aerial photography (LEAP)
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
Low elevation aerial photography also called small-format aerial photography in the ultra-low height range [50-500] as an empirical method of data capturing in short time intervals and a high detail resolution becomes a main tool in the research field of observation photogrammetry and the usage in Geoinformationsystems. It offers a maximum of flexibility in terms of field research and because of the small distance to the research object a maximum of detail resolution which cannot be obtained by conventional manned aircraft. The basic concept of Low elevation aerial photography LEAP is based on an unmanned aerial system UAS which is able to lift light weight digital cameras to take aerial images in a cost efficient way. Typically used UAVs in this aerial photography context are quadro-, octocopter, blimps, kites and balloons which are generalized called UAV. In this thesis the concept of LEAP is evaluated based on a Balloon Mapping System (BMS). To understand the overall concept of the balloon mapping, a legislation evaluation, the mission planning and the photogrammetry analysis are presented. To keep the focus of the BMS project in this thesis state of the art and comparable, existing Unmanned Aerial Mapping Systems (UAMS) are evaluated. Based on this theoretical background evaluation, a prototype camera-rig is development and important requirements for an actual implementation are derived. The prototyping process is supervised using a comparable commercial camera rig to avoid miss-development for the technical construction or financial expense. In the final step of the implementation phase, the project BMS is launched at test-sites to evaluate the performance of the BMS. The images retrieved from the balloon mission are photogrammetry processed, resulting in a computation of Orthophotos and DEM/DSM for the test-sites. Finally the generated geo-spatial data are assessed because of geometrical correctness, quality and discussed in terms of proof of concept.
Low elevation aerial photography also called small-format aerial photography in the ultra-low height range [50-500] as an empirical method of data capturing in short time intervals and a high detail resolution becomes a main tool in the research field of observation photogrammetry and the usage in Geoinformationsystems. It offers a maximum of flexibility in terms of field research and because of the small distance to the research object a maximum of detail resolution which cannot be obtained by conventional manned aircraft. The basic concept of Low elevation aerial photography LEAP is based on an unmanned aerial system UAS which is able to lift light weight digital cameras to take aerial images in a cost efficient way. Typically used UAVs in this aerial photography context are quadro-, octocopter, blimps, kites and balloons which are generalized called UAV. In this thesis the concept of LEAP is evaluated based on a Balloon Mapping System (BMS). To understand the overall concept of the balloon mapping, a legislation evaluation, the mission planning and the photogrammetry analysis are presented. To keep the focus of the BMS project in this thesis state of the art and comparable, existing Unmanned Aerial Mapping Systems (UAMS) are evaluated. Based on this theoretical background evaluation, a prototype camera-rig is development and important requirements for an actual implementation are derived. The prototyping process is supervised using a comparable commercial camera rig to avoid miss-development for the technical construction or financial expense. In the final step of the implementation phase, the project BMS is launched at test-sites to evaluate the performance of the BMS. The images retrieved from the balloon mission are photogrammetry processed, resulting in a computation of Orthophotos and DEM/DSM for the test-sites. Finally the generated geo-spatial data are assessed because of geometrical correctness, quality and discussed in terms of proof of concept.
Template based pattern detection with Subgraph-Matching
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paul
Kurzfassung/Abstract
The last years shows that the amount of spatial data is growing on and on. But not only the quantity is increasing the quality is also rising. Many approaches were developed in the previous/last few decades in order to detect so called patterns in big datasets based on a large amount of information. These approaches are mostly concentrated on point and line data. In this case the studies show that polygon data were neglected more or less. This study is about detecting patterns in vector based polygon datasets based on their centroids and clustering them to object groups to know which objects could be generalized in the process of an automated map generalization. The building of clusters should show regular structures of polygons by using the centroids of the polygons as a base for the calculations. The automatic recognition of such patterns is the base for further analysis and represents the focus of this work. This pattern recognition is realized through an own developed software which executes all needed steps for the process. These steps account for the achieving of a polygon dataset, the calculation of centroids for each polygon, the conviction of these calculated centroids into a planar RNG structure to ensure the NP-completeness, a subgraph matching algorithm and the building of clusters based on the matched subgraphs. Furthermore after the implementation of the software and execution of it an evaluation of some results for testing datasets is made. The win of information through the classification of the detected patterns in the vector dataset is an important factor for further following processing steps like map generalization or automatic map generation.
The last years shows that the amount of spatial data is growing on and on. But not only the quantity is increasing the quality is also rising. Many approaches were developed in the previous/last few decades in order to detect so called patterns in big datasets based on a large amount of information. These approaches are mostly concentrated on point and line data. In this case the studies show that polygon data were neglected more or less. This study is about detecting patterns in vector based polygon datasets based on their centroids and clustering them to object groups to know which objects could be generalized in the process of an automated map generalization. The building of clusters should show regular structures of polygons by using the centroids of the polygons as a base for the calculations. The automatic recognition of such patterns is the base for further analysis and represents the focus of this work. This pattern recognition is realized through an own developed software which executes all needed steps for the process. These steps account for the achieving of a polygon dataset, the calculation of centroids for each polygon, the conviction of these calculated centroids into a planar RNG structure to ensure the NP-completeness, a subgraph matching algorithm and the building of clusters based on the matched subgraphs. Furthermore after the implementation of the software and execution of it an evaluation of some results for testing datasets is made. The win of information through the classification of the detected patterns in the vector dataset is an important factor for further following processing steps like map generalization or automatic map generation.
Classification of signal sources based on seismic and acoustic measurements
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2015
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
The need for automated classification of signals recorded with seismic sensors led to the development of various classification techniques. However, most of these techniques use very complex hardware and software equipment. The present work investigates the potential of establishing a source classification that mainly relies upon the comparison of seismic and acoustic data.
The need for automated classification of signals recorded with seismic sensors led to the development of various classification techniques. However, most of these techniques use very complex hardware and software equipment. The present work investigates the potential of establishing a source classification that mainly relies upon the comparison of seismic and acoustic data.
Genauigkeitsbetrachtungen zum Bewegungsverhalten eines fahrbaren Roboters
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2015
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Der Prozess der Erfassung von raumbezogenen Daten mittels einer mobilen Trägerplattform wird allgemein als Mobile Mapping bezeichnet. Der fahrbare Roboter Seekur Jr der Forschungsgruppe Ingenieurgeodäsie am Department Geodäsie und Geoinformation stellt eine solche Trägerplattform für ein Multi-Sensor-System (MSS) dar und eignet sich für Messaufgaben im In- und Outdoor-Bereich. Die grundsätzliche Voraussetzung zur kinematischen Datenerfassung ist die Herstellung eines Bezuges in Raum und Zeit. Zur Referenzierung der obektraumerfassenden Beobachtungen muss die zurückgelegte Trajektorie - die Kurve, die ein Punkt in seiner Bewegung durch Raum und Zeit beschreibt - der Anwendung entprechend genau bestimmt werden. Zu zeitlichen Referenzierung der Messdaten werden die beteiligten Systemkomponenten mittels Network Time Protocol (NTP) synchronisiert. Die erreichbaren Genauigkeiten sowie die Grenzen dieser software-basierten Synchonisationslösung werden im Rahmen dieser Arbeit analysiert. Außerdem wurde eine MATLAB-Toolbox für zukünftige Projekte und Forschungsarbeiten entwickelt, die eine komfortable Steuerung des Roboters für flexible Typen von Trajektorien ermöglicht. Mit diesen Grundvoraussetzungen ist es möglich das Fahrverhalten des Roboters zu untersuchen. Einerseits gilt es festzustellen, wie treu der Roboter den vorgegebenen Navigationsbefehlen folgt, andererseits wird die Genauigkeit der roboter-internen Navigationslösung aus den Daten der Differentialodometrie analysiert. Als Referenz gelten die Messungen eines Tachymeters MS50 von Leica Geosystems, die mit den Messwerten der Robotersensoren zu synchronisieren sind. Abschließend wird ein Kalman-Filter (KF) implementiert und in die Steuerungs-Toolbox SeekurCOM integriert. Das Ziel ist es die geschätzte Trajektorie aus den Odometrie-Daten mit Hilfe eines zweistufigen Verfahrens zu verbessern. Dabei wird im ersten Schritt in einem adaptiven KF im Messgebiet mit Hilfe des zielverfolgenden Tachymeters zusätzliche Bewegungsparameter abgeleitet. Mit Hilfe dieser Parameter kann in der zweiten Phase die ungestützte Schätzung der Trajektorie aus der Differentialodometrie verbessert werden. Eine Sichtverbindung zur Totalstation ist bei diesem autonomen Betrieb nicht mehr notwendig. Die Ergebnisse dieses Verfahrens werden abschließend den roboter-internen Schätzungen gegenübergestellt.
Der Prozess der Erfassung von raumbezogenen Daten mittels einer mobilen Trägerplattform wird allgemein als Mobile Mapping bezeichnet. Der fahrbare Roboter Seekur Jr der Forschungsgruppe Ingenieurgeodäsie am Department Geodäsie und Geoinformation stellt eine solche Trägerplattform für ein Multi-Sensor-System (MSS) dar und eignet sich für Messaufgaben im In- und Outdoor-Bereich. Die grundsätzliche Voraussetzung zur kinematischen Datenerfassung ist die Herstellung eines Bezuges in Raum und Zeit. Zur Referenzierung der obektraumerfassenden Beobachtungen muss die zurückgelegte Trajektorie - die Kurve, die ein Punkt in seiner Bewegung durch Raum und Zeit beschreibt - der Anwendung entprechend genau bestimmt werden. Zu zeitlichen Referenzierung der Messdaten werden die beteiligten Systemkomponenten mittels Network Time Protocol (NTP) synchronisiert. Die erreichbaren Genauigkeiten sowie die Grenzen dieser software-basierten Synchonisationslösung werden im Rahmen dieser Arbeit analysiert. Außerdem wurde eine MATLAB-Toolbox für zukünftige Projekte und Forschungsarbeiten entwickelt, die eine komfortable Steuerung des Roboters für flexible Typen von Trajektorien ermöglicht. Mit diesen Grundvoraussetzungen ist es möglich das Fahrverhalten des Roboters zu untersuchen. Einerseits gilt es festzustellen, wie treu der Roboter den vorgegebenen Navigationsbefehlen folgt, andererseits wird die Genauigkeit der roboter-internen Navigationslösung aus den Daten der Differentialodometrie analysiert. Als Referenz gelten die Messungen eines Tachymeters MS50 von Leica Geosystems, die mit den Messwerten der Robotersensoren zu synchronisieren sind. Abschließend wird ein Kalman-Filter (KF) implementiert und in die Steuerungs-Toolbox SeekurCOM integriert. Das Ziel ist es die geschätzte Trajektorie aus den Odometrie-Daten mit Hilfe eines zweistufigen Verfahrens zu verbessern. Dabei wird im ersten Schritt in einem adaptiven KF im Messgebiet mit Hilfe des zielverfolgenden Tachymeters zusätzliche Bewegungsparameter abgeleitet. Mit Hilfe dieser Parameter kann in der zweiten Phase die ungestützte Schätzung der Trajektorie aus der Differentialodometrie verbessert werden. Eine Sichtverbindung zur Totalstation ist bei diesem autonomen Betrieb nicht mehr notwendig. Die Ergebnisse dieses Verfahrens werden abschließend den roboter-internen Schätzungen gegenübergestellt.
Vergleich einer Labor- und Feldbefragung zu emotionalen Relationen zum Raum
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
In dieser Arbeit wird untersucht, welche Unterschiede zwischen Feld- und Labor-Settings bezüglich der emotionalen Beschreibung der Umgebung bestehen. Zu diesem Zweck werden Probanden in einem Labor-Setting, in dem Fotos verschiedener Orte gezeigt werden, und in einem Feld-Setting befragt. Für die Studie werden in zwei Kleinstädten je drei verschiedene Settings - eine Fußgängerzone, eine heruntergekommene kleinere Gasse und ein Park - ausgewählt. Jedes Settings existiert zwei Mal: einmal in einer für die Probanden bekannten Umgebung, einmal in einer unbekannten Umgebung. An dieser Studie nehmen 22 Probanden im Alter von 14 bis 16 Jahren mit einem Durchschnittsalter von 15,1 Jahren teil. Die Probanden werden in zwei Gruppen geteilt. Eine Gruppe absolviert den Feldversuch in einer ihr bekannten und den Laborversuch in einer ihr unbekannten Umgebung. Die andere Gruppe führt den Feldversuch in einer ihr unbekannten und den Laborversuch in bekannter Umgebung durch. Die Probanden werden in einer offenen Fragestellung gefragt, wie sie sich fühlen (Feldversuch), beziehungsweise, wie sie sich fühlen würden, wenn sie an diesem Ort wären (Laborversuch). Die Antworten werden in Kategorien eingeteilt und nach ihren Häufigkeiten ausgewertet.
In dieser Arbeit wird untersucht, welche Unterschiede zwischen Feld- und Labor-Settings bezüglich der emotionalen Beschreibung der Umgebung bestehen. Zu diesem Zweck werden Probanden in einem Labor-Setting, in dem Fotos verschiedener Orte gezeigt werden, und in einem Feld-Setting befragt. Für die Studie werden in zwei Kleinstädten je drei verschiedene Settings - eine Fußgängerzone, eine heruntergekommene kleinere Gasse und ein Park - ausgewählt. Jedes Settings existiert zwei Mal: einmal in einer für die Probanden bekannten Umgebung, einmal in einer unbekannten Umgebung. An dieser Studie nehmen 22 Probanden im Alter von 14 bis 16 Jahren mit einem Durchschnittsalter von 15,1 Jahren teil. Die Probanden werden in zwei Gruppen geteilt. Eine Gruppe absolviert den Feldversuch in einer ihr bekannten und den Laborversuch in einer ihr unbekannten Umgebung. Die andere Gruppe führt den Feldversuch in einer ihr unbekannten und den Laborversuch in bekannter Umgebung durch. Die Probanden werden in einer offenen Fragestellung gefragt, wie sie sich fühlen (Feldversuch), beziehungsweise, wie sie sich fühlen würden, wenn sie an diesem Ort wären (Laborversuch). Die Antworten werden in Kategorien eingeteilt und nach ihren Häufigkeiten ausgewertet.
Der Kataster in Gebieten mit Bodenbewegungen
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2015
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Diese Arbeit befasst sich mit der vorhandenen Problematik des Katasters in Gebieten mit Bodenbewegungen. Der Grenzkataster geht von unveränderlichen Grenzpunkten und einem intakten Festpunktfeld aus. In Gebieten mit Bodenbewegungen (kleinräumig und großräumig) ist diese Voraussetzung nicht gegeben. Die Auswirkungen der Bodenbewegungen auf die Führung des Grenzkatasters in diesen Gebieten wurde sowohl aus rechtlicher als auch technischer Sicht untersucht. Dabei wurden vor allem die gesetzlichen Verankerungen des Grenzkatasters im derzeit gültigen Vermessungsgesetz (VermG) und der dazu bestehenden Vermessungsverordnung (VermV) näher beleuchtet sowie etwaige zivilrechtliche Auswirkungen auf das Allgemeine Bürgerliche Gesetzbuch (ABGB) geprüft. Die technische Problemlösung befasste sich mit der Fragestellung der zuverlässigen und eindeutigen Abgrenzbarkeit von betroffenen Gebieten. Als Datengrundlage dafür diente die Geologie von Österreich, die Punktverwaltungsdatenbank des Bundesamts für Eich- und Vermessungswesen (BEV) sowie das Digitale Gelände Modell (DGM) der Bezirke Innsbruck Land und Schwaz. Es muss darauf hingewiesen werden, dass die technische Unterteilung der Gebiete mit Bodenbewegungen noch Fragestellungen aufweist, welche Thema möglicher Nachfolgearbeiten sein könnte. Geologie bezogene Schlüsse für kleinräumige, kaum merkliche Bodenverschiebungen sind derzeit nicht mit einer hundertprozentigen Sicherheit möglich und stellen gleichzeitig wirtschaftlich betrachtet einen großen Unsicherheitsfaktor dar. Des Weiteren sind derzeit flächendeckend keine aussagekräftigen Zeitreihen der Festpunkte vorhanden. Die ursprünglichen Festpunktkoordinaten liegen im System des Militärgeographischen Institutes (MGI) vor. Neuere bodenunabhängige Übermessungen der Festpunkte wurden im European Terrestrial Reference System 89 (ETRS89-System) durchgeführt. Nichtsdestotrotz lieferte die Verschneidung obiger Datensätze erste Lösungsvorschläge für mögliche Abgrenzungen von betroffenen Gebieten. Aufgrund der, durch diese Arbeit gewonnenen technischen Erkenntnisse, ist aus Sicht der Autorin die Umstellung des Österreichischen Referenzsystems von MGI auf ETRS89 in Bezug auf technische Lösungsansätze unumgänglich. Aus rechtlicher Sicht wurden zwei Lösungsansätze für die Aufhebung des Grenzkatasters im VermG und VermV ausgearbeitet, welche in Zukunft in die österreichische Rechtsfassung einzuarbeiten wären.
Diese Arbeit befasst sich mit der vorhandenen Problematik des Katasters in Gebieten mit Bodenbewegungen. Der Grenzkataster geht von unveränderlichen Grenzpunkten und einem intakten Festpunktfeld aus. In Gebieten mit Bodenbewegungen (kleinräumig und großräumig) ist diese Voraussetzung nicht gegeben. Die Auswirkungen der Bodenbewegungen auf die Führung des Grenzkatasters in diesen Gebieten wurde sowohl aus rechtlicher als auch technischer Sicht untersucht. Dabei wurden vor allem die gesetzlichen Verankerungen des Grenzkatasters im derzeit gültigen Vermessungsgesetz (VermG) und der dazu bestehenden Vermessungsverordnung (VermV) näher beleuchtet sowie etwaige zivilrechtliche Auswirkungen auf das Allgemeine Bürgerliche Gesetzbuch (ABGB) geprüft. Die technische Problemlösung befasste sich mit der Fragestellung der zuverlässigen und eindeutigen Abgrenzbarkeit von betroffenen Gebieten. Als Datengrundlage dafür diente die Geologie von Österreich, die Punktverwaltungsdatenbank des Bundesamts für Eich- und Vermessungswesen (BEV) sowie das Digitale Gelände Modell (DGM) der Bezirke Innsbruck Land und Schwaz. Es muss darauf hingewiesen werden, dass die technische Unterteilung der Gebiete mit Bodenbewegungen noch Fragestellungen aufweist, welche Thema möglicher Nachfolgearbeiten sein könnte. Geologie bezogene Schlüsse für kleinräumige, kaum merkliche Bodenverschiebungen sind derzeit nicht mit einer hundertprozentigen Sicherheit möglich und stellen gleichzeitig wirtschaftlich betrachtet einen großen Unsicherheitsfaktor dar. Des Weiteren sind derzeit flächendeckend keine aussagekräftigen Zeitreihen der Festpunkte vorhanden. Die ursprünglichen Festpunktkoordinaten liegen im System des Militärgeographischen Institutes (MGI) vor. Neuere bodenunabhängige Übermessungen der Festpunkte wurden im European Terrestrial Reference System 89 (ETRS89-System) durchgeführt. Nichtsdestotrotz lieferte die Verschneidung obiger Datensätze erste Lösungsvorschläge für mögliche Abgrenzungen von betroffenen Gebieten. Aufgrund der, durch diese Arbeit gewonnenen technischen Erkenntnisse, ist aus Sicht der Autorin die Umstellung des Österreichischen Referenzsystems von MGI auf ETRS89 in Bezug auf technische Lösungsansätze unumgänglich. Aus rechtlicher Sicht wurden zwei Lösungsansätze für die Aufhebung des Grenzkatasters im VermG und VermV ausgearbeitet, welche in Zukunft in die österreichische Rechtsfassung einzuarbeiten wären.
Extraktion digitaler Karten von Schigebieten aus GPS-Tracks von Schifahrern
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2015
Betreuer: Ao.Univ.-Prof.i.R. Dr. tit.Univ.-Prof. Norbert Bartelme
Kurzfassung/Abstract
Schifahren ist eines der beliebtesten Hobbys in Österreich. Große Schigebiete bieten mehr als 100 Kilometer präparierter Pisten und einige dutzend Seilbahnanlagen. Viele Schifahrer, vor allem solche, die sich in einem Schigebiet nicht gut auskennen, würden sich ein Navigationssystem für Schigebiete wünschen. Damit ein Navigationssystem umgesetzt werden kann, müssen dafür zunächst die Grundlagen geschaffen werden. Mit einer in dieser Masterarbeit entwickelten Software wird aus einem Satz von GPS-Trajektorien eine digitale Karte für ein Schigebiet extrahiert. Die Inputdaten stammen von Schifahrern, die ihren Schitag mit Hilfe eines Smartphones getrackt haben und die Daten zur Verfügung stellten. Die Software extrahiert mit Hilfe von verschiedensten Algorithmen Lifte und Pisten eines Schigebietes. Der Aufbau des Programmes ist so gestaltet, dass die Berechnungen automatisch durchgeführt werden können. Dem Benützer ist die Möglichkeit eingeräumt, die Eingabeparameter der einzelnen Berechnungsschritte manuell zu ändern. Die Berechnungszeit für eine digitale Karte eines Schigebietes hängt von der Datenanzahl und der Wahl der Parameter ab. Das Endergebnis der Berechnungen sind Lifte, Pisten und ein Netz von Verbindungen. Das berechnete Netz kann als digitale Karte für ein Navigationssystem verwendet werden. Der praktische Teil wird mit der Software Matlab umgesetzt. Als Beispiel werden die digitalen Karten für zwei Schigebiete berechnet und im Bericht interpretiert.
Schifahren ist eines der beliebtesten Hobbys in Österreich. Große Schigebiete bieten mehr als 100 Kilometer präparierter Pisten und einige dutzend Seilbahnanlagen. Viele Schifahrer, vor allem solche, die sich in einem Schigebiet nicht gut auskennen, würden sich ein Navigationssystem für Schigebiete wünschen. Damit ein Navigationssystem umgesetzt werden kann, müssen dafür zunächst die Grundlagen geschaffen werden. Mit einer in dieser Masterarbeit entwickelten Software wird aus einem Satz von GPS-Trajektorien eine digitale Karte für ein Schigebiet extrahiert. Die Inputdaten stammen von Schifahrern, die ihren Schitag mit Hilfe eines Smartphones getrackt haben und die Daten zur Verfügung stellten. Die Software extrahiert mit Hilfe von verschiedensten Algorithmen Lifte und Pisten eines Schigebietes. Der Aufbau des Programmes ist so gestaltet, dass die Berechnungen automatisch durchgeführt werden können. Dem Benützer ist die Möglichkeit eingeräumt, die Eingabeparameter der einzelnen Berechnungsschritte manuell zu ändern. Die Berechnungszeit für eine digitale Karte eines Schigebietes hängt von der Datenanzahl und der Wahl der Parameter ab. Das Endergebnis der Berechnungen sind Lifte, Pisten und ein Netz von Verbindungen. Das berechnete Netz kann als digitale Karte für ein Navigationssystem verwendet werden. Der praktische Teil wird mit der Software Matlab umgesetzt. Als Beispiel werden die digitalen Karten für zwei Schigebiete berechnet und im Bericht interpretiert.
Aktivitätserkennung menschlicher Bewegungen
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2015
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Die vorliegende Arbeit befasst sich mit der Erkennung von menschlichen Bewegungen mittels low-cost Inertialsensoren. Einfache Aktivitäten wie Stehen, Sitzen, Gehen, Laufen, Stiegen steigen usw. werden auf Basis unterschiedlicher Geräte, wie Smartphone und Smartwatch, die an verschiedenen Positionen am Körper getragen wurden, untersucht. Inertialdaten, d.h. Beschleunigungen und Winkelgeschwindigkeiten, von bekannten Aktivitäten werden benötigt, um einen Klassifikator zu trainieren, der dann im Stande sein soll, aktuelle Daten auszuwerten. Diese Messdaten müssen auf geeignete Weise bearbeitet werden, um daraus sogenannte Features zu erhalten, die als Input für den Klassifikator dienen. In dieser Arbeit wird zuerst die Eignung eines Smartphones für die Aktivitätserkennung festgestellt. Basierend darauf werden verschiedene Features als Eingangsgrößen des in dieser Arbeit bevorzugten C4.5 Entscheidungsbaumes gewählt. Benutzerspezifische und geschwindigkeitsabhängige Aktivitäten werden untersucht, sowie die Echtzeitfähigkeit getestet. Mehrere Klassifikatoren werden miteinander verglichen und schließlich ein Algorithmus zur Bestimmung der aktuellen Sensorposition vorgestellt. Die Verwendung von Koordinaten im lokalen Horizontsystem und einem selbst definierten körperfixierten System trägt zur Verbesserung der Aktivitätserkennung bei. Die Evaluierung der erstellten Klassifikatoren liefert für alle Aktivitäten gute Ergebnisse. Die Analyse mit Testdaten zeigt zwar nicht so hohe Genauigkeiten, diese sind immer noch zufriedenstellend. Die benutzerspezifischen Aktivitäten Stiegen hinauf und Stiegen hinunter sind am schwierigsten zu detektieren, während alle anderen Aktivitäten robust prädiziert werden können.
Die vorliegende Arbeit befasst sich mit der Erkennung von menschlichen Bewegungen mittels low-cost Inertialsensoren. Einfache Aktivitäten wie Stehen, Sitzen, Gehen, Laufen, Stiegen steigen usw. werden auf Basis unterschiedlicher Geräte, wie Smartphone und Smartwatch, die an verschiedenen Positionen am Körper getragen wurden, untersucht. Inertialdaten, d.h. Beschleunigungen und Winkelgeschwindigkeiten, von bekannten Aktivitäten werden benötigt, um einen Klassifikator zu trainieren, der dann im Stande sein soll, aktuelle Daten auszuwerten. Diese Messdaten müssen auf geeignete Weise bearbeitet werden, um daraus sogenannte Features zu erhalten, die als Input für den Klassifikator dienen. In dieser Arbeit wird zuerst die Eignung eines Smartphones für die Aktivitätserkennung festgestellt. Basierend darauf werden verschiedene Features als Eingangsgrößen des in dieser Arbeit bevorzugten C4.5 Entscheidungsbaumes gewählt. Benutzerspezifische und geschwindigkeitsabhängige Aktivitäten werden untersucht, sowie die Echtzeitfähigkeit getestet. Mehrere Klassifikatoren werden miteinander verglichen und schließlich ein Algorithmus zur Bestimmung der aktuellen Sensorposition vorgestellt. Die Verwendung von Koordinaten im lokalen Horizontsystem und einem selbst definierten körperfixierten System trägt zur Verbesserung der Aktivitätserkennung bei. Die Evaluierung der erstellten Klassifikatoren liefert für alle Aktivitäten gute Ergebnisse. Die Analyse mit Testdaten zeigt zwar nicht so hohe Genauigkeiten, diese sind immer noch zufriedenstellend. Die benutzerspezifischen Aktivitäten Stiegen hinauf und Stiegen hinunter sind am schwierigsten zu detektieren, während alle anderen Aktivitäten robust prädiziert werden können.
Automated Quality Control Procedures for the International Soil Moisture Network
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2015
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr. Wouter Dorigo MSc
Kurzfassung/Abstract
Since its establishment in 2009, the International Soil Moisture Network (ISMN) provides harmonized ground-based soil moisture measurements, originating from a variety of operating networks. The quality of the collected data is highly variable, caused by differences in the sensing technique as well as by different local conditions at the measuring sites. In situ soil moisture observations are essential to evaluate and calibrate modelled and remotely sensed soil moisture products. Thus, the importance of meaningful quality measures for in situ soil moisture measurements is evident. This study presents sophisticated automated quality control procedures to detect spikes, jumps and plateaus based on analyzing the shape of the soil moisture time series. Several conditions will be defined to identify these erroneous events through investigating the first and second derivatives, derived by the widely-known Savitzky-Golay filter. The performance of the introduced quality control procedures will be evaluated by comparing the automated flagging results to manually flagged data of 40 selected soil moisture datasets from the ISMN. Finally, a flagging statistic based on all soil moisture measurements contained in the ISMN will be presented.
Since its establishment in 2009, the International Soil Moisture Network (ISMN) provides harmonized ground-based soil moisture measurements, originating from a variety of operating networks. The quality of the collected data is highly variable, caused by differences in the sensing technique as well as by different local conditions at the measuring sites. In situ soil moisture observations are essential to evaluate and calibrate modelled and remotely sensed soil moisture products. Thus, the importance of meaningful quality measures for in situ soil moisture measurements is evident. This study presents sophisticated automated quality control procedures to detect spikes, jumps and plateaus based on analyzing the shape of the soil moisture time series. Several conditions will be defined to identify these erroneous events through investigating the first and second derivatives, derived by the widely-known Savitzky-Golay filter. The performance of the introduced quality control procedures will be evaluated by comparing the automated flagging results to manually flagged data of 40 selected soil moisture datasets from the ISMN. Finally, a flagging statistic based on all soil moisture measurements contained in the ISMN will be presented.
Environmental Monitoring and Change Detection of Dynamic River Environments regarding Vegetation and Geomorphology
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
After significant river regulations, especially in the first half of the 20th century, in recent decades the field of river restoration and management has evolved enormously. As a response to increased recognition of river ecological values, river functions and ecosystem services, the European Union has integrated riverine environmental monitoring into legal obligations for all member states. Although the environmental policy framework is now clearly defined, one problem that persists still lies with the ability to reliably acquire environmental data in dynamic river environments. Whereas field sampling and measurement methods are very time-consuming and therefore costly, Earth-observation satellites are able to cover large areas within a short period of time, but such sensors are typically of moderate or coarse spatial resolution. In order to rectify this situation, the suitability of a remotely piloted aircraft system (RPAS) as well as recent satellite technologies are evaluated and tested for riverine environmental monitoring purposes according to the European legal situation. Two different areas in Carinthia have been selected as study sites. Having been declared as NATURA 2000 protected sites, both river reaches are of high ecologic value, and river restoration has been conducted for these reaches in recent years. During multi-temporal missions of the RPAS platform, RGB and NIR images with a spatial resolution of up to 3 cm are collected, analyzed and compared with very high-resolution satellite-derived products. Representing recent satellite data acquired in four or eight multispectral bands by GeoEye-1, QuickBird and WorldView-2 are used for comparison. For the analysis of the RPAS as well as the satellite images, traditional statistical pattern-recognition techniques, as well as more recently-developed methods, are used to classify present riverine habitats. Classification is performed via ISODATA, Maximum Likelihood, and an image-segmentation algorithm based on Full Lambda Schedule. A photogrammetrically-derived digital surface model is used as auxiliary information to enhance classification accuracy. Field reference data are used for accuracy assessment. The result of this research project is an overall quality and suitability assessment of a small RPAS-based multi-sensor platform for high-resolution spatio-temporal monitoring of vegetation and geomorphological change in dynamic river environments. Furthermore, recent satellite systems are compared to the RPAS platform, and possibilities and limitations for different application areas are demonstrated for both remote sensing systems.
After significant river regulations, especially in the first half of the 20th century, in recent decades the field of river restoration and management has evolved enormously. As a response to increased recognition of river ecological values, river functions and ecosystem services, the European Union has integrated riverine environmental monitoring into legal obligations for all member states. Although the environmental policy framework is now clearly defined, one problem that persists still lies with the ability to reliably acquire environmental data in dynamic river environments. Whereas field sampling and measurement methods are very time-consuming and therefore costly, Earth-observation satellites are able to cover large areas within a short period of time, but such sensors are typically of moderate or coarse spatial resolution. In order to rectify this situation, the suitability of a remotely piloted aircraft system (RPAS) as well as recent satellite technologies are evaluated and tested for riverine environmental monitoring purposes according to the European legal situation. Two different areas in Carinthia have been selected as study sites. Having been declared as NATURA 2000 protected sites, both river reaches are of high ecologic value, and river restoration has been conducted for these reaches in recent years. During multi-temporal missions of the RPAS platform, RGB and NIR images with a spatial resolution of up to 3 cm are collected, analyzed and compared with very high-resolution satellite-derived products. Representing recent satellite data acquired in four or eight multispectral bands by GeoEye-1, QuickBird and WorldView-2 are used for comparison. For the analysis of the RPAS as well as the satellite images, traditional statistical pattern-recognition techniques, as well as more recently-developed methods, are used to classify present riverine habitats. Classification is performed via ISODATA, Maximum Likelihood, and an image-segmentation algorithm based on Full Lambda Schedule. A photogrammetrically-derived digital surface model is used as auxiliary information to enhance classification accuracy. Field reference data are used for accuracy assessment. The result of this research project is an overall quality and suitability assessment of a small RPAS-based multi-sensor platform for high-resolution spatio-temporal monitoring of vegetation and geomorphological change in dynamic river environments. Furthermore, recent satellite systems are compared to the RPAS platform, and possibilities and limitations for different application areas are demonstrated for both remote sensing systems.
Analysing the distribution of diabetes in Austria using Spatial Microsimulation
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2015
Betreuer: Dipl.-Ing. (FH) Dr.in Melanie Tomintz, Prof. Graham Clarke (University of Leeds, UK)
Kurzfassung/Abstract
In sum the research questions which are going to be answered through this Master Thesis are: 1. Does spatial microsimulation modelling help to find local hot spots of high and low diabetes prevalence in Austria? 2. Is the simSALUD framework appropriate for modelling diabetes prevalence for small areas in Austria? The first task is the data processing. First the Austrian health survey dataset (with diabetes variables) is chosen. Also the small-area census dataset is needed in this step. The main aim of this part of the thesis is to prepare the data for Analysis. The second step is the pre-analyses to identify best and comparable variables in both datasets. After finding the best fitting constraints the third step is to execute the model. Here the web based framework simSALUD is used. For providing an overall fit of the model two different algorithms are tested. The fourth step is to validate the results of the model (internal and external). The fifth and final step is the spatial analysis of „what-if“ scenarios and the visualization of the data. The results from this Master Thesis are able to show health inequalities in Austria that can be used for further investigations (e.g. extra prevention information in affected areas). On the other hand the analyses are going to show which types of people are affected and where those people are living at the regional scale. Diabetes mellitus is an increasing health issue that can be prevented or at least delayed for some years. With the results of this thesis the hot spots of diabetes in small areas in Austria can be identified.
In sum the research questions which are going to be answered through this Master Thesis are: 1. Does spatial microsimulation modelling help to find local hot spots of high and low diabetes prevalence in Austria? 2. Is the simSALUD framework appropriate for modelling diabetes prevalence for small areas in Austria? The first task is the data processing. First the Austrian health survey dataset (with diabetes variables) is chosen. Also the small-area census dataset is needed in this step. The main aim of this part of the thesis is to prepare the data for Analysis. The second step is the pre-analyses to identify best and comparable variables in both datasets. After finding the best fitting constraints the third step is to execute the model. Here the web based framework simSALUD is used. For providing an overall fit of the model two different algorithms are tested. The fourth step is to validate the results of the model (internal and external). The fifth and final step is the spatial analysis of „what-if“ scenarios and the visualization of the data. The results from this Master Thesis are able to show health inequalities in Austria that can be used for further investigations (e.g. extra prevention information in affected areas). On the other hand the analyses are going to show which types of people are affected and where those people are living at the regional scale. Diabetes mellitus is an increasing health issue that can be prevented or at least delayed for some years. With the results of this thesis the hot spots of diabetes in small areas in Austria can be identified.