- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2012
Abschlussarbeiten 2012
Tidal excitation of Earth rotation observed by VLBI and GNSS
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2012
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Eine präzise Beschreibung des Rotationsverhaltens der Erde, die auf geophysikalischen Grundlagen beruht, ist unabdingbar für die Präzision und Zuverlässigkeit der aus Beobachtungen geodätischer Weltraumverfahren abgeleiteten Aussagen und Parameter. Umgekehrt ermöglicht die Verfügbarkeit hochgenauer Zeitreihen der Erdrotationsparameter (ERP) Erkenntnisse über globale dynamische Prozesse und Wechselwirkungen im System Erde und erlaubt die Evaluierung und Verbesserung von Modellen, die diese beschreiben. Beide Aspekte werden in der vorliegenden Dissertation hinsichtlich des Einflusses der Gezeiten auf die Erdrotation im Periodenbereich von einigen Stunden bis zu einem Jahr behandelt.
Das vom IERS (International Earth Rotation and Reference Systems Service) empfohlene Modell für tägliche und sub-tägliche Effekte der Ozeangezeiten auf Polbewegung und Weltzeit (UT1) basiert auf einem inzwischen überholten Ozeangezeitenmodell. Es besteht die Vermutung, dass dadurch die Bahnbestimmung des GPS (Global Positioning System), sowie, unter bestimmten Gegebenheiten, auch die Analyse von Beobachtungen der VLBI (Very Long Baseline Interferometry), negativ beeinflusst werden. Die exakte Kenntnis des Beitrags der Ozeangezeiten zu Erdrotationsschwankungen ist ferner essentiell für die Erforschung anderer hochfrequenter Einflüsse, wie der thermischen Gezeiten der Atmosphäre und Ozeane und die Auswirkungen des lunisolaren Drehmoments auf die triaxiale Figur der Erde, genannt Libration. Die Ziele dieser Arbeit bezüglich hochfrequenter Gezeitenphänomene sind, die Mängel des konventionellen ERP Ozeangezeitenmodells aufzuzeigen, Alternativen zu erkunden, und den potentiellen Vorteil einer kombinierten Analyse von GPS mit dem russischen GNSS (Global Navigation Satellite System) GLONASS zu untersuchen.
Die zweite zentrale Fragestellung dieser Doktorarbeit betrifft langperiodische gezeitenbedingte Schwankungen der Weltzeit. Sie werden als zonale gezeitenbedingte Variationen bezeichnet und umfassen die Effekte der festen Erdgezeiten (elastische und anelastische Reaktion des Erdkörpers) und langperiodischer Ozeangezeiten. Entsprechende Modelle sind wichtig für die Prädiktion von UT1 und somit für Echtzeitanwendungen und Navigationsaufgaben. Anhand von UT1-Beobachtungen der Verfahren VLBI und GNSS wird beurteilt, ob das konventionelle Modell der zonalen gezeitenbedingten Variationen die empirisch ermittelten Schwankungen ausreichend genau repräsentiert. Des weiteren wird erforscht, mit welcher Unsicherheit der zonale Reaktionskoeffizient κ aus den Beobachtungen bestimmt werden kann. Dieser Koeffizient beschreibt den Zusammenhang zwischen Amplituden des Gezeitenpotentials und Amplituden des zonalen Gezeitensignals in UT1 und charakterisiert damit die Reaktionseigenschaften des Erde-Ozean-Systems.
Die Komponenten der gezeitenbedingten Schwingungen werden durch Ausgleichung nach der Methode der kleinsten Quadrate aus VLBI- und GNSS-ERP-Zeitreihen mit geeigneter Auflösung ermittelt. Zur Ableitung der hochfrequenten Gezeitensignale aus VLBI kommen außerdem das Verfahren der komplexen Demodulation und die direkte Schätzung der harmonischen Koeffizienten innerhalb einer globalen Lösung zum Einsatz.
Die Analyse der Erdrotationsschwankungen im Hinblick auf kurzperiodische Ozeangezeiten offenbart signifikante Mängel des Modells der neuesten IERS Conventions (2010) bezüglich der meisten Hauptterme, sowohl in der Polbewegung als auch in UT1. Entsprechende unter Verwendung des aktuellen Ozeangezeitenmodells TPXO7.2 durchgeführte ERP-Prädiktionen stimmen etwas besser mit beobachteten ERP überein. Im Gegensatz zum konventionellen Modell werden durch Anbringen der Librationskorrekturen auch die Polbewegungsresiduen zu TPXO7.2 weiter verringert. Der Vorteil einer kombinierten GPS+GLONASS Lösung kann, aufgrund der geringen Anzahl (7%) verfügbarer GLONASS Daten im Beobachtungszeitraum (2008-2008.6), nicht bewiesen werden. Verschiedene Kombinationen geophysikalischer Modelle für die Anregung der thermischen S1-Komponente (atmosphärische, nicht-gezeitenbedingte ozeanische) lassen im Vergleich keine einheitlichen Tendenzen erkennen; zudem sind die beobachteten S1-Residuen durch keine der herangezogenen Modellkombinationen zu begründen.
Das in den IERS Conventions (2010) propagierte Modell für den Effekt der zonalen Gezeiten weist gute Übereinstimmungen mit gemessenen UT1- und abgeleiteten LOD- (length of day) Werten auf. Als wesentlicher Nachteil des Vorgängermodells (IERS Conventions, 2003) wird die Vernachlässigung einer dynamischen Ozeantide für halbmonatliche und monatliche Komponenten bestätigt. Auffällige Spitzenwerte des LOD-Residuenspektrums zu halbjährlichen und jährlichen Perioden sind auf den Beitrag zonaler Winde in der oberen Atmosphäre zurückzuführen, der in den zur Datenreduktion verwendeten atmosphärischen Drehimpulsfunktionen nicht berücksichtigt ist. Der zonale Reaktionskoeffizient κ kann aus den empirischen halbmonatlichen und monatlichen zonalen Termen gegenwärtig auf 0.3% genau bestimmt werden.
Das konventionelle Modell der hochfrequenten Anregung der Erdrotation durch Ozeangezeiten sollte zweifellos revidiert werden. Wie in der vorliegenden Arbeit deutlich dargestellt wird, reduziert die Neuberechnung auf Basis eines neueren Gezeitenmodells die vorhandenen Abweichungen, allerdings nur in geringem Maße. Die Einbeziehung eines harmonischen Modells der thermischen S1-Ozeantide in ein Standardmodell zur Vorhersage der ozeangezeitenbedingten ERP ist nicht zu empfehlen, solange offenkundige Diskrepanzen zwischen den geophysikalischen Modellen bestehen.
Eine Aktualisierung des konventionellen Modells für zonale UT1 Variationen ist, vom Standpunkt der Beobachtungen aus, nicht zwingend notwendig. Angesichts der nun erreichbaren Genauigkeit in der Bestimmung des zonalen Reaktionskoeffizienten, wurde ein modernes Modell des elastischen Anteils der festen Erdgezeiten jedoch mit Sicherheit die Quantifizierung des anelastischen Verhaltens anhand von Beobachtungen voranbringen.
Eine präzise Beschreibung des Rotationsverhaltens der Erde, die auf geophysikalischen Grundlagen beruht, ist unabdingbar für die Präzision und Zuverlässigkeit der aus Beobachtungen geodätischer Weltraumverfahren abgeleiteten Aussagen und Parameter. Umgekehrt ermöglicht die Verfügbarkeit hochgenauer Zeitreihen der Erdrotationsparameter (ERP) Erkenntnisse über globale dynamische Prozesse und Wechselwirkungen im System Erde und erlaubt die Evaluierung und Verbesserung von Modellen, die diese beschreiben. Beide Aspekte werden in der vorliegenden Dissertation hinsichtlich des Einflusses der Gezeiten auf die Erdrotation im Periodenbereich von einigen Stunden bis zu einem Jahr behandelt.
Das vom IERS (International Earth Rotation and Reference Systems Service) empfohlene Modell für tägliche und sub-tägliche Effekte der Ozeangezeiten auf Polbewegung und Weltzeit (UT1) basiert auf einem inzwischen überholten Ozeangezeitenmodell. Es besteht die Vermutung, dass dadurch die Bahnbestimmung des GPS (Global Positioning System), sowie, unter bestimmten Gegebenheiten, auch die Analyse von Beobachtungen der VLBI (Very Long Baseline Interferometry), negativ beeinflusst werden. Die exakte Kenntnis des Beitrags der Ozeangezeiten zu Erdrotationsschwankungen ist ferner essentiell für die Erforschung anderer hochfrequenter Einflüsse, wie der thermischen Gezeiten der Atmosphäre und Ozeane und die Auswirkungen des lunisolaren Drehmoments auf die triaxiale Figur der Erde, genannt Libration. Die Ziele dieser Arbeit bezüglich hochfrequenter Gezeitenphänomene sind, die Mängel des konventionellen ERP Ozeangezeitenmodells aufzuzeigen, Alternativen zu erkunden, und den potentiellen Vorteil einer kombinierten Analyse von GPS mit dem russischen GNSS (Global Navigation Satellite System) GLONASS zu untersuchen.
Die zweite zentrale Fragestellung dieser Doktorarbeit betrifft langperiodische gezeitenbedingte Schwankungen der Weltzeit. Sie werden als zonale gezeitenbedingte Variationen bezeichnet und umfassen die Effekte der festen Erdgezeiten (elastische und anelastische Reaktion des Erdkörpers) und langperiodischer Ozeangezeiten. Entsprechende Modelle sind wichtig für die Prädiktion von UT1 und somit für Echtzeitanwendungen und Navigationsaufgaben. Anhand von UT1-Beobachtungen der Verfahren VLBI und GNSS wird beurteilt, ob das konventionelle Modell der zonalen gezeitenbedingten Variationen die empirisch ermittelten Schwankungen ausreichend genau repräsentiert. Des weiteren wird erforscht, mit welcher Unsicherheit der zonale Reaktionskoeffizient κ aus den Beobachtungen bestimmt werden kann. Dieser Koeffizient beschreibt den Zusammenhang zwischen Amplituden des Gezeitenpotentials und Amplituden des zonalen Gezeitensignals in UT1 und charakterisiert damit die Reaktionseigenschaften des Erde-Ozean-Systems.
Die Komponenten der gezeitenbedingten Schwingungen werden durch Ausgleichung nach der Methode der kleinsten Quadrate aus VLBI- und GNSS-ERP-Zeitreihen mit geeigneter Auflösung ermittelt. Zur Ableitung der hochfrequenten Gezeitensignale aus VLBI kommen außerdem das Verfahren der komplexen Demodulation und die direkte Schätzung der harmonischen Koeffizienten innerhalb einer globalen Lösung zum Einsatz.
Die Analyse der Erdrotationsschwankungen im Hinblick auf kurzperiodische Ozeangezeiten offenbart signifikante Mängel des Modells der neuesten IERS Conventions (2010) bezüglich der meisten Hauptterme, sowohl in der Polbewegung als auch in UT1. Entsprechende unter Verwendung des aktuellen Ozeangezeitenmodells TPXO7.2 durchgeführte ERP-Prädiktionen stimmen etwas besser mit beobachteten ERP überein. Im Gegensatz zum konventionellen Modell werden durch Anbringen der Librationskorrekturen auch die Polbewegungsresiduen zu TPXO7.2 weiter verringert. Der Vorteil einer kombinierten GPS+GLONASS Lösung kann, aufgrund der geringen Anzahl (7%) verfügbarer GLONASS Daten im Beobachtungszeitraum (2008-2008.6), nicht bewiesen werden. Verschiedene Kombinationen geophysikalischer Modelle für die Anregung der thermischen S1-Komponente (atmosphärische, nicht-gezeitenbedingte ozeanische) lassen im Vergleich keine einheitlichen Tendenzen erkennen; zudem sind die beobachteten S1-Residuen durch keine der herangezogenen Modellkombinationen zu begründen.
Das in den IERS Conventions (2010) propagierte Modell für den Effekt der zonalen Gezeiten weist gute Übereinstimmungen mit gemessenen UT1- und abgeleiteten LOD- (length of day) Werten auf. Als wesentlicher Nachteil des Vorgängermodells (IERS Conventions, 2003) wird die Vernachlässigung einer dynamischen Ozeantide für halbmonatliche und monatliche Komponenten bestätigt. Auffällige Spitzenwerte des LOD-Residuenspektrums zu halbjährlichen und jährlichen Perioden sind auf den Beitrag zonaler Winde in der oberen Atmosphäre zurückzuführen, der in den zur Datenreduktion verwendeten atmosphärischen Drehimpulsfunktionen nicht berücksichtigt ist. Der zonale Reaktionskoeffizient κ kann aus den empirischen halbmonatlichen und monatlichen zonalen Termen gegenwärtig auf 0.3% genau bestimmt werden.
Das konventionelle Modell der hochfrequenten Anregung der Erdrotation durch Ozeangezeiten sollte zweifellos revidiert werden. Wie in der vorliegenden Arbeit deutlich dargestellt wird, reduziert die Neuberechnung auf Basis eines neueren Gezeitenmodells die vorhandenen Abweichungen, allerdings nur in geringem Maße. Die Einbeziehung eines harmonischen Modells der thermischen S1-Ozeantide in ein Standardmodell zur Vorhersage der ozeangezeitenbedingten ERP ist nicht zu empfehlen, solange offenkundige Diskrepanzen zwischen den geophysikalischen Modellen bestehen.
Eine Aktualisierung des konventionellen Modells für zonale UT1 Variationen ist, vom Standpunkt der Beobachtungen aus, nicht zwingend notwendig. Angesichts der nun erreichbaren Genauigkeit in der Bestimmung des zonalen Reaktionskoeffizienten, wurde ein modernes Modell des elastischen Anteils der festen Erdgezeiten jedoch mit Sicherheit die Quantifizierung des anelastischen Verhaltens anhand von Beobachtungen voranbringen.
Eine Analyse der Amplituden oberflächennaher refraktierter Wellen
Institut für Geodäsie und Geophysik, Forschungsgruppe Geophysik, Technische Universität Wien, 2012
Begutachter: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Begutachter: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Die Auswertung refraktionsseismischer Wellen findet in der Praxis mit wenigen Ausnahmen nur mit der Laufzeitinformation statt, was zu einer Verteilung der seismischen Geschwindigkeit im Untergrund führt. Die dynamische Ausbreitung dieser Wellen und damit die Amplituden, die durch verschiedene gesteinsphysikalische Parameter, aber auch durch die Strukturen im Untergrund beeinflusst werden, werden bei allen Auswertemethoden völlig vernachlässigt. Um diese Einflüsse auf die Amplituden refraktionsseismischer Wellen zu untersuchen, wird in dieser Arbeit die numerische Methode der Finiten Elemente in 2D verwendet. Um eine ausreichende Genauigkeit mit dieser Methode und ein besseres Verständnis der folgenden Ergebnisse zu erreichen, wird zuerst eine Analyse der Amplituden bei Modellen durchgeführt, bei denen die geometrischen und physikalischen Modellparameter, aber auch die Anregungsfrequenzen variiert werden. Bei dieser grundsätzlichen Untersuchung werden einfache Modellfälle, wie der Halbraum und ein ebener 2-Schichtfall, verwendet, für die zusätzlich eine Kalibrierung mit einer analytischen Strahlenintegral-Methode erfolgt. Dies führt zu einer Festlegung aller wichtigen Modellparameter, die für alle weiteren numerischen Berechnungen verwendet werden. Die nachfolgende Analyse der Amplituden refraktionsseismischer Modelle ergibt mit verschiedenen gesteinsphysikalische Parametern, wie den seismischen Geschwindigkeiten und Poissonzahlen, aber auch mit vertikalen Geschwindigkeitsgradienten im Refraktor eindeutige Zusammenhänge zu den Amplituden in Abhängigkeit mit der Distanz. Auch zeigt sich, dass verschiedene Strukturen im Untergrund, von Geschwindigkeitsinversionen bis Störzonen im Untergrund ein eindeutiges Abbild von Amplitudenwerten an den Aufnehmern liefern. Beide Aspekte der räumlichen Amplitudenabhängigkeiten werden anhand von einigen Feldbeispielen diskutiert, was die numerischen Ergebnisse der Einflüsse auf die Amplituden mehr oder wenig bestätigt. Die Feldbeispiele zeigen außerdem, dass die Amplituden bei der Auswahl einer kinematischen Auswertemethode eine Hilfe geben können, aber auch, dass großräumige Dämpfungen eine große Rolle spielen. Zuletzt wird mit Hilfe der Finiten Elemente Methode ein lokaler Absorptionsfaktor ermittelt, wofür ein Inversionsalgorithmus entwickelt wird. Dieser Parameter soll Informationen über kleinräumige Strukturen im Untergrund geben.
Die Auswertung refraktionsseismischer Wellen findet in der Praxis mit wenigen Ausnahmen nur mit der Laufzeitinformation statt, was zu einer Verteilung der seismischen Geschwindigkeit im Untergrund führt. Die dynamische Ausbreitung dieser Wellen und damit die Amplituden, die durch verschiedene gesteinsphysikalische Parameter, aber auch durch die Strukturen im Untergrund beeinflusst werden, werden bei allen Auswertemethoden völlig vernachlässigt. Um diese Einflüsse auf die Amplituden refraktionsseismischer Wellen zu untersuchen, wird in dieser Arbeit die numerische Methode der Finiten Elemente in 2D verwendet. Um eine ausreichende Genauigkeit mit dieser Methode und ein besseres Verständnis der folgenden Ergebnisse zu erreichen, wird zuerst eine Analyse der Amplituden bei Modellen durchgeführt, bei denen die geometrischen und physikalischen Modellparameter, aber auch die Anregungsfrequenzen variiert werden. Bei dieser grundsätzlichen Untersuchung werden einfache Modellfälle, wie der Halbraum und ein ebener 2-Schichtfall, verwendet, für die zusätzlich eine Kalibrierung mit einer analytischen Strahlenintegral-Methode erfolgt. Dies führt zu einer Festlegung aller wichtigen Modellparameter, die für alle weiteren numerischen Berechnungen verwendet werden. Die nachfolgende Analyse der Amplituden refraktionsseismischer Modelle ergibt mit verschiedenen gesteinsphysikalische Parametern, wie den seismischen Geschwindigkeiten und Poissonzahlen, aber auch mit vertikalen Geschwindigkeitsgradienten im Refraktor eindeutige Zusammenhänge zu den Amplituden in Abhängigkeit mit der Distanz. Auch zeigt sich, dass verschiedene Strukturen im Untergrund, von Geschwindigkeitsinversionen bis Störzonen im Untergrund ein eindeutiges Abbild von Amplitudenwerten an den Aufnehmern liefern. Beide Aspekte der räumlichen Amplitudenabhängigkeiten werden anhand von einigen Feldbeispielen diskutiert, was die numerischen Ergebnisse der Einflüsse auf die Amplituden mehr oder wenig bestätigt. Die Feldbeispiele zeigen außerdem, dass die Amplituden bei der Auswahl einer kinematischen Auswertemethode eine Hilfe geben können, aber auch, dass großräumige Dämpfungen eine große Rolle spielen. Zuletzt wird mit Hilfe der Finiten Elemente Methode ein lokaler Absorptionsfaktor ermittelt, wofür ein Inversionsalgorithmus entwickelt wird. Dieser Parameter soll Informationen über kleinräumige Strukturen im Untergrund geben.
Fehler-Charakterisierungsmethoden für Bodenfeuchtemessungen aus Fernerkundung
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Zur Unterstützung für den operationellen Einsatz von Erdbeobachtungssystemen wie Synthetic Aperture Radar (SAR) entwickelt die Europäische Weltraumbehörde ESA den Radar-Satelliten Sentinel-1, der im C-Band arbeitet. Ähnlich seinen SAR-Vorgängern auf den Plattformen ERS, ENVISAT, oder RADARSAT wird der Sensor Sentinel-1 bei einer mittleren räumlicher Auflösung im Bereich von 5 bis 40 m arbeiten, allerdings mit einer vielfach erhöhten Wiederholrate, die über Europa etwa im Bereich von ca. 2 Tagen liegen wird. Aufgrund dieser hohen zeitlichen Auflösung sowie dem operationellen Design wird der Satellit einen großen Beitrag zur Überwachung von dynamischen Prozessen in Hydrologie und Phänologie leisten. Der Nutzen von C-Band SAR-Überwachungssystemen in der Hydrologie wurde in der Vergangenheit bereits im Rahmen des Projects SHARE (Soil Moisture for Hydrometeorologic Applications) gezeigt, bei dem Daten des Instruments ASAR (Advanced Synthetic Aperture Radar) im Global Mode (GM) verwendet wurden (Doubkova et al., 2009). Um das volle Potential von SAR-Produkten im Bereich Bodenfeuchtigkeit auszuschöpfen, ist ein mitgeliefertes Fehlermaß unerlässlich. Das Verständnis dieses Fehlermaßes ist unentbehrlich für die Anwendung von Bodenfeuchteprodukten in Modellen, die Extraktion oder Erstellung von Produkten, sowie den Vergleich mit anderen Bodenfeuchteprodukten geht.
Die vorliegende Arbeit umfasst mehrere Ziele. Erstens werden Grundlagen sowie ein aktueller Stand der Technik im Bereich der Fehlermaße von Bodenfeuchteprodukten dargestellt, wie etwa dem quadratischen mittleren Fehler, Korrelationskoeffizienten oder erweiterten Methoden wie Fehlerfortpflanzung und triple collocation. Des Weiteren wird eine Übersicht der Anwendungsbereiche von Bodenfeuchteprodukten präsentiert und Evaluierungsmethoden je nach Bereich und Qualitätsanforderung vorgeschlagen. Die Evaluierung von ASAR GM Bodenfeuchteprodukten mit eben diesen Methoden stellt ein zweites Ziel dieser Arbeit dar. Um dies zu erreichen wurden Daten des australischen hydrologischen Modells Water Assessment System (AWRA-L), Feldmessungen des australischen Netzwerkes OzNET, sowie weitere grob aufgelöste Fernerkundungsdaten verwendet um die Qualität der Bodenfeuchteprodukte umfassend zu beschreiben. Die dritte Zielsetzung dieser Arbeit ist das Bereitstellen von Richtlinien für eine Evaluierungsmethode, die auf beliebige Bodenfeuchteprodukte angewendet werden kann. Zu diesem Zweck wurden die ASAR GM Ergebnisse vor einem breiteren Hintergrund analysiert um folgende Fragestellungen zu beantworten:
Zur Unterstützung für den operationellen Einsatz von Erdbeobachtungssystemen wie Synthetic Aperture Radar (SAR) entwickelt die Europäische Weltraumbehörde ESA den Radar-Satelliten Sentinel-1, der im C-Band arbeitet. Ähnlich seinen SAR-Vorgängern auf den Plattformen ERS, ENVISAT, oder RADARSAT wird der Sensor Sentinel-1 bei einer mittleren räumlicher Auflösung im Bereich von 5 bis 40 m arbeiten, allerdings mit einer vielfach erhöhten Wiederholrate, die über Europa etwa im Bereich von ca. 2 Tagen liegen wird. Aufgrund dieser hohen zeitlichen Auflösung sowie dem operationellen Design wird der Satellit einen großen Beitrag zur Überwachung von dynamischen Prozessen in Hydrologie und Phänologie leisten. Der Nutzen von C-Band SAR-Überwachungssystemen in der Hydrologie wurde in der Vergangenheit bereits im Rahmen des Projects SHARE (Soil Moisture for Hydrometeorologic Applications) gezeigt, bei dem Daten des Instruments ASAR (Advanced Synthetic Aperture Radar) im Global Mode (GM) verwendet wurden (Doubkova et al., 2009). Um das volle Potential von SAR-Produkten im Bereich Bodenfeuchtigkeit auszuschöpfen, ist ein mitgeliefertes Fehlermaß unerlässlich. Das Verständnis dieses Fehlermaßes ist unentbehrlich für die Anwendung von Bodenfeuchteprodukten in Modellen, die Extraktion oder Erstellung von Produkten, sowie den Vergleich mit anderen Bodenfeuchteprodukten geht.
Die vorliegende Arbeit umfasst mehrere Ziele. Erstens werden Grundlagen sowie ein aktueller Stand der Technik im Bereich der Fehlermaße von Bodenfeuchteprodukten dargestellt, wie etwa dem quadratischen mittleren Fehler, Korrelationskoeffizienten oder erweiterten Methoden wie Fehlerfortpflanzung und triple collocation. Des Weiteren wird eine Übersicht der Anwendungsbereiche von Bodenfeuchteprodukten präsentiert und Evaluierungsmethoden je nach Bereich und Qualitätsanforderung vorgeschlagen. Die Evaluierung von ASAR GM Bodenfeuchteprodukten mit eben diesen Methoden stellt ein zweites Ziel dieser Arbeit dar. Um dies zu erreichen wurden Daten des australischen hydrologischen Modells Water Assessment System (AWRA-L), Feldmessungen des australischen Netzwerkes OzNET, sowie weitere grob aufgelöste Fernerkundungsdaten verwendet um die Qualität der Bodenfeuchteprodukte umfassend zu beschreiben. Die dritte Zielsetzung dieser Arbeit ist das Bereitstellen von Richtlinien für eine Evaluierungsmethode, die auf beliebige Bodenfeuchteprodukte angewendet werden kann. Zu diesem Zweck wurden die ASAR GM Ergebnisse vor einem breiteren Hintergrund analysiert um folgende Fragestellungen zu beantworten:
- Ist es möglich die Qualitätsanforderungen von vergleichbaren Missionen wie SMOS oder SMAP auf ASAR GM Bodenfeuchteprodukte zu übertragen?
- Wie beeinflusst die räumliche Auflösung die Fehlerabschätzung?
- Gibt es ein einziges Maß für die Qualitätsbeschreibung von Bodenfeuchteprodukten?
- Wie ist die Qualität von ASAR GM Bodenfeuchtigkeitsprodukten und wo liegen Einschränkungen?
- Wie ist die Qualität von Sentinel-1 Bodenfeuchtigkeitsprodukten und wo liegen Einschränkungen?
Knowledge-based route planning - Data modelling and multi-criteria time-constrained route optimization for people with disabilities
Institut für Navigation, Technische Universität Graz, 2012
Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Ein webbasierter Routenplaner soll spezifischen Benutzergruppen wie blinden und sehbehinderten Personen sowie Rollstuhlfahrern die Navigation und Orientierung in unbekannter Umgebung erleichtern. Durch die Einführung individueller Benutzerprofile kann dieselbe Anwendung von verschiedensten Benutzergruppen genutzt werden. Die Ziele dieser Arbeit liegen in der Erhebung der Anforderungen behinderter Personen an den Routenplaner, die Datengrundlage, Routenoptimierung und Routenbeschreibung, die Erstellung eines Wegenetzes für die Routenplanung mit detaillierten Informationen für die Benutzergruppen und den Algorithmus zur Routenoptimierung. Durch die Einbindung des öffentlichen Verkehrs und zusätzlichen Optimierungskriterien speziell für behinderte Personen, ist eine multi-kriterielle zeitabhängige Routenplanung notwendig. Dieses Optimierungsproblem kann nicht mit konventionellen Algorithmen zur Berechnung des kürzesten Weges gelöst werden. Schwerpunkte der Arbeit sind die detaillierte Beschreibung von Algorithmen zur multi-kriteriellen Optimierung, der Vergleich verschiedener Methoden und die Umsetzung einer speziellen, erweiterten Lösung für den Routenplaner. Bei der Entwicklung des Routenplaners wurde vor allem auf die Benutzerfreundlichkeit und Barrierefreiheit der Web-Anwendung geachtet und die Erkenntnisse in der Arbeit dokumentiert.
Ein webbasierter Routenplaner soll spezifischen Benutzergruppen wie blinden und sehbehinderten Personen sowie Rollstuhlfahrern die Navigation und Orientierung in unbekannter Umgebung erleichtern. Durch die Einführung individueller Benutzerprofile kann dieselbe Anwendung von verschiedensten Benutzergruppen genutzt werden. Die Ziele dieser Arbeit liegen in der Erhebung der Anforderungen behinderter Personen an den Routenplaner, die Datengrundlage, Routenoptimierung und Routenbeschreibung, die Erstellung eines Wegenetzes für die Routenplanung mit detaillierten Informationen für die Benutzergruppen und den Algorithmus zur Routenoptimierung. Durch die Einbindung des öffentlichen Verkehrs und zusätzlichen Optimierungskriterien speziell für behinderte Personen, ist eine multi-kriterielle zeitabhängige Routenplanung notwendig. Dieses Optimierungsproblem kann nicht mit konventionellen Algorithmen zur Berechnung des kürzesten Weges gelöst werden. Schwerpunkte der Arbeit sind die detaillierte Beschreibung von Algorithmen zur multi-kriteriellen Optimierung, der Vergleich verschiedener Methoden und die Umsetzung einer speziellen, erweiterten Lösung für den Routenplaner. Bei der Entwicklung des Routenplaners wurde vor allem auf die Benutzerfreundlichkeit und Barrierefreiheit der Web-Anwendung geachtet und die Erkenntnisse in der Arbeit dokumentiert.
Analyse des Vereinheitlichungspotenzials der Landnutzungsinformationssysteme der Provinz Bozen - Südtirol
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2012
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Für die Landesverwaltung der autonomen Provinz Bozen - Südtirol ist eine genaue Kenntnis über die Nutzung des Bodens die Grundlage für verschiedenste Verwaltungsprozesse, wie Landadministration, Subventionierung. Einige Abteilungen verwenden für die Beantwortung von räumlichen Fragestellungen die Realnutzungskarte als Datengrundlage. Für spezielle Anwendungen, wie die Berechnung der Agrarförderungen, werden von der Abteilung Landwirtschaft eigene Erhebungen mit Angaben des Bewirtschafters durchgeführt. Die Realnutzungskarte wurde hingegen unabhängig von den Angaben der Bewirtschafter mit Methoden der Fernerkundung erstellt. Diese zwei unterschiedlichen Zugangsweisen sollten dieselben Datensätze besitzen, da beide die Landnutzung beschreiben. Die Datensätze unterscheiden sich jedoch neben den Informationen über die Landnutzung in ihrer Klassifizierung, Position und Qualität. Die Diplomarbeit zeigt auf wie weit diese Datensätze vereinheitlichbar sind und inwieweit die Qualität durch eine Verschmelzung der Datensätze verbessert werden kann.
Für die Landesverwaltung der autonomen Provinz Bozen - Südtirol ist eine genaue Kenntnis über die Nutzung des Bodens die Grundlage für verschiedenste Verwaltungsprozesse, wie Landadministration, Subventionierung. Einige Abteilungen verwenden für die Beantwortung von räumlichen Fragestellungen die Realnutzungskarte als Datengrundlage. Für spezielle Anwendungen, wie die Berechnung der Agrarförderungen, werden von der Abteilung Landwirtschaft eigene Erhebungen mit Angaben des Bewirtschafters durchgeführt. Die Realnutzungskarte wurde hingegen unabhängig von den Angaben der Bewirtschafter mit Methoden der Fernerkundung erstellt. Diese zwei unterschiedlichen Zugangsweisen sollten dieselben Datensätze besitzen, da beide die Landnutzung beschreiben. Die Datensätze unterscheiden sich jedoch neben den Informationen über die Landnutzung in ihrer Klassifizierung, Position und Qualität. Die Diplomarbeit zeigt auf wie weit diese Datensätze vereinheitlichbar sind und inwieweit die Qualität durch eine Verschmelzung der Datensätze verbessert werden kann.
Towards approximate tolerance geometry for GIS
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2012
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Die vorliegende Dissertation befasst sich mit der Modellierung von Unvollkommenheiten räumlicher Information in geographischen Informationssystemen (GIS). Das Forschungsgebiet ist Teil der Geoinformationswissenschaften, und hat eine lange Geschichte: Aufgrund von begrenzter Messgenauigkeit, Messfehlern, Fehlregistrierungen, unscharfen Objektgrenzen, etc. sind die in einem GIS gespeicherten räumlichen Informationen niemals exakt - und in diesem Sinne unvollkommen.
In der Vergangenheit wurden zahlreiche Methoden und Kalküle vorgeschlagen, um unvollkommen räumliche Information in GIS zu repräsentieren und zu propagieren. Während topologische Kalküle oft auf mathematisch fundierten algebraischen oder axiomatischen Theorien aufbauen, sind geometrische Kalküle meist auf Heuristiken angewiesen, da geometrische Information wesentlich reichhaltiger ist als topologische Information. Axiomatische Kalküle haben gegenüber heuristischen Αnsätzen einen wesentlichen Vorteil: Es ist formal beweisbar, ab die errechneten Ergebnisse mit der Wirklichkeit bzw. mit der definierten Semantik - übereinstimmen oder nicht. Mit anderen Worten, die Korrektheit des Kalküls ist beweisbar. Diese Eigenschaft bekommt mit der zunehmenden Nutzung von GIS, z.B. in Anwendungen wie Katastrophenmanagement, wachsende Bedeutung, denn die Korrektheit der verwendeten Kalküle garantiert die Verlässlichkeit von GIS-basierten Analysen. Die vorliegende Dissertation stellt die Hypothese auf, dass es möglich, ist eine korrekte axiomatische Geometrie zu definieren, die mit unvollkommener geometrischer Information umgehen kann.
Die Arbeit beschränkt sich auf Positionstoleranz als eine Art von Unvollkommenheit räumlicher Information. Um eine korrekte geometrische Theorie unter Positionstoleranz aufzustellen, schlagen wir ein Fuzzy Logik basiertes Framework vor, das es erlaubt die Axiome der klassischen Geometrie durch Grade von Wahrheitsähnlichkeit anzureichern. Dem Framework zu Grunde liegt die Annahme, dass klassische Geometrie eine Idealisierung einer - wahrgenommenen oder gemessenen - "realen Geometrie" darstellt und dieser ähnlich ist. Der Grad der Ähnlichkeit von geometrischen Aussagen wird als Wahrheitsähnlichkeit ausgedrückt, die Ähnlichkeit der beiden Geometrien wird mit. Ähnlichkeitslogik modelliert. Die hier benutzte Ähnlichkeitslogik ist Fuzzy Logik mit evaluierter Syntax, eine Weiterentwicklung der Rational Pavelka Logik.
Die vorliegende Forschung verifiziert die Hypothese teilweise: Um ein Maß für Wahrheitsähnlichkeit. festzulegen, definieren wir "Wahrheit" in Form einer formalen Semantik für Geometrie unter Positionstoleranz, die für GIS Anwendungen konzipiert ist. Wir zeigen exemplarisch anhand der Gleichheitsaxiome dass das Framework erfolgreich angewendet werden kann. Wir zeigen außerdem, dass eine mit Hilfe des vorgeschlagenen Frameworks abgeleitete Theorie notwendig korrekt sein muss. Die Forschung zeigt jedoch auch, dass die Anwendung des Frameworks auf Euklid's Erstes Postulat auf Basis der vorgeschlagenen Semantik ein triviales (d h immer wahres) Ergebnis liefert, welches nicht den intendierten Zweck für GIS Anwendungen erfüllt. Die Ergebnisse der Arbeit deuten darauf hin, dass die vorgeschlagene Semantik nicht reichhaltig genug ist, um eine nicht-triviale geometrische Theorie mit Positionstoleranz zu erzeugen, und dass es, um dieses Ziel zu erreichen, nötig ist, die Semantik um einen weiteren Parameter anzureichem. Im Nachhinein betrachtet scheint dieses Resultat mit der Intuition übereinzustimmen. Wir geben Anregungen, wie der zusätzliche Parameter in das Framework eingebunden werden kann, überlassen eine detaillierte Ausarbeitung aber der zukünftigen Forschung.
Die vorliegende Dissertation befasst sich mit der Modellierung von Unvollkommenheiten räumlicher Information in geographischen Informationssystemen (GIS). Das Forschungsgebiet ist Teil der Geoinformationswissenschaften, und hat eine lange Geschichte: Aufgrund von begrenzter Messgenauigkeit, Messfehlern, Fehlregistrierungen, unscharfen Objektgrenzen, etc. sind die in einem GIS gespeicherten räumlichen Informationen niemals exakt - und in diesem Sinne unvollkommen.
In der Vergangenheit wurden zahlreiche Methoden und Kalküle vorgeschlagen, um unvollkommen räumliche Information in GIS zu repräsentieren und zu propagieren. Während topologische Kalküle oft auf mathematisch fundierten algebraischen oder axiomatischen Theorien aufbauen, sind geometrische Kalküle meist auf Heuristiken angewiesen, da geometrische Information wesentlich reichhaltiger ist als topologische Information. Axiomatische Kalküle haben gegenüber heuristischen Αnsätzen einen wesentlichen Vorteil: Es ist formal beweisbar, ab die errechneten Ergebnisse mit der Wirklichkeit bzw. mit der definierten Semantik - übereinstimmen oder nicht. Mit anderen Worten, die Korrektheit des Kalküls ist beweisbar. Diese Eigenschaft bekommt mit der zunehmenden Nutzung von GIS, z.B. in Anwendungen wie Katastrophenmanagement, wachsende Bedeutung, denn die Korrektheit der verwendeten Kalküle garantiert die Verlässlichkeit von GIS-basierten Analysen. Die vorliegende Dissertation stellt die Hypothese auf, dass es möglich, ist eine korrekte axiomatische Geometrie zu definieren, die mit unvollkommener geometrischer Information umgehen kann.
Die Arbeit beschränkt sich auf Positionstoleranz als eine Art von Unvollkommenheit räumlicher Information. Um eine korrekte geometrische Theorie unter Positionstoleranz aufzustellen, schlagen wir ein Fuzzy Logik basiertes Framework vor, das es erlaubt die Axiome der klassischen Geometrie durch Grade von Wahrheitsähnlichkeit anzureichern. Dem Framework zu Grunde liegt die Annahme, dass klassische Geometrie eine Idealisierung einer - wahrgenommenen oder gemessenen - "realen Geometrie" darstellt und dieser ähnlich ist. Der Grad der Ähnlichkeit von geometrischen Aussagen wird als Wahrheitsähnlichkeit ausgedrückt, die Ähnlichkeit der beiden Geometrien wird mit. Ähnlichkeitslogik modelliert. Die hier benutzte Ähnlichkeitslogik ist Fuzzy Logik mit evaluierter Syntax, eine Weiterentwicklung der Rational Pavelka Logik.
Die vorliegende Forschung verifiziert die Hypothese teilweise: Um ein Maß für Wahrheitsähnlichkeit. festzulegen, definieren wir "Wahrheit" in Form einer formalen Semantik für Geometrie unter Positionstoleranz, die für GIS Anwendungen konzipiert ist. Wir zeigen exemplarisch anhand der Gleichheitsaxiome dass das Framework erfolgreich angewendet werden kann. Wir zeigen außerdem, dass eine mit Hilfe des vorgeschlagenen Frameworks abgeleitete Theorie notwendig korrekt sein muss. Die Forschung zeigt jedoch auch, dass die Anwendung des Frameworks auf Euklid's Erstes Postulat auf Basis der vorgeschlagenen Semantik ein triviales (d h immer wahres) Ergebnis liefert, welches nicht den intendierten Zweck für GIS Anwendungen erfüllt. Die Ergebnisse der Arbeit deuten darauf hin, dass die vorgeschlagene Semantik nicht reichhaltig genug ist, um eine nicht-triviale geometrische Theorie mit Positionstoleranz zu erzeugen, und dass es, um dieses Ziel zu erreichen, nötig ist, die Semantik um einen weiteren Parameter anzureichem. Im Nachhinein betrachtet scheint dieses Resultat mit der Intuition übereinzustimmen. Wir geben Anregungen, wie der zusätzliche Parameter in das Framework eingebunden werden kann, überlassen eine detaillierte Ausarbeitung aber der zukünftigen Forschung.
Bewegungserfassung einer mobilen Plattform mittels Multi-Antennen-GNSS und Integration am Beobachtungsniveau
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Kurzfassung/Abstract
In dieser Arbeit wird untersucht, ob eine direkte Schätzung von Plattformbewegungen aus rohen GNSS-Beobachtungen (Pseudostrecken, Doppler, Trägerphasen) von 3 oder mehr Antennen Vorteile gegenüber der koordinativen Bestimmung der einzelnen Antennen und anschließender Schätzung der Plattformparameter aus einer Helmert Transformation hat.
Im theoretischen Teil der Arbeit wird der benötigte Formelapparat für die direkte Bestimmung der Position, Geschwindigkeit, Orientierung und Drehrate der Plattform hergeleitet. Desweiteren werden in einem numerischen Beispiel die Vorteile dieser Auswertestrategie untersucht.
Der praktische Teil befasst sich mit einem im Zuge dieser Arbeit durchgeführten kinematischen Versuch. Hier wurden mehrere GPS-Antennen und Empfänger auf einem mobilen Roboter installiert und Referenzmessungen mit einer Totalstation durchgeführt. Die Auswertung dieses Experiments unterteilt sich in eine quasi-statische Auswertung einzelner Situationen an denen der Roboter stillstand und eine kinematische Auswertung.
Diese Arbeit zeigt, dass sich die neue Auswertestrategie im Hinblick auf Genauigkeit und Zuverlässigkeit als vorteilhaft erweist.
In dieser Arbeit wird untersucht, ob eine direkte Schätzung von Plattformbewegungen aus rohen GNSS-Beobachtungen (Pseudostrecken, Doppler, Trägerphasen) von 3 oder mehr Antennen Vorteile gegenüber der koordinativen Bestimmung der einzelnen Antennen und anschließender Schätzung der Plattformparameter aus einer Helmert Transformation hat.
Im theoretischen Teil der Arbeit wird der benötigte Formelapparat für die direkte Bestimmung der Position, Geschwindigkeit, Orientierung und Drehrate der Plattform hergeleitet. Desweiteren werden in einem numerischen Beispiel die Vorteile dieser Auswertestrategie untersucht.
Der praktische Teil befasst sich mit einem im Zuge dieser Arbeit durchgeführten kinematischen Versuch. Hier wurden mehrere GPS-Antennen und Empfänger auf einem mobilen Roboter installiert und Referenzmessungen mit einer Totalstation durchgeführt. Die Auswertung dieses Experiments unterteilt sich in eine quasi-statische Auswertung einzelner Situationen an denen der Roboter stillstand und eine kinematische Auswertung.
Diese Arbeit zeigt, dass sich die neue Auswertestrategie im Hinblick auf Genauigkeit und Zuverlässigkeit als vorteilhaft erweist.
Spatiotemporal analyses of remotely sensed soil moisture with respect to regional climate modes and solar activity in Australia
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Der Umweltparameter Bodenfeuchte ist ein essentieller Faktor in Hydrologie, Wetter und Klima aller Ökosysteme der Erde. Bodenfeuchte bildet des Weiteren die Grundlage für Land - und Viehwirtschaft und hat somit weitreichenden Einfluss auf gesellschaftliche und wirtschaftliche Prozesse. Der Zusammenhang zwischen Bodenfeuchte und anderen Umweltparametern ist komplex und ist Gegenstand aktueller Forschung verschiedener Disziplinen. Klimatische Bedingungen, und somit auch Bodenfeuchte, befinden sich im stetigen Wandel und sind Schwankungen unterworfen, die periodischen Vorgängen in den Ozeanen und der Atmosphäre zugeordnet werden.
Darüber hinaus existiert mit der variierenden Sonnenaktivität eine weitere Größe, deren möglicher Einfluss auf das Klima der Erde bis heute ungeklärt ist. Auf dem Kontinent Australien sind die Zusammenhänge zwischen hydrologischen Bedingungen und klimatischen Schwankungen besonders spürbar. Diese Diplomarbeit untersucht diese Zusammenhänge mit Bezugnahme auf die WACMOS Fernerkundungsdaten über Oberflächenbodenfeuchte (SSM) in Australien von 1979 bis 2010. Die Motivation dahinter liegt in der Tatsache, dass hiermit zum ersten Mal eine Untersuchung von satellitengestützten Bodenfeuchtemessungen über einen Zeitraum von 32 Jahren möglich ist.
Der WACMOS Datensatz verbindet SSM-Daten von passiven und aktiven Mikrowellensystemen und bietet tägliche Werte bei einer räumlichen Auflösung von 0,25 Grad. Im Zuge dieser Arbeit wurden diese Daten in Monats- und Saisonmittelwerte mit zugehörigen Anomalien umgerechnet. Um die wichtigsten Schwankungen in der Bodenfeuchte Australiens herauszulösen, wurde eine Hauptkomponentenanalyse (EOF) durchgeführt. Des Weiteren wurde eine komplexe EOF Analyse (CEOF) betrieben, um zeitliche Variationen zu erkennen. Schlussendlich wurden die SSM Anomalien und die Ergebnisse der EOF Zerlegung in Beziehung zu Klimaindizes und Sonnenaktivität gesetzt und mit Methoden der Spearman-Korrelationsrechnung untersucht.
Starke Zusammenhänge wurden zwischen dem Southern Oscillation Index (SOI) und der Bodenfeuchte in Nord- und Ostaustralien gefunden, besonders im Südsommer und -frühling. Für den Southern Annular Mode Index (SAMI) kamen vergleichbare Ergebnisse zu Tage. Auf der anderen Seite des Kontinents wurde ein Zusammenhang im Südwinter und -herbst zwischen SSM und dem Indian Ocean Dipole Mode Index (IODMI) gefunden. Dieser konnte jedoch nur ab den 1990er Jahren festgestellt werden. Bezüglich Sonnenaktivität, gemessen an der Radiointensität F10.7, konnte keine klare Verbindung entdeckt werden. Die Resultate stimmen mit vorhergehenden Analysen über ozeanischen und atmosphärischen Schwankungen und deren Einfluss auf Australien überein. Darüber hinaus wurde demonstriert, dass die WACMOS SSM Daten sowohl die Bodenfeuchte von Australien zufriedenstellend wiedergeben als auch klimatische Langzeitanalysen erlauben.
Der Umweltparameter Bodenfeuchte ist ein essentieller Faktor in Hydrologie, Wetter und Klima aller Ökosysteme der Erde. Bodenfeuchte bildet des Weiteren die Grundlage für Land - und Viehwirtschaft und hat somit weitreichenden Einfluss auf gesellschaftliche und wirtschaftliche Prozesse. Der Zusammenhang zwischen Bodenfeuchte und anderen Umweltparametern ist komplex und ist Gegenstand aktueller Forschung verschiedener Disziplinen. Klimatische Bedingungen, und somit auch Bodenfeuchte, befinden sich im stetigen Wandel und sind Schwankungen unterworfen, die periodischen Vorgängen in den Ozeanen und der Atmosphäre zugeordnet werden.
Darüber hinaus existiert mit der variierenden Sonnenaktivität eine weitere Größe, deren möglicher Einfluss auf das Klima der Erde bis heute ungeklärt ist. Auf dem Kontinent Australien sind die Zusammenhänge zwischen hydrologischen Bedingungen und klimatischen Schwankungen besonders spürbar. Diese Diplomarbeit untersucht diese Zusammenhänge mit Bezugnahme auf die WACMOS Fernerkundungsdaten über Oberflächenbodenfeuchte (SSM) in Australien von 1979 bis 2010. Die Motivation dahinter liegt in der Tatsache, dass hiermit zum ersten Mal eine Untersuchung von satellitengestützten Bodenfeuchtemessungen über einen Zeitraum von 32 Jahren möglich ist.
Der WACMOS Datensatz verbindet SSM-Daten von passiven und aktiven Mikrowellensystemen und bietet tägliche Werte bei einer räumlichen Auflösung von 0,25 Grad. Im Zuge dieser Arbeit wurden diese Daten in Monats- und Saisonmittelwerte mit zugehörigen Anomalien umgerechnet. Um die wichtigsten Schwankungen in der Bodenfeuchte Australiens herauszulösen, wurde eine Hauptkomponentenanalyse (EOF) durchgeführt. Des Weiteren wurde eine komplexe EOF Analyse (CEOF) betrieben, um zeitliche Variationen zu erkennen. Schlussendlich wurden die SSM Anomalien und die Ergebnisse der EOF Zerlegung in Beziehung zu Klimaindizes und Sonnenaktivität gesetzt und mit Methoden der Spearman-Korrelationsrechnung untersucht.
Starke Zusammenhänge wurden zwischen dem Southern Oscillation Index (SOI) und der Bodenfeuchte in Nord- und Ostaustralien gefunden, besonders im Südsommer und -frühling. Für den Southern Annular Mode Index (SAMI) kamen vergleichbare Ergebnisse zu Tage. Auf der anderen Seite des Kontinents wurde ein Zusammenhang im Südwinter und -herbst zwischen SSM und dem Indian Ocean Dipole Mode Index (IODMI) gefunden. Dieser konnte jedoch nur ab den 1990er Jahren festgestellt werden. Bezüglich Sonnenaktivität, gemessen an der Radiointensität F10.7, konnte keine klare Verbindung entdeckt werden. Die Resultate stimmen mit vorhergehenden Analysen über ozeanischen und atmosphärischen Schwankungen und deren Einfluss auf Australien überein. Darüber hinaus wurde demonstriert, dass die WACMOS SSM Daten sowohl die Bodenfeuchte von Australien zufriedenstellend wiedergeben als auch klimatische Langzeitanalysen erlauben.
Erste Untersuchungen des neuen Digitalnivelliers Sokkia SDL1X
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2012
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
Bisherige Untersuchungen von Digitalnivellieren verschiedener Hersteller am Institut für Ingenieurgeodäsie und Messsysteme zeigten, dass diese Messsysteme unter bestimmten Situationen systematische Effekte aufweisen können. Die Kenntnis dieser Effekte ist für hochpräzise Messaufgaben sehr wichtig. Um neue Entwicklungen aufzuzeigen, wurde eine Marktanalyse durchgeführt, diese gibt einen Überblick und ermöglicht einen Vergleich der aktuell am Markt verfügbaren Digitalnivelliere auf Grundlage deren Spezifikationen.
2009 brachte Sokkia mit dem SDL1X ein Präzisionsdigitalnivellier auf den Markt und es sollte untersucht werden, ob auch dieses Instrument ähnliche systematische Fehlereinflüsse aufweist. Da für das SDL1X kaum Informationen vorhanden sind, wurde dessen Aufbau durch eine Literatur- bzw. Patentrecherche studiert. Zusätzlich wurde der Aufbau des herstellerspezifischen Lattencodes ermittelt, sowie dessen Besonderheiten dargestellt. Im geodätischen Messlabor der TU Graz wurden Untersuchungen durchgeführt, wobei im Zuge der Untersuchungen zwei SDL1X-Instrumente mit verschiedener Software- und Sensorversion zur Verfügung standen. Für beide Instrumente wurden die Aufheizzeiten bestimmt und Untersuchungen zu den Lattenendbereichen am Vertikalkomparator mit einer 2m Invarlatte durchgeführt. Diese zeigten, dass systematische Abweichungen in den Lattenendbereichen auftreten, wobei diese für das erste Instrument (ältere Software Version) größer sind als für das zweite Instrument. Aus der Größe des beeinflussten Bereichs wurde zusätzlich der elektronische Öffnungswinkel mit ca. 2.7° bestimmt. Außerdem wurden Untersuchungen zu möglichen zyklisch wirkenden Höhenabweichungen durchgeführt, die üblicherweise vom Lattencode sowie der Pixelgröße des Bildsensors und der Brennweite des Instruments abhängig sind. Da der Hersteller keine Auskunft über diese Parameter gibt, mussten für diese ersten Tests diverse Annahmen getroffen werden. Bei den in dieser Arbeit durchgeführten Tests konnten allerdings keine zyklische Verläufe nachgewiesen werden, sodass diese Parameter nicht festgestellt werden konnten. Schlussendlich wurden die Standardabweichung und Streuung der Höhenablesungen in Abhängigkeit der Distanz bestimmt. Dabei konnte gezeigt werden, dass ein annähernd linearer Zusammenhang zwischen der Distanz und der Standardabweichung vorliegt, in manchen Bereichen aber erhöhtes Messrauschen auftritt.
Bisherige Untersuchungen von Digitalnivellieren verschiedener Hersteller am Institut für Ingenieurgeodäsie und Messsysteme zeigten, dass diese Messsysteme unter bestimmten Situationen systematische Effekte aufweisen können. Die Kenntnis dieser Effekte ist für hochpräzise Messaufgaben sehr wichtig. Um neue Entwicklungen aufzuzeigen, wurde eine Marktanalyse durchgeführt, diese gibt einen Überblick und ermöglicht einen Vergleich der aktuell am Markt verfügbaren Digitalnivelliere auf Grundlage deren Spezifikationen.
2009 brachte Sokkia mit dem SDL1X ein Präzisionsdigitalnivellier auf den Markt und es sollte untersucht werden, ob auch dieses Instrument ähnliche systematische Fehlereinflüsse aufweist. Da für das SDL1X kaum Informationen vorhanden sind, wurde dessen Aufbau durch eine Literatur- bzw. Patentrecherche studiert. Zusätzlich wurde der Aufbau des herstellerspezifischen Lattencodes ermittelt, sowie dessen Besonderheiten dargestellt. Im geodätischen Messlabor der TU Graz wurden Untersuchungen durchgeführt, wobei im Zuge der Untersuchungen zwei SDL1X-Instrumente mit verschiedener Software- und Sensorversion zur Verfügung standen. Für beide Instrumente wurden die Aufheizzeiten bestimmt und Untersuchungen zu den Lattenendbereichen am Vertikalkomparator mit einer 2m Invarlatte durchgeführt. Diese zeigten, dass systematische Abweichungen in den Lattenendbereichen auftreten, wobei diese für das erste Instrument (ältere Software Version) größer sind als für das zweite Instrument. Aus der Größe des beeinflussten Bereichs wurde zusätzlich der elektronische Öffnungswinkel mit ca. 2.7° bestimmt. Außerdem wurden Untersuchungen zu möglichen zyklisch wirkenden Höhenabweichungen durchgeführt, die üblicherweise vom Lattencode sowie der Pixelgröße des Bildsensors und der Brennweite des Instruments abhängig sind. Da der Hersteller keine Auskunft über diese Parameter gibt, mussten für diese ersten Tests diverse Annahmen getroffen werden. Bei den in dieser Arbeit durchgeführten Tests konnten allerdings keine zyklische Verläufe nachgewiesen werden, sodass diese Parameter nicht festgestellt werden konnten. Schlussendlich wurden die Standardabweichung und Streuung der Höhenablesungen in Abhängigkeit der Distanz bestimmt. Dabei konnte gezeigt werden, dass ein annähernd linearer Zusammenhang zwischen der Distanz und der Standardabweichung vorliegt, in manchen Bereichen aber erhöhtes Messrauschen auftritt.
Performance evaluation of a Range Camera SR4000
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Diese Diplomarbeit befasst sich mit der Leistungseinschätzung einer Distanzkamera SR4000. Distanzkameras sind eine relativ junge Technologie, deren Messmethode einen entscheidenen Vorteil hat: Massenweise Punktbestimmung basierend auf Laufzeitmessung. Die Messungen einer Distanzkamera werden jedoch durch verschiedenste Einflussfaktoren beeinträchtigt. Dadurch ist die Zuverlässigkeit der Messungen und deren Messgenauigkeit eingeschränkt.
Vier verschiedene Einflussfaktoren und ihre Auswirkungen auf die Messungen der Kamera stehen im Mittelpunkt dieser Diplomarbeit. Vier unterschiedliche Tests wurden daher durchgeführt, basierend auf zwei Zielobjekten, die stark unterschiedliche Reflektivitäten aufweisen (10% bzw. 99%). Durch die Analyse der gewonnenen Distanz- und Amplitudenmessungen, können Schlüsse betreffend der Messleistung der Kamera gezogen werden.
Zunächst wird das Aufwärmverhalten der Kamera untersucht. Da sich die Kamera während der Verwendung erwärmt und vor allem am Anfang einer Datenaufnahme eine gewisse Zeit benötigt um stabile Messungen zu liefern, wird genau dieser Zeitfaktor hier analysiert, um am Ende eine bestimmte Aufwärmzeit definieren zu können.
Der zweite Test konzentriert sich auf die Beobachtungsdistanzen, da Änderungen der Distanzen zwischen Kamera und Objekt die Messungen beeinflussen. Ein funktionales Modell wird vorgestellt, mit dem Aussagen über die Messgenauigkeit der Distanzmessungen getroffen werden können.
Zum Dritten werden Änderungen der Integrationszeit untersucht. Die Integrationszeit stellt einen sehr wichtigen Faktor dar, da sie den Zeitraum festlegt, in dem jedes Pixel Licht aufnimmt. Unterschiedliche Integrationszeiten verursachen zudem Unterschiede in den Ergebnissen der Distanzmessung. Das Ausmaß der auftretenden Differenzen wird hier untersucht.
Der vierte Test widmet sich dem Hintergrundlicht. Obwohl in die Kamera ein optischer Filter integriert ist, dringt trotzdem eine gewisse Menge an Licht zu dem Sensor durch und beeinträchtigt die Messresultate.
Der letzte Teil dieser Diplomarbeit beschäftigt sich mit der Referenzvermessung. Die Distanzen zwischen Kamera und Objekt wurden auf der einen Seite mit der Distanzkamera und auf der anderen Seite mit einer Totalstation bestimmt. Die Ergebnisse der Messungen werden hier verglichen.
Diese Diplomarbeit befasst sich mit der Leistungseinschätzung einer Distanzkamera SR4000. Distanzkameras sind eine relativ junge Technologie, deren Messmethode einen entscheidenen Vorteil hat: Massenweise Punktbestimmung basierend auf Laufzeitmessung. Die Messungen einer Distanzkamera werden jedoch durch verschiedenste Einflussfaktoren beeinträchtigt. Dadurch ist die Zuverlässigkeit der Messungen und deren Messgenauigkeit eingeschränkt.
Vier verschiedene Einflussfaktoren und ihre Auswirkungen auf die Messungen der Kamera stehen im Mittelpunkt dieser Diplomarbeit. Vier unterschiedliche Tests wurden daher durchgeführt, basierend auf zwei Zielobjekten, die stark unterschiedliche Reflektivitäten aufweisen (10% bzw. 99%). Durch die Analyse der gewonnenen Distanz- und Amplitudenmessungen, können Schlüsse betreffend der Messleistung der Kamera gezogen werden.
Zunächst wird das Aufwärmverhalten der Kamera untersucht. Da sich die Kamera während der Verwendung erwärmt und vor allem am Anfang einer Datenaufnahme eine gewisse Zeit benötigt um stabile Messungen zu liefern, wird genau dieser Zeitfaktor hier analysiert, um am Ende eine bestimmte Aufwärmzeit definieren zu können.
Der zweite Test konzentriert sich auf die Beobachtungsdistanzen, da Änderungen der Distanzen zwischen Kamera und Objekt die Messungen beeinflussen. Ein funktionales Modell wird vorgestellt, mit dem Aussagen über die Messgenauigkeit der Distanzmessungen getroffen werden können.
Zum Dritten werden Änderungen der Integrationszeit untersucht. Die Integrationszeit stellt einen sehr wichtigen Faktor dar, da sie den Zeitraum festlegt, in dem jedes Pixel Licht aufnimmt. Unterschiedliche Integrationszeiten verursachen zudem Unterschiede in den Ergebnissen der Distanzmessung. Das Ausmaß der auftretenden Differenzen wird hier untersucht.
Der vierte Test widmet sich dem Hintergrundlicht. Obwohl in die Kamera ein optischer Filter integriert ist, dringt trotzdem eine gewisse Menge an Licht zu dem Sensor durch und beeinträchtigt die Messresultate.
Der letzte Teil dieser Diplomarbeit beschäftigt sich mit der Referenzvermessung. Die Distanzen zwischen Kamera und Objekt wurden auf der einen Seite mit der Distanzkamera und auf der anderen Seite mit einer Totalstation bestimmt. Die Ergebnisse der Messungen werden hier verglichen.
A new approach to derive solar potential maps based on photogrammetric airborne image analysis and sealed surface run-off data
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Martina Klärle (FH Frankfurt am Main)
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Martina Klärle (FH Frankfurt am Main)
Kurzfassung/Abstract
The goal of this project is the validation of data which was gathered for the newly introduced split sewage charge (SSC) (stereoscopic aerial imagery, sealed surface run-off data) regarding their feasibility to be applied for a solar potential cadaster which is usually calculated from Airborne laser scan data and the land survey register.
The surface model for the solar calculations will be generated with the pixel matching software LPS eATE by Erdas from the existing aerial imagery. Its feasibility will be inspected in detail based on existing validation data which are Airborne laser scan data and a digital surface model (DSM) from the same aerial imagery generated with Match-T by Inpho. The sizes of potential areas are derived from the sealed surface run-off data which will also be validated.
The validation of the generated DSM shows that it does not quite match the quality needs for solar potential calculations but in general, a solar potential cadaster based on aerial imagery is possible. This proves the validation DSM from Match-T. The sealed surface run-off data is a great benefit for the Sun-Area method.
The data gathered for the split sewage charge has been validated concerning its usability for Sun-Area solar potential calculations. In summary, it can be stated that the two projects can be combined because the available data is well suitable for the Sun-Area method.
The validation of the DSM-PG-2012, which was created from the aerial imagery with Erdas LPS eATE, reveals that this file is less suitable for solar potential calculations because the house roofs are not modeled close enough to reality. The second from aerial imagery generated DSM & DSM-PG-Validation therefore showed up to be well suitable. The difference between the Sun-Area results from this DSM to the one from the DSM based on ALS data was not highly significant.
The sealed surface run-off data is a great added value to the Sun-Area solar calculations. As listed in the discussion, there is a great number of advantages towards the original method where the footprints of the buildings are used for the representation of the roof areas.
The goal of this project is the validation of data which was gathered for the newly introduced split sewage charge (SSC) (stereoscopic aerial imagery, sealed surface run-off data) regarding their feasibility to be applied for a solar potential cadaster which is usually calculated from Airborne laser scan data and the land survey register.
The surface model for the solar calculations will be generated with the pixel matching software LPS eATE by Erdas from the existing aerial imagery. Its feasibility will be inspected in detail based on existing validation data which are Airborne laser scan data and a digital surface model (DSM) from the same aerial imagery generated with Match-T by Inpho. The sizes of potential areas are derived from the sealed surface run-off data which will also be validated.
The validation of the generated DSM shows that it does not quite match the quality needs for solar potential calculations but in general, a solar potential cadaster based on aerial imagery is possible. This proves the validation DSM from Match-T. The sealed surface run-off data is a great benefit for the Sun-Area method.
The data gathered for the split sewage charge has been validated concerning its usability for Sun-Area solar potential calculations. In summary, it can be stated that the two projects can be combined because the available data is well suitable for the Sun-Area method.
The validation of the DSM-PG-2012, which was created from the aerial imagery with Erdas LPS eATE, reveals that this file is less suitable for solar potential calculations because the house roofs are not modeled close enough to reality. The second from aerial imagery generated DSM & DSM-PG-Validation therefore showed up to be well suitable. The difference between the Sun-Area results from this DSM to the one from the DSM based on ALS data was not highly significant.
The sealed surface run-off data is a great added value to the Sun-Area solar calculations. As listed in the discussion, there is a great number of advantages towards the original method where the footprints of the buildings are used for the representation of the roof areas.
Automatisierung von Methoden zur Kartierung ausgewählter Landnutzungsklassen für die österreichische Initiative LiSA (Land Information System Austria)
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2012
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
In vorliegender Masterarbeit wird der Weg zu einer automatisierten Kartierung ausgewählter Landnutzungsklassen, im Zuge der österreichischen Initiative Land Information System Austria (LiSA), beschrieben. Aus diesem Rahmen ergeben sich folgende, behandelte Arbeitsschwerpunkte: Der erste Fokus dieser Arbeit liegt auf dem Land Information System Austria (LiSA) per se. Dabei werden nicht nur das Datenmodell näher beschrieben, sondern auch die Rahmenbedingungen unter denen LiSA operiert, näher erklärt. Der nächste Schwerpunkt beschäftigt sich mit der räumlichen Begrenzung durch die Auswahl zweier Testgebiete Bad Waltersdorf in der Steiermark und Bludenz in Vorarlberg sowie der Einschränkung der zu bearbeitenden Landnutzungsklassen. Letzteres ist unbedingt notwendig angesichts der Fülle von Klassen, die für LiSA erfasst werden. Die Klassen, die behandelt werden, sind Gewässer (stehend und fließend), Verkehrsinfrastruktur (Straßen-, Bahnanlagen, Parkplätze, etc.) sowie Siedlung (ländlich und urban). Weiterer, integraler Bestandteil vorliegender Abhandlung ist die Untersuchung von Geofachdaten (DKM, FWP, GWR, BGN, Länderdaten) und deren Attributen, um eine erfolgreiche Landnutzungskartierung durchführen zu können. Das ist zum einen nötig, da österreichische Geofachdaten in ihrer Beschaffenheit sehr inhomogen sind und zum anderen soll durch die Untersuchung der maximal mögliche Informationsgehalt daraus gewonnen werden. Auch Fernerkundungsdaten kommen im Kartierungsprozess zum Einsatz und werden daher näher durchleuchtet (nDSM, CIR- und RGB-Bilder). Letztere haben allerdings nicht denselben, wichtigen Stellenwert wie die Geofachdaten. Nächster Schwerpunkt der Arbeit ist die Untersuchung der Geofachdatenintegration in anderen europäischen Monitoringprogrammen.
Dabei werden auch gesamt-europäische Richtlinien und Unternehmungen (INSPIRE und GMES) gestreift und versucht, den aktuellen Stand (State oft he Art) bezüglich der Verwendung von Geofachdaten anhand von Programmen wie CLC, NILS, SIOSE, LGN und DeCOVER zu erfassen. Auch andere, außereuropäische Landinformationssysteme werden kurz tangiert.
Das eigentliche Herzstück dieser Masterarbeit ist jedoch ein neu entwickeltes, mehrgliedriges (semi-) automatisches Kartierungsverfahren für die ausgewählten Landnutzungsklassen, angewandt an und entwickelt anhand der beiden Testgebiete. Dabei wird die in den Gebieten präsente Landnutzung unter Zuhilfenahme der zuvor untersuchten Geofachdaten, aber auch marginal von Fernerkundungsdaten, kartiert. Die Umsetzung der Automatisierung erfolgt mithilfe des ArcGIS Model Builders und neu konzipierten Python Scripts. Das Ergebnis ist eine ArcGIS Toolbox (Land Use Mapping) mit mehreren untergeordneten Toolsets, deren sequenzielle Anwendung die automatisierte Kartierung der jeweiligen, selektierten LN Klasse in Bad Waltersdorf und Bludenz ermöglicht. Das Resultat der Modellanwendungen wird abschließend anhand der beiden Testgebiete besprochen.
In vorliegender Masterarbeit wird der Weg zu einer automatisierten Kartierung ausgewählter Landnutzungsklassen, im Zuge der österreichischen Initiative Land Information System Austria (LiSA), beschrieben. Aus diesem Rahmen ergeben sich folgende, behandelte Arbeitsschwerpunkte: Der erste Fokus dieser Arbeit liegt auf dem Land Information System Austria (LiSA) per se. Dabei werden nicht nur das Datenmodell näher beschrieben, sondern auch die Rahmenbedingungen unter denen LiSA operiert, näher erklärt. Der nächste Schwerpunkt beschäftigt sich mit der räumlichen Begrenzung durch die Auswahl zweier Testgebiete Bad Waltersdorf in der Steiermark und Bludenz in Vorarlberg sowie der Einschränkung der zu bearbeitenden Landnutzungsklassen. Letzteres ist unbedingt notwendig angesichts der Fülle von Klassen, die für LiSA erfasst werden. Die Klassen, die behandelt werden, sind Gewässer (stehend und fließend), Verkehrsinfrastruktur (Straßen-, Bahnanlagen, Parkplätze, etc.) sowie Siedlung (ländlich und urban). Weiterer, integraler Bestandteil vorliegender Abhandlung ist die Untersuchung von Geofachdaten (DKM, FWP, GWR, BGN, Länderdaten) und deren Attributen, um eine erfolgreiche Landnutzungskartierung durchführen zu können. Das ist zum einen nötig, da österreichische Geofachdaten in ihrer Beschaffenheit sehr inhomogen sind und zum anderen soll durch die Untersuchung der maximal mögliche Informationsgehalt daraus gewonnen werden. Auch Fernerkundungsdaten kommen im Kartierungsprozess zum Einsatz und werden daher näher durchleuchtet (nDSM, CIR- und RGB-Bilder). Letztere haben allerdings nicht denselben, wichtigen Stellenwert wie die Geofachdaten. Nächster Schwerpunkt der Arbeit ist die Untersuchung der Geofachdatenintegration in anderen europäischen Monitoringprogrammen.
Dabei werden auch gesamt-europäische Richtlinien und Unternehmungen (INSPIRE und GMES) gestreift und versucht, den aktuellen Stand (State oft he Art) bezüglich der Verwendung von Geofachdaten anhand von Programmen wie CLC, NILS, SIOSE, LGN und DeCOVER zu erfassen. Auch andere, außereuropäische Landinformationssysteme werden kurz tangiert.
Das eigentliche Herzstück dieser Masterarbeit ist jedoch ein neu entwickeltes, mehrgliedriges (semi-) automatisches Kartierungsverfahren für die ausgewählten Landnutzungsklassen, angewandt an und entwickelt anhand der beiden Testgebiete. Dabei wird die in den Gebieten präsente Landnutzung unter Zuhilfenahme der zuvor untersuchten Geofachdaten, aber auch marginal von Fernerkundungsdaten, kartiert. Die Umsetzung der Automatisierung erfolgt mithilfe des ArcGIS Model Builders und neu konzipierten Python Scripts. Das Ergebnis ist eine ArcGIS Toolbox (Land Use Mapping) mit mehreren untergeordneten Toolsets, deren sequenzielle Anwendung die automatisierte Kartierung der jeweiligen, selektierten LN Klasse in Bad Waltersdorf und Bludenz ermöglicht. Das Resultat der Modellanwendungen wird abschließend anhand der beiden Testgebiete besprochen.
Automatisierte Erkennung von falschen Reflektorhöhen unter Verwendung der Sensoren einer Totalstation
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Werner Lienhart
Kurzfassung/Abstract
In dieser Masterarbeit wird der Prototyp eines Systems für die automatische Erkennung von falsch eingegebenen Reflektorhöhen bei Messungen mit Lotstöcken vorgestellt. Für die Messungen werden ausschließlich die Sensoren einer Totalstation (Leica TS15) verwendet, d.h. es sind keine zusätzlichen Sensoren am Lotstock notwendig. Für die Messung der Höhen werden die automatische Zielerkennung (automatic target recognition, ATR) sowie die Weitwinkelkamera (wide-angle camera, WAC) der Totalstation verwendet. Das vorgestellte System wurde für Distanzen bis zu 550 m getestet, wobei die gemessenen Höhen Fehler von weniger als 5 mm aufwiesen. Abschließend werden mögliche Weiterentwicklungen des Prototypen diskutiert, wobei auch Vorschläge für die kostengünstige Entwicklung eines marktreifen Produktes gemacht werden.
In dieser Masterarbeit wird der Prototyp eines Systems für die automatische Erkennung von falsch eingegebenen Reflektorhöhen bei Messungen mit Lotstöcken vorgestellt. Für die Messungen werden ausschließlich die Sensoren einer Totalstation (Leica TS15) verwendet, d.h. es sind keine zusätzlichen Sensoren am Lotstock notwendig. Für die Messung der Höhen werden die automatische Zielerkennung (automatic target recognition, ATR) sowie die Weitwinkelkamera (wide-angle camera, WAC) der Totalstation verwendet. Das vorgestellte System wurde für Distanzen bis zu 550 m getestet, wobei die gemessenen Höhen Fehler von weniger als 5 mm aufwiesen. Abschließend werden mögliche Weiterentwicklungen des Prototypen diskutiert, wobei auch Vorschläge für die kostengünstige Entwicklung eines marktreifen Produktes gemacht werden.
Direkte Georeferenzierung von Bildern eines unbemannten Luftfahrzeuges mit LowCost-Sensoren
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Unbemannte Luftfahrzeuge (unmanned aerial vehicles - UAV) stellen für die Aufnahme von kleinräumigen Gebieten eine kostengünstige Alternative zur klassischen bemannten Luftbildphotogrammetrie dar. Sie werden bereits seit den 80er Jahren zu photogrammetrischen Zwecken eingesetzt. Vor allem die Miniaturisierung von Sensoren, die Entwicklung digitaler Kameras und der Aufbau von globalen Navigationssystemen führten in den letzten Jahren zu einem erneuten Aufschwung von UAVs in der Photogrammetrie.
Die Hauptziele dieser Arbeit waren (1.) die Erprobung eines zu photogrammetrischen Zwecken einsetzbaren UAVs und (2.) die direkte Georeferenzierung der damit aufgenommenen Fotos. Unter "direkter Georeferenzierung" versteht man die Bestimmung von Position und Orientierung der Fotos durch die ausschließliche Nutzung von Sensoren, die sich an Bord des UAV befinden.
Die entwickelte Aufnahmeplattform basiert auf einem kostengünstigen Quadrokopter des OpenSource-Projektes "MikroKopter". Diese Plattform ist mit einem GNSS-Empf¨anger, einer IMU, ein Magnetometer und einem Luftdrucksensor ausgestattet. Ein automatisierter Flugmodus ermöglicht die lückenlose Erfassung des Aufnahmegebietes. Um den photogrammetrischen Anforderungen gerecht zu werden, waren etliche software- und hardwareseitige Anpassungen erforderlich. Zur Bilderfassung wurde eine handelsübliche Kompaktkamera eingesetzt. Die Elemente der inneren Orientierung der Kamera wurden durch eine Testfeldkalibrierung bestimmt.
Die direkte Georeferenzierung der Fotos konnte durch die Integration aller zur Verfügung stehenden Sensoren realisiert werden. Für die Orientierungsbestimmung fand dabei eine für kostengünstige Sensoren angepasste Variante der Strapdown-Rechnung Anwendung. Essentielle Voraussetzung war die optimale Synchronisation aller Sensormessungen. Aufgrund der vergleichsweise geringen Messgenauigkeit der Sensoren, war zudem eine ausführliche Fehlerbetrachtung notwendig.
Nach Durchführung mehrerer Indoor-Experimente wurde ein (aus 24 Punkten bestehendes) Passpunktfeld eingerichtet. Mehrere Anläufe waren notwendig um schließlich mit dem konstruierten UAV 125 Fotos dieses Passpunktfeldes aufzunehmen. Jene 84 Fotos, in denen eine ausreichende Anzahl von Passpunkten abgebildet ist, konnten durch die Berechnung einer Bündelblockausgleichung unabhängig indirekt georeferenziert werden.
Die Differenzbildung zu den dadurch erhaltenen Positions- und Orientierungswerten ermöglichte eine quantitative Qualitätsbeurteilung der direkten Georeferenzierung. Die dabei ermittelten Standardabweichungen der Differenzen sind für Roll- und Nickwinkel <1°, für Gierwinkel ≈2°, für die Lagekoordinaten ≈0.5m und für die Höhenkoordinate <1m. Zur direkten Georeferenzierung, durch Integration aller aufgezeichneten Sensormesswerte, wurde das Programm "MK@IPF" entwickelt.
Der theoretische Teil der Arbeit enthält einen Überblick zum Einsatz von UAVs in der Photogrammetrie (Kap. 1), die Grundlagen der Trägheitsnavigation (Kap. 2), die Funktionsweise und Fehlerbetrachtung von MEMS-Sensoren (Kap. 3) und die Theorie zur Kamerakalibrierung (Kap. 4). Der Anwendungsteil enthält eine Beschreibung des eingesetzten UAVs (Kap. 5), die Datensynchronisation (Kap. 6), die durchgeführte Kamerakalibrierung (Kap. 7), die Ergebnisse der Indoor-Experimente (Kap. 8) und der Flugauswertungen (Kap. 9) sowie eine Beschreibung des Programmes "MK@IPF" (Kap. 10). Das letzte Kap. 11 beinhaltet eine Zusammenfassung der Arbeit und einen Ausblick.
Unbemannte Luftfahrzeuge (unmanned aerial vehicles - UAV) stellen für die Aufnahme von kleinräumigen Gebieten eine kostengünstige Alternative zur klassischen bemannten Luftbildphotogrammetrie dar. Sie werden bereits seit den 80er Jahren zu photogrammetrischen Zwecken eingesetzt. Vor allem die Miniaturisierung von Sensoren, die Entwicklung digitaler Kameras und der Aufbau von globalen Navigationssystemen führten in den letzten Jahren zu einem erneuten Aufschwung von UAVs in der Photogrammetrie.
Die Hauptziele dieser Arbeit waren (1.) die Erprobung eines zu photogrammetrischen Zwecken einsetzbaren UAVs und (2.) die direkte Georeferenzierung der damit aufgenommenen Fotos. Unter "direkter Georeferenzierung" versteht man die Bestimmung von Position und Orientierung der Fotos durch die ausschließliche Nutzung von Sensoren, die sich an Bord des UAV befinden.
Die entwickelte Aufnahmeplattform basiert auf einem kostengünstigen Quadrokopter des OpenSource-Projektes "MikroKopter". Diese Plattform ist mit einem GNSS-Empf¨anger, einer IMU, ein Magnetometer und einem Luftdrucksensor ausgestattet. Ein automatisierter Flugmodus ermöglicht die lückenlose Erfassung des Aufnahmegebietes. Um den photogrammetrischen Anforderungen gerecht zu werden, waren etliche software- und hardwareseitige Anpassungen erforderlich. Zur Bilderfassung wurde eine handelsübliche Kompaktkamera eingesetzt. Die Elemente der inneren Orientierung der Kamera wurden durch eine Testfeldkalibrierung bestimmt.
Die direkte Georeferenzierung der Fotos konnte durch die Integration aller zur Verfügung stehenden Sensoren realisiert werden. Für die Orientierungsbestimmung fand dabei eine für kostengünstige Sensoren angepasste Variante der Strapdown-Rechnung Anwendung. Essentielle Voraussetzung war die optimale Synchronisation aller Sensormessungen. Aufgrund der vergleichsweise geringen Messgenauigkeit der Sensoren, war zudem eine ausführliche Fehlerbetrachtung notwendig.
Nach Durchführung mehrerer Indoor-Experimente wurde ein (aus 24 Punkten bestehendes) Passpunktfeld eingerichtet. Mehrere Anläufe waren notwendig um schließlich mit dem konstruierten UAV 125 Fotos dieses Passpunktfeldes aufzunehmen. Jene 84 Fotos, in denen eine ausreichende Anzahl von Passpunkten abgebildet ist, konnten durch die Berechnung einer Bündelblockausgleichung unabhängig indirekt georeferenziert werden.
Die Differenzbildung zu den dadurch erhaltenen Positions- und Orientierungswerten ermöglichte eine quantitative Qualitätsbeurteilung der direkten Georeferenzierung. Die dabei ermittelten Standardabweichungen der Differenzen sind für Roll- und Nickwinkel <1°, für Gierwinkel ≈2°, für die Lagekoordinaten ≈0.5m und für die Höhenkoordinate <1m. Zur direkten Georeferenzierung, durch Integration aller aufgezeichneten Sensormesswerte, wurde das Programm "MK@IPF" entwickelt.
Der theoretische Teil der Arbeit enthält einen Überblick zum Einsatz von UAVs in der Photogrammetrie (Kap. 1), die Grundlagen der Trägheitsnavigation (Kap. 2), die Funktionsweise und Fehlerbetrachtung von MEMS-Sensoren (Kap. 3) und die Theorie zur Kamerakalibrierung (Kap. 4). Der Anwendungsteil enthält eine Beschreibung des eingesetzten UAVs (Kap. 5), die Datensynchronisation (Kap. 6), die durchgeführte Kamerakalibrierung (Kap. 7), die Ergebnisse der Indoor-Experimente (Kap. 8) und der Flugauswertungen (Kap. 9) sowie eine Beschreibung des Programmes "MK@IPF" (Kap. 10). Das letzte Kap. 11 beinhaltet eine Zusammenfassung der Arbeit und einen Ausblick.
Auswertung von VLBI Beobachtungen des "Quasar" Netzes in Russland
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2012
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Matthias Madzak
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Matthias Madzak
Kurzfassung/Abstract
Die drei russischen VLBI-Stationen Svetloe, Badary und Zelenchukskaya zählen zum weltweiten VLBI-Netz und nehmen an den internationalen globalen VLBI-Programmen fϋr geodätische Beobachtungen teil. Zusätzlich wird auch ein nationales Programm verfolgt. Das interne russische Netz trägt den Namen "Quasar" und hat seit 2006 viele Experimente zwischen den drei Stationen durchgeführt. Von den russischen Experimenten wurden 223 Files im NGS-Format bereitgestellt, von denen 108 Sessions über 24 Stunden und 115 Sessions zwischen einer und acht Stunden beinhalten. Die 24 Stunden Messungen dienen zur Bestimmung sämtlicher Erdrotationsparameter und die kürzeren (stündlίchen) Sessions zur Ermittlung der Weltzeit UT1 bzw. dUT1 (UT1-UTC). Zur Anwendung kam die Vienna VLBI Software VieVS - entwickelt am Institut für Geodäsie und Geophysik (IGG) der TU Wien. Aus den 24 Stunden Messungen wurden Erdrotationsparameter bestimmt - was durch die große Ost-West Ausbreitung des Netzes möglich ist - sowie dUT1 aus den stündlichen Sessions. Weiters wurden Wiederholbarkeiten von Βasislinienlängen und Stationsgeschwindigkeiten berechnet. Der Vergleich der Ergebnisse für die Erdrotationsparameter zu Datensätzen vom International GNSS Service (IGS) ergab unter NNT/NNR Bedingungen für die Stationen eine Standardabweichung von 11 mas für xpol, 16 mas für ypol, und 0,3 ms für dUT1. Bei festgehaltenen Stationskoordinaten sank die Standardabweichung für xpol auf 8 mas, für ypol auf 14 mas, und für dUT1 auf 0,2 ms. Die Ergebnisse der Abweichungen zu den IGS-Daten konnten über den gesamten Zeitraum in drei - fast gleichlange - Bereiche, mit unterschiedlichen Genauigkeiten, aufteilt werden. Der letzte davon, seit Juli 2010, wies die beste Genauigkeit, mit einer Standardabweichung von 3 mas für xpol, 5 mas für ypol, und 0,1 ms für dUT1 unter NNT/NNR Bedingungen auf. Die Standardabweichung von dUT1 aus den stündlichen Sessions liegt bei 0,1 ms bzw. seit Februar 2009 bei 0,07 ms. Durch den Vergleich der präsentierten Daten wurde in Hinsicht auf die Ergebnisse beider Programme deutlich, dass sich die Qualität der russischen VLBI Daten seit Beginn verbessert hat.
Die drei russischen VLBI-Stationen Svetloe, Badary und Zelenchukskaya zählen zum weltweiten VLBI-Netz und nehmen an den internationalen globalen VLBI-Programmen fϋr geodätische Beobachtungen teil. Zusätzlich wird auch ein nationales Programm verfolgt. Das interne russische Netz trägt den Namen "Quasar" und hat seit 2006 viele Experimente zwischen den drei Stationen durchgeführt. Von den russischen Experimenten wurden 223 Files im NGS-Format bereitgestellt, von denen 108 Sessions über 24 Stunden und 115 Sessions zwischen einer und acht Stunden beinhalten. Die 24 Stunden Messungen dienen zur Bestimmung sämtlicher Erdrotationsparameter und die kürzeren (stündlίchen) Sessions zur Ermittlung der Weltzeit UT1 bzw. dUT1 (UT1-UTC). Zur Anwendung kam die Vienna VLBI Software VieVS - entwickelt am Institut für Geodäsie und Geophysik (IGG) der TU Wien. Aus den 24 Stunden Messungen wurden Erdrotationsparameter bestimmt - was durch die große Ost-West Ausbreitung des Netzes möglich ist - sowie dUT1 aus den stündlichen Sessions. Weiters wurden Wiederholbarkeiten von Βasislinienlängen und Stationsgeschwindigkeiten berechnet. Der Vergleich der Ergebnisse für die Erdrotationsparameter zu Datensätzen vom International GNSS Service (IGS) ergab unter NNT/NNR Bedingungen für die Stationen eine Standardabweichung von 11 mas für xpol, 16 mas für ypol, und 0,3 ms für dUT1. Bei festgehaltenen Stationskoordinaten sank die Standardabweichung für xpol auf 8 mas, für ypol auf 14 mas, und für dUT1 auf 0,2 ms. Die Ergebnisse der Abweichungen zu den IGS-Daten konnten über den gesamten Zeitraum in drei - fast gleichlange - Bereiche, mit unterschiedlichen Genauigkeiten, aufteilt werden. Der letzte davon, seit Juli 2010, wies die beste Genauigkeit, mit einer Standardabweichung von 3 mas für xpol, 5 mas für ypol, und 0,1 ms für dUT1 unter NNT/NNR Bedingungen auf. Die Standardabweichung von dUT1 aus den stündlichen Sessions liegt bei 0,1 ms bzw. seit Februar 2009 bei 0,07 ms. Durch den Vergleich der präsentierten Daten wurde in Hinsicht auf die Ergebnisse beider Programme deutlich, dass sich die Qualität der russischen VLBI Daten seit Beginn verbessert hat.
Baummodellierung mit Hilfe von terrestrischem Laserscanning durch Zeichnen auf erstellten Plattkarten
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Im Rahmen des Projekts "3DVegLab" der Europäischen Raumfahrtbehörde (ESA) wird für mehrere, ausgewählte Waldgebiete ein Linienmodell für die darin befindlichen Bäume benötigt. Die Linien des Modells sollen zusammen mit den dazugehörigen Durchmessern die Stämme und Äste exakt in ihrer Geometrie repräsentieren. Basis für die Bestimmung des Modells ist terrestrisches Laserscanning (TLS), das schon seit geraumer Zeit für die Aufnahme räumlicher Objekte in Verwendung ist.
In dieser Arbeit werden das Grundprinzip und die Möglichkeiten von TLS erklärt, sowie die Aufnahme durch TLS an Waldgebieten erläutert. Anschließend werden einige aktuelle automatisierte Methoden zur Baummodellierung präsentiert, und zwar nach Buksch, Pfeifer et al., Bremer et al. und Schilling et al. Daraufhin werden die Festlegung, die Entwicklung und die Umsetzung einer neuen, manuellen Methode und deren Anwendung in den festgelegten Testgebieten dargebracht. Ergebnisse der Methodenentwicklung und der Anwendung werden am Ende diskutiert.
Ziel dieser Arbeit ist, eine Methode zu finden, welche alle bisherigen Methoden der Baummodellierung an Vollständigkeit und geometrischer Korrektheit übertrifft. An Stelle der bisherigen, automatisierten Modellierungsmethoden, die sich noch als sehr mangelhaft erweisen, soll die Baumstruktur durch manuelles Nachzeichnen auf den Intensitätsplattkarten der TLS-Aufnahmen bewerkstelligt werden. Die Strukturen werden somit in den lokalen Standpunkten erstellt und anschließend ins Landeskoordinatensystem transformiert. Die Methode wird in der Praxis an einem Waldgebiet in Lägeren (Schweiz) und in Tharandt bei Dresden (Deutschland) durchgeführt und ihre Ergebnisse bezüglich Korrektheit demonstriert.
Im Rahmen des Projekts "3DVegLab" der Europäischen Raumfahrtbehörde (ESA) wird für mehrere, ausgewählte Waldgebiete ein Linienmodell für die darin befindlichen Bäume benötigt. Die Linien des Modells sollen zusammen mit den dazugehörigen Durchmessern die Stämme und Äste exakt in ihrer Geometrie repräsentieren. Basis für die Bestimmung des Modells ist terrestrisches Laserscanning (TLS), das schon seit geraumer Zeit für die Aufnahme räumlicher Objekte in Verwendung ist.
In dieser Arbeit werden das Grundprinzip und die Möglichkeiten von TLS erklärt, sowie die Aufnahme durch TLS an Waldgebieten erläutert. Anschließend werden einige aktuelle automatisierte Methoden zur Baummodellierung präsentiert, und zwar nach Buksch, Pfeifer et al., Bremer et al. und Schilling et al. Daraufhin werden die Festlegung, die Entwicklung und die Umsetzung einer neuen, manuellen Methode und deren Anwendung in den festgelegten Testgebieten dargebracht. Ergebnisse der Methodenentwicklung und der Anwendung werden am Ende diskutiert.
Ziel dieser Arbeit ist, eine Methode zu finden, welche alle bisherigen Methoden der Baummodellierung an Vollständigkeit und geometrischer Korrektheit übertrifft. An Stelle der bisherigen, automatisierten Modellierungsmethoden, die sich noch als sehr mangelhaft erweisen, soll die Baumstruktur durch manuelles Nachzeichnen auf den Intensitätsplattkarten der TLS-Aufnahmen bewerkstelligt werden. Die Strukturen werden somit in den lokalen Standpunkten erstellt und anschließend ins Landeskoordinatensystem transformiert. Die Methode wird in der Praxis an einem Waldgebiet in Lägeren (Schweiz) und in Tharandt bei Dresden (Deutschland) durchgeführt und ihre Ergebnisse bezüglich Korrektheit demonstriert.
Towards an automated SAR-based classification of water bodies
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Satellitengestützte Mikrowellen-Fernerkundung generell, und Synthetic Aperture Radar (SAR) im Besonderen, ist eine wichtige Datenquelle für die Klassifizierung von Wasserflächen. Auf Grund der mit Überschwemmungen oft einhergehenden Wolkendecke, sind Daten aus optischen Sensoren für die Kartierung von Überschwemmungsflächen oft unbrauchbar. Die Erfassung von SAR-Daten hingegen wird durch atmosphärische Bedingungen kaum beeinflusst. Das Ziel dieser Arbeit ist eine Untersuchung der Möglichkeiten und Grenzen einer automatisierten Kartierung von Überflutungen mit Hilfe von SAR. Zwei verschiedene Klassifizierungsansätze werden getestet: Die erste Methode basiert auf Otsu's Algorithmus (N. Otsu, 1979). Wasserflächen werden durch die automatische Berechnung eines Histogramm-Grenzwertes erkannt. Die zweite Methode basiert auf dem Konzept der "zeitlichen Stabilität" (Wagner et al., 2008), dabei wird der zeitliche und räumliche Zusammenhang von Radar-Rückstreuung verwendet um überflutete Flächen zu erkennen.
Beide Ansätze werden, unter Verwendung verschiedener Parameter, getestet und verglichen. Als Testgebiet dient der "River Severn", im Westen Groß Britanniens, und schwere Überschwemmungen die dort im Juli 2007 stattfanden. Die Ergebnisse, basierend auf der "zeitlichen Stabilität" von Radar Rückstreuung, übertreffen jene der Otsu Methode im Bezug auf Klassifizierungsgenauigkeit und Stabilität, ist allerdings kein historisches SAR-Datenarchiv verfügbar, bietet Otsu's Algorithmus eine gute Alternative zur Kartierung von Überschwemmungsflächen.
Satellitengestützte Mikrowellen-Fernerkundung generell, und Synthetic Aperture Radar (SAR) im Besonderen, ist eine wichtige Datenquelle für die Klassifizierung von Wasserflächen. Auf Grund der mit Überschwemmungen oft einhergehenden Wolkendecke, sind Daten aus optischen Sensoren für die Kartierung von Überschwemmungsflächen oft unbrauchbar. Die Erfassung von SAR-Daten hingegen wird durch atmosphärische Bedingungen kaum beeinflusst. Das Ziel dieser Arbeit ist eine Untersuchung der Möglichkeiten und Grenzen einer automatisierten Kartierung von Überflutungen mit Hilfe von SAR. Zwei verschiedene Klassifizierungsansätze werden getestet: Die erste Methode basiert auf Otsu's Algorithmus (N. Otsu, 1979). Wasserflächen werden durch die automatische Berechnung eines Histogramm-Grenzwertes erkannt. Die zweite Methode basiert auf dem Konzept der "zeitlichen Stabilität" (Wagner et al., 2008), dabei wird der zeitliche und räumliche Zusammenhang von Radar-Rückstreuung verwendet um überflutete Flächen zu erkennen.
Beide Ansätze werden, unter Verwendung verschiedener Parameter, getestet und verglichen. Als Testgebiet dient der "River Severn", im Westen Groß Britanniens, und schwere Überschwemmungen die dort im Juli 2007 stattfanden. Die Ergebnisse, basierend auf der "zeitlichen Stabilität" von Radar Rückstreuung, übertreffen jene der Otsu Methode im Bezug auf Klassifizierungsgenauigkeit und Stabilität, ist allerdings kein historisches SAR-Datenarchiv verfügbar, bietet Otsu's Algorithmus eine gute Alternative zur Kartierung von Überschwemmungsflächen.
Using Spatial and Temporal Editing Patterns for Evaluation of Open Street Map Data
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl Rehrl (Salzburg Research)
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl Rehrl (Salzburg Research)
Kurzfassung/Abstract
Volunteered Geographic Information (VGI) (Goodchild, 2007) has become a widely used alternative to commercial datasets for a variety of geo-applications. The OpenStreetMap (OSM) project, which has the goal to create a detailed map of the world based on VGI in vector data format, is one of the most prominent web projects. The OSM database is collected by voluntary data contributors and therefore not governed by an authoritative agency. Due to the heterogeneity of contributors, data validation is crucial to warrant usability of OSM data for spatial applications. Previous research assessed OSM data quality primarily through comparison with commercial or governmental reference data sets (Hacklay 2010; Zielstra and Hochmair 2011). This thesis presents a novel intrinsic approach for quality evaluation, which means that only OSM data itself, more specifically, the editing history of features, is used for the evaluation.
The evaluation method uses an activity-action-operation hierarchy for describing edits, which is based on the activity theory defined by Kuuttii (1996). After downloading the OSM features and their history files for a selected area basic mapping operations for features are extracted. Basic editing operations include (1) node coordinate changes, (2) modifications of the node list for ways, (3) the member list of relations, and (4) updated tags. Also special operations, such as "Way Split" or "Feature Recreation" are supported. Next, the basic operations are sorted by time and mapper and aggregated to actions based on a set of action rules. For example, the "Create Line" action must have (1) a "Create Way", (2) at least two "Add Node", (3) and some "Add Attribute" operations. Each action is linked to an activity which is based on the ISO 19157 quality parameter along with a quality value. Activities are Improvement of Positional Accuracy, Improvement of Thematic Accuracy, Improvement of Completeness and Improvement of Logical Consistency.
It is assumed that a heavily edited feature has a better quality in comparison to a poorly editing feature. Thus, summing up the quality values of all editing actions of all features could give some indication on the general quality level of the selected area.
The evaluation method produces an output which shows how many actions are found for which feature type (e.g., highway, amenity, landuse, or building). Since each action is linked to a quality parameter, the quality of different feature types, measured along the five quality parameters, can be assessed for the selected area. The algorithm uses a set of time ranges for analyzed edits, which is used to identify temporal patterns in quality improvement for different feature types.
Volunteered Geographic Information (VGI) (Goodchild, 2007) has become a widely used alternative to commercial datasets for a variety of geo-applications. The OpenStreetMap (OSM) project, which has the goal to create a detailed map of the world based on VGI in vector data format, is one of the most prominent web projects. The OSM database is collected by voluntary data contributors and therefore not governed by an authoritative agency. Due to the heterogeneity of contributors, data validation is crucial to warrant usability of OSM data for spatial applications. Previous research assessed OSM data quality primarily through comparison with commercial or governmental reference data sets (Hacklay 2010; Zielstra and Hochmair 2011). This thesis presents a novel intrinsic approach for quality evaluation, which means that only OSM data itself, more specifically, the editing history of features, is used for the evaluation.
The evaluation method uses an activity-action-operation hierarchy for describing edits, which is based on the activity theory defined by Kuuttii (1996). After downloading the OSM features and their history files for a selected area basic mapping operations for features are extracted. Basic editing operations include (1) node coordinate changes, (2) modifications of the node list for ways, (3) the member list of relations, and (4) updated tags. Also special operations, such as "Way Split" or "Feature Recreation" are supported. Next, the basic operations are sorted by time and mapper and aggregated to actions based on a set of action rules. For example, the "Create Line" action must have (1) a "Create Way", (2) at least two "Add Node", (3) and some "Add Attribute" operations. Each action is linked to an activity which is based on the ISO 19157 quality parameter along with a quality value. Activities are Improvement of Positional Accuracy, Improvement of Thematic Accuracy, Improvement of Completeness and Improvement of Logical Consistency.
It is assumed that a heavily edited feature has a better quality in comparison to a poorly editing feature. Thus, summing up the quality values of all editing actions of all features could give some indication on the general quality level of the selected area.
The evaluation method produces an output which shows how many actions are found for which feature type (e.g., highway, amenity, landuse, or building). Since each action is linked to a quality parameter, the quality of different feature types, measured along the five quality parameters, can be assessed for the selected area. The algorithm uses a set of time ranges for analyzed edits, which is used to identify temporal patterns in quality improvement for different feature types.
Web-based user interface for tour planning of waste disposal trucks
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: FH-Prof. Dr. Victor Garcìa, Dr. Günther Kiechle (Salzburg Research)
Betreuer: FH-Prof. Dr. Victor Garcìa, Dr. Günther Kiechle (Salzburg Research)
Kurzfassung/Abstract
The waste management industry has evolved significantly in recent years. New technology, methods and innovations have been created and applied in this field. The research work of this thesis deals with creating a user interface for an enhanced waste management system based on online sensors- data of the fill level of waste containers.
The main difficulty in the design of a user interface for such waste management systems is the large amount of input data and the complexity of the management processes which are involved. The waste management system handles sensors data in different types of waste containers, online data about vehicles route tracking, Web-based service data with information about full containers from the citizens, map-based visualizations as well as software processes for the optimization of route planning and management. Thus, the challenge is to manage this data for the user ("dispatcher") of such a system by creating an easy-to-use and effective user interface.
The user interface solution design proposed in this thesis utilizes the output of an optimization tool for route planning and provides its users with enhanced functions to analyze, confirm and change the route based on online data gathered from the sensors, from the current vehicles locations and from citizens collaboration. Thus, the solution approach is enhanced by GIS (Geographical Information Systems) technology and modern user-collaborative Web-based techniques (i.e. in terms of user-generated content, as used in current Web 2.0 tools). In addition, the ease-of-use of the user interface was proven and enhanced through a heuristic usability evaluation. Furthermore, a "Real Win Worth" questionnaire has been carried out to check the sales opportunities and the potential place in the market of the proposed waste management system solution.
The waste management industry has evolved significantly in recent years. New technology, methods and innovations have been created and applied in this field. The research work of this thesis deals with creating a user interface for an enhanced waste management system based on online sensors- data of the fill level of waste containers.
The main difficulty in the design of a user interface for such waste management systems is the large amount of input data and the complexity of the management processes which are involved. The waste management system handles sensors data in different types of waste containers, online data about vehicles route tracking, Web-based service data with information about full containers from the citizens, map-based visualizations as well as software processes for the optimization of route planning and management. Thus, the challenge is to manage this data for the user ("dispatcher") of such a system by creating an easy-to-use and effective user interface.
The user interface solution design proposed in this thesis utilizes the output of an optimization tool for route planning and provides its users with enhanced functions to analyze, confirm and change the route based on online data gathered from the sensors, from the current vehicles locations and from citizens collaboration. Thus, the solution approach is enhanced by GIS (Geographical Information Systems) technology and modern user-collaborative Web-based techniques (i.e. in terms of user-generated content, as used in current Web 2.0 tools). In addition, the ease-of-use of the user interface was proven and enhanced through a heuristic usability evaluation. Furthermore, a "Real Win Worth" questionnaire has been carried out to check the sales opportunities and the potential place in the market of the proposed waste management system solution.
Entwicklung der Forward Looking Terrain Avoidance in einem Terrain Awareness and Warning System (TAWS)
Institut für Navigation, Technische Universität Graz, 2012
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Eine der dominierenden Unfallursachen in der Luftfahrt ist noch immer der "Controlled Flight Into Terrain" (CFIT), bei dem ein voll funktionsfähiges Flugzeug unter der Kontrolle des Piloten versehentlich in das Gelände, ins Wasser oder in ein Hindernis gesteuert wird. Seit den 1970er Jahren wurden Vorkehrungen getroffen CFIT zu vermeiden und das Risiko dessen zu minimieren. Eines der neuesten Avionik-Navigationssysteme zu diesem Zweck ist das sogenannte "Terrain Awareness and Warning System" (TAWS). Mit Hilfe des Globalen Positionierung Systems (GPS) und einer internen digitalen Geländedatenbank warnt das System den Piloten vor einer gefährlichen Annäherung an das Gelände. Das System prädiziert die Flugzeugposition und verschneidet die prädizierten Positionen mit der Geländedatenbank. Diese Methode wird als "Forward Looking Terrain Avoidance" (FLTA) bezeichnet und verbessert das Bewusstsein des Piloten für das vor dem Flugzeug liegende Gelände und warnt diesen gegebenenfalls davor. Diese Diplomarbeit beschäftigt sich mit der Entwicklung der FLTA in einem TAWS, das in einem Full-Flight Simulator verwendet wird. Es wird ein mathematisches Modell zur Prädiktion der Flugzeugposition entwickelt, das dem Erstellen eines Suchraums dient. Die Erstellung des Suchraums berücksichtigt behördliche Auflagen als auch die Kinematik eines Flugzeugs. Letztendlich wird der Suchraum mit einer Geländedatenbank verschnitten. Dazu wird ein Modell für eine Geländedatenbank vorgestellt, das eine schnelle Verschneidung mit dem Suchraum zulässt. Das Resultat der Verschneidung dient der Entwicklung einer Methode zur Auslösung von Warnungen für den Piloten.
Eine der dominierenden Unfallursachen in der Luftfahrt ist noch immer der "Controlled Flight Into Terrain" (CFIT), bei dem ein voll funktionsfähiges Flugzeug unter der Kontrolle des Piloten versehentlich in das Gelände, ins Wasser oder in ein Hindernis gesteuert wird. Seit den 1970er Jahren wurden Vorkehrungen getroffen CFIT zu vermeiden und das Risiko dessen zu minimieren. Eines der neuesten Avionik-Navigationssysteme zu diesem Zweck ist das sogenannte "Terrain Awareness and Warning System" (TAWS). Mit Hilfe des Globalen Positionierung Systems (GPS) und einer internen digitalen Geländedatenbank warnt das System den Piloten vor einer gefährlichen Annäherung an das Gelände. Das System prädiziert die Flugzeugposition und verschneidet die prädizierten Positionen mit der Geländedatenbank. Diese Methode wird als "Forward Looking Terrain Avoidance" (FLTA) bezeichnet und verbessert das Bewusstsein des Piloten für das vor dem Flugzeug liegende Gelände und warnt diesen gegebenenfalls davor. Diese Diplomarbeit beschäftigt sich mit der Entwicklung der FLTA in einem TAWS, das in einem Full-Flight Simulator verwendet wird. Es wird ein mathematisches Modell zur Prädiktion der Flugzeugposition entwickelt, das dem Erstellen eines Suchraums dient. Die Erstellung des Suchraums berücksichtigt behördliche Auflagen als auch die Kinematik eines Flugzeugs. Letztendlich wird der Suchraum mit einer Geländedatenbank verschnitten. Dazu wird ein Modell für eine Geländedatenbank vorgestellt, das eine schnelle Verschneidung mit dem Suchraum zulässt. Das Resultat der Verschneidung dient der Entwicklung einer Methode zur Auslösung von Warnungen für den Piloten.
Softwareentwicklung eines low-cost GNSS Vessel Navigation Systems
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2012
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Für die Steuerung eines Schiffs benötigt der Steuermann die Kenntnis über mindestens drei Parameter: Position, Kurs und Geschwindigkeit. Nur durch diese Parameter ist eine sichere Zielführung gewährleistet. Zur Ermittlung dieser Parameter gibt es eine Vielzahl von Methoden in der Schifffahrtsnavigation. Die vorliegende Arbeit beschreibt die Softwareentwicklung. Für die Steuerung eines Schiffs benötigt der Steuermann die Kenntnis über mindestens drei Parameter: Position, Kurs und Geschwindigkeit. Nur durch diese Parameter ist eine sichere Zielführung gewährleistet. Zur Ermittlung dieser Parameter gibt es eine Vielzahl von Methoden in der Schifffahrtsnavigation. Die vorliegende Arbeit beschreibt die Softwareentwicklung für ein vessel navigation system (VNS) auf Basis von low-cost GPS Empfängern. Für die Entwicklung der Software wurden alle Systemkomponenten des Navigationsystems ausreichend getestet. Der erste Teil dieser Arbeit widmet sich dem theoretischen Hintergrund der Arbeit, welcher die satellitengestützte Positionierung mittel GPS Empfänger zeigt. Des Weiteren wird beschrieben, wie Position, Kurs, und Geschwindigkeit durch relative Positionierung in Echtzeit bestimmt werden können. Im Speziellen wird hier auf die Lösung der Phasenmehrdeutigkeit im Echtzeit-Modus eingegangen. Im zweiten Teil wird auf die Umsetzung und Programmierung der Software eingegangen. Der letzte Teil zeigt Analysen der Ergebnisse eines Testlaufs. Das Ergebnis stellt eine Software dar, welche alle Parameter, die für die Schifffahrt notwendig sind, in Echtzeit wiedergibt. Die Entwicklung einer derartigen Software ist der erste Schritt zur automatisierten Steuerung eines Schiffs. Ebenfalls kann ein VNS den Steuermann eines Schiffs in sicherheitskritischen Situationen unterstützen und Informationen in Echtzeit liefern.
Für die Steuerung eines Schiffs benötigt der Steuermann die Kenntnis über mindestens drei Parameter: Position, Kurs und Geschwindigkeit. Nur durch diese Parameter ist eine sichere Zielführung gewährleistet. Zur Ermittlung dieser Parameter gibt es eine Vielzahl von Methoden in der Schifffahrtsnavigation. Die vorliegende Arbeit beschreibt die Softwareentwicklung. Für die Steuerung eines Schiffs benötigt der Steuermann die Kenntnis über mindestens drei Parameter: Position, Kurs und Geschwindigkeit. Nur durch diese Parameter ist eine sichere Zielführung gewährleistet. Zur Ermittlung dieser Parameter gibt es eine Vielzahl von Methoden in der Schifffahrtsnavigation. Die vorliegende Arbeit beschreibt die Softwareentwicklung für ein vessel navigation system (VNS) auf Basis von low-cost GPS Empfängern. Für die Entwicklung der Software wurden alle Systemkomponenten des Navigationsystems ausreichend getestet. Der erste Teil dieser Arbeit widmet sich dem theoretischen Hintergrund der Arbeit, welcher die satellitengestützte Positionierung mittel GPS Empfänger zeigt. Des Weiteren wird beschrieben, wie Position, Kurs, und Geschwindigkeit durch relative Positionierung in Echtzeit bestimmt werden können. Im Speziellen wird hier auf die Lösung der Phasenmehrdeutigkeit im Echtzeit-Modus eingegangen. Im zweiten Teil wird auf die Umsetzung und Programmierung der Software eingegangen. Der letzte Teil zeigt Analysen der Ergebnisse eines Testlaufs. Das Ergebnis stellt eine Software dar, welche alle Parameter, die für die Schifffahrt notwendig sind, in Echtzeit wiedergibt. Die Entwicklung einer derartigen Software ist der erste Schritt zur automatisierten Steuerung eines Schiffs. Ebenfalls kann ein VNS den Steuermann eines Schiffs in sicherheitskritischen Situationen unterstützen und Informationen in Echtzeit liefern.
Towards Usable and Privacy- Enhanced Mobile Applications for Health-Related Location-Based Services
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: FH-Prof. Dr. Victor Garcìa, Dr. Melanie Tomintz
Betreuer: FH-Prof. Dr. Victor Garcìa, Dr. Melanie Tomintz
Kurzfassung/Abstract
In the last years the mobile application market has grown significantly and this tendency is continuing. Currently, an increasing number of mobile applications on the market releases and also transfer personal data of users. Most of these applications do not provide mechanisms to protect the users' privacy. A particular growth trend is registered within the area of location-based mobile applications that often release location information about their users. In this field, the importance of privacy enhancement mechanisms is even higher. Large and complex privacy settings as well as their implications on functionality confuse and distract users of mobile applications. At first glance, they are often difficult to understand for (novice) users. Furthermore, the settings and extend of the functionalities of privacy settings can be hard to remember. Thus, in terms of mobile applications for health-related location-based services, which define the specific research scope of this work, protecting privacy is highly relevant and a very critical issue, because it implies dealing with the most personal and sensitive data of users.
This thesis addresses the statements given so far and provides a solution for a usable and comprehensible user interface for health-related location-based mobile applications. The proposed solution, called PRICO (Privacy Cockpit), follows a strict user-centric design approach, and thus, sets the focus on hiding the complexity of privacy concerns as well as on reducing the interaction time with large privacy settings. From the practical point of view, the utilization of PRICO aims at users of mobile devices within the application area of Health GIS (Geographical Information System). Thus, PRICO allows e.g. trainers to track and manage the vital and positioning data of their trainees during outdoor training activities, provided that trainees want to share this information.
In the last years the mobile application market has grown significantly and this tendency is continuing. Currently, an increasing number of mobile applications on the market releases and also transfer personal data of users. Most of these applications do not provide mechanisms to protect the users' privacy. A particular growth trend is registered within the area of location-based mobile applications that often release location information about their users. In this field, the importance of privacy enhancement mechanisms is even higher. Large and complex privacy settings as well as their implications on functionality confuse and distract users of mobile applications. At first glance, they are often difficult to understand for (novice) users. Furthermore, the settings and extend of the functionalities of privacy settings can be hard to remember. Thus, in terms of mobile applications for health-related location-based services, which define the specific research scope of this work, protecting privacy is highly relevant and a very critical issue, because it implies dealing with the most personal and sensitive data of users.
This thesis addresses the statements given so far and provides a solution for a usable and comprehensible user interface for health-related location-based mobile applications. The proposed solution, called PRICO (Privacy Cockpit), follows a strict user-centric design approach, and thus, sets the focus on hiding the complexity of privacy concerns as well as on reducing the interaction time with large privacy settings. From the practical point of view, the utilization of PRICO aims at users of mobile devices within the application area of Health GIS (Geographical Information System). Thus, PRICO allows e.g. trainers to track and manage the vital and positioning data of their trainees during outdoor training activities, provided that trainees want to share this information.
Development of a Community-Based Energy WebGIS Portal
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
The project "Development of a Community-Based Energy WebGIS Portal" is an integral part of the Interreg IVA project "AlterVis Self-sufficiency through renewable energy sources". The newly developed web portal provides a standardized way to capture, manage, analyze, and visualize energy data based on open-source technologies. The overall goal of this web portal is to identify the potential for reducing the energy consumption regarding electricity, heating, building characteristics in terms of insulation status, and mobility for each household in different communities. The portal provides the development of a uniform and global system which allows participating owners of private households and commercial / industrial facilities (which includes also public and agricultural facilities) to participate in a standardized questionnaire-based survey regarding the energy consumption of their household/building(s). This standardized approach and the open architecture of the portal allow an efficient extension of the energy WebGIS portal to other communities in the region which makes a comparison between the municipalities possible and interesting. The results of the survey can be visualized in different table formats, diagrams, and maps. This detailed information is, because of privacy issues, only accessible to administrators and authorities. For users who complete the survey the web portal provides their personal energy characteristics as benchmark for a comparison from "Statistik Austria" based on a standardized and comparable energy efficiency category graphic (range from A++ to G) for the three main categories electricity, building heat, and mobility. It can be concluded that this work demonstrates that energy data can be captured, analyzed, and visualized in an efficiently way. This is done by developing a web portal based only on open source technologies that provide the basis to implement this project at all other communities in Carinthia.
The project "Development of a Community-Based Energy WebGIS Portal" is an integral part of the Interreg IVA project "AlterVis Self-sufficiency through renewable energy sources". The newly developed web portal provides a standardized way to capture, manage, analyze, and visualize energy data based on open-source technologies. The overall goal of this web portal is to identify the potential for reducing the energy consumption regarding electricity, heating, building characteristics in terms of insulation status, and mobility for each household in different communities. The portal provides the development of a uniform and global system which allows participating owners of private households and commercial / industrial facilities (which includes also public and agricultural facilities) to participate in a standardized questionnaire-based survey regarding the energy consumption of their household/building(s). This standardized approach and the open architecture of the portal allow an efficient extension of the energy WebGIS portal to other communities in the region which makes a comparison between the municipalities possible and interesting. The results of the survey can be visualized in different table formats, diagrams, and maps. This detailed information is, because of privacy issues, only accessible to administrators and authorities. For users who complete the survey the web portal provides their personal energy characteristics as benchmark for a comparison from "Statistik Austria" based on a standardized and comparable energy efficiency category graphic (range from A++ to G) for the three main categories electricity, building heat, and mobility. It can be concluded that this work demonstrates that energy data can be captured, analyzed, and visualized in an efficiently way. This is done by developing a web portal based only on open source technologies that provide the basis to implement this project at all other communities in Carinthia.
Steuerung eines fahrbaren Roboters mittels zielverfolgender Totalstation
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Kurzfassung/Abstract
Der Einsatz zielverfolgender Totalstationen und echzeitkinematikfähiger GNSS-Empfänger für die Führung und Steuerung von Baumaschinen hat in den letzten Jahren die Automatisierung von Bauprozessen und damit eine wesentliche Steigerung der Arbeitseffizienz auf Großbaustellen bewirkt. Geschlossene Regelkreise ermöglichen eine ständige Nachführung einer Vorgabengröße und entlasten den Maschinenoperateur, sodass dieser bei sogenannten „voll-automatischen" 3D-Steuerungssystemen nur noch die Geschwindigkeit regulieren muss.
Im Rahmen dieser Diplomarbeit wurden Algorithmen zur Steuerung der mobilen Roboterplattform der Forschungsgruppe Ingenieurgeodäsie an der Technischen Universität Wien entwickelt, wobei der Steuerrechner per WLAN mit dem roboterinternen Rechner kommuniziert. Der Zusammenhang zwischen den verwendeten Steuerinputs und der tatsächlichen Positions- und Orientierungsänderungen wird durch ein mathematisches Modell beschrieben und erlaubt die Modellierung der fahrdynamischen Eigenschaften des Roboters. Die Kommunikation zwischen dem zur Steuerung verwendeten Rechner und dem Robotercomputer erfolgt dabei über eine TCP/IP-Socketverbindung.
Durch den in MATLAB implementierten Regelkreis wird der Roboter entlang einer durch Koordinaten vorgegebene Soll-Trajektorie navigiert und der Steuerrechner erhält in Echtzeit die Position des am Roboter befestigten 360°-Prismas von einer Totalstation zur Regelung der Querabweichungen. Die Übertragung der Trackingdaten zwischen Totalstation und Steuerrechner erfolgt über die GeoCOM-Schnittstelle. Bei den durchgeführten Testfahrten werden verschiedene Befestigungspositionen des Prismas auf dem Roboter und deren Auswirkung bei Richtungswechseln der Soll-Trajektorie auf die Regelgüte untersucht und die Unterschiede aufgezeigt.
Die Analyse der Abweichungen zwischen der gemessenen und der vorgegebenen Trajektorie zeigt, dass ein Oval bestehend aus zwei Geraden und zwei Halbkreisbögen mit einem rms der lateralen Abweichungen zur Soll-Trajektorie von besser als 7 mm nachgefahren werden kann.
Der Einsatz zielverfolgender Totalstationen und echzeitkinematikfähiger GNSS-Empfänger für die Führung und Steuerung von Baumaschinen hat in den letzten Jahren die Automatisierung von Bauprozessen und damit eine wesentliche Steigerung der Arbeitseffizienz auf Großbaustellen bewirkt. Geschlossene Regelkreise ermöglichen eine ständige Nachführung einer Vorgabengröße und entlasten den Maschinenoperateur, sodass dieser bei sogenannten „voll-automatischen" 3D-Steuerungssystemen nur noch die Geschwindigkeit regulieren muss.
Im Rahmen dieser Diplomarbeit wurden Algorithmen zur Steuerung der mobilen Roboterplattform der Forschungsgruppe Ingenieurgeodäsie an der Technischen Universität Wien entwickelt, wobei der Steuerrechner per WLAN mit dem roboterinternen Rechner kommuniziert. Der Zusammenhang zwischen den verwendeten Steuerinputs und der tatsächlichen Positions- und Orientierungsänderungen wird durch ein mathematisches Modell beschrieben und erlaubt die Modellierung der fahrdynamischen Eigenschaften des Roboters. Die Kommunikation zwischen dem zur Steuerung verwendeten Rechner und dem Robotercomputer erfolgt dabei über eine TCP/IP-Socketverbindung.
Durch den in MATLAB implementierten Regelkreis wird der Roboter entlang einer durch Koordinaten vorgegebene Soll-Trajektorie navigiert und der Steuerrechner erhält in Echtzeit die Position des am Roboter befestigten 360°-Prismas von einer Totalstation zur Regelung der Querabweichungen. Die Übertragung der Trackingdaten zwischen Totalstation und Steuerrechner erfolgt über die GeoCOM-Schnittstelle. Bei den durchgeführten Testfahrten werden verschiedene Befestigungspositionen des Prismas auf dem Roboter und deren Auswirkung bei Richtungswechseln der Soll-Trajektorie auf die Regelgüte untersucht und die Unterschiede aufgezeigt.
Die Analyse der Abweichungen zwischen der gemessenen und der vorgegebenen Trajektorie zeigt, dass ein Oval bestehend aus zwei Geraden und zwei Halbkreisbögen mit einem rms der lateralen Abweichungen zur Soll-Trajektorie von besser als 7 mm nachgefahren werden kann.
Empirische Modelle für die troposphärische Laufzeitverzögerung bei geodätischen Weltraumverfahren
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Zur Auswertung der Beobachtungen geodätischer Weltraumverfahren wie GNSS (Global Navigation Satellite Systems) und VLBI (Very Long Baseline Interferometry) ist die Bestimmung troposphärischer Laufzeitverzögerungen unerlässlich. Im Speziellen werden Werte für die hydrostatischen Laufzeitverzögerungen in Zenitrichtung - berechnet aus den Druckwerten an den Stationen - und die hydrostatischen und feuchten Projektionsfunktionen an den Stationen benötigt. In dieser Diplomarbeit wird ein neues empirisches Modell, genannt GPT2, vorgestellt, welches die bestehenden Modelle GPT (Global Pressure and Temperature) und GMF (Global Mapping Function) ablösen soll. Eingangsparameter sind die Stationskoordinaten sowie das modifizierte Julianische Datum. Basierend auf den meteorologischen Daten des numerischen Wettermodells (NWM) ERA-Interim des European Centre for Medium-Range Weather Forecasts (ECMWF) werden Mittelwerte sowie jährliche und halbjährliche Variationen von Druck, Temperatur, Feuchte und Temperaturgradienten bestimmt. Die Koeffizienten der Vienna Mapping Function (VMF1) werden in analoger Weise behandelt. Die Wahl der horizontalen Auflösung (5° x 5°) und des Interpolationsverfahrens zwischen den Gitterpunkten (bilineare Interpolation) erfolgt durch Vergleiche verschiedener Auflösungen und Interpolationsmethoden. GPT2 wird mit dem bestehenden Modell GPT verglichen, wobei sich die größten Unterschiede in resultierenden Stationshöhen (max. 8.4 mm, 95% unter 2 mm) in der Antarktis, an den Küsten sowie in Gebirgen befinden. Ein Vergleich von GPT2 mit in-situ Druckbeobachtungen bestätigt, dass GPT2 eine Verbesserung gegenüber dem bestehenden Modell GPT darstellt, und für die Bestimmung von Laufzeitverzögerungen bei geodätischen Weltraumverfahren verwendet werden kann.
Zur Auswertung der Beobachtungen geodätischer Weltraumverfahren wie GNSS (Global Navigation Satellite Systems) und VLBI (Very Long Baseline Interferometry) ist die Bestimmung troposphärischer Laufzeitverzögerungen unerlässlich. Im Speziellen werden Werte für die hydrostatischen Laufzeitverzögerungen in Zenitrichtung - berechnet aus den Druckwerten an den Stationen - und die hydrostatischen und feuchten Projektionsfunktionen an den Stationen benötigt. In dieser Diplomarbeit wird ein neues empirisches Modell, genannt GPT2, vorgestellt, welches die bestehenden Modelle GPT (Global Pressure and Temperature) und GMF (Global Mapping Function) ablösen soll. Eingangsparameter sind die Stationskoordinaten sowie das modifizierte Julianische Datum. Basierend auf den meteorologischen Daten des numerischen Wettermodells (NWM) ERA-Interim des European Centre for Medium-Range Weather Forecasts (ECMWF) werden Mittelwerte sowie jährliche und halbjährliche Variationen von Druck, Temperatur, Feuchte und Temperaturgradienten bestimmt. Die Koeffizienten der Vienna Mapping Function (VMF1) werden in analoger Weise behandelt. Die Wahl der horizontalen Auflösung (5° x 5°) und des Interpolationsverfahrens zwischen den Gitterpunkten (bilineare Interpolation) erfolgt durch Vergleiche verschiedener Auflösungen und Interpolationsmethoden. GPT2 wird mit dem bestehenden Modell GPT verglichen, wobei sich die größten Unterschiede in resultierenden Stationshöhen (max. 8.4 mm, 95% unter 2 mm) in der Antarktis, an den Küsten sowie in Gebirgen befinden. Ein Vergleich von GPT2 mit in-situ Druckbeobachtungen bestätigt, dass GPT2 eine Verbesserung gegenüber dem bestehenden Modell GPT darstellt, und für die Bestimmung von Laufzeitverzögerungen bei geodätischen Weltraumverfahren verwendet werden kann.
Untersuchung verschiedener Features zur Kartierung von Degradation in Kongo
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Im Rahmen der REDD Initiative zur Reduktion von Emissionen aus der Abholzung und Zerstörung von tropischen Wäldern werden in dieser Masterarbeit unterschiedliche Features zur Degradationskartierung von Wäldern in der Republik Kongo untersucht. Als Features sind in diesem Zusammenhang aus den Spektralbändern abgeleitete künstliche Kanäle zu verstehen. Einleitend wird die REDD Initiative vorgestellt sowie der Begriff der Degradation und deren Charakteristika erläutert. Anschließend werden die Methoden zur Degradationskartierung (Kartierung von Lücken und Beschirmung), von der Feldarbeit, über die visuelle Interpretation bis hin zur automatischen Bildverarbeitung von Satellitenbilddaten aus der Literatur vorgestellt. Aus diesen sowie aus der Analyse des zur Verfügung stehenden Datenmaterials werden für ein Testgebiet im Norden der Republik Kongo Features auf Basis von Landsatdaten berechnet. Die Ergebnisse daraus werden mit Referenzdaten aus der visuellen Interpretation einer Ikonosszene korreliert und analysiert. Als bestes Feature zur Kartierung von Degradation stellt sich dabei die spektrale Entmischungsanalyse (SMA) der Landsatbänder 3 (rot) und 4 (nahes Infrarot) heraus. Die Klassifizierung und Verifizierung dieser Daten zeigt jedoch, dass die Kartierung von kleinen Lücken eine Herausforderung darstellt. Des Weiteren wird anhand von Landsatdaten unter Verwendung der SMA eine multitemporale Analyse von Lücken und Wiederbewuchsflächen durchgeführt. Dabei zeigt sich, dass Lücken innerhalb von 3,5 Jahren nach der Holzentnahme am besten durch die Bodenfraktion resultierend aus der SMA beschrieben werden, während in den darauffolgenden Jahren der Wiederbewuchs auf diesen Flächen für ein Monitoring verwendet werden kann. Wiederbewuchs ist dabei am besten in der grünen Vegetationsfraktion zu beobachten.
Im Rahmen der REDD Initiative zur Reduktion von Emissionen aus der Abholzung und Zerstörung von tropischen Wäldern werden in dieser Masterarbeit unterschiedliche Features zur Degradationskartierung von Wäldern in der Republik Kongo untersucht. Als Features sind in diesem Zusammenhang aus den Spektralbändern abgeleitete künstliche Kanäle zu verstehen. Einleitend wird die REDD Initiative vorgestellt sowie der Begriff der Degradation und deren Charakteristika erläutert. Anschließend werden die Methoden zur Degradationskartierung (Kartierung von Lücken und Beschirmung), von der Feldarbeit, über die visuelle Interpretation bis hin zur automatischen Bildverarbeitung von Satellitenbilddaten aus der Literatur vorgestellt. Aus diesen sowie aus der Analyse des zur Verfügung stehenden Datenmaterials werden für ein Testgebiet im Norden der Republik Kongo Features auf Basis von Landsatdaten berechnet. Die Ergebnisse daraus werden mit Referenzdaten aus der visuellen Interpretation einer Ikonosszene korreliert und analysiert. Als bestes Feature zur Kartierung von Degradation stellt sich dabei die spektrale Entmischungsanalyse (SMA) der Landsatbänder 3 (rot) und 4 (nahes Infrarot) heraus. Die Klassifizierung und Verifizierung dieser Daten zeigt jedoch, dass die Kartierung von kleinen Lücken eine Herausforderung darstellt. Des Weiteren wird anhand von Landsatdaten unter Verwendung der SMA eine multitemporale Analyse von Lücken und Wiederbewuchsflächen durchgeführt. Dabei zeigt sich, dass Lücken innerhalb von 3,5 Jahren nach der Holzentnahme am besten durch die Bodenfraktion resultierend aus der SMA beschrieben werden, während in den darauffolgenden Jahren der Wiederbewuchs auf diesen Flächen für ein Monitoring verwendet werden kann. Wiederbewuchs ist dabei am besten in der grünen Vegetationsfraktion zu beobachten.
A web-based system for comparative analysis of OpenStreetMap data by the use of CouchDB
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2012
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit der Möglichkeit eine Web Anwendung zu erstellen, welche ausschließlich eine CouchDB Datenbank mit räumlicher Erweiterung zu ihrer Ausführung benötigt. Ihr Zweck ist ein Vergleich von POIs aus der OpenStreetMap mit einer beliebigen alternativen Sammlung von Punkten. Um dies zu bewerkstelligen, wurde ein vereinfachter Vergleichsalgorithmus entwickelt und bewertet. Weiters wurde eine Methode zur Unterstützung der Beantwortung rechtlicher Fragen bezüglich OpenStreetMap implementiert.
Diese Arbeit beschäftigt sich mit der Möglichkeit eine Web Anwendung zu erstellen, welche ausschließlich eine CouchDB Datenbank mit räumlicher Erweiterung zu ihrer Ausführung benötigt. Ihr Zweck ist ein Vergleich von POIs aus der OpenStreetMap mit einer beliebigen alternativen Sammlung von Punkten. Um dies zu bewerkstelligen, wurde ein vereinfachter Vergleichsalgorithmus entwickelt und bewertet. Weiters wurde eine Methode zur Unterstützung der Beantwortung rechtlicher Fragen bezüglich OpenStreetMap implementiert.
Metadata Management of Higher Level Remote Sensing Products
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Fernerkundungsprodukte die aus Radar Satellitendaten abgeleitet werden, werden für die globale Überwachung der Hydrosphäre entwickelt. Je nach verwendetem Messinstrument, wie zum Beispiel Synthetic Aperture Radar (SAR) oder Scatterometer (SCAT) zeigen die aufgezeichneten Daten unterschiedliche Eigenschaften, was eine Vielzahl an Anwendungsmöglichkeiten ermöglicht. Mit dem Start neuer Satelliten (z.B. Sentinel 1, vorgesehener Start um 2013), die neue und besser entwickelte Messinstrumente an Board tragen, soll der Umfang an Anwendungsmöglichkeiten weiter vergrößert werden. Dies kann aber auch bedeuten, dass bestehende Algorithmen zur Prozessierung der neuen Daten an deren Charakteristiken angepasst, oder sogar neue Algorithmen entwickelt werden müssen. Demzufolge ist das Zusammenspiel von Datenbeschaffung und Datenverarbeitung ein stetiger dynamischer Prozess. Im Laufe der Prozessierung von Produkten niedrigeren Levels (Level 1, Rohdaten) bis hin zu Produkten höheren Levels (Level 2, Level 3; georeferenzierte geophysikalische Variablen) können verschiedene Software-Pakete und Hilfsdaten zum Einsatz kommen.
Informationen über die Eigenschaften von Fernerkundungsprodukten (von der Gewinnung bis zur Prozessierung), so genannte Metadaten, dienen als wichtige Informationsquelle sowohl für die Erzeuger selbst als auch für die Drittanwender. Die Internationale Organisation für Normung (ISO) stellt Standards zur Beschreibung von geographischen Metadaten zur Verfügung. In der Europäischen Union (EU) ist die Richtlinie zur Schaffung einer Geodateninfrastruktur in der Europäischen Gemeinschaft, genannt INSPIRE (Infrastructure for Spatial Information in the European Community), ein wichtiger Leitfaden für die Beschreibung von Geodaten.
Das Ziel dieser Diplomarbeit ist es, Methoden für die Verwaltung von Produkten und den anfallenden Metadaten zu untersuchen und diese Informationen für Drittanwender, unter Berücksichtigung der erwähnten Standards, bereitzustellen. Die Herangehensweise ist basierend auf der Implementierung von Standard-konformen XML-Dateien, und der Entwurf einer relationalen Datenbank die zur Speicherung und Verwaltung der Metadaten dient.
Fernerkundungsprodukte die aus Radar Satellitendaten abgeleitet werden, werden für die globale Überwachung der Hydrosphäre entwickelt. Je nach verwendetem Messinstrument, wie zum Beispiel Synthetic Aperture Radar (SAR) oder Scatterometer (SCAT) zeigen die aufgezeichneten Daten unterschiedliche Eigenschaften, was eine Vielzahl an Anwendungsmöglichkeiten ermöglicht. Mit dem Start neuer Satelliten (z.B. Sentinel 1, vorgesehener Start um 2013), die neue und besser entwickelte Messinstrumente an Board tragen, soll der Umfang an Anwendungsmöglichkeiten weiter vergrößert werden. Dies kann aber auch bedeuten, dass bestehende Algorithmen zur Prozessierung der neuen Daten an deren Charakteristiken angepasst, oder sogar neue Algorithmen entwickelt werden müssen. Demzufolge ist das Zusammenspiel von Datenbeschaffung und Datenverarbeitung ein stetiger dynamischer Prozess. Im Laufe der Prozessierung von Produkten niedrigeren Levels (Level 1, Rohdaten) bis hin zu Produkten höheren Levels (Level 2, Level 3; georeferenzierte geophysikalische Variablen) können verschiedene Software-Pakete und Hilfsdaten zum Einsatz kommen.
Informationen über die Eigenschaften von Fernerkundungsprodukten (von der Gewinnung bis zur Prozessierung), so genannte Metadaten, dienen als wichtige Informationsquelle sowohl für die Erzeuger selbst als auch für die Drittanwender. Die Internationale Organisation für Normung (ISO) stellt Standards zur Beschreibung von geographischen Metadaten zur Verfügung. In der Europäischen Union (EU) ist die Richtlinie zur Schaffung einer Geodateninfrastruktur in der Europäischen Gemeinschaft, genannt INSPIRE (Infrastructure for Spatial Information in the European Community), ein wichtiger Leitfaden für die Beschreibung von Geodaten.
Das Ziel dieser Diplomarbeit ist es, Methoden für die Verwaltung von Produkten und den anfallenden Metadaten zu untersuchen und diese Informationen für Drittanwender, unter Berücksichtigung der erwähnten Standards, bereitzustellen. Die Herangehensweise ist basierend auf der Implementierung von Standard-konformen XML-Dateien, und der Entwurf einer relationalen Datenbank die zur Speicherung und Verwaltung der Metadaten dient.
Theoretische und experimentelle Untersuchungen zum Verfahren Least Squares Matching zur automatisierten Messung homologer Bildstellen mit Subpixel-Auflösung
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie und Fernerkundung, Technische Universität Wien, 2012
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Least-Squares Matching (LSM) ist ein Verfahren, das zu einer Referenz-Bildstelle in dem sogenannten (digitalen) Referenzbild, die korrespondierende Bildstelle in einem oder mehreren sogenannten (digitalen) Suchbildern mit Subpixel-Auflösung auffindet. Genauer formuliert ist LSM mehr eine Verfeinerungs- denn Auffindungsmethode, nachdem das Verfahren nach guten Näherungswerten für die gesuchten Bildstellen verlangt. Es handelt sich um einen iterativen Kleinste-Quadrate-Ansatz (Ausgleichung nach vermittelnden Beobachtungen, Gauß-Markoff-Modell) bei dem die Summe der quadratischen Grauwert-Differenzen zwischen Ausschnitten (oder "Fenstern") in Referenz- und Suchbild(ern) minimiert wird. Dazu erlaubt das funktionale Modell geometrische und radiometrische Transformationen zwischen den Bildern.
Aufgabe dieser Arbeit war die Implementierung von einkanaligem Zweibild-LSM, d. h. beschränkt auf nur ein Suchbild und einen Farbkanal, mit verschiedenen Ansätzen für bestimmte Teile des Algorithmus und die Durchführung von vergleichenden Experimenten an realen Bilddaten. Als Bilddaten wurde ein orientierter Luftbild-Block an panchromatischen Microsoft/Vexcel UltraCamX-Bildern verwendet. Die Implementierung erfolgte im Programm MATLAB der Firma The MathWorks. Für folgende Algorithmus-Teile wurden verschiedene Ansätze implementiert und erprobt: (a) Der grundsätzliche Ansatz für das funktionale Modell von LSM: Ansatz nach Grün [1985] und Ansatz nach Kraus [2004]. (b) Die geometrische Transformation: Shift, Ähnlichkeits- und Affintransformation. (c) Die radiometrische Transformation: Mitschätzung vs. a priori Berechnung der Koeffizienten einer linearen radiometrischen Transformation. (d) Erweiterung des funktionalen Modells von LSM um eine geometrische Bedingung unter Verwendung der Kollinearitätsgleichungen bei bekannter Orientierung. Jede dieser Varianten und Erweiterungen wird im Theorieteil dieser Arbeit im Detail besprochen.
Die Ergebnisse zeigen: (a.) Der Ansatz nach Kraus zeigt Vorteile in Prozessierungs-Geschwindigkeit (d. h. Laufzeit) und Geschwindigkeit der Parameterschätzung (d. h. Iterationszahlen bis zur Erreichung bestimmter Konvergenzkriterien). (b) Die beiden radiometrischen Ansätze führen in den Dimensionen von (a) zu mehr oder weniger gleichwertigen Resultaten mit leichten Vorteilen für den a priori Ansatz. (c) Einfachere geometrische Transformationen (Shift) können bei spezieller Bild-Textur ähnliche Bildstellen finden wie komplexere (affin), obwohl die damit verbundenen Modellannahmen verletzt sind (z. B. an schrägen Dachflächen). (d) An Bildstellen, wo keine der eingeführten Transformationen die perspektivischen Unterschiede zwischen Referenz- und Suchbild korrekt modelliert, kann die Hinzunahme der geometrischen Bedingung die Zuordnungsqualität verbessern.
Least-Squares Matching (LSM) ist ein Verfahren, das zu einer Referenz-Bildstelle in dem sogenannten (digitalen) Referenzbild, die korrespondierende Bildstelle in einem oder mehreren sogenannten (digitalen) Suchbildern mit Subpixel-Auflösung auffindet. Genauer formuliert ist LSM mehr eine Verfeinerungs- denn Auffindungsmethode, nachdem das Verfahren nach guten Näherungswerten für die gesuchten Bildstellen verlangt. Es handelt sich um einen iterativen Kleinste-Quadrate-Ansatz (Ausgleichung nach vermittelnden Beobachtungen, Gauß-Markoff-Modell) bei dem die Summe der quadratischen Grauwert-Differenzen zwischen Ausschnitten (oder "Fenstern") in Referenz- und Suchbild(ern) minimiert wird. Dazu erlaubt das funktionale Modell geometrische und radiometrische Transformationen zwischen den Bildern.
Aufgabe dieser Arbeit war die Implementierung von einkanaligem Zweibild-LSM, d. h. beschränkt auf nur ein Suchbild und einen Farbkanal, mit verschiedenen Ansätzen für bestimmte Teile des Algorithmus und die Durchführung von vergleichenden Experimenten an realen Bilddaten. Als Bilddaten wurde ein orientierter Luftbild-Block an panchromatischen Microsoft/Vexcel UltraCamX-Bildern verwendet. Die Implementierung erfolgte im Programm MATLAB der Firma The MathWorks. Für folgende Algorithmus-Teile wurden verschiedene Ansätze implementiert und erprobt: (a) Der grundsätzliche Ansatz für das funktionale Modell von LSM: Ansatz nach Grün [1985] und Ansatz nach Kraus [2004]. (b) Die geometrische Transformation: Shift, Ähnlichkeits- und Affintransformation. (c) Die radiometrische Transformation: Mitschätzung vs. a priori Berechnung der Koeffizienten einer linearen radiometrischen Transformation. (d) Erweiterung des funktionalen Modells von LSM um eine geometrische Bedingung unter Verwendung der Kollinearitätsgleichungen bei bekannter Orientierung. Jede dieser Varianten und Erweiterungen wird im Theorieteil dieser Arbeit im Detail besprochen.
Die Ergebnisse zeigen: (a.) Der Ansatz nach Kraus zeigt Vorteile in Prozessierungs-Geschwindigkeit (d. h. Laufzeit) und Geschwindigkeit der Parameterschätzung (d. h. Iterationszahlen bis zur Erreichung bestimmter Konvergenzkriterien). (b) Die beiden radiometrischen Ansätze führen in den Dimensionen von (a) zu mehr oder weniger gleichwertigen Resultaten mit leichten Vorteilen für den a priori Ansatz. (c) Einfachere geometrische Transformationen (Shift) können bei spezieller Bild-Textur ähnliche Bildstellen finden wie komplexere (affin), obwohl die damit verbundenen Modellannahmen verletzt sind (z. B. an schrägen Dachflächen). (d) An Bildstellen, wo keine der eingeführten Transformationen die perspektivischen Unterschiede zwischen Referenz- und Suchbild korrekt modelliert, kann die Hinzunahme der geometrischen Bedingung die Zuordnungsqualität verbessern.
Auswertung der europäischen VLBI Sessions
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2012
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Claudia Tierno Ros
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Claudia Tierno Ros
Kurzfassung/Abstract
Seit 1990 werden rein eurορäische VLBI-Sessions durchgeführt. Diese europäischen Sessions, von 1990 bis einschließlich 2011, wurden mit der Software VieVS (Schuh et al., 2000) analysiert und ausgewertet. In insgesamt 114 Sessions wurden 40 Basislinien bestimmt, sie liefern - mit Ausnahme jener, die die Station Crimea enthalten - gute Wiederholbarkeiten (ca. 3 - 17 mm).
Es wurden Änderungen der Basislinienlängen und Stationsgeschwindigkeiten der europäischen VLBI-Stationen mit vier unterschiedlichen Parametrisierungen in VieVS bestimmt. Alle vier Parametrisierungen liefern ähnliche Ergebnisse sowohl für die Basislinienlängenänderungen als auch für die Stationsgeschwindigkeiten. Für die Stationsgeschwindigkeiten wurden absolute Werte und Werte in Bezug auf eine geodynamisch stabile Station (Wettzell) ermittelt. Die absoluten Stationsgeschwindigkeiten spiegeln die Bewegung der Eurasischen Platte wider. Sie wurden mit Werten aus dem MJVEL-1A Modell für Plattentektonik verglichen. Die Stationsgeschwindigkeiten in Bezug auf Wettzelt stellen Krustenbewegungen innerhalb der Eurasischen Platte dar. Für die Stationen im stabilen Teil Europas ergeben sich geringe Stationsgeschwindigkeiten (bis 2,4 mm/Jahr horizontal und 2,8 mm/Jahr vertikal) in Bezug auf Wettzell. Die nördlichen Stationen weisen hohe Geschwindigkeiten in vertikaler Richtung (bis zu 7,8 mm/Jahr) als Folge des isostatischen Rebounds auf. Die italienischen Stationen (bewegen sich nach NNO bis ΝΟ) verdeutlichen den Einfluss der Afrikanischen Platte, die gegen die Eurasische Platte drückt. Auch die Stationen am Schwarzen Meer zeigen große horizontale Stationsgeschwindigkeiten.
Die relativen Stationsgeschwindigkeiten bezogen auf Wettzelt wurden mit den Ergebnissen von Haas et al. (2000) bzw. mit GNSS-Daten verglichen. Vor allem der Vergleich mit GNSS-Daten liefert bemerkenswerte Übereinstimmungen. Bis auf wenige Ausnahmen stimmen die horizontale Stationsgeschwindigkeit auf ca. 1 mm/Jahr, die vertikale auf rund 1,6 mm/Jahr und das Azimut auf ungefähr 5° überein.
Seit 1990 werden rein eurορäische VLBI-Sessions durchgeführt. Diese europäischen Sessions, von 1990 bis einschließlich 2011, wurden mit der Software VieVS (Schuh et al., 2000) analysiert und ausgewertet. In insgesamt 114 Sessions wurden 40 Basislinien bestimmt, sie liefern - mit Ausnahme jener, die die Station Crimea enthalten - gute Wiederholbarkeiten (ca. 3 - 17 mm).
Es wurden Änderungen der Basislinienlängen und Stationsgeschwindigkeiten der europäischen VLBI-Stationen mit vier unterschiedlichen Parametrisierungen in VieVS bestimmt. Alle vier Parametrisierungen liefern ähnliche Ergebnisse sowohl für die Basislinienlängenänderungen als auch für die Stationsgeschwindigkeiten. Für die Stationsgeschwindigkeiten wurden absolute Werte und Werte in Bezug auf eine geodynamisch stabile Station (Wettzell) ermittelt. Die absoluten Stationsgeschwindigkeiten spiegeln die Bewegung der Eurasischen Platte wider. Sie wurden mit Werten aus dem MJVEL-1A Modell für Plattentektonik verglichen. Die Stationsgeschwindigkeiten in Bezug auf Wettzelt stellen Krustenbewegungen innerhalb der Eurasischen Platte dar. Für die Stationen im stabilen Teil Europas ergeben sich geringe Stationsgeschwindigkeiten (bis 2,4 mm/Jahr horizontal und 2,8 mm/Jahr vertikal) in Bezug auf Wettzell. Die nördlichen Stationen weisen hohe Geschwindigkeiten in vertikaler Richtung (bis zu 7,8 mm/Jahr) als Folge des isostatischen Rebounds auf. Die italienischen Stationen (bewegen sich nach NNO bis ΝΟ) verdeutlichen den Einfluss der Afrikanischen Platte, die gegen die Eurasische Platte drückt. Auch die Stationen am Schwarzen Meer zeigen große horizontale Stationsgeschwindigkeiten.
Die relativen Stationsgeschwindigkeiten bezogen auf Wettzelt wurden mit den Ergebnissen von Haas et al. (2000) bzw. mit GNSS-Daten verglichen. Vor allem der Vergleich mit GNSS-Daten liefert bemerkenswerte Übereinstimmungen. Bis auf wenige Ausnahmen stimmen die horizontale Stationsgeschwindigkeit auf ca. 1 mm/Jahr, die vertikale auf rund 1,6 mm/Jahr und das Azimut auf ungefähr 5° überein.
Abbildung der digitalen Katastralmappe (DKM) in einem hybriden System
Institut für Geoinformation, Technische Universität Graz, 2012
Betreuer: Ass.-Prof. Dipl.-Ing. Dr. Walter Klostius
Betreuer: Ass.-Prof. Dipl.-Ing. Dr. Walter Klostius
Kurzfassung/Abstract
Das Bundesamt für Eich- und Vermessungswesen ist für die amtliche Vermessung zuständig und hat unter anderem den Aufgabenschwerpunkt, die Anlegung des Katasters in digitaler Form flächendeckend für Österreich umzusetzen und dessen Führung zu gewährleisten. Um diese Aufgaben EDV-technisch zu bearbeiten, werden in der Praxis geografische Informationssysteme (GIS) und Computer-Aided Design-Systeme (CAD) verwendet. Im Rahmen dieser Masterarbeit wurde die hybride Software rmDATA Geospatial von der Firma rmDATA getestet und dokumentiert. Die Editierbarkeit wurde in Hinblick auf die plantechnischen Aufgaben des BEV mit ArcGIS von der Firma ESRI verglichen. Des Weiteren wird ein allgemeiner Vergleich von CAD- und GI-Systemen gegeben und das Zusammenspiel dieser in einem hybriden System dargelegt. Dem BEV wird durch diese Arbeit die Möglichkeit geboten, die Entscheidung für die Wahl einer neuen Softwareumgebung zu erleichtern. Durch die BEV spezifische Softwaretestung wird eine unterstützende Grundlage geschaffen.
Das Bundesamt für Eich- und Vermessungswesen ist für die amtliche Vermessung zuständig und hat unter anderem den Aufgabenschwerpunkt, die Anlegung des Katasters in digitaler Form flächendeckend für Österreich umzusetzen und dessen Führung zu gewährleisten. Um diese Aufgaben EDV-technisch zu bearbeiten, werden in der Praxis geografische Informationssysteme (GIS) und Computer-Aided Design-Systeme (CAD) verwendet. Im Rahmen dieser Masterarbeit wurde die hybride Software rmDATA Geospatial von der Firma rmDATA getestet und dokumentiert. Die Editierbarkeit wurde in Hinblick auf die plantechnischen Aufgaben des BEV mit ArcGIS von der Firma ESRI verglichen. Des Weiteren wird ein allgemeiner Vergleich von CAD- und GI-Systemen gegeben und das Zusammenspiel dieser in einem hybriden System dargelegt. Dem BEV wird durch diese Arbeit die Möglichkeit geboten, die Entscheidung für die Wahl einer neuen Softwareumgebung zu erleichtern. Durch die BEV spezifische Softwaretestung wird eine unterstützende Grundlage geschaffen.
Sprache in Karten - Eine Webmap mit slowenischen Flur- und Hofnamen
Institut für Geoinformation, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die vorliegende Masterarbeit befasst sich mit der Visualisierung von slowenischen Flur-, Gebiets- und Hofnamen in einer interaktiven Karte im Internet. Nach der Erstellung der Papierkarte mit slowenischen Flur-, Gebiets- und Hofnamen in der Südkärntner Gemeinde Köttmannsdorf/Kotmara vas im Jahr 2008 und der Vertonung von rund 800 Namen konnten die gesammelten Namen und Audiodateien verknüpft und in einer Webmap abrufbar gemacht werden. Der Fokus dieser Arbeit liegt auf dem Design- und Erstellungsprozess dieser Webmap. Dabei wird die Gestaltung des Interfaces mit möglichst intuitiver Bedienung beschrieben, die Einbindung von verschiedenen Hintergrundkarten erläutert, die Darstellung der Namen und die Verknüpfung mit den Audiodateien erklärt.
Die vorliegende Masterarbeit befasst sich mit der Visualisierung von slowenischen Flur-, Gebiets- und Hofnamen in einer interaktiven Karte im Internet. Nach der Erstellung der Papierkarte mit slowenischen Flur-, Gebiets- und Hofnamen in der Südkärntner Gemeinde Köttmannsdorf/Kotmara vas im Jahr 2008 und der Vertonung von rund 800 Namen konnten die gesammelten Namen und Audiodateien verknüpft und in einer Webmap abrufbar gemacht werden. Der Fokus dieser Arbeit liegt auf dem Design- und Erstellungsprozess dieser Webmap. Dabei wird die Gestaltung des Interfaces mit möglichst intuitiver Bedienung beschrieben, die Einbindung von verschiedenen Hintergrundkarten erläutert, die Darstellung der Namen und die Verknüpfung mit den Audiodateien erklärt.
Development of a Spatial Decision Support Framework for Semiterrestrial-Terrestrial Habitat Modeling to assess the Habitat Quality for selected Species
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Betreuer: Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
The aim of this study is to develop a GIS-based spatial decision support framework for assessing the quality of the living environment (habitat) of different species in an automated way. In order to realize that the developed framework includes functionalities to automatically process hydraulic data, to perform a habitat suitability evaluation, and to check the robustness of the habitat model and determine the reliability of its outputs with the help of a sensitivity analysis.
The developed spatial decision support framework is based on an integration of GIS (Geographical Information System) and MCDM (multi-criteria decision making) methods. The GIS is used to produce and process the data needed for the habitat suitability evaluation, to execute the habitat suitability evaluation and the sensitivity analysis, and as a platform to visualize the results. The MCDM methods provide the needed functionalities for integrating the expert knowledge into the habitat model and for connecting (standardizing, weighting, combining) species requirements to produce habitat suitability maps. The habitat suitability evaluation is based on the Habitat Evaluation Procedure (HEP) approach with its Habitat Suitability Index (HSI). The GIS-MCDM integration is further enhanced by a sensitivity analysis in order to identify criteria especially sensitive to weight changes. The sensitivity analysis is based on the variation of weights. All the functionalities provided by the framework are executable within ArcGIS 10. Their implementation is realized with the help of the ArcGIS ModelBuilder, existing tools of the ArcToolbox, and the programming language Python.
The application of the developed GIS-based spatial decision support framework is illustrated by a case study which focuses on semiterrestrial and terrestrial habitats along rivers. Study areas are a segment of the river Gail near Arnoldstein (Carinthia) and a segment of the river Mur near Gosdorf (Styria). For both study areas the habitat suitability is evaluated concerning four evaluation species, which are all index species of the actual study areas. For the habitat suitability evaluation there are taken into account the evaluation species - preferences which are specified by experts. One of the outputs of the habitat suitability evaluation is a habitat suitability map, which visualizes the likelihood of one species occurrence as raster file with 1x1m cells. The likelihood of occurrence is represented as HSI values ranging from 0.0 to 1.0. A high HSI value indicates that there is a high likelihood concerning the occurrence of the species. Vice versa a low HSI value represents areas where the occurrence of the species is unlikely. Further there are also produced reports containing statistics about the created habitat suitability map.
Based on the habitat suitability evaluation it is possible 1) to monitor the habitat quality, 2) to find an optimal amount of residual water for the hydro power plant at the river Gail, and 3) to monitor habitat quality changes and document improvements after the renaturation measures at the river Mur. But it must be considered that the created habitat suitability maps only provide information about the possible occurrence and spatial distribution of the species, but not about the size and the development of the population.
The aim of this study is to develop a GIS-based spatial decision support framework for assessing the quality of the living environment (habitat) of different species in an automated way. In order to realize that the developed framework includes functionalities to automatically process hydraulic data, to perform a habitat suitability evaluation, and to check the robustness of the habitat model and determine the reliability of its outputs with the help of a sensitivity analysis.
The developed spatial decision support framework is based on an integration of GIS (Geographical Information System) and MCDM (multi-criteria decision making) methods. The GIS is used to produce and process the data needed for the habitat suitability evaluation, to execute the habitat suitability evaluation and the sensitivity analysis, and as a platform to visualize the results. The MCDM methods provide the needed functionalities for integrating the expert knowledge into the habitat model and for connecting (standardizing, weighting, combining) species requirements to produce habitat suitability maps. The habitat suitability evaluation is based on the Habitat Evaluation Procedure (HEP) approach with its Habitat Suitability Index (HSI). The GIS-MCDM integration is further enhanced by a sensitivity analysis in order to identify criteria especially sensitive to weight changes. The sensitivity analysis is based on the variation of weights. All the functionalities provided by the framework are executable within ArcGIS 10. Their implementation is realized with the help of the ArcGIS ModelBuilder, existing tools of the ArcToolbox, and the programming language Python.
The application of the developed GIS-based spatial decision support framework is illustrated by a case study which focuses on semiterrestrial and terrestrial habitats along rivers. Study areas are a segment of the river Gail near Arnoldstein (Carinthia) and a segment of the river Mur near Gosdorf (Styria). For both study areas the habitat suitability is evaluated concerning four evaluation species, which are all index species of the actual study areas. For the habitat suitability evaluation there are taken into account the evaluation species - preferences which are specified by experts. One of the outputs of the habitat suitability evaluation is a habitat suitability map, which visualizes the likelihood of one species occurrence as raster file with 1x1m cells. The likelihood of occurrence is represented as HSI values ranging from 0.0 to 1.0. A high HSI value indicates that there is a high likelihood concerning the occurrence of the species. Vice versa a low HSI value represents areas where the occurrence of the species is unlikely. Further there are also produced reports containing statistics about the created habitat suitability map.
Based on the habitat suitability evaluation it is possible 1) to monitor the habitat quality, 2) to find an optimal amount of residual water for the hydro power plant at the river Gail, and 3) to monitor habitat quality changes and document improvements after the renaturation measures at the river Mur. But it must be considered that the created habitat suitability maps only provide information about the possible occurrence and spatial distribution of the species, but not about the size and the development of the population.
Development and Implementation of a Quality Management System for Unmanned Aerial Systems
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: Dr. Erich Hartlieb, Dr. Karl-Heinrich Anders
Betreuer: Dr. Erich Hartlieb, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Since its origin in the 20s of the past century Unmanned Aerial Systems (UAS) become more and more important in many fields of aviation. Due to the significant advantages towards manned aircraft this technology is especially required for so-called "dull, dirty and dangerous" missions in the context of military applications.
Beside the initial use for military intelligence and combat missions there is also an increasing deployment for civil utilizations such as wildfire management, search and rescue or orthophotography purposes.
Usually every UAS mission consist out of a pre-processing, processing and post-processing phase, that must be planned and executed accurately, in order to avoid errors that could lead to a miss of mission goals or even crash of the active part within an UAS - the aircraft, which is stated as Unmanned Aerial Vehicle (UAV).
Thus, the major goal of this master's thesis research project is the development of a Quality Management System (QMS) for handling these mission phases and their containing processes. To achieve this goal an overall literature research about UAS and their usage in missions is done. Furthermore this investigation helped also to determine typical UAS mission processes.
Based on that, an approach of a QMS is posed using checklists as common quality management tool as well as the metadata catalogue application GeoNetwork for managing the UAS sensor output. Both tools for ensuring quality are theoretically investigated and finally implemented for the university's Low Cost Unmanned Imaging System (LOUIS).
The final conclusion of this thesis shows that the QMS approach is beneficial for practical use. This is because of the checklists and GeoNetwork, which can be both adapted and extended to meet particular UAS or mission types.
An improvement of the QMS structure in respect of management structures, responsibilities or the reliability of UAS and its components would contribute to applicability in many different fields.
Since its origin in the 20s of the past century Unmanned Aerial Systems (UAS) become more and more important in many fields of aviation. Due to the significant advantages towards manned aircraft this technology is especially required for so-called "dull, dirty and dangerous" missions in the context of military applications.
Beside the initial use for military intelligence and combat missions there is also an increasing deployment for civil utilizations such as wildfire management, search and rescue or orthophotography purposes.
Usually every UAS mission consist out of a pre-processing, processing and post-processing phase, that must be planned and executed accurately, in order to avoid errors that could lead to a miss of mission goals or even crash of the active part within an UAS - the aircraft, which is stated as Unmanned Aerial Vehicle (UAV).
Thus, the major goal of this master's thesis research project is the development of a Quality Management System (QMS) for handling these mission phases and their containing processes. To achieve this goal an overall literature research about UAS and their usage in missions is done. Furthermore this investigation helped also to determine typical UAS mission processes.
Based on that, an approach of a QMS is posed using checklists as common quality management tool as well as the metadata catalogue application GeoNetwork for managing the UAS sensor output. Both tools for ensuring quality are theoretically investigated and finally implemented for the university's Low Cost Unmanned Imaging System (LOUIS).
The final conclusion of this thesis shows that the QMS approach is beneficial for practical use. This is because of the checklists and GeoNetwork, which can be both adapted and extended to meet particular UAS or mission types.
An improvement of the QMS structure in respect of management structures, responsibilities or the reliability of UAS and its components would contribute to applicability in many different fields.
Untersuchung von Steck- und Teleskoplatten für Digital-Nivelliere
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2012
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
In der technischen Vermessung oft verwendete günstige Steck- und Teleskop-Nivellierlatten mit codierter Lattenteilung wurden auf ihre Eigenschaften hin untersucht. Die aus Kostengründen einfache Fertigung kann mehrere Fehler verursachen, welche sich im Messergebnis eines Nivellements niederschlagen können. Die Genauigkeitsanforderungen einfacher Nivellierlatten sind in der DIN 18703 definiert, wobei unter den bekannten Herstellern einzig Leica explizit nach diesen Vorgaben gefertigte Latten verkauft. Hauptsächlich wurden mehrteilige Stecklatten des Typs Leica/Wild GKNL4M (10 Stk.) mit Baujahren zwischen 1990 und 2011 untersucht, zusätzlich jeweils eine Teleskoplatte der Hersteller Trimble (TD24) und Sokkia (BAS55).
Bestimmt wurde der Lattenmaßstab, welcher oft große Abweichungen von bis zu 800 ppm vom Sollmaßstab auf einzelnen Lattenteilen aufweist.
Auffallend waren dabei die teilweise großen Maßstabsunterschiede zwischen den Segmenten einer Latte und das vermehrte Auftreten negativer Maßstäbe bei Elementen älterer Latten. Einzeluntersuchungen der Stoßstellen zwischen den Lattenelementen zeigten, dass diese darüber liegende Höhenablesungen um bis zu 0.6 mm verfälschen können.
Dieser Fehler lässt sich aber oft nur sehr schlecht reproduzieren. So kann sich der Stoß nach erneutem Zusammensetzen der Lattenteile um bis zu 0.8 mm verändern. Bei der Bestimmung des Lattennullpunkts konnte gezeigt werden, dass alle Latten den maximalen in der Norm DIN 18703 tolerierten Nullpunktfehler von 0.3 mm unterschreiten. Die in der Norm maximale tolerierte Lattenfußschiefe von 10' wurde aber von mehreren Latten überschritten (max. 22.4'). Als Grund hierfür kann die einfache Ausführung des Fußes angesehen werden. Durch Unregelmäßigkeiten der Lattenfußfläche können Höhenablesungen an verschiedenen Lattenaufsetzpunkten um bis zu 0.13 mm abweichen. In einer Reihe von Temperatursprungversuchen wurde der thermische Ausdehnungskoeffizient der aus glasfaserverstärktem Kunststoff (GKNL4M) bzw. Aluminium (TD24, BAS55) gefertigten Latten bestimmt. Dabei konnten die Herstellerangaben für Kunststofflatten (<10 ppm/K) sowie die Ergebnisse früherer Untersuchungen bestätigt werden. Die Herstellerangaben der Aluminiumlatten (24 ppm/K) wurden deutlich unterschritten (18 ppm/K), was auch bei Wiederholungsmessungen bestätigt werden konnte. Es zeigte sich, dass viele der untersuchten Latten starke Abweichungen vom Soll aufweisen und nur teilweise der DIN 18703 entsprechen. Diese Arbeit bestätigt deutlich, dass die untersuchten Lattentypen nur bei einfachen Vermessungsaufgaben Anwendung finden sollen und sich keineswegs für Präzisionsaufgaben eignen.
In der technischen Vermessung oft verwendete günstige Steck- und Teleskop-Nivellierlatten mit codierter Lattenteilung wurden auf ihre Eigenschaften hin untersucht. Die aus Kostengründen einfache Fertigung kann mehrere Fehler verursachen, welche sich im Messergebnis eines Nivellements niederschlagen können. Die Genauigkeitsanforderungen einfacher Nivellierlatten sind in der DIN 18703 definiert, wobei unter den bekannten Herstellern einzig Leica explizit nach diesen Vorgaben gefertigte Latten verkauft. Hauptsächlich wurden mehrteilige Stecklatten des Typs Leica/Wild GKNL4M (10 Stk.) mit Baujahren zwischen 1990 und 2011 untersucht, zusätzlich jeweils eine Teleskoplatte der Hersteller Trimble (TD24) und Sokkia (BAS55).
Bestimmt wurde der Lattenmaßstab, welcher oft große Abweichungen von bis zu 800 ppm vom Sollmaßstab auf einzelnen Lattenteilen aufweist.
Auffallend waren dabei die teilweise großen Maßstabsunterschiede zwischen den Segmenten einer Latte und das vermehrte Auftreten negativer Maßstäbe bei Elementen älterer Latten. Einzeluntersuchungen der Stoßstellen zwischen den Lattenelementen zeigten, dass diese darüber liegende Höhenablesungen um bis zu 0.6 mm verfälschen können.
Dieser Fehler lässt sich aber oft nur sehr schlecht reproduzieren. So kann sich der Stoß nach erneutem Zusammensetzen der Lattenteile um bis zu 0.8 mm verändern. Bei der Bestimmung des Lattennullpunkts konnte gezeigt werden, dass alle Latten den maximalen in der Norm DIN 18703 tolerierten Nullpunktfehler von 0.3 mm unterschreiten. Die in der Norm maximale tolerierte Lattenfußschiefe von 10' wurde aber von mehreren Latten überschritten (max. 22.4'). Als Grund hierfür kann die einfache Ausführung des Fußes angesehen werden. Durch Unregelmäßigkeiten der Lattenfußfläche können Höhenablesungen an verschiedenen Lattenaufsetzpunkten um bis zu 0.13 mm abweichen. In einer Reihe von Temperatursprungversuchen wurde der thermische Ausdehnungskoeffizient der aus glasfaserverstärktem Kunststoff (GKNL4M) bzw. Aluminium (TD24, BAS55) gefertigten Latten bestimmt. Dabei konnten die Herstellerangaben für Kunststofflatten (<10 ppm/K) sowie die Ergebnisse früherer Untersuchungen bestätigt werden. Die Herstellerangaben der Aluminiumlatten (24 ppm/K) wurden deutlich unterschritten (18 ppm/K), was auch bei Wiederholungsmessungen bestätigt werden konnte. Es zeigte sich, dass viele der untersuchten Latten starke Abweichungen vom Soll aufweisen und nur teilweise der DIN 18703 entsprechen. Diese Arbeit bestätigt deutlich, dass die untersuchten Lattentypen nur bei einfachen Vermessungsaufgaben Anwendung finden sollen und sich keineswegs für Präzisionsaufgaben eignen.
Entwicklung einer auf Geodaten basierenden halbautomatisierten Suche nach Strecken für Distanzläufe am Beispiel des Graz Marathons
Institut für Navigation, Technische Universität Graz, 2012
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser Institut für Geoinformation, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser Institut für Geoinformation, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Eine der großen Herausforderungen für Veranstalter von Straßenläufen besteht darin, einen neuen Streckenverlauf zu finden oder den bisherigen zu verbessern. Der Grund dafür ist, dass dabei viele unterschiedliche Aspekte berücksichtigt werden müssen. Die verwendeten Straßen sollten nach Möglichkeit flach sein, in attraktive Gegenden führen, immer breit genug sein, wenige Kurven haben und am Ende auch noch zusammen einen Laufweg mit exakt der gewünschten Länge ergeben. Zudem sollten sich die Strecken der unterschiedlichen angebotenen Distanzen sowohl nicht gegenseitig behindern, als auch den sonstigen Straßen- und Schienenverkehr nicht übermäßig beeinträchtigen. Alle diese Anforderungen müssen dann bei der Suche nach einer zufriedenstellenden Kompromisslösung in dem Verkehrswegenetz einer Stadt mit seinen inhärenten Einschränkungen berücksichtigt werden. Den Anstoß zu dieser Masterarbeit gab der Bedarf nach einer neuen Strecke für den Graz Marathon, da deren bisheriger Verlauf zu viele Nachteile für die weitere Entwicklung der Veranstaltung mit sich brachte. Die Aufgabe bestand darin, eine möglichst automatisierte Methode zur Suche von Strecken für Distanzläufe zu entwickeln. Dafür wurden die relevanten Attribute größtenteils auf Grundlage vorhandener Geodaten und insbesondere mit Hilfe eines Straßengraphen ermittelt. Hierbei wurde zwischen den Eigenschaften einzelner Straßenabschnitte und denjenigen unterschieden, die sich erst aus der Gesamtheit einer Strecke ergeben. Eine vollständige Automatisierung der Suche wurde zwar in Grundzügen konzipiert, aber wegen unsicheren Erfolgsaussichten letztendlich nicht umgesetzt. Stattdessen wurden auf Basis der abgeleiteten Eigenschaften empirisch mehrere Streckenvorschläge für Graz erarbeitet und anschließend mit Experten diskutiert. Dabei wurde letzten Endes mit der in dieser Arbeit entwickelten Herangehensweise die Strecke gefunden, auf der die Wettbewerbe des Graz Marathons ab 2012 gelaufen werden.
Eine der großen Herausforderungen für Veranstalter von Straßenläufen besteht darin, einen neuen Streckenverlauf zu finden oder den bisherigen zu verbessern. Der Grund dafür ist, dass dabei viele unterschiedliche Aspekte berücksichtigt werden müssen. Die verwendeten Straßen sollten nach Möglichkeit flach sein, in attraktive Gegenden führen, immer breit genug sein, wenige Kurven haben und am Ende auch noch zusammen einen Laufweg mit exakt der gewünschten Länge ergeben. Zudem sollten sich die Strecken der unterschiedlichen angebotenen Distanzen sowohl nicht gegenseitig behindern, als auch den sonstigen Straßen- und Schienenverkehr nicht übermäßig beeinträchtigen. Alle diese Anforderungen müssen dann bei der Suche nach einer zufriedenstellenden Kompromisslösung in dem Verkehrswegenetz einer Stadt mit seinen inhärenten Einschränkungen berücksichtigt werden. Den Anstoß zu dieser Masterarbeit gab der Bedarf nach einer neuen Strecke für den Graz Marathon, da deren bisheriger Verlauf zu viele Nachteile für die weitere Entwicklung der Veranstaltung mit sich brachte. Die Aufgabe bestand darin, eine möglichst automatisierte Methode zur Suche von Strecken für Distanzläufe zu entwickeln. Dafür wurden die relevanten Attribute größtenteils auf Grundlage vorhandener Geodaten und insbesondere mit Hilfe eines Straßengraphen ermittelt. Hierbei wurde zwischen den Eigenschaften einzelner Straßenabschnitte und denjenigen unterschieden, die sich erst aus der Gesamtheit einer Strecke ergeben. Eine vollständige Automatisierung der Suche wurde zwar in Grundzügen konzipiert, aber wegen unsicheren Erfolgsaussichten letztendlich nicht umgesetzt. Stattdessen wurden auf Basis der abgeleiteten Eigenschaften empirisch mehrere Streckenvorschläge für Graz erarbeitet und anschließend mit Experten diskutiert. Dabei wurde letzten Endes mit der in dieser Arbeit entwickelten Herangehensweise die Strecke gefunden, auf der die Wettbewerbe des Graz Marathons ab 2012 gelaufen werden.
Methoden zur semiautomatischen Erfassung von Forststraßen auf Basis von LIDAR-Daten
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Durch die fortschreitende Mechanisierung im Forstwesen und dem damit verbundenen Einzug von Rücke- und Erntemaschinen in die heimischen Wälder gewinnen raumbezogene Daten des Forstbetriebes und dessen Wegenetz zur Planung und Optimierung der Einsätze dieser Maschinen immer mehr an Bedeutung. Richtet man den Blick auf die Forstwege, so gestaltet sich eine kostengünstige Erfassung dieser Daten innerhalb eines bestimmten Genauigkeitsbereiches als schwierig. Die photogrammetrische Auswertung oder die Erfassung der Wege mittels GPS Techniken ist auf Grund der Abschirmung durch die Baumkronen nur eingeschränkt möglich, und tachymetrische Aufnahmen gelten als zu kosten- und zeitintensiv. Als Alternative bieten sich Aufnahmen von Laserscannern an, da deren Strahlen die Baumkronen durchdringen können, und somit den Boden mit einer hohen Genauigkeit abtasten. Die aus diesen Daten abgeleiteten Geländemodelle zeichnen sich dadurch aus, dass sie die Oberfläche mit allen künstlich geschaffenen Veränderungen in der Natur detailgetreu wiedergegeben. Diese Arbeit beschäftigt sich mit der Entwicklung von semiautomatischen Methoden zur Kartierung von Forstwegen aus Laserscannerdaten, wobei für die Extrahierung je eine regionen- und eine kantenbasierte Methode entwickelt wurde. Für die Bestimmung der Qualität und der Genauigkeit der erfassten Wege werden diese mit tachymetrisch erfassten Referenzmessungen verglichen.
Durch die fortschreitende Mechanisierung im Forstwesen und dem damit verbundenen Einzug von Rücke- und Erntemaschinen in die heimischen Wälder gewinnen raumbezogene Daten des Forstbetriebes und dessen Wegenetz zur Planung und Optimierung der Einsätze dieser Maschinen immer mehr an Bedeutung. Richtet man den Blick auf die Forstwege, so gestaltet sich eine kostengünstige Erfassung dieser Daten innerhalb eines bestimmten Genauigkeitsbereiches als schwierig. Die photogrammetrische Auswertung oder die Erfassung der Wege mittels GPS Techniken ist auf Grund der Abschirmung durch die Baumkronen nur eingeschränkt möglich, und tachymetrische Aufnahmen gelten als zu kosten- und zeitintensiv. Als Alternative bieten sich Aufnahmen von Laserscannern an, da deren Strahlen die Baumkronen durchdringen können, und somit den Boden mit einer hohen Genauigkeit abtasten. Die aus diesen Daten abgeleiteten Geländemodelle zeichnen sich dadurch aus, dass sie die Oberfläche mit allen künstlich geschaffenen Veränderungen in der Natur detailgetreu wiedergegeben. Diese Arbeit beschäftigt sich mit der Entwicklung von semiautomatischen Methoden zur Kartierung von Forstwegen aus Laserscannerdaten, wobei für die Extrahierung je eine regionen- und eine kantenbasierte Methode entwickelt wurde. Für die Bestimmung der Qualität und der Genauigkeit der erfassten Wege werden diese mit tachymetrisch erfassten Referenzmessungen verglichen.
3D-Visualisierung der Stadtgemeinde Trieben
Institut für Geoinformation, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
3D-Stadtmodelle haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Zum einen durch die so genannten 3D-Earth Viewer (z.B. Google Earth) und zum anderen durch 3D-Modellierungsprogramme (z.B. Google SketchUp). Heutzutage ist es jedem möglich, Gebäude bzw. Objekte zu modellieren und zu visualisieren, ohne dafür spezielle Vorkenntnisse zu besitzen. Deshalb legen die Softwareentwickler viel Wert auf Benutzerfreundlichkeit, sodass sowohl Neueinsteiger als auch professionelle User ihren Nutzen aus den jeweiligen Programmen ziehen können. Diese Arbeit beschäftigt sich mit der Generierung eines solchen 3D-Stadtmodells für die Stadtgemeinde Trieben. Dazu wird die Visualisierungssoftware Google Earth in Kombination mit der 3D-Modellierungssoftware Google SketchUp verwendet. Zusätzlich werden 360°-Panoramen erzeugt, die Rundumsichten an bestimmten Orten erlauben. Die Vorgehensweise wird hier besonders detailliert beschrieben, da ein Ziel dieses Projektes ist, auch unerfahrene Benutzer an das Thema heranzuführen. Am Anfang dieser Arbeit wird eine kurze Einleitung zu dem Thema behandelt. Darauf folgen einige spezielle Konzepte, wie eine 3D-Stadtmodellierung realisiert werden kann. In den darauf folgenden Kapiteln wird im Detail beschrieben, welche Voraussetzungen für das gesamte Projekt gegeben sind.
Anschließend wird ein Einblick gewährt, wie Orthophotos für Google Earth manipuliert werden. Auch die Erstellung von 360°-Panoramen wird in dieser Arbeit besprochen. Die letzten Kapitel handeln sowohl vom Modellieren bzw. Texturieren in SketchUp als auch von der Präsentation der Daten im Internet.
3D-Stadtmodelle haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Zum einen durch die so genannten 3D-Earth Viewer (z.B. Google Earth) und zum anderen durch 3D-Modellierungsprogramme (z.B. Google SketchUp). Heutzutage ist es jedem möglich, Gebäude bzw. Objekte zu modellieren und zu visualisieren, ohne dafür spezielle Vorkenntnisse zu besitzen. Deshalb legen die Softwareentwickler viel Wert auf Benutzerfreundlichkeit, sodass sowohl Neueinsteiger als auch professionelle User ihren Nutzen aus den jeweiligen Programmen ziehen können. Diese Arbeit beschäftigt sich mit der Generierung eines solchen 3D-Stadtmodells für die Stadtgemeinde Trieben. Dazu wird die Visualisierungssoftware Google Earth in Kombination mit der 3D-Modellierungssoftware Google SketchUp verwendet. Zusätzlich werden 360°-Panoramen erzeugt, die Rundumsichten an bestimmten Orten erlauben. Die Vorgehensweise wird hier besonders detailliert beschrieben, da ein Ziel dieses Projektes ist, auch unerfahrene Benutzer an das Thema heranzuführen. Am Anfang dieser Arbeit wird eine kurze Einleitung zu dem Thema behandelt. Darauf folgen einige spezielle Konzepte, wie eine 3D-Stadtmodellierung realisiert werden kann. In den darauf folgenden Kapiteln wird im Detail beschrieben, welche Voraussetzungen für das gesamte Projekt gegeben sind.
Anschließend wird ein Einblick gewährt, wie Orthophotos für Google Earth manipuliert werden. Auch die Erstellung von 360°-Panoramen wird in dieser Arbeit besprochen. Die letzten Kapitel handeln sowohl vom Modellieren bzw. Texturieren in SketchUp als auch von der Präsentation der Daten im Internet.
Ableitung eines Aufnahmekonzepts für die Erstellung von digitalen Oberflächenmodellen aus hoch redundanten Luftbildern im Forstbereich
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Hochauflösende digitale Oberflächenmodelle von Kronendächern im Forstbereich sind für die Durchführung von Waldinventuren von sehr hoher Bedeutung. Bis dato werden diese Modelle aus ALS (Airborne Laser Scanning) Befliegungen erzeugt. Jedoch ist die Akquisition solcher Fernerkundungsdaten kosten- und zeitintensiv. Deshalb werden derzeit photogrammetrische Alternativen gesucht, um für diesen Zweck digitale Oberflächenmodelle aus Luftbildern zu berechnen. Das Ziel dieser Masterarbeit ist es, ein Konzept für die optimale Aufnahmegeometrie von Luftbildern im Forstbereich abzuleiten, um damit das Kronendach bestmöglich rekonstruieren zu können. Dieses Konzept soll in weiterer Folge für Befliegungen forstrelevanter Gebiete mit der Flugplattform ADAM des Institutes DIGITAL (Joanneum Research) Anwendung finden. Für die Durchführung der Untersuchungen wurde ein hoch redundanter Bilddatensatz mit einem Bildüberlappungsbereich in Flugrichtung von 93% von einem geeigneten bewaldeten Testgebiet erstellt. Ausgehend von diesen Daten wurden Testszenarien mit unterschiedlichen Aufnahmekonstellationen definiert. Für jedes Szenario wurde im Anschluss ein digitales Oberflächenmodell des zugrundeliegenden Kronendaches berechnet. Im Validierungsschritt wurden die einzelnen Modelle anhand von unabhängigen Referenzmessungen, einer visuellen Interpretation und mit Hilfe eines modellbasierten Ansatzes beurteilt. Zusätzlich wurden die photogrammetrischen Modelle mit einem digitalen Oberflächenmodell aus einer ALS-Befliegung verglichen. Aus den Erkenntnissen des Validierungsschrittes und aus den hardwarespezifischen Vorgaben der Flugaufnahmeplattform wurde im letzten Arbeitsschritt ein Konzept für die optimale Aufnahmegeometrie von Luftbildbefliegungen von Forstgebieten erstellt.
Hochauflösende digitale Oberflächenmodelle von Kronendächern im Forstbereich sind für die Durchführung von Waldinventuren von sehr hoher Bedeutung. Bis dato werden diese Modelle aus ALS (Airborne Laser Scanning) Befliegungen erzeugt. Jedoch ist die Akquisition solcher Fernerkundungsdaten kosten- und zeitintensiv. Deshalb werden derzeit photogrammetrische Alternativen gesucht, um für diesen Zweck digitale Oberflächenmodelle aus Luftbildern zu berechnen. Das Ziel dieser Masterarbeit ist es, ein Konzept für die optimale Aufnahmegeometrie von Luftbildern im Forstbereich abzuleiten, um damit das Kronendach bestmöglich rekonstruieren zu können. Dieses Konzept soll in weiterer Folge für Befliegungen forstrelevanter Gebiete mit der Flugplattform ADAM des Institutes DIGITAL (Joanneum Research) Anwendung finden. Für die Durchführung der Untersuchungen wurde ein hoch redundanter Bilddatensatz mit einem Bildüberlappungsbereich in Flugrichtung von 93% von einem geeigneten bewaldeten Testgebiet erstellt. Ausgehend von diesen Daten wurden Testszenarien mit unterschiedlichen Aufnahmekonstellationen definiert. Für jedes Szenario wurde im Anschluss ein digitales Oberflächenmodell des zugrundeliegenden Kronendaches berechnet. Im Validierungsschritt wurden die einzelnen Modelle anhand von unabhängigen Referenzmessungen, einer visuellen Interpretation und mit Hilfe eines modellbasierten Ansatzes beurteilt. Zusätzlich wurden die photogrammetrischen Modelle mit einem digitalen Oberflächenmodell aus einer ALS-Befliegung verglichen. Aus den Erkenntnissen des Validierungsschrittes und aus den hardwarespezifischen Vorgaben der Flugaufnahmeplattform wurde im letzten Arbeitsschritt ein Konzept für die optimale Aufnahmegeometrie von Luftbildbefliegungen von Forstgebieten erstellt.
Distributed Geo-Computing System based on OpenCL
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2012
Betreuer: Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa
Betreuer: Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa
Kurzfassung/Abstract
This project is designed to provide Geo-processing across network, first assumption of this project is to using OpenCL API to provide heterogeneity during different calculation resources, these resources can be CPU or GPU(or other computing resource like portable devices).Final result of this project is an application which has capability of spatial computing.
Methodology of designing this cloud is composed from 5 main steps (Analytical Architecture, Conceptual Architecture, Execution Architecture and Implementation Architecture).
Final product is created based on Java language. For connecting to OpenCL, two different libraries of JavaCL and JOCL are used. The effect of changing OpenCL connection library is not so much. Also for optimizing marshaling time, three different libraries of AVRO, Serializable and Externalizable are used and finally Externalizable is selected for final product. Final product is tested under different test conditions and result of each test is used for optimizing application process time. We observed that system have very good performance on focal functions but it's not so good on local function because cost of marshaling is so much. Thus we recommend in future works to close processing place to data source.
Totally system performance is good and it's possible to run system on different machine, because it's using java language for implementation of different part of application.
When client are running, they are going to background processes and they can respond to requires automatically. Also server program can find its clients in network with broadcasting special test packet and then it can connect to its clients. Therefore time to ready of this cloud is very short in this lightweight cloud. This system can be extended to P2P (peer to peer) architecture with adding server application to each client, therefore in future changing system architecture and adding redundancy will be much easy in this cloud. Finally this system is recommended to those who want geospatial computation on large data.
This project is designed to provide Geo-processing across network, first assumption of this project is to using OpenCL API to provide heterogeneity during different calculation resources, these resources can be CPU or GPU(or other computing resource like portable devices).Final result of this project is an application which has capability of spatial computing.
Methodology of designing this cloud is composed from 5 main steps (Analytical Architecture, Conceptual Architecture, Execution Architecture and Implementation Architecture).
Final product is created based on Java language. For connecting to OpenCL, two different libraries of JavaCL and JOCL are used. The effect of changing OpenCL connection library is not so much. Also for optimizing marshaling time, three different libraries of AVRO, Serializable and Externalizable are used and finally Externalizable is selected for final product. Final product is tested under different test conditions and result of each test is used for optimizing application process time. We observed that system have very good performance on focal functions but it's not so good on local function because cost of marshaling is so much. Thus we recommend in future works to close processing place to data source.
Totally system performance is good and it's possible to run system on different machine, because it's using java language for implementation of different part of application.
When client are running, they are going to background processes and they can respond to requires automatically. Also server program can find its clients in network with broadcasting special test packet and then it can connect to its clients. Therefore time to ready of this cloud is very short in this lightweight cloud. This system can be extended to P2P (peer to peer) architecture with adding server application to each client, therefore in future changing system architecture and adding redundancy will be much easy in this cloud. Finally this system is recommended to those who want geospatial computation on large data.
Detektion und Lokalisierung seismischer Signale zur Überwachung der Massenbewegung Steinlehnen
Institut für Geodäsie und Geophysik, Forschungsgruppe Geophysik, Technische Universität Wien, 2012
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Im Frühjahr 2003 kam es zu einer Reaktivierung der Massenbewegung Steinlehnen (Tirol, Österreich). Die Folge war eine Beschleunigung der Massenbewegung verbunden mit einer Zunahme der Steinschlagaktivitäten. Eine Evakuierungen der nahe gelegenen Siedlung und Straßensperren wurde notwendig. Die Errichtung permanenter Schutzvorrichtungen und ein Monitoring des Hanges wurden veranlasst.
Im Sommer 2010 wurde neuerlich ein seismisches Monitoring Netzwerk am Hang installiert. Zeitgleich wurde von der TU Darmstadt ein geodätisches Überwachungssystem mit einem Synthetic Aperatur Radar (GBSAR) betrieben.
Dieses liefert alle 7 Minuten ein hoch-genaues Differenzbild der Oberfläche des Hanges. Im Beobachtungszeitraum stieg die Bewegungsrate auf 70 mm innerhalb weniger Tage an, begleitet von Steinschlägen. Das Monitoringsystem registrierte eine Vielzahl seismischer Events unterschiedlichen Ursprungs und Intensität. Die auffälligsten Signale, verursacht von Events an der Oberfläche wie Steinschläge und Schotterlawinen, konnten in Kombination mit den Radarbildern bestimmt werden.
Ein objektiver Klassifizierungsalgorithmus zur Unterscheidung verschiedener Eventtypen wurde durch Ermittlung signalbeschreibender Parameter entwickelt. Die Lokalisierung der Quellen der seismischen Signale ermöglicht eine Zuordnung zur Massenbewegung. Es ist eine Korrelation zwischen den geodätischen Messungen der Bewegungsraten und der ermittelten seismischen Energie, verursacht durch die Massenbewegung, sichtbar. Die Eventklassen zeigen einen unterschiedlichen Verlauf der kumulativen seismischen Energie. Das Aktivitätsmaximum einer Klasse findet bereits vor der Beschleunigung statt und zeigt somit das Verhalten eines Präkursors.
Im Frühjahr 2003 kam es zu einer Reaktivierung der Massenbewegung Steinlehnen (Tirol, Österreich). Die Folge war eine Beschleunigung der Massenbewegung verbunden mit einer Zunahme der Steinschlagaktivitäten. Eine Evakuierungen der nahe gelegenen Siedlung und Straßensperren wurde notwendig. Die Errichtung permanenter Schutzvorrichtungen und ein Monitoring des Hanges wurden veranlasst.
Im Sommer 2010 wurde neuerlich ein seismisches Monitoring Netzwerk am Hang installiert. Zeitgleich wurde von der TU Darmstadt ein geodätisches Überwachungssystem mit einem Synthetic Aperatur Radar (GBSAR) betrieben.
Dieses liefert alle 7 Minuten ein hoch-genaues Differenzbild der Oberfläche des Hanges. Im Beobachtungszeitraum stieg die Bewegungsrate auf 70 mm innerhalb weniger Tage an, begleitet von Steinschlägen. Das Monitoringsystem registrierte eine Vielzahl seismischer Events unterschiedlichen Ursprungs und Intensität. Die auffälligsten Signale, verursacht von Events an der Oberfläche wie Steinschläge und Schotterlawinen, konnten in Kombination mit den Radarbildern bestimmt werden.
Ein objektiver Klassifizierungsalgorithmus zur Unterscheidung verschiedener Eventtypen wurde durch Ermittlung signalbeschreibender Parameter entwickelt. Die Lokalisierung der Quellen der seismischen Signale ermöglicht eine Zuordnung zur Massenbewegung. Es ist eine Korrelation zwischen den geodätischen Messungen der Bewegungsraten und der ermittelten seismischen Energie, verursacht durch die Massenbewegung, sichtbar. Die Eventklassen zeigen einen unterschiedlichen Verlauf der kumulativen seismischen Energie. Das Aktivitätsmaximum einer Klasse findet bereits vor der Beschleunigung statt und zeigt somit das Verhalten eines Präkursors.
GOCE Gravitationsfeldbestimmung: Analyse kinematischer Orbits mit Variationsgleichungen
Institut für Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2012
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr und Dipl.-Ing. Dr.-Ing. Oliver Baur
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr und Dipl.-Ing. Dr.-Ing. Oliver Baur
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit der Analyse des mit GPS bestimmten kinematischen Orbits des Satelliten GOCE, um das statische Gravitationsfeld der Erde zu bestimmen. Ausgehend von der Newton-Eulerschen Bewegungsgleichung wird die Position des Satelliten durch Lösung einer Anfangswertaufgabe mit numerischer Integration bestimmt, wobei kurze Bahnbögen für die Berechnung verwendet werden. Anschließend werden die berechneten Positionen als Taylorpunkt eines linearisierten Modells verwendet und aus den Residuen zu den kinematischen Positionen werden differentielle Verbesserungen des Gravitationsfeldes geschätzt. Die Linearisierung erfolgt mit den Variationsgleichungen. Die im Rahmen dieser Arbeit implementierte Software ANKOR (Analyse kinematischer Orbits) führt die Berechnung der Gravitationsfeldlösung in zwei Schritten durch. Der 1. Schritt stellt die numerische Integration des Orbits dar, wohingegen im 2. Schritt die Integration der Variationsgleichungen erfolgt, um die Zuschläge zu den näherungsweise bekannten Potentialkoeffizienten des Erdgravitationsfeldes bestmöglich zu schätzen. Es werden zwei Ansätze für die Gravitationsfeldbestimmung verfolgt. Einerseits werden Bahnbögen der Länge 30 min verwendet, wobei die nicht deterministisch modellierbaren Störeinflüsse durch die Einführung konstanter empirischer Beschleunigungen absorbiert werden. Andererseits werden Bahnbögen der Länge 15 min verwendet. Da sich durch die kürzere Aufteilung der Bahnbögen die unmodellierten Signalanteile geringer auswirken, kann auf die Einführung empirischer Beschleunigungen verzichtet werden. Die Validierung mit einer externen Gravitationsfeldlösung zeigt, dass die berechneten Gravitationsfeldlösungen im lang- und mittelwelligen Bereich die Qualität erreichen, die aus der Analyse des kinematischen GOCE Orbits zu erwarten ist.
Diese Arbeit beschäftigt sich mit der Analyse des mit GPS bestimmten kinematischen Orbits des Satelliten GOCE, um das statische Gravitationsfeld der Erde zu bestimmen. Ausgehend von der Newton-Eulerschen Bewegungsgleichung wird die Position des Satelliten durch Lösung einer Anfangswertaufgabe mit numerischer Integration bestimmt, wobei kurze Bahnbögen für die Berechnung verwendet werden. Anschließend werden die berechneten Positionen als Taylorpunkt eines linearisierten Modells verwendet und aus den Residuen zu den kinematischen Positionen werden differentielle Verbesserungen des Gravitationsfeldes geschätzt. Die Linearisierung erfolgt mit den Variationsgleichungen. Die im Rahmen dieser Arbeit implementierte Software ANKOR (Analyse kinematischer Orbits) führt die Berechnung der Gravitationsfeldlösung in zwei Schritten durch. Der 1. Schritt stellt die numerische Integration des Orbits dar, wohingegen im 2. Schritt die Integration der Variationsgleichungen erfolgt, um die Zuschläge zu den näherungsweise bekannten Potentialkoeffizienten des Erdgravitationsfeldes bestmöglich zu schätzen. Es werden zwei Ansätze für die Gravitationsfeldbestimmung verfolgt. Einerseits werden Bahnbögen der Länge 30 min verwendet, wobei die nicht deterministisch modellierbaren Störeinflüsse durch die Einführung konstanter empirischer Beschleunigungen absorbiert werden. Andererseits werden Bahnbögen der Länge 15 min verwendet. Da sich durch die kürzere Aufteilung der Bahnbögen die unmodellierten Signalanteile geringer auswirken, kann auf die Einführung empirischer Beschleunigungen verzichtet werden. Die Validierung mit einer externen Gravitationsfeldlösung zeigt, dass die berechneten Gravitationsfeldlösungen im lang- und mittelwelligen Bereich die Qualität erreichen, die aus der Analyse des kinematischen GOCE Orbits zu erwarten ist.