- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2013
Abschlussarbeiten 2013
Development of a multi-frequency software-based GNSS receiver
Institut für Navigation, Technische Universität Graz, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Dr.h.c. mult. Bernhard Hofmann-Wellenhof (TU Graz), Univ.Prof. Dipl.-Ing. Dr. Gernot Kubin (TU Graz), Ao.Univ.Prof. Dipl.-Ing. Dr. Robert WEBER (TU Wien)
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Dr.h.c. mult. Bernhard Hofmann-Wellenhof (TU Graz), Univ.Prof. Dipl.-Ing. Dr. Gernot Kubin (TU Graz), Ao.Univ.Prof. Dipl.-Ing. Dr. Robert WEBER (TU Wien)
Kurzfassung/Abstract
Die stetig wachsende Anzahl von Nutzern globaler Satellitennavigationssysteme (GNSS) verlangt nach höhere Genauigkeit und Robustheit ihrer Empfänger, um die Anforderungen neuer Anwendungen erfüllen zu können. Ein einzelnes System bietet nicht die notwendige Leistungsfähigkeit für alle Anwendungen. In naher Zukunft aber eröffnet die wachsende Anzahl von Satellitensystemen und Signalen die Möglichkeit diese miteinander zu kombinieren, um dadurch eine höhere Genauigkeit und Robustheit zu erzielen. In den letzten Jahren entstand die Idee, die Aufgaben der Hardware eines GNSS Empfängers so weit wie möglich in die Software zu verlagern, um damit besser auf Veränderungen hinsichtlich neuer Systeme und Signale reagieren zu können. Die Entwicklung von Software-basierten GNSS Empfängern hat sich in der Vergangenheit auf die Verwendung einer Frequenz und eines einzelnen Systems konzentriert. Die neuen Evolutionsprogramme der GNSS rufen buchstäblich nach Implementierungen in Software, die die Signale mehrerer Frequenzen und Systeme ausschöpfen. Die wissenschaftlichen Herausforderungen bei der Entwicklung und Validierung eines mehrfrequenz Software-basierten GNSS Empfängers, der GPS und Galileo Signale verarbeiten kann, werden in einem ersten Schritt in dieser Dissertation erarbeitet. Dabei wird spezielles Augenmerk auf die Architektur des Empfängers und die Signalprozessierung unterschiedlicher GNSS Signale gelegt. Im zweiten Schritt werden die wissenschaftlichen Ergebnisse genützt, um die Implementierung des Empfängers in Software zu erläutern. Als Dateneingang dienen dem Empfänger digitale Zwischenfrequenz-Signale. Aufgezeichnete Signale von GPS und GIOVE-A/B wie auch simulierte GPS und Galileo Signale werden dazu verwendet das Potential der neuen Empfängerkonzepte zu zeigen. In einem dritten Schritt werden die Schwierigkeiten bei der Kombination unterschiedlicher Systeme und Signale adressiert, um in weiterer Folge neue Strategien für Fehlerverminderung und Fehlerkorrektur implementieren zu können. Dadurch können Positionslösungen mit höherer Genauigkeit und Robustheit erzielt werden. Im Rahmen der Diskussion zur Kombination von Systemen werden die Herausforderungen von unterschiedlichen Referenzsystemen erklärt und Schritt für Schritt gelöst. Die Algorithmen zur Positionsberechnung auf Basis von Mehr-Systemmessungen werden analysiert und getestet. Einer der größten Fehleranteile bei der Positionslösung liegt im Einfluss der Ionosphäre. In dieser Arbeit werden verschiedene Strategien zur Reduktion des ionosphärischen Einflusses auf Basis der Verwendung von Zweifrequenz-Messungen diskutiert. Ein neuer Ansatz für eine kombinierte Behandlung von
Mehrfrequenz- und Einfrequenz-Messungen wird präsentiert und getestet.
Durch die Kombination mehrerer Frequenzen erhöht sich das Messrauschen. Dies kann mittels der reproduzierbaren Szenarien und Signale mit dem Software-basierten Empfänger einfach nachgewiesen werden. Dieser Effekt, der im Detail beschrieben wird, kann durch die Verwendung einer Codeglättung mittels Phasenbeobachtungen reduziert werden. Durch die Kombination unterschiedlicher Messungen mehrerer Signale und ihrer unterschiedlichen Konditionierung muss eine adäquate Strategie für die Gewichtung der Messungen gewählt werden, um systematische Fehler in der Positionsberechnung zu vermeiden. Durch die wissenschaftliche Betrachtung und durch den Einsatz des Software-basierten Empfängers kann eine optimale Strategie für die Gewichtung identifiziert werden, die anschließend mittels unterschiedlicher Szenarien auch validiert werden kann. Im Rahmen dieser Arbeit wird die Entwicklung und Analyse eines mehrfrequenz Software-basierten GNSS Empfänger präsentiert. Es wird das Wissen vermittelt wie Empfängerarchitekturen, Module für die Signalprozessierung und Algorithmen für Positionen in Software umgesetzt werden können, um die Signale mehrere GNSS Systeme optimale nützen zu können.
Die stetig wachsende Anzahl von Nutzern globaler Satellitennavigationssysteme (GNSS) verlangt nach höhere Genauigkeit und Robustheit ihrer Empfänger, um die Anforderungen neuer Anwendungen erfüllen zu können. Ein einzelnes System bietet nicht die notwendige Leistungsfähigkeit für alle Anwendungen. In naher Zukunft aber eröffnet die wachsende Anzahl von Satellitensystemen und Signalen die Möglichkeit diese miteinander zu kombinieren, um dadurch eine höhere Genauigkeit und Robustheit zu erzielen. In den letzten Jahren entstand die Idee, die Aufgaben der Hardware eines GNSS Empfängers so weit wie möglich in die Software zu verlagern, um damit besser auf Veränderungen hinsichtlich neuer Systeme und Signale reagieren zu können. Die Entwicklung von Software-basierten GNSS Empfängern hat sich in der Vergangenheit auf die Verwendung einer Frequenz und eines einzelnen Systems konzentriert. Die neuen Evolutionsprogramme der GNSS rufen buchstäblich nach Implementierungen in Software, die die Signale mehrerer Frequenzen und Systeme ausschöpfen. Die wissenschaftlichen Herausforderungen bei der Entwicklung und Validierung eines mehrfrequenz Software-basierten GNSS Empfängers, der GPS und Galileo Signale verarbeiten kann, werden in einem ersten Schritt in dieser Dissertation erarbeitet. Dabei wird spezielles Augenmerk auf die Architektur des Empfängers und die Signalprozessierung unterschiedlicher GNSS Signale gelegt. Im zweiten Schritt werden die wissenschaftlichen Ergebnisse genützt, um die Implementierung des Empfängers in Software zu erläutern. Als Dateneingang dienen dem Empfänger digitale Zwischenfrequenz-Signale. Aufgezeichnete Signale von GPS und GIOVE-A/B wie auch simulierte GPS und Galileo Signale werden dazu verwendet das Potential der neuen Empfängerkonzepte zu zeigen. In einem dritten Schritt werden die Schwierigkeiten bei der Kombination unterschiedlicher Systeme und Signale adressiert, um in weiterer Folge neue Strategien für Fehlerverminderung und Fehlerkorrektur implementieren zu können. Dadurch können Positionslösungen mit höherer Genauigkeit und Robustheit erzielt werden. Im Rahmen der Diskussion zur Kombination von Systemen werden die Herausforderungen von unterschiedlichen Referenzsystemen erklärt und Schritt für Schritt gelöst. Die Algorithmen zur Positionsberechnung auf Basis von Mehr-Systemmessungen werden analysiert und getestet. Einer der größten Fehleranteile bei der Positionslösung liegt im Einfluss der Ionosphäre. In dieser Arbeit werden verschiedene Strategien zur Reduktion des ionosphärischen Einflusses auf Basis der Verwendung von Zweifrequenz-Messungen diskutiert. Ein neuer Ansatz für eine kombinierte Behandlung von
Mehrfrequenz- und Einfrequenz-Messungen wird präsentiert und getestet.
Durch die Kombination mehrerer Frequenzen erhöht sich das Messrauschen. Dies kann mittels der reproduzierbaren Szenarien und Signale mit dem Software-basierten Empfänger einfach nachgewiesen werden. Dieser Effekt, der im Detail beschrieben wird, kann durch die Verwendung einer Codeglättung mittels Phasenbeobachtungen reduziert werden. Durch die Kombination unterschiedlicher Messungen mehrerer Signale und ihrer unterschiedlichen Konditionierung muss eine adäquate Strategie für die Gewichtung der Messungen gewählt werden, um systematische Fehler in der Positionsberechnung zu vermeiden. Durch die wissenschaftliche Betrachtung und durch den Einsatz des Software-basierten Empfängers kann eine optimale Strategie für die Gewichtung identifiziert werden, die anschließend mittels unterschiedlicher Szenarien auch validiert werden kann. Im Rahmen dieser Arbeit wird die Entwicklung und Analyse eines mehrfrequenz Software-basierten GNSS Empfänger präsentiert. Es wird das Wissen vermittelt wie Empfängerarchitekturen, Module für die Signalprozessierung und Algorithmen für Positionen in Software umgesetzt werden können, um die Signale mehrere GNSS Systeme optimale nützen zu können.
Multi-dimensional modeling of the ionospheric parameters, using space geodetic techniques
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
This study aims at development of multi-dimensional integrated model of the ionosphere, by using different space geodetic techniques and applying a combination procedure for computation of global ionosphere models. Geodetic techniques, such as the Global Navigation Satellite Systems (GNSS), satellite altimetry, or FORMOSAT-3/COSMIC allow the observation and modeling of the ionosphere, but each has its specific characteristics which affect the derived ionosphere parameters. The combined model makes best use of the advantages of every particular method, has a more homogeneous global coverage and is more accurate and reliable than the results of each single technique. In the first step models generated from the combination of GNSS and satellite altimetry within the Institute of Geodesy and Geophysics (IGG), Vienna, are integrated with occultation data from Low Earth Orbiter (LEO) satellites such as FORMOSAT-3/COSMIC to model ionospheric parameters in terms of the electron density as a function of latitude, longitude, time, and height.
Since these LEO missions observe GPS occultation measurements, they have the capability of providing vertical profiles of ionospheric refractivity and would give the opportunity to develop 4D ionosphere models. For further improvement of the results, the models are integrated with external models and data such as the International Reference Ionosphere (IRI). The integrated combined GIM will be useful for correcting single-frequency measurements carried out by many observation techniques using radio frequencies and for validation and improvement of ionosphere parameters derived by other individual techniques as well as theoretical models.
This study aims at development of multi-dimensional integrated model of the ionosphere, by using different space geodetic techniques and applying a combination procedure for computation of global ionosphere models. Geodetic techniques, such as the Global Navigation Satellite Systems (GNSS), satellite altimetry, or FORMOSAT-3/COSMIC allow the observation and modeling of the ionosphere, but each has its specific characteristics which affect the derived ionosphere parameters. The combined model makes best use of the advantages of every particular method, has a more homogeneous global coverage and is more accurate and reliable than the results of each single technique. In the first step models generated from the combination of GNSS and satellite altimetry within the Institute of Geodesy and Geophysics (IGG), Vienna, are integrated with occultation data from Low Earth Orbiter (LEO) satellites such as FORMOSAT-3/COSMIC to model ionospheric parameters in terms of the electron density as a function of latitude, longitude, time, and height.
Since these LEO missions observe GPS occultation measurements, they have the capability of providing vertical profiles of ionospheric refractivity and would give the opportunity to develop 4D ionosphere models. For further improvement of the results, the models are integrated with external models and data such as the International Reference Ionosphere (IRI). The integrated combined GIM will be useful for correcting single-frequency measurements carried out by many observation techniques using radio frequencies and for validation and improvement of ionosphere parameters derived by other individual techniques as well as theoretical models.
Learning from location histories for location recommendations in LBS
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Mag. Dr. Georg Gartner
Begutachter: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
When visiting a new city, tourists often need help to identify personally interesting places or locations from a potentially overwhelming set of choices. Recently, the increasing availability of GPS-enabled devices and the rapid advances in geotagged social media have led to the accumulation of a large amount of location histories, which may reflect people's travel experiences in the environment. Research has shown that experiences from past users (especially similar ones) in similar contexts can help the current users to solve their problems efficiently, e.g., choosing where to visit next. Motivated by the above aspects, this thesis explores a methodology of deriving recommendations from location histories in Location Based Services (LBS). More specifically, we investigate collaborative filtering methods for deriving personalized and context-aware location recommendations from human location histories (e.g., GPS trajectories and trajectories constructed from Flickr photos). These methods can be implemented in LBS to provide tourists with location recommendations matching their interests and context when visiting a new environment (e.g., city or museum). The insights gained in this research can be also transferred to many other applications, such as friend recommendations in location-based social networks, artwork recommendations in museums, recommendations in the shopping domain, human behavior understanding, and activity recognition.
When visiting a new city, tourists often need help to identify personally interesting places or locations from a potentially overwhelming set of choices. Recently, the increasing availability of GPS-enabled devices and the rapid advances in geotagged social media have led to the accumulation of a large amount of location histories, which may reflect people's travel experiences in the environment. Research has shown that experiences from past users (especially similar ones) in similar contexts can help the current users to solve their problems efficiently, e.g., choosing where to visit next. Motivated by the above aspects, this thesis explores a methodology of deriving recommendations from location histories in Location Based Services (LBS). More specifically, we investigate collaborative filtering methods for deriving personalized and context-aware location recommendations from human location histories (e.g., GPS trajectories and trajectories constructed from Flickr photos). These methods can be implemented in LBS to provide tourists with location recommendations matching their interests and context when visiting a new environment (e.g., city or museum). The insights gained in this research can be also transferred to many other applications, such as friend recommendations in location-based social networks, artwork recommendations in museums, recommendations in the shopping domain, human behavior understanding, and activity recognition.
Atmospheric effects on measurements of the earth gravity field
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Druckvariationen in der Erdatmosphäre sind eine der Hauptverursacher von Schwerefeldänderungen an der Oberfläche. Die sich stetig ändernde Atmosphäre beeinflusst das Schweresignal auf zweierlei Art, einerseits durch Attraktion des Messinstrumentes durch die atmosphärischen Massen, das ist der sogenannte direkte Effekt, und durch die von den atmosphärischen Massen induzierte Verformung der Erdoberfläche und daraus resultierenden Schwereänderungen, den indirekten Effekt. In der Satellitengravimetrie werden diese kurzzeitigen Signale als Aliasing bezeichnet. Um diese zu eliminieren ist die Bestimmung von exakten atmosphärischen Schwerefeld-Koeffizienten (AGC) unverzichtbar.
Für die Bestimmung von AGC werden entsprechend dem Stand der Technik hochauflösende numerische Wettermodelle verwendet, welche die zeitvariable drei-dimensionale Massenverteilung innerhalb der Atmosphäre berücksichtigen. Durch Subtraktion der Kugelflächenfunktionen der momentanen Atmosphäre von denen des mittleren Zustands, einem lanzeitigen Mittel, werden die verbleibenden Kugelfunktionen ermittelt.
Diese beschreiben die Abweichung des momentanen Schwerefeldes vom mittleren Schwerefeld aufgrund atmosphärischer Massenveränderungen.
Bodenbasierte Schweremessungen begegnen denselben Schwierigkeiten bei der Eliminierung des Störsignals welches durch die Atmosphäre induziert wird. Bei supraleitenden Gravimetern wird die Korrektur üblicherweise über den lokalen Luftdruck ermittelt, wodurch 90-95% des Atmosphärensignals eliminiert wird. Allerdings reicht diese Korrektur heutzutage nicht mehr aus, da auf die Detektion von sehr schwachen Signalen abgezielt wird. Hier hat die drei-dimensionale Modellierung von atmosphärischer Massenattraktion auf Basis von numerischen Wettermodellen viel versprechende Ergebnisse gezeigt.
Druckvariationen in der Erdatmosphäre sind eine der Hauptverursacher von Schwerefeldänderungen an der Oberfläche. Die sich stetig ändernde Atmosphäre beeinflusst das Schweresignal auf zweierlei Art, einerseits durch Attraktion des Messinstrumentes durch die atmosphärischen Massen, das ist der sogenannte direkte Effekt, und durch die von den atmosphärischen Massen induzierte Verformung der Erdoberfläche und daraus resultierenden Schwereänderungen, den indirekten Effekt. In der Satellitengravimetrie werden diese kurzzeitigen Signale als Aliasing bezeichnet. Um diese zu eliminieren ist die Bestimmung von exakten atmosphärischen Schwerefeld-Koeffizienten (AGC) unverzichtbar.
Für die Bestimmung von AGC werden entsprechend dem Stand der Technik hochauflösende numerische Wettermodelle verwendet, welche die zeitvariable drei-dimensionale Massenverteilung innerhalb der Atmosphäre berücksichtigen. Durch Subtraktion der Kugelflächenfunktionen der momentanen Atmosphäre von denen des mittleren Zustands, einem lanzeitigen Mittel, werden die verbleibenden Kugelfunktionen ermittelt.
Diese beschreiben die Abweichung des momentanen Schwerefeldes vom mittleren Schwerefeld aufgrund atmosphärischer Massenveränderungen.
Bodenbasierte Schweremessungen begegnen denselben Schwierigkeiten bei der Eliminierung des Störsignals welches durch die Atmosphäre induziert wird. Bei supraleitenden Gravimetern wird die Korrektur üblicherweise über den lokalen Luftdruck ermittelt, wodurch 90-95% des Atmosphärensignals eliminiert wird. Allerdings reicht diese Korrektur heutzutage nicht mehr aus, da auf die Detektion von sehr schwachen Signalen abgezielt wird. Hier hat die drei-dimensionale Modellierung von atmosphärischer Massenattraktion auf Basis von numerischen Wettermodellen viel versprechende Ergebnisse gezeigt.
Estimation of solid earth tidal parameters and FCN with VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Die Beobachtungen des geodätischen Weltraumverfahrens VLBI (Very Long Baseline Interferometry) werden durch verschiedene Prozesse beeinflusst, die a priori modelliert werden müssen. Weiterhin enthalten die VLBI-Beobachtungen Informationen über eine Vielzahl geodynamischer Parameter und ermöglichen so die Validierung der Modelle. Die Gravitationswirkung der Sonne und des Mondes auf die Erde verursacht eine Deformation der Erdoberfläche, die täglich bis zu mehreren Dezimetern in radialer Richtung betragen kann. Die Verschiebung der Erdoberfläche ist eine Funktion der sog. Love Zahlen (radiale Richtung) und der Shida Zahlen (horizontale Richtung). Bei den heutigen hohen Genauigkeitsanforderungen der VLBI müssen die Love und Shida Zahlen in komplexer Form angegeben werden, wobei der imaginäre Teil die Anelastizität des Erdmantels ausdrückt. Außerdem muss man die einzelnen Tiden innerhalb der verschiedenen Frequenzbänder unterscheiden. In der vorliegenden Arbeit werden die Love und Shida Zahlen der zwölf täglichen und fünf langperiodischen Tiden bei der Datenauswertung geschätzt und mit denen die theoretischen Modelle verglichen. Die Gezeitenparameter werden aus einer Gesamtlösung aller geeigneten VLBI-Daten aus den letzten 27 Jahre (1984.0 - 2011.0) gerechnet. In dieser Arbeit wird auch die Periode der Free Core Nutation (FCN) bestimmt, die sowohl in den frequenzabhängigen Deformationen der festen Erde wie auch im Nutationsmodell erscheint. Sie wird in einem konsistenten globalen Ausgleich der VLBI-Daten als gemeinsamer Parameter bestimmt. Der erhaltene Wert von -431.18 ± 0.10 Sterntagen unterscheidet sich gering von dem konventionellen Wert von -431.39 siderischen Tagen, der in den IERS-Konventionen 2010 angegeben wird. Des Weiteren wird ein empirisches Modell der FCN gerechnet, das eine variable Amplitude und Phase beinhaltet. Die Parameterbestimmung wird mit globalen Lösungen der VLBI-Daten durchgeführt und die gerechneten Amplituden und Phasen werden in jährlichen Schritten berechnet.
Die Beobachtungen des geodätischen Weltraumverfahrens VLBI (Very Long Baseline Interferometry) werden durch verschiedene Prozesse beeinflusst, die a priori modelliert werden müssen. Weiterhin enthalten die VLBI-Beobachtungen Informationen über eine Vielzahl geodynamischer Parameter und ermöglichen so die Validierung der Modelle. Die Gravitationswirkung der Sonne und des Mondes auf die Erde verursacht eine Deformation der Erdoberfläche, die täglich bis zu mehreren Dezimetern in radialer Richtung betragen kann. Die Verschiebung der Erdoberfläche ist eine Funktion der sog. Love Zahlen (radiale Richtung) und der Shida Zahlen (horizontale Richtung). Bei den heutigen hohen Genauigkeitsanforderungen der VLBI müssen die Love und Shida Zahlen in komplexer Form angegeben werden, wobei der imaginäre Teil die Anelastizität des Erdmantels ausdrückt. Außerdem muss man die einzelnen Tiden innerhalb der verschiedenen Frequenzbänder unterscheiden. In der vorliegenden Arbeit werden die Love und Shida Zahlen der zwölf täglichen und fünf langperiodischen Tiden bei der Datenauswertung geschätzt und mit denen die theoretischen Modelle verglichen. Die Gezeitenparameter werden aus einer Gesamtlösung aller geeigneten VLBI-Daten aus den letzten 27 Jahre (1984.0 - 2011.0) gerechnet. In dieser Arbeit wird auch die Periode der Free Core Nutation (FCN) bestimmt, die sowohl in den frequenzabhängigen Deformationen der festen Erde wie auch im Nutationsmodell erscheint. Sie wird in einem konsistenten globalen Ausgleich der VLBI-Daten als gemeinsamer Parameter bestimmt. Der erhaltene Wert von -431.18 ± 0.10 Sterntagen unterscheidet sich gering von dem konventionellen Wert von -431.39 siderischen Tagen, der in den IERS-Konventionen 2010 angegeben wird. Des Weiteren wird ein empirisches Modell der FCN gerechnet, das eine variable Amplitude und Phase beinhaltet. Die Parameterbestimmung wird mit globalen Lösungen der VLBI-Daten durchgeführt und die gerechneten Amplituden und Phasen werden in jährlichen Schritten berechnet.
Auswirkungen von extremen Sonneneruptionen auf die Thermosphäre der Erde. Der Beitrag von Satellitenbeobachtungen zu Studien über die Evolution von Atmosphären.
Institut für Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2013
Betreuer: Prof. Mag. Dr. Roland Pail (TU München), Univ.Prof. Mag. Dr. Helfried Biernat (Österreichische Akademie der Wissenschaften)
Betreuer: Prof. Mag. Dr. Roland Pail (TU München), Univ.Prof. Mag. Dr. Helfried Biernat (Österreichische Akademie der Wissenschaften)
Kurzfassung/Abstract
In dieser interdisziplinären Studie auf dem Gebiet der Astronomie und Geodäsie werden die Auswirkungen von extremen Sonneneruptionen auf die obere Erdatmosphäre untersucht. Es wird angenommen, dass solche Ereignisse als Proxies für die Strahlungsintensität der Sonne und anderer Sterne in ihrer frühen Entwicklungsphase angesehen werden können. Um die zeitlichen und räumlichen Veränderungen in der atmosphärischen Dichte zu untersuchen, werden Beschleunigungsmessungen der Satellitenmission GRACE herangezogen. Die Messungen enthalten sämtliche nicht-gravitative Kräfte die auf den Satelliten in einer Höhe von ungefähr 450 km wirken. In dieser Flughöhe spielt vor allem der Luftwiderstand eine große Rolle. Aus diesem Grund müssen die Messungen zunächst um die Störkräfte ausgehend vom Strahlungsdruck der Sonne und des Erdalbedo reduziert werden. Die Dichtevariationen in der Thermosphäre werden über einen Zeitraum von siebeneinhalb Jahren untersucht, wobei der Fokus auf extremen Sonneneruptionen, wie dem X17.2 Flare während der sogenannten Halloween Periode 2003 oder einem X2.0 Flare im November 2004, liegt. Desweiteren werden die berechneten Dichten mit jenen der empirischen Atmosphärenmodellen NRLMSISE-00 und Jacchia-Bowman 2008 verglichen. Basierend auf einer zusätzlichen Analyse von EUV Messungen des TIMED Satelliten wird eine Verbindung zwischen extremen Sonneneruptionen und früheren Studien über thermosphärische Aufheizungs- und Expansionsprozesse hergestellt.
In dieser interdisziplinären Studie auf dem Gebiet der Astronomie und Geodäsie werden die Auswirkungen von extremen Sonneneruptionen auf die obere Erdatmosphäre untersucht. Es wird angenommen, dass solche Ereignisse als Proxies für die Strahlungsintensität der Sonne und anderer Sterne in ihrer frühen Entwicklungsphase angesehen werden können. Um die zeitlichen und räumlichen Veränderungen in der atmosphärischen Dichte zu untersuchen, werden Beschleunigungsmessungen der Satellitenmission GRACE herangezogen. Die Messungen enthalten sämtliche nicht-gravitative Kräfte die auf den Satelliten in einer Höhe von ungefähr 450 km wirken. In dieser Flughöhe spielt vor allem der Luftwiderstand eine große Rolle. Aus diesem Grund müssen die Messungen zunächst um die Störkräfte ausgehend vom Strahlungsdruck der Sonne und des Erdalbedo reduziert werden. Die Dichtevariationen in der Thermosphäre werden über einen Zeitraum von siebeneinhalb Jahren untersucht, wobei der Fokus auf extremen Sonneneruptionen, wie dem X17.2 Flare während der sogenannten Halloween Periode 2003 oder einem X2.0 Flare im November 2004, liegt. Desweiteren werden die berechneten Dichten mit jenen der empirischen Atmosphärenmodellen NRLMSISE-00 und Jacchia-Bowman 2008 verglichen. Basierend auf einer zusätzlichen Analyse von EUV Messungen des TIMED Satelliten wird eine Verbindung zwischen extremen Sonneneruptionen und früheren Studien über thermosphärische Aufheizungs- und Expansionsprozesse hergestellt.
VLBI satellite tracking for the realization of frame ties
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Die Radiointerferometrie auf langen Basen (VLBI, Very Long Baseline Interferometry) ist ein Standardverfahren in der Geodäsie zur Bestimmung des himmelsfesten Referenzrahmens (CRF, Celestial Reference Frame), des erdfesten Koordinatenrahmens (TRF, Terrestrial Reference Frame) und der Erdorientierungsparameter (EOP, Earth Orientation Parameter) zur Verknüpfung dieser beiden. Außerdem kommt die VLBI in der Raumschiffnavigation zum Einsatz, wo in den letzten Jahren gewaltige Entwicklungen zu beobachten waren. Heutige Realisierungen des TRF kombinieren die Messungen von unterschiedlichen geodätischen Weltraumverfahren und sind auf eine gute Verknüpfung dieser Systeme angewiesen. Für eine weitere Verbesserung, sowie das Ziel einer konsistenten Bestimmung des gesamten Systems aus CRF-EOP-TRF verfolgend, werden alternative Methoden zur Verknüpfung der unterschiedlichen modernen geodätischen Weltraumverfahren gesucht. Eine vielversprechende Methode hierfür sind VLBI-Beobachtungen zu Satelliten. Damit soll die Verknüpfung entweder mittels eines eigens dafür konzipierten Satelliten oder durch direktes Anmessen von Satelliten globaler Satellitennavigationssysteme (GNSS, Global Navigation Satellite Systems) erfolgen. Herzstück der vorgelegten Arbeit ist eine umfassende Simulationsstudie zu geeigneten Beobachtungsstrategien, die eine Ableitung präziser Stationskoordinaten im System des beobachteten Satelliten erlauben. Für Satelliten zwischen 1000 und 20000 Kilometern Flughöhe gelingt dies mit einer Genauigkeit von wenigen Millimetern. Dafür wird der Ansatz von Wochenlösungen gewählt, d.h. ein Satellit wird von einem regionalen oder globalen Netzwerk für sieben Tage durchgehend beobachtet. Sollen Satelliten des GNSS beobachtet werden, ist die gewählte Beobachtungsstrategie nicht zielführend und es wird die Kombination mit einer klassischen VLBI Kampagne zu Radioquellen bzw. die Beobachtung einer Satellitenkonstellation untersucht.
Die Radiointerferometrie auf langen Basen (VLBI, Very Long Baseline Interferometry) ist ein Standardverfahren in der Geodäsie zur Bestimmung des himmelsfesten Referenzrahmens (CRF, Celestial Reference Frame), des erdfesten Koordinatenrahmens (TRF, Terrestrial Reference Frame) und der Erdorientierungsparameter (EOP, Earth Orientation Parameter) zur Verknüpfung dieser beiden. Außerdem kommt die VLBI in der Raumschiffnavigation zum Einsatz, wo in den letzten Jahren gewaltige Entwicklungen zu beobachten waren. Heutige Realisierungen des TRF kombinieren die Messungen von unterschiedlichen geodätischen Weltraumverfahren und sind auf eine gute Verknüpfung dieser Systeme angewiesen. Für eine weitere Verbesserung, sowie das Ziel einer konsistenten Bestimmung des gesamten Systems aus CRF-EOP-TRF verfolgend, werden alternative Methoden zur Verknüpfung der unterschiedlichen modernen geodätischen Weltraumverfahren gesucht. Eine vielversprechende Methode hierfür sind VLBI-Beobachtungen zu Satelliten. Damit soll die Verknüpfung entweder mittels eines eigens dafür konzipierten Satelliten oder durch direktes Anmessen von Satelliten globaler Satellitennavigationssysteme (GNSS, Global Navigation Satellite Systems) erfolgen. Herzstück der vorgelegten Arbeit ist eine umfassende Simulationsstudie zu geeigneten Beobachtungsstrategien, die eine Ableitung präziser Stationskoordinaten im System des beobachteten Satelliten erlauben. Für Satelliten zwischen 1000 und 20000 Kilometern Flughöhe gelingt dies mit einer Genauigkeit von wenigen Millimetern. Dafür wird der Ansatz von Wochenlösungen gewählt, d.h. ein Satellit wird von einem regionalen oder globalen Netzwerk für sieben Tage durchgehend beobachtet. Sollen Satelliten des GNSS beobachtet werden, ist die gewählte Beobachtungsstrategie nicht zielführend und es wird die Kombination mit einer klassischen VLBI Kampagne zu Radioquellen bzw. die Beobachtung einer Satellitenkonstellation untersucht.
Knowledge-based route planning
Institut für Navigation, Technische Universität Graz, 2012
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser, Ao.Univ.Prof. Mag. Dr. Josef Strobl (Universität Salzburg)
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser, Ao.Univ.Prof. Mag. Dr. Josef Strobl (Universität Salzburg)
Kurzfassung/Abstract
Ein webbasierter Routenplaner soll spezifischen Benutzergruppen wie blinden und sehbehinderten Personen sowie Rollstuhlfahrern die Navigation und Orientierung in unbekannter Umgebung erleichtern. Durch die Einführung individueller Benutzerprofile kann dieselbe Anwendung von verschiedensten Benutzergruppen genutzt werden. Die Ziele dieser Arbeit liegen in der Erhebung der Anforderungen behinderter Personen an den Routenplaner, die Datengrundlage, Routenoptimierung und Routenbeschreibung, die Erstellung eines Wegenetzes für die Routenplanung mit detaillierten Informationen für die Benutzergruppen und den Algorithmus zur Routenoptimierung. Durch die Einbindung des öffentlichen Verkehrs und zusätzlichen Optimierungskriterien speziell für behinderte Personen, ist eine multi-kriterielle zeitabhängige Routenplanung notwendig. Dieses Optimierungsproblem kann nicht mit konventionellen Algorithmen zur Berechnung des kürzesten Weges gelöst werden. Schwerpunkte der Arbeit sind die detaillierte Beschreibung von Algorithmen zur multi-kriteriellen Optimierung, der Vergleich verschiedener Methoden und die Umsetzung einer speziellen, erweiterten Lösung für den Routenplaner. Bei der Entwicklung des Routenplaners wurde vor allem auf die Benutzerfreundlichkeit und Barrierefreiheit der Web-Anwendung geachtet und die Erkenntnisse in der Arbeit dokumentiert.
Ein webbasierter Routenplaner soll spezifischen Benutzergruppen wie blinden und sehbehinderten Personen sowie Rollstuhlfahrern die Navigation und Orientierung in unbekannter Umgebung erleichtern. Durch die Einführung individueller Benutzerprofile kann dieselbe Anwendung von verschiedensten Benutzergruppen genutzt werden. Die Ziele dieser Arbeit liegen in der Erhebung der Anforderungen behinderter Personen an den Routenplaner, die Datengrundlage, Routenoptimierung und Routenbeschreibung, die Erstellung eines Wegenetzes für die Routenplanung mit detaillierten Informationen für die Benutzergruppen und den Algorithmus zur Routenoptimierung. Durch die Einbindung des öffentlichen Verkehrs und zusätzlichen Optimierungskriterien speziell für behinderte Personen, ist eine multi-kriterielle zeitabhängige Routenplanung notwendig. Dieses Optimierungsproblem kann nicht mit konventionellen Algorithmen zur Berechnung des kürzesten Weges gelöst werden. Schwerpunkte der Arbeit sind die detaillierte Beschreibung von Algorithmen zur multi-kriteriellen Optimierung, der Vergleich verschiedener Methoden und die Umsetzung einer speziellen, erweiterten Lösung für den Routenplaner. Bei der Entwicklung des Routenplaners wurde vor allem auf die Benutzerfreundlichkeit und Barrierefreiheit der Web-Anwendung geachtet und die Erkenntnisse in der Arbeit dokumentiert.
VLBI scheduling strategies with respect to VLBI 2010
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) plays an important role for the realization of global geodetic reference frames. The next generation VLBI system, called VLBI2010, has been developed with a major goal of bridging the gap from the current 5-7 mm level of accuracy for VLBI position determination to the new sub 1 mm requirement. To reach the goals of VLBI2010, various new facets have been investigated within the International VLBI Service for Geodesy and Astrometry (IVS) including small fast-moving antennas, broadband frequency observations (2-14 GHz), and two or more antennas at a site. In order to exploit the full power of the future VLBI2010 system and derive the best possible geodetic parameters, a new scheduling package (VIE_SCHED) will be developed at the Institute of Geodesy and Geophysics (IGG) of the Vienna University of Technology, which is one part of the Vienna VLBI Software (VieVS).
Considering a more uniform network and fast moving antennas, one of the new strategies is source-based scheduling, which means that the schedule program selects radio sources from the catalogue without regard for their direct impact on individual stations. The conventional strategy is station-dependent scheduling, i.e., the sky coverage is optimized in short intervals taking into account the rapid atmospheric variability, partly at the expense of the total number of observations. It also includes the considerations of antenna maintenance and power saving mode. Variance and covariance analysis and even a dynamic optimization process will be considered to select the next source, which allows the successful separation of the various geodetic parameters in large multi-parameter adjustments. Schedules of sites with multiple antennas will also be considered. The scheduling software will offer the possibility to the user to optimize the schedule according to different criteria. It writes .skd file, which contains a complete description of the session, the schedule and the additional information used in scheduling the session. The work of developing the graphical interface is also needed to make it easy to use.
To test the newly developed scheduling algorithms, thorough and realistic simulations will be carried out. VIE_SCHED is directly connected to VieVS to provide feedback on the quality of the schedule.
Different schedules for 24-hour continuous VLBI2010 observations are compared in terms of scheduled sources, number of observations, idling percentage, sky coverage, station position repeatabilities, baseline length repeatabilities, and Earth Orientation Parameters (EOP) to evaluate different scheduling strategies. Within the doctoral thesis, the new scheduling software VIE_SCHED will be developed, implemented and tested according to the requirements of the VLBI2010 system.
Very Long Baseline Interferometry (VLBI) plays an important role for the realization of global geodetic reference frames. The next generation VLBI system, called VLBI2010, has been developed with a major goal of bridging the gap from the current 5-7 mm level of accuracy for VLBI position determination to the new sub 1 mm requirement. To reach the goals of VLBI2010, various new facets have been investigated within the International VLBI Service for Geodesy and Astrometry (IVS) including small fast-moving antennas, broadband frequency observations (2-14 GHz), and two or more antennas at a site. In order to exploit the full power of the future VLBI2010 system and derive the best possible geodetic parameters, a new scheduling package (VIE_SCHED) will be developed at the Institute of Geodesy and Geophysics (IGG) of the Vienna University of Technology, which is one part of the Vienna VLBI Software (VieVS).
Considering a more uniform network and fast moving antennas, one of the new strategies is source-based scheduling, which means that the schedule program selects radio sources from the catalogue without regard for their direct impact on individual stations. The conventional strategy is station-dependent scheduling, i.e., the sky coverage is optimized in short intervals taking into account the rapid atmospheric variability, partly at the expense of the total number of observations. It also includes the considerations of antenna maintenance and power saving mode. Variance and covariance analysis and even a dynamic optimization process will be considered to select the next source, which allows the successful separation of the various geodetic parameters in large multi-parameter adjustments. Schedules of sites with multiple antennas will also be considered. The scheduling software will offer the possibility to the user to optimize the schedule according to different criteria. It writes .skd file, which contains a complete description of the session, the schedule and the additional information used in scheduling the session. The work of developing the graphical interface is also needed to make it easy to use.
To test the newly developed scheduling algorithms, thorough and realistic simulations will be carried out. VIE_SCHED is directly connected to VieVS to provide feedback on the quality of the schedule.
Different schedules for 24-hour continuous VLBI2010 observations are compared in terms of scheduled sources, number of observations, idling percentage, sky coverage, station position repeatabilities, baseline length repeatabilities, and Earth Orientation Parameters (EOP) to evaluate different scheduling strategies. Within the doctoral thesis, the new scheduling software VIE_SCHED will be developed, implemented and tested according to the requirements of the VLBI2010 system.
Airborne laser scanning terrain and land cover models as basis for hydrological and hydraulic studies
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2013
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Der Vorteil von räumlich hoch auflösenden ALS Daten gegenüber räumlich gering aufgelösten topographischen Daten, ist der hohe Detailgrad an Geländeinformationen, wobei dieser bei hydrologischen und hydraulischen Fragestellungen oft auch negative Auswirkungen hat. Neben der hohen Detailgenauigkeit der topographischen Informationen beinhalten ALS Daten zusätzlich die Intensitätsinformation und verfügen zudem über eine gute vertikale Verteilung der Messungen. Anhand von ausgewählten Anwendungen wird gezeigt, wie solche negativen Geländeeinflüsse minimiert werden können und wie aus den ALS Daten Objekte aber auch spezielle Parameter für hydraulische und hydrologische Fragestellungen unter Zuhilfenahme von Geoinformatik und Fernerkundung Methoden berechnet werden können. Das Hauptaugenmerk der Arbeit liegt auf der Verbesserung bestehender Methoden zur Generierung hydrologischer und hydraulischer Merkmale aus ALS Daten bei maximaler Automation.
Einleitend wird auf die aktuelle Situation im Bereich Laser Fernerkundung eingegangen. Dabei werden neben der Aufnahmeprinzipien die verschiedene Sensorplattformen und die abgeleiteten Rastermodelle vorgestellt. Zudem wird auf aktuelle technologische Trends eingegangen.
Im ersten Methodenteil wird ein Ansatz vorgestellt, bei dem ein 1m-DGM für die Ableitung von Gerinnenetzwerken optimiert wird. Meist werden räumlich gering aufgelöste Geländemodelle verwendet, bei denen Straßen und topographische Kleinstrukturen durch eine Glättung (zB. low pass filter) eliminiert werden. Dabei geht gleichzeitig der hohe Detailgrad und die hohe räumliche Auflösung verloren, welche schließlich nicht mehr für die Gerinneberechnung vorhanden sind. Durch eliminieren der anthropogenen Strukturen, hauptsächlich der Straßen, kann ein optimiertes DGM erstellt werden, bei dem die negativen Einflüsse der Straßen auf die Fließakkumulationmethoden minimiert werden. Der Ergebnisvergleich zwischen Netzwerken, die auf dem optimierten 1m-DGM und denen, die auf dem original 1m-DGM, einem 5m optimierten oder einem geglätteten 5m-DGM basieren, zeigen eine Verbesserung von rund 9% bei der Vollständigkeit bzw. Genauigkeit.
Im zweiten Teil wird ein punktwolkenbasierter Ansatz zur Wasseroberflächenklassifikation basierend auf Geometrie- und Radiometriedaten erläutert. Durch die Interaktion des Laserstrahls einer bestimmten Wellenlänge mit der Wasseroberfläche können ALS Intensitätsdaten optimal zur Detektion von Wasseroberflächen eingesetzt werden. Wasseroberflächen sind vor allem in der Erstellung von Landbedeckungskarten aber auch für die Berechnung von hydrodynamisch-numerischen Modellen wichtig. Die genaue Lage der Wasserfläche nimmt bei der hydrodynamisch-numerischen Berechnung einen hohen Stellenwert ein, da diese für die Integration von Flusssohlenmodellen aber auch für die Zuweisung von Rauigkeitsparametern verwendet wird.
Weiters wird, ausgehend von der Wasseroberfläche, ein Flusssohlenmodell errechnet. Durch die Kombination von Wasseroberfläche und terrestrisch-gemessenen Flussquerprofilen wird ein Flussbettmodell berechnet, das mit dem bestehenden DGM vereinigt wird. Das neu berechnete DGM mit der integrierten Flusssohle kann für hydrodynamisch-numerische Modellierungen aber auch für die Berechnung von Flusssohlenveränderungen zwischen zwei Hochwasserereignissen herangezogen werden. Die Vorteile der Methode sind, dass die hochauflösenden Geländedaten aus dem ALS erhalten und mit dem Flusssohlenmodell ergänzt werden. Die Qualität des abgeleiteten Flusssohlenmodells hängt dabei primär von den Abständen der verwendeten Flussquerprofile ab.
Im letzten Teil wird ein punktwolkenbasierter Ansatz zur hydraulischen Rauigkeitsbestimmung vorgestellt. Ausgehend von Geometriedaten der 3D Punktwolke werden die vertikalen Strukturen der Vegetation analysiert und verschiedene Landbedeckungsklassen berechnet, welchen schließlich Manning's n Werte zugewiesen werden. Die Vorteile dieser Methode sind die vollautomatisierte Analyse, die hohe Reproduzierbarkeit der Ergebnisse sowie die kurze Rechenzeit. Mit dieser Methode wird ermöglicht, dass die Geometrie und die Rauigkeitsdaten von ein und derselben Befliegung abgeleitet werden und beide als Input für hydrodynamisch-numerische Modellierungen dienen können. Daher kann sichergestellt werden, dass alle Inputdaten (Geometrie und Rauigkeiten) von exakt einem Zeitpunkt stammen, was bis dato nicht der Fall gewesen ist.
Der Vorteil von räumlich hoch auflösenden ALS Daten gegenüber räumlich gering aufgelösten topographischen Daten, ist der hohe Detailgrad an Geländeinformationen, wobei dieser bei hydrologischen und hydraulischen Fragestellungen oft auch negative Auswirkungen hat. Neben der hohen Detailgenauigkeit der topographischen Informationen beinhalten ALS Daten zusätzlich die Intensitätsinformation und verfügen zudem über eine gute vertikale Verteilung der Messungen. Anhand von ausgewählten Anwendungen wird gezeigt, wie solche negativen Geländeeinflüsse minimiert werden können und wie aus den ALS Daten Objekte aber auch spezielle Parameter für hydraulische und hydrologische Fragestellungen unter Zuhilfenahme von Geoinformatik und Fernerkundung Methoden berechnet werden können. Das Hauptaugenmerk der Arbeit liegt auf der Verbesserung bestehender Methoden zur Generierung hydrologischer und hydraulischer Merkmale aus ALS Daten bei maximaler Automation.
Einleitend wird auf die aktuelle Situation im Bereich Laser Fernerkundung eingegangen. Dabei werden neben der Aufnahmeprinzipien die verschiedene Sensorplattformen und die abgeleiteten Rastermodelle vorgestellt. Zudem wird auf aktuelle technologische Trends eingegangen.
Im ersten Methodenteil wird ein Ansatz vorgestellt, bei dem ein 1m-DGM für die Ableitung von Gerinnenetzwerken optimiert wird. Meist werden räumlich gering aufgelöste Geländemodelle verwendet, bei denen Straßen und topographische Kleinstrukturen durch eine Glättung (zB. low pass filter) eliminiert werden. Dabei geht gleichzeitig der hohe Detailgrad und die hohe räumliche Auflösung verloren, welche schließlich nicht mehr für die Gerinneberechnung vorhanden sind. Durch eliminieren der anthropogenen Strukturen, hauptsächlich der Straßen, kann ein optimiertes DGM erstellt werden, bei dem die negativen Einflüsse der Straßen auf die Fließakkumulationmethoden minimiert werden. Der Ergebnisvergleich zwischen Netzwerken, die auf dem optimierten 1m-DGM und denen, die auf dem original 1m-DGM, einem 5m optimierten oder einem geglätteten 5m-DGM basieren, zeigen eine Verbesserung von rund 9% bei der Vollständigkeit bzw. Genauigkeit.
Im zweiten Teil wird ein punktwolkenbasierter Ansatz zur Wasseroberflächenklassifikation basierend auf Geometrie- und Radiometriedaten erläutert. Durch die Interaktion des Laserstrahls einer bestimmten Wellenlänge mit der Wasseroberfläche können ALS Intensitätsdaten optimal zur Detektion von Wasseroberflächen eingesetzt werden. Wasseroberflächen sind vor allem in der Erstellung von Landbedeckungskarten aber auch für die Berechnung von hydrodynamisch-numerischen Modellen wichtig. Die genaue Lage der Wasserfläche nimmt bei der hydrodynamisch-numerischen Berechnung einen hohen Stellenwert ein, da diese für die Integration von Flusssohlenmodellen aber auch für die Zuweisung von Rauigkeitsparametern verwendet wird.
Weiters wird, ausgehend von der Wasseroberfläche, ein Flusssohlenmodell errechnet. Durch die Kombination von Wasseroberfläche und terrestrisch-gemessenen Flussquerprofilen wird ein Flussbettmodell berechnet, das mit dem bestehenden DGM vereinigt wird. Das neu berechnete DGM mit der integrierten Flusssohle kann für hydrodynamisch-numerische Modellierungen aber auch für die Berechnung von Flusssohlenveränderungen zwischen zwei Hochwasserereignissen herangezogen werden. Die Vorteile der Methode sind, dass die hochauflösenden Geländedaten aus dem ALS erhalten und mit dem Flusssohlenmodell ergänzt werden. Die Qualität des abgeleiteten Flusssohlenmodells hängt dabei primär von den Abständen der verwendeten Flussquerprofile ab.
Im letzten Teil wird ein punktwolkenbasierter Ansatz zur hydraulischen Rauigkeitsbestimmung vorgestellt. Ausgehend von Geometriedaten der 3D Punktwolke werden die vertikalen Strukturen der Vegetation analysiert und verschiedene Landbedeckungsklassen berechnet, welchen schließlich Manning's n Werte zugewiesen werden. Die Vorteile dieser Methode sind die vollautomatisierte Analyse, die hohe Reproduzierbarkeit der Ergebnisse sowie die kurze Rechenzeit. Mit dieser Methode wird ermöglicht, dass die Geometrie und die Rauigkeitsdaten von ein und derselben Befliegung abgeleitet werden und beide als Input für hydrodynamisch-numerische Modellierungen dienen können. Daher kann sichergestellt werden, dass alle Inputdaten (Geometrie und Rauigkeiten) von exakt einem Zeitpunkt stammen, was bis dato nicht der Fall gewesen ist.
Verknüpfung von Fernerkundungsdaten und Survey-Daten (SOEP und BASE-II) in städtischen Räumen für sozialwissenschaftliche Analysen
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2013
Betreuer: Univ.Prof. Dr. Dipl.-Forstwirt Mathias Schardt (TU Graz), Prof. Dr. Gert G. Wagner (TU Berlin)
Betreuer: Univ.Prof. Dr. Dipl.-Forstwirt Mathias Schardt (TU Graz), Prof. Dr. Gert G. Wagner (TU Berlin)
Kurzfassung/Abstract
Zwischen dem Menschen und seiner Umwelt besteht eine wechselseitige Beziehung. Durch sein Handeln verändert der Mensch seine Umwelt und er wird durch die Umgebung in seinem Verhalten im Raum beeinflusst.
Deshalb stellt der Raum für die Erforschung von sozialen Fragestellungen eine bedeutende Rolle dar. Für die physische Erfassung des Raumes und seiner Merkmale hat sich die Erdbeobachtung als effizientes Werkzeug etabliert. Vor diesem Hintergrund ist das übergeordnete Ziel dieser Dissertation die Ableitung räumlicher Merkmale städtischer Räume aus Fernerkundungsdaten für die Einbindung in sozialwissenschaftliche Studien am Beispiel der beiden Städte Berlin und München. Für die Erarbeitung dieses Ziels wird in der vorliegenden Arbeit ein konzeptioneller Rahmen erstellt, der die Verknüpfung von Erdbeobachtungsdaten und sozialwissenschaftlichen Daten der sozioökonomischen Langzeitstudien SOEP und BASE-II beschreibt. Die Adressdaten der Teilnehmer können zum ersten Mal in der Geschichte der Studien räumlich verarbeitet werden, ohne dabei den Datenschutz zu verletzen. Die physische Charakterisierung des Raumes erfolgt auf Basis hoch aufgelöster, optischer Satellitenbilddaten für die Erfassung der Landbedeckung und digitaler Oberflächenmodelle (DOM) für die Ableitung von Einzelgebäuden, welche die Bebauungsstruktur beschreiben. Dabei werden in einem objektorientierten Bildanalyseverfahren die Informationen aus dem Satellitenbild und dem DOM komplementär verwendet. Für die Einzelgebäude wird darüber hinaus auch noch ein Verfahren zur Abschätzung der Geschosszahl entwickelt und einzelne Gebäudetypen werden auf Basis von 2D und 3D Formmerkmalen klassifiziert. Die aus den Fernerkundungsdaten abgeleiteten physischen Merkmale werden auf der räumlich übergeordneten Ebene des Baublocks zu Nachbarschaftsmerkmalen zusammengefasst und stellen die räumlichen Kontextmerkmale für die sozialwissenschaftliche Analyse dar. Diese Nachbarschaftsmerkmale werden mit den Daten sozialwissenschaftlicher Surveys verknüpft, wodurch im erstellten Datensatz sowohl die sozioökonomischen Merkmale als auch die räumlichen Kontextmerkmale aus den Fernerkundungsdaten zur Verfügung stehen. Durch die Analyse beider Informationen werden die unterschiedlichen räumlichen Bezüge der Surveydaten und der räumlichen Kontextmerkmale untersucht. Konkret wird anhand einer empirischen Untersuchung zur innerstädtischen, räumlichen Segregation des Haushaltseinkommens sowohl die Möglichkeit zur technischen Integrierung der räumlichen Merkmale evaluiert, als auch quantitative Beziehungen zwischen sozioökonomischen und räumlichen Merkmalen untersucht. Sie zeigen, dass der Raum in Kombination mit Informationen über Personen und Haushaltsdaten aus den Surveys einen relevanten, zusätzlichen Erklärungsgehalt in statistischen, sozialwissenschaftlichen Modellen aufweist.
Zwischen dem Menschen und seiner Umwelt besteht eine wechselseitige Beziehung. Durch sein Handeln verändert der Mensch seine Umwelt und er wird durch die Umgebung in seinem Verhalten im Raum beeinflusst.
Deshalb stellt der Raum für die Erforschung von sozialen Fragestellungen eine bedeutende Rolle dar. Für die physische Erfassung des Raumes und seiner Merkmale hat sich die Erdbeobachtung als effizientes Werkzeug etabliert. Vor diesem Hintergrund ist das übergeordnete Ziel dieser Dissertation die Ableitung räumlicher Merkmale städtischer Räume aus Fernerkundungsdaten für die Einbindung in sozialwissenschaftliche Studien am Beispiel der beiden Städte Berlin und München. Für die Erarbeitung dieses Ziels wird in der vorliegenden Arbeit ein konzeptioneller Rahmen erstellt, der die Verknüpfung von Erdbeobachtungsdaten und sozialwissenschaftlichen Daten der sozioökonomischen Langzeitstudien SOEP und BASE-II beschreibt. Die Adressdaten der Teilnehmer können zum ersten Mal in der Geschichte der Studien räumlich verarbeitet werden, ohne dabei den Datenschutz zu verletzen. Die physische Charakterisierung des Raumes erfolgt auf Basis hoch aufgelöster, optischer Satellitenbilddaten für die Erfassung der Landbedeckung und digitaler Oberflächenmodelle (DOM) für die Ableitung von Einzelgebäuden, welche die Bebauungsstruktur beschreiben. Dabei werden in einem objektorientierten Bildanalyseverfahren die Informationen aus dem Satellitenbild und dem DOM komplementär verwendet. Für die Einzelgebäude wird darüber hinaus auch noch ein Verfahren zur Abschätzung der Geschosszahl entwickelt und einzelne Gebäudetypen werden auf Basis von 2D und 3D Formmerkmalen klassifiziert. Die aus den Fernerkundungsdaten abgeleiteten physischen Merkmale werden auf der räumlich übergeordneten Ebene des Baublocks zu Nachbarschaftsmerkmalen zusammengefasst und stellen die räumlichen Kontextmerkmale für die sozialwissenschaftliche Analyse dar. Diese Nachbarschaftsmerkmale werden mit den Daten sozialwissenschaftlicher Surveys verknüpft, wodurch im erstellten Datensatz sowohl die sozioökonomischen Merkmale als auch die räumlichen Kontextmerkmale aus den Fernerkundungsdaten zur Verfügung stehen. Durch die Analyse beider Informationen werden die unterschiedlichen räumlichen Bezüge der Surveydaten und der räumlichen Kontextmerkmale untersucht. Konkret wird anhand einer empirischen Untersuchung zur innerstädtischen, räumlichen Segregation des Haushaltseinkommens sowohl die Möglichkeit zur technischen Integrierung der räumlichen Merkmale evaluiert, als auch quantitative Beziehungen zwischen sozioökonomischen und räumlichen Merkmalen untersucht. Sie zeigen, dass der Raum in Kombination mit Informationen über Personen und Haushaltsdaten aus den Surveys einen relevanten, zusätzlichen Erklärungsgehalt in statistischen, sozialwissenschaftlichen Modellen aufweist.
Seismic noise analysis at the Gradenbach landslide
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2013
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Die Massenbewegung Gradenbach gehört zur Gruppe der tiefgreifenden Hangbewegungen. Aufgrund ihrer Form werden sie auch als "Sackung" (englisch "sagging") bezeichnet. Der Gradenbach befindet sich in den Zentralalpen in Österreich. Aufgrund der katastrophalen Rutschungen in den Jahren 1965/66, welche die Hälfte der nahe gelegenen Ortschaft Putschall zerstörten, wurde man auf die Massenbewegung aufmerksam. Es folgte die Installation von geodätischen, geotechnischen und hydro-meteorologischen Monitoring-Systemen in den folgenden Jahren.
Die Daten für die vorliegende Arbeit stammen aus dem seismischen Netzwerk, welches 2006 aufgebaut wurde. Aus den anderen Mess-Systemen werden Vergleichsdaten herangezogen. Frühere Untersuchungen, ausgeführt von der Forschungsgruppe Geophysik an der Technischen Universität Wien, konnten unter anderem herausfinden, dass beispielsweise die Seismizität des Hanges im Jahr 2009 vor dem Beginn der Beschleunigungsphase signifikant angestiegen ist und wenige Wochen später wieder zurück gegangen ist. Diese Entdeckung warf einige Fragen auf, wobei der Aspekt der seismischen Noise Analyse im Hinblick auf Seismizität und Bewegungsphase im Jahr 2009 im Rahmen dieser Arbeit behandelt wird. Der zu analysierende Zeitraum ist dafür auf die Jahre 2008-2010 festgelegt. Das Ziel ist es, grundsätzlich den seismischen Noise zu beobachten, charakteristische Merkmale und Eigenheiten festzuhalten und zu klassifizieren und eventuell mögliche Zusammenhänge zwischen dem seismischen Noise und der erhöhten Seismizität sowie anderen am Gradenbach beobachteten Größen herzustellen. Der seismische Noise wird in Form von spektralen Leistungsdichten dargestellt (englisch: noise power spectral density - PSD). Wie die Arbeit zeigt, scheint tatsächlich ein Zusammenhang zwischen signifikanten Änderungen im seismischen Noise-Level und der aus Extensometer-Messungen resultierenden Geschwindigkeit zu bestehen. Ob die Stärke der Änderung im seismischen Noise proportional einer bevorstehenden signifikanten Geschwindigkeitsänderung ist bzw. möglicherweise Informationen enthält, die für Vorhersagen des Hangverhaltens verwendet werden können, ist im Rahmen der Arbeit nicht feststellbar. Allerdings konnten die periodisch wiederkehrenden Änderungen im seismischen Noise durch Vergleich mit den hydro-meteorologischen Beobachtungen jährlich wiederkehrenden Phänomenen wie der Schneeschmelze zugeordnet werden. Es wird dabei angenommen, dass Wasser, welches während der Schneeschmelze frei wird, in den Hang infiltriert und dadurch Änderungen in den Porenwasserdrücken hervor ruft, die wiederum zu einer Änderung im Spannungszustand des Hanges führen. Aus diesem Grund kann das Hanggefüge gestört werden und es kommt zu seismischen Events im Hang, die sich im seismischen Noise als signifikante Variationen darstellen. Diese Beobachtungen lassen darauf schließen, dass der Hang im Allgemeinen relativ empfindlich auf Änderungen des Wasserhaushalts reagiert. Aufbauend auf den Ergebnissen aus der Korrelation der Schneeschmelze mit dem seismischen Noise beschäftigt sich die weitere Analyse der Noise-PSDs mit dem Einfluss von Regenereignissen auf den Noise-Level.
Dabei konnte ein saisonal zwei-phasiges Hangverhalten festgestellt werden. Des Weiteren konnte ein weiterer Hinweis für die hohe Sensibilität des Hanges in Bezug auf infiltrierendes Wasser gefunden werden - in Phasen der Beschleunigung lässt sich außerdem eine starke Reaktion des Hanges auf starke Regenereignisse feststellen. Das Wissen um den Zustand des Gradenbach-Hanges und seine Reaktionen auf verschiedene Umwelteinflüsse ist ein wichtiger Beitrag und Grundlage für weitere Untersuchungen an der Massenbewegung. Speziell die Erkenntnis, dass der Hang sehr empfindlich auf den Eintritt unterschiedlicher Wassermengen reagiert, bietet eine Basis für zu künftige Quantifizierung von hydro-meteorologischen Parametern. Möglicherweise liefern diese Parameter zusätzliche Informationen, die für den Aufbau und die Realisierung von Frühwarn-Systemen verwendet werden können.
Die Massenbewegung Gradenbach gehört zur Gruppe der tiefgreifenden Hangbewegungen. Aufgrund ihrer Form werden sie auch als "Sackung" (englisch "sagging") bezeichnet. Der Gradenbach befindet sich in den Zentralalpen in Österreich. Aufgrund der katastrophalen Rutschungen in den Jahren 1965/66, welche die Hälfte der nahe gelegenen Ortschaft Putschall zerstörten, wurde man auf die Massenbewegung aufmerksam. Es folgte die Installation von geodätischen, geotechnischen und hydro-meteorologischen Monitoring-Systemen in den folgenden Jahren.
Die Daten für die vorliegende Arbeit stammen aus dem seismischen Netzwerk, welches 2006 aufgebaut wurde. Aus den anderen Mess-Systemen werden Vergleichsdaten herangezogen. Frühere Untersuchungen, ausgeführt von der Forschungsgruppe Geophysik an der Technischen Universität Wien, konnten unter anderem herausfinden, dass beispielsweise die Seismizität des Hanges im Jahr 2009 vor dem Beginn der Beschleunigungsphase signifikant angestiegen ist und wenige Wochen später wieder zurück gegangen ist. Diese Entdeckung warf einige Fragen auf, wobei der Aspekt der seismischen Noise Analyse im Hinblick auf Seismizität und Bewegungsphase im Jahr 2009 im Rahmen dieser Arbeit behandelt wird. Der zu analysierende Zeitraum ist dafür auf die Jahre 2008-2010 festgelegt. Das Ziel ist es, grundsätzlich den seismischen Noise zu beobachten, charakteristische Merkmale und Eigenheiten festzuhalten und zu klassifizieren und eventuell mögliche Zusammenhänge zwischen dem seismischen Noise und der erhöhten Seismizität sowie anderen am Gradenbach beobachteten Größen herzustellen. Der seismische Noise wird in Form von spektralen Leistungsdichten dargestellt (englisch: noise power spectral density - PSD). Wie die Arbeit zeigt, scheint tatsächlich ein Zusammenhang zwischen signifikanten Änderungen im seismischen Noise-Level und der aus Extensometer-Messungen resultierenden Geschwindigkeit zu bestehen. Ob die Stärke der Änderung im seismischen Noise proportional einer bevorstehenden signifikanten Geschwindigkeitsänderung ist bzw. möglicherweise Informationen enthält, die für Vorhersagen des Hangverhaltens verwendet werden können, ist im Rahmen der Arbeit nicht feststellbar. Allerdings konnten die periodisch wiederkehrenden Änderungen im seismischen Noise durch Vergleich mit den hydro-meteorologischen Beobachtungen jährlich wiederkehrenden Phänomenen wie der Schneeschmelze zugeordnet werden. Es wird dabei angenommen, dass Wasser, welches während der Schneeschmelze frei wird, in den Hang infiltriert und dadurch Änderungen in den Porenwasserdrücken hervor ruft, die wiederum zu einer Änderung im Spannungszustand des Hanges führen. Aus diesem Grund kann das Hanggefüge gestört werden und es kommt zu seismischen Events im Hang, die sich im seismischen Noise als signifikante Variationen darstellen. Diese Beobachtungen lassen darauf schließen, dass der Hang im Allgemeinen relativ empfindlich auf Änderungen des Wasserhaushalts reagiert. Aufbauend auf den Ergebnissen aus der Korrelation der Schneeschmelze mit dem seismischen Noise beschäftigt sich die weitere Analyse der Noise-PSDs mit dem Einfluss von Regenereignissen auf den Noise-Level.
Dabei konnte ein saisonal zwei-phasiges Hangverhalten festgestellt werden. Des Weiteren konnte ein weiterer Hinweis für die hohe Sensibilität des Hanges in Bezug auf infiltrierendes Wasser gefunden werden - in Phasen der Beschleunigung lässt sich außerdem eine starke Reaktion des Hanges auf starke Regenereignisse feststellen. Das Wissen um den Zustand des Gradenbach-Hanges und seine Reaktionen auf verschiedene Umwelteinflüsse ist ein wichtiger Beitrag und Grundlage für weitere Untersuchungen an der Massenbewegung. Speziell die Erkenntnis, dass der Hang sehr empfindlich auf den Eintritt unterschiedlicher Wassermengen reagiert, bietet eine Basis für zu künftige Quantifizierung von hydro-meteorologischen Parametern. Möglicherweise liefern diese Parameter zusätzliche Informationen, die für den Aufbau und die Realisierung von Frühwarn-Systemen verwendet werden können.
Analyse des Einflusses der Topographie auf die Signatur von Satellitenbilddaten
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2013
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Das Reflexionsverhalten (Signatur) von Waldbeständen in einem Satellitenbild wird maßgeblich von deren Beleuchtung durch das Sonnenlicht beeinflusst. Neben dem Sonnenstand zum Zeitpunkt der Aufnahme entscheidet vor allem die Topographie in der näheren Umgebung, ob ein Waldstück besonnt oder beschattet ist und somit trotz gleicher Bestockung verschiedene Grauwerte im Bild aufweist. Bei vielen Anwendungen in der Fernerkundung ist dieser Beleuchtungsunterschied problematisch und führt zu Fehlern in der Auswertung. Um dem entgegenzuwirken, wurden topographische Normalisierungsmethoden entwickelt. In dieser Masterarbeit wird der angesprochene Einfluss des Reliefs auf die Signatur anhand von sechs IRS- und vier Landsat-Satellitenszenen in einem geeigneten alpinen Testgebiet untersucht. Zu diesem Zweck werden Regressionsanalysen basierend auf selbstdefinierten Referenzgebieten durchgeführt. Anschließend werden für die dabei gewonnen Erkenntnisse Erklärungsansätze aus Untersuchungen basierend auf Laserscannerdaten abgeleitet. Mit Hilfe der Laserscannerdaten werden Schattensimulationen durchgeführt, die es ermöglichen, die Schattenanteile innerhalb der Referenzgebiete zu berechnen. Des Weiteren werden zwei gebräuchliche Methoden zur topographischen Normalisierung getestet und evaluiert. Abschließend wird ein Ansatz zur Weiterentwicklung des vom Joanneum Research verwendeten Tools für die Beleuchtungskorrektur vorgestellt.
Das Reflexionsverhalten (Signatur) von Waldbeständen in einem Satellitenbild wird maßgeblich von deren Beleuchtung durch das Sonnenlicht beeinflusst. Neben dem Sonnenstand zum Zeitpunkt der Aufnahme entscheidet vor allem die Topographie in der näheren Umgebung, ob ein Waldstück besonnt oder beschattet ist und somit trotz gleicher Bestockung verschiedene Grauwerte im Bild aufweist. Bei vielen Anwendungen in der Fernerkundung ist dieser Beleuchtungsunterschied problematisch und führt zu Fehlern in der Auswertung. Um dem entgegenzuwirken, wurden topographische Normalisierungsmethoden entwickelt. In dieser Masterarbeit wird der angesprochene Einfluss des Reliefs auf die Signatur anhand von sechs IRS- und vier Landsat-Satellitenszenen in einem geeigneten alpinen Testgebiet untersucht. Zu diesem Zweck werden Regressionsanalysen basierend auf selbstdefinierten Referenzgebieten durchgeführt. Anschließend werden für die dabei gewonnen Erkenntnisse Erklärungsansätze aus Untersuchungen basierend auf Laserscannerdaten abgeleitet. Mit Hilfe der Laserscannerdaten werden Schattensimulationen durchgeführt, die es ermöglichen, die Schattenanteile innerhalb der Referenzgebiete zu berechnen. Des Weiteren werden zwei gebräuchliche Methoden zur topographischen Normalisierung getestet und evaluiert. Abschließend wird ein Ansatz zur Weiterentwicklung des vom Joanneum Research verwendeten Tools für die Beleuchtungskorrektur vorgestellt.
Scheduling for a Distributed GeoComputing System
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa Barrios
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa Barrios
Kurzfassung/Abstract
Raster calculation on big datasets take a long time, but at the same time in many universities and companies much of the computing power is not used at the same time. In this work the design and implementation of a scheduler for a distributed GeoComputing System is covered. The main challenges in this work were the finding of an efficient, fast and easy-to-implement Scheduling algorithm, the communication between the distributed GeoComputing Core - the basis of this work - and the splitting up of work on multiple computing nodes. Implementation was performed with pure java, using an image processing library for data access. The performance of the finished system was then being tested against ArcGIS, with an increase in performance of up to 61%. The outcome of the tests suggests that with optimization of the Scheduling and data transfer the performance could be increased even further. This work shows that implementing and running a lightweight, portable and distributed GeoComputing system is not only possible but leads to an increase in performance and therefore to possible better total usage of computing power.
Raster calculation on big datasets take a long time, but at the same time in many universities and companies much of the computing power is not used at the same time. In this work the design and implementation of a scheduler for a distributed GeoComputing System is covered. The main challenges in this work were the finding of an efficient, fast and easy-to-implement Scheduling algorithm, the communication between the distributed GeoComputing Core - the basis of this work - and the splitting up of work on multiple computing nodes. Implementation was performed with pure java, using an image processing library for data access. The performance of the finished system was then being tested against ArcGIS, with an increase in performance of up to 61%. The outcome of the tests suggests that with optimization of the Scheduling and data transfer the performance could be increased even further. This work shows that implementing and running a lightweight, portable and distributed GeoComputing system is not only possible but leads to an increase in performance and therefore to possible better total usage of computing power.
Untersuchung des zyklischen Fehlers eines Leica TCA 1800 im Messlabor und im Feld
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2013
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
Das Auftreten eines zyklischen Fehlers bei Messungen mit EDM Geräten, die nach dem Prinzip der Phasenmessung arbeiten, ist seit langem bekannt. Auch bei modernen Geräten ist dieser Fehler, in geringerer Größenordnung, oftmals vorhanden. Die Bestimmung des zyklischen Fehlers ist Teil der Kalibrierung von elektronischen Distanzmessgeräten. Durch die Einschränkung von interferometrischen Methoden und insbesondere wegen der Länge des jeweiligen Messlabors wird der zyklische Fehler aber oft nur bis zu einer maximalen Distanz von 50 m bestimmt. Für die Bestimmung bei längeren Distanzen stehen bisher nur weniger genaue Methoden zur Bestimmung der Vergleichsstrecken zur Verfügung. Am Institut für Ingenieurgeodäsie und Messsysteme (IGMS) der TU Graz wurde ein mobiler Feldkomparator entwickelt, mit dem die Bestimmung des zyklischen Fehlers von EDM Geräten bei beliebigen Distanzen mit hoher Genauigkeit möglich ist. In dieser Arbeit wurden Messungen mit dem Feldkomparator und einem Leica TCA 1800 bei 10 verschiedenen Distanzen bis ca. 220 m durchgeführt. Die meteorologischen Einflüsse, die sich wesentlich auf die Genauigkeit der Distanzmessung auswirken und einen kleinen zyklischen Fehler überdecken würden, wurden über die simultane Messung einer fixen Referenzstrecke bestimmt und korrigiert. Zusätzlich wurden Messungen am Horizontalkomparator des IGMS bei verlängerter Distanz bis 65 m durchgeführt, um auch langwelligere periodische Einflüsse auf die gemessenen Strecken untersuchen zu können. Aus diesen Daten wurden Korrekturmodelle für den zyklischen Fehler für den Distanzbereich bis 65 m für drei verschiedene Prismen (Leica Standardprisma, Miniprismen der Firmen Geodäsie Austria und Goecke) berechnet. Die Messungen am Horizontalkomparator ergaben zyklische Fehler von bis zu ±0,8 mm für Distanzen kleiner als 65 m. Die Ergebnisse der Messungen mit dem Feldkomparator zeigen, dass zyklische Effekte in den Distanzmessungen mit dem Leica TCA 1800 bei größeren Entfernungen (Untersuchungen bis zu 220 m) zwar vorhanden sind, deren Amplituden aber kleiner als 0,1 mm und damit von geringer praktischer Bedeutung sind. Jedenfalls sind diese Effekte kleiner als die vom Hersteller angegebene Präzision der Distanzmessung. Für Sonderanwendungen mit Distanzen bis ca. 65 m können die gemessenen Strecken anhand der berechneten Modelle korrigiert werden, wobei danach mit Restabweichungen von maximal etwa ±0,1 mm zu rechnen ist.
Das Auftreten eines zyklischen Fehlers bei Messungen mit EDM Geräten, die nach dem Prinzip der Phasenmessung arbeiten, ist seit langem bekannt. Auch bei modernen Geräten ist dieser Fehler, in geringerer Größenordnung, oftmals vorhanden. Die Bestimmung des zyklischen Fehlers ist Teil der Kalibrierung von elektronischen Distanzmessgeräten. Durch die Einschränkung von interferometrischen Methoden und insbesondere wegen der Länge des jeweiligen Messlabors wird der zyklische Fehler aber oft nur bis zu einer maximalen Distanz von 50 m bestimmt. Für die Bestimmung bei längeren Distanzen stehen bisher nur weniger genaue Methoden zur Bestimmung der Vergleichsstrecken zur Verfügung. Am Institut für Ingenieurgeodäsie und Messsysteme (IGMS) der TU Graz wurde ein mobiler Feldkomparator entwickelt, mit dem die Bestimmung des zyklischen Fehlers von EDM Geräten bei beliebigen Distanzen mit hoher Genauigkeit möglich ist. In dieser Arbeit wurden Messungen mit dem Feldkomparator und einem Leica TCA 1800 bei 10 verschiedenen Distanzen bis ca. 220 m durchgeführt. Die meteorologischen Einflüsse, die sich wesentlich auf die Genauigkeit der Distanzmessung auswirken und einen kleinen zyklischen Fehler überdecken würden, wurden über die simultane Messung einer fixen Referenzstrecke bestimmt und korrigiert. Zusätzlich wurden Messungen am Horizontalkomparator des IGMS bei verlängerter Distanz bis 65 m durchgeführt, um auch langwelligere periodische Einflüsse auf die gemessenen Strecken untersuchen zu können. Aus diesen Daten wurden Korrekturmodelle für den zyklischen Fehler für den Distanzbereich bis 65 m für drei verschiedene Prismen (Leica Standardprisma, Miniprismen der Firmen Geodäsie Austria und Goecke) berechnet. Die Messungen am Horizontalkomparator ergaben zyklische Fehler von bis zu ±0,8 mm für Distanzen kleiner als 65 m. Die Ergebnisse der Messungen mit dem Feldkomparator zeigen, dass zyklische Effekte in den Distanzmessungen mit dem Leica TCA 1800 bei größeren Entfernungen (Untersuchungen bis zu 220 m) zwar vorhanden sind, deren Amplituden aber kleiner als 0,1 mm und damit von geringer praktischer Bedeutung sind. Jedenfalls sind diese Effekte kleiner als die vom Hersteller angegebene Präzision der Distanzmessung. Für Sonderanwendungen mit Distanzen bis ca. 65 m können die gemessenen Strecken anhand der berechneten Modelle korrigiert werden, wobei danach mit Restabweichungen von maximal etwa ±0,1 mm zu rechnen ist.
Decision Support tool for prototyping of an Unmanned Surface Vehicle
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, Dr. Heinz Stanek
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, Dr. Heinz Stanek
Kurzfassung/Abstract
The goal of this master's thesis is to develop a Decision Support (DS) tool for prototyping of a so called Unmanned Surface Vehicle (USV). These USVs are vessels with a built-in micro controller that enables a fully autonomous operation to, regarding the civil sector, capture data. By accomplishing a comprehensive state of the art and literature review the different components like hull type, propulsion and steering, motor, battery or sensors, which are necessary for the construction and the use of such a platform, are described. This investigation shows also which types of USVs in the civil sector exist and that USVs are a promising technology for different fields of application such as water quality monitoring, seafloor mapping, environmental modeling or geological surveys. These autonomously swimming sensor platforms can even be integrated into early warning systems and can therefore help to save human lives.
Additionally in Excel created decision matrices are used to identify the desired USV components, based on the requirements of being low-cost, compact, and capable of holding the position and making temperature measurements. The so gained information is then used for making selections in the DS tool.
The DS tool is also developed in Excel. The data, which is used for the calculations that are performed in the background when making selections, is queried from separate created data tables. By the aid of logical operators these selections are restricted in a specific way to provide the user the needed information for developing an USV in terms of duration, hull type, buoyancy and costs. The results are then used for the modeling of the prototype unmanned sensor platform, which is accomplished in SketchUp.
The goal of this master's thesis is to develop a Decision Support (DS) tool for prototyping of a so called Unmanned Surface Vehicle (USV). These USVs are vessels with a built-in micro controller that enables a fully autonomous operation to, regarding the civil sector, capture data. By accomplishing a comprehensive state of the art and literature review the different components like hull type, propulsion and steering, motor, battery or sensors, which are necessary for the construction and the use of such a platform, are described. This investigation shows also which types of USVs in the civil sector exist and that USVs are a promising technology for different fields of application such as water quality monitoring, seafloor mapping, environmental modeling or geological surveys. These autonomously swimming sensor platforms can even be integrated into early warning systems and can therefore help to save human lives.
Additionally in Excel created decision matrices are used to identify the desired USV components, based on the requirements of being low-cost, compact, and capable of holding the position and making temperature measurements. The so gained information is then used for making selections in the DS tool.
The DS tool is also developed in Excel. The data, which is used for the calculations that are performed in the background when making selections, is queried from separate created data tables. By the aid of logical operators these selections are restricted in a specific way to provide the user the needed information for developing an USV in terms of duration, hull type, buoyancy and costs. The results are then used for the modeling of the prototype unmanned sensor platform, which is accomplished in SketchUp.
Open source Web-based interaction with 3-dimensional building models via human interaction devices
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2013
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Der Gebäudesektor hat in den meisten Industrienationen einen geschätzten Anteil am Gesamtenergieverbrauch von 40%. Berücksichtigt man die globalen Herausforderungen in puncto Ressourcenknappheit, Energiekrisen und den damit verbundenen steigenden Energiekosten wird ersichtlich, dass der Gebäudesektor einen wichtigen Teil in nationalen Energieoptimierungsstrategien einnimmt. In Österreich beträgt das Bauvolumen pro Jahr weniger als ein Prozent des gesamten Gebäudevolumens. Die Steigerung der Energieeffizienz der bestehenden Gebäudeinfrastruktur ist demnach ein entscheidender Schritt zur Optimierung des Energieverbrauches am Gebäudesektor.
Gebäudemonitoringsysteme dienen der Speicherung und Analyse von Gebäudedaten, wie Energieverbrauch elektronischer Geräte, Wärmeleistung, Luftfeuchtigkeit, Luftzug u. Ä. Erhobene Daten sind komplex und müssen aufbereitet werden, um von Laien in einen Kontext mit dem persönlichen Verhalten gebracht werden zu können. Die folgende Arbeit erläutert die Umsetzung eines Plattform- und Hersteller-unabhängigen Gebäudemonitoringsystems.
Die Umsetzung der entwickelten Konzepte mit dem Ziel, Gebäudedaten einer breiten Masse an interessierten Nutzern zur Verfügung zu stellen, wird anhand des entwickelten Frameworks diskutiert. Am Beispiel eines Gebäudeinformationsterminals wird untersucht, welche Technologien einen möglichst schnellen Lernerfolg garantieren. Unter Einbeziehung vorhandener Konzepte der menschlichen Wahrnehmung von räumlichen Phänomenen wird das Lernverhalten mit Personal Computer, Touchscreens und die Bedienung mittels Gestensteuerung (Nutzung ohne physischen Kontakt) untersucht.
Eine mit dreißig Studenten durchgeführte Nutzbarkeitsstudie zeigt, dass ein Touchscreen die besten Lernergebnisse erzielt. Eine Prototypimplementierung befindet sich am Institut für Architekturwissenschaften der Technischen Universität Wien.
Der Gebäudesektor hat in den meisten Industrienationen einen geschätzten Anteil am Gesamtenergieverbrauch von 40%. Berücksichtigt man die globalen Herausforderungen in puncto Ressourcenknappheit, Energiekrisen und den damit verbundenen steigenden Energiekosten wird ersichtlich, dass der Gebäudesektor einen wichtigen Teil in nationalen Energieoptimierungsstrategien einnimmt. In Österreich beträgt das Bauvolumen pro Jahr weniger als ein Prozent des gesamten Gebäudevolumens. Die Steigerung der Energieeffizienz der bestehenden Gebäudeinfrastruktur ist demnach ein entscheidender Schritt zur Optimierung des Energieverbrauches am Gebäudesektor.
Gebäudemonitoringsysteme dienen der Speicherung und Analyse von Gebäudedaten, wie Energieverbrauch elektronischer Geräte, Wärmeleistung, Luftfeuchtigkeit, Luftzug u. Ä. Erhobene Daten sind komplex und müssen aufbereitet werden, um von Laien in einen Kontext mit dem persönlichen Verhalten gebracht werden zu können. Die folgende Arbeit erläutert die Umsetzung eines Plattform- und Hersteller-unabhängigen Gebäudemonitoringsystems.
Die Umsetzung der entwickelten Konzepte mit dem Ziel, Gebäudedaten einer breiten Masse an interessierten Nutzern zur Verfügung zu stellen, wird anhand des entwickelten Frameworks diskutiert. Am Beispiel eines Gebäudeinformationsterminals wird untersucht, welche Technologien einen möglichst schnellen Lernerfolg garantieren. Unter Einbeziehung vorhandener Konzepte der menschlichen Wahrnehmung von räumlichen Phänomenen wird das Lernverhalten mit Personal Computer, Touchscreens und die Bedienung mittels Gestensteuerung (Nutzung ohne physischen Kontakt) untersucht.
Eine mit dreißig Studenten durchgeführte Nutzbarkeitsstudie zeigt, dass ein Touchscreen die besten Lernergebnisse erzielt. Eine Prototypimplementierung befindet sich am Institut für Architekturwissenschaften der Technischen Universität Wien.
Automatische Detektion und Lokalisierung von Erdbeben mit geringen Magnituden im Raum des Wiener Beckens
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2013
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: Em.O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Aufgrund der aktuell vorherrschenden Seismizität im Raum des Wiener Beckens ist die Abschätzung der Erdbebengefährdung für Wien, von großem Interesse. Mittels eines dichten seismischen Netzwerkes im Rahmen des Projektes ALPAACT, sollen Angaben über tektonische Störungen im Raum des Wiener Beckens gemacht werden. Besonders geeignet sind hierfür Erdbeben mit geringeren Magnituden und höheren Frequenzen ihres Auftretens, welche nicht von der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) erfasst wurden.
Mittels der Anpassung eines automatischen Detektionsalgorithmus, wurde die Überprüfung eines Datensatzes auf seismische Signale in einem ausgewählten Zeitraum ermöglicht. In einem anschließend durchgeführten manuellen Vorgang erfolgten der Ausschluss von Fehldetektionen und die Klassifizierung der Signale. Im Weiteren wurde die Funktionsweise des Algorithmus auf seine Zuverlässigkeit überprüft, indem vom automatischen Algorithmus nicht erfasste seismische Signale manuell einbezogen wurden.
Eine anschließende Laufzeitbestimmung der seismischen Phasen war notwendig, um eine genaue Lokalisierung der zuvor detektierten Erdbeben zu ermöglichen. Zuletzt gab eine Bestimmung der Magnituden, aufgrund der Amplituden der Signale, Aufschluss über die Stärke der Beben.
Als Ergebnis konnten zusätzlich zu den im Untersuchungszeitraum auftretenden 16 Erdbeben, welche ebenfalls von der ZAMG erfasst wurden, 36 Beben festgestellt werden, welche geringe Magnituden aufweisen und vermutlich einen tektonischen Ursprung haben. Das Aufstellen der Gutenberg-Richter Beziehung gab Aufschluss über die Verringerung der Detektionsschwelle, welche durch das verdichtende Netzwerk erreicht wurde. Es kam zu einem Anheben der Detektionen ab ungefähr einer Magnitude 1,3. Darunter ist das seismische Signal hauptsächlich von dem vorkommenden seismischen Noise überdeckt.
Da die in dieser Arbeit betrachteten Daten auch von temporär installierten Stationen resultierten, besteht weiterführend die Aufgabe den automatischen Detektionsalgorithmus und seine Parameter für die, nach dem Abbau der temporären Stationen, durch das verbleibende stationär installierte Netzwerk erfassten Daten erneut anzupassen.
Aufgrund der aktuell vorherrschenden Seismizität im Raum des Wiener Beckens ist die Abschätzung der Erdbebengefährdung für Wien, von großem Interesse. Mittels eines dichten seismischen Netzwerkes im Rahmen des Projektes ALPAACT, sollen Angaben über tektonische Störungen im Raum des Wiener Beckens gemacht werden. Besonders geeignet sind hierfür Erdbeben mit geringeren Magnituden und höheren Frequenzen ihres Auftretens, welche nicht von der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) erfasst wurden.
Mittels der Anpassung eines automatischen Detektionsalgorithmus, wurde die Überprüfung eines Datensatzes auf seismische Signale in einem ausgewählten Zeitraum ermöglicht. In einem anschließend durchgeführten manuellen Vorgang erfolgten der Ausschluss von Fehldetektionen und die Klassifizierung der Signale. Im Weiteren wurde die Funktionsweise des Algorithmus auf seine Zuverlässigkeit überprüft, indem vom automatischen Algorithmus nicht erfasste seismische Signale manuell einbezogen wurden.
Eine anschließende Laufzeitbestimmung der seismischen Phasen war notwendig, um eine genaue Lokalisierung der zuvor detektierten Erdbeben zu ermöglichen. Zuletzt gab eine Bestimmung der Magnituden, aufgrund der Amplituden der Signale, Aufschluss über die Stärke der Beben.
Als Ergebnis konnten zusätzlich zu den im Untersuchungszeitraum auftretenden 16 Erdbeben, welche ebenfalls von der ZAMG erfasst wurden, 36 Beben festgestellt werden, welche geringe Magnituden aufweisen und vermutlich einen tektonischen Ursprung haben. Das Aufstellen der Gutenberg-Richter Beziehung gab Aufschluss über die Verringerung der Detektionsschwelle, welche durch das verdichtende Netzwerk erreicht wurde. Es kam zu einem Anheben der Detektionen ab ungefähr einer Magnitude 1,3. Darunter ist das seismische Signal hauptsächlich von dem vorkommenden seismischen Noise überdeckt.
Da die in dieser Arbeit betrachteten Daten auch von temporär installierten Stationen resultierten, besteht weiterführend die Aufgabe den automatischen Detektionsalgorithmus und seine Parameter für die, nach dem Abbau der temporären Stationen, durch das verbleibende stationär installierte Netzwerk erfassten Daten erneut anzupassen.
Bestimmung von himmelsfesten Referenzrahmen mit VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Um mit der Very Long Baseline Interferometry (VLBI) die aus den Beobachtungen abgeleiteten Zielparameter mit möglichst hohen Genauigkeiten bestimmen zu können, ist aufgrund des Messprinzips ein hochgenauer und stabiler himmelsfester Referenzrahmen (CRF) eine wesentliche Grundvoraussetzung. Da es mit der VLBI selbst möglich ist einen CRF direkt zu berechnen, schafft sich das geodätische Weltraumverfahren diese Grundlage für hochgenaue Auswertungen nach geodätischen, geodynamischen, meteorologischen, klimatologischen und astronomischen Parametern mit eigenen Mitteln.
Im Zuge der Berechnung des CRF gibt es jedoch zahlreiche Aspekte, die dessen Genauigkeit verringern können. Zunächst wird die Art und Größe des Effekts den die Datumsdefinition des TRF auf den CRF hat, untersucht, da der terrestrische Referenzrahmen (TRF) und der CRF in einer gemeinsamen globalen Auswertung bestimmt werden und ihre Lösungen dadurch miteinander verknüpft sind. Anschließend wird die Auswertestrategie dahingehend betrachtet, wie sich die troposphärischen Gradienten auf die Genauigkeit des CRF auswirken.
Mit den Ergebnissen der Berechnungen kann gezeigt werden, dass eine optimale Datumsdefinition des TRF für diesen selbst eine Schlüsselrolle zu einer hohen Genauigkeit darstellt, für den CRF jedoch nur eine untergeordnete Rolle spielt. Mit verschiedenen Auswertungen wird somit gezeigt, dass der Zusammenhang zwischen TRF und CRF über die Datumsdefinition des TRF relativ gering ist.
In Hinblick auf die Troposphären-Gradienten und deren Einfluss auf das Ergebnis des CRF lässt sich feststellen, dass diese eine bedeutende Rolle für die Genauigkeit des TRF und vor allem für die des CRF spielen.
Somit stellt die optimale Einbindung der Troposphären-Gradienten einen wichtigen Faktor in der Bestimmung von hochgenauen himmelsfesten Referenzrahmen dar.
Um mit der Very Long Baseline Interferometry (VLBI) die aus den Beobachtungen abgeleiteten Zielparameter mit möglichst hohen Genauigkeiten bestimmen zu können, ist aufgrund des Messprinzips ein hochgenauer und stabiler himmelsfester Referenzrahmen (CRF) eine wesentliche Grundvoraussetzung. Da es mit der VLBI selbst möglich ist einen CRF direkt zu berechnen, schafft sich das geodätische Weltraumverfahren diese Grundlage für hochgenaue Auswertungen nach geodätischen, geodynamischen, meteorologischen, klimatologischen und astronomischen Parametern mit eigenen Mitteln.
Im Zuge der Berechnung des CRF gibt es jedoch zahlreiche Aspekte, die dessen Genauigkeit verringern können. Zunächst wird die Art und Größe des Effekts den die Datumsdefinition des TRF auf den CRF hat, untersucht, da der terrestrische Referenzrahmen (TRF) und der CRF in einer gemeinsamen globalen Auswertung bestimmt werden und ihre Lösungen dadurch miteinander verknüpft sind. Anschließend wird die Auswertestrategie dahingehend betrachtet, wie sich die troposphärischen Gradienten auf die Genauigkeit des CRF auswirken.
Mit den Ergebnissen der Berechnungen kann gezeigt werden, dass eine optimale Datumsdefinition des TRF für diesen selbst eine Schlüsselrolle zu einer hohen Genauigkeit darstellt, für den CRF jedoch nur eine untergeordnete Rolle spielt. Mit verschiedenen Auswertungen wird somit gezeigt, dass der Zusammenhang zwischen TRF und CRF über die Datumsdefinition des TRF relativ gering ist.
In Hinblick auf die Troposphären-Gradienten und deren Einfluss auf das Ergebnis des CRF lässt sich feststellen, dass diese eine bedeutende Rolle für die Genauigkeit des TRF und vor allem für die des CRF spielen.
Somit stellt die optimale Einbindung der Troposphären-Gradienten einen wichtigen Faktor in der Bestimmung von hochgenauen himmelsfesten Referenzrahmen dar.
Routing for pedestrian service-technicians in the Old Town of Salzburg
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Günther Kiechle (Salzburg Research)
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Günther Kiechle (Salzburg Research)
Kurzfassung/Abstract
Pedestrian routing is the field within which the current master thesis is centered. The thesis is aiming to retrieve free data with distance information provided from mapping services, with the intention to derive a street network suitable for pedestrian routing, to assess the needs for routing of service-technicians in the Old Town of Salzburg. The methods for creating a pedestrian network proposed by this thesis are based on representing the network by a medial axis and by a skeleton. The pedestrian network sets the application area for Dijkstra's algorithm to calculate the shortest path. The processes needed to fulfill this purpose are studied throughout the thesis. Both networks are evaluated according their performance in the shortest path calculation and the most efficient network participates in the distance matrix creation. The final output of the thesis is a distance matrix with the distances between the points of interest which in this case will be the number of all interventions within the study area.
Pedestrian routing is the field within which the current master thesis is centered. The thesis is aiming to retrieve free data with distance information provided from mapping services, with the intention to derive a street network suitable for pedestrian routing, to assess the needs for routing of service-technicians in the Old Town of Salzburg. The methods for creating a pedestrian network proposed by this thesis are based on representing the network by a medial axis and by a skeleton. The pedestrian network sets the application area for Dijkstra's algorithm to calculate the shortest path. The processes needed to fulfill this purpose are studied throughout the thesis. Both networks are evaluated according their performance in the shortest path calculation and the most efficient network participates in the distance matrix creation. The final output of the thesis is a distance matrix with the distances between the points of interest which in this case will be the number of all interventions within the study area.
Online Visual Occlusion Service for mobile applications (OVOS)
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa Barrios
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Victor Garcìa Barrios
Kurzfassung/Abstract
The thesis mainly describes the steps and components which are necessary to bring the idea of an Online Visual Occlusion Service (OVOS) to the state of a working software prototype. Location based applications run on mobile devices such as smartphones, tablet computers or embedded computers (in cars, for example) that have wireless access to the Internet. Most of these devices can determine their position through GPS and report their position to server applications that deliver location services. The huge amount of digital data in geospatial models is not manageable by current mobile devices yet. This can be solved by using online client-server architectures with an online visual occlusion service processing the complex algorithms in the backend. Time consuming algorithms can be calculated on high -performance server computers, cloud computing or other network solutions. The project Idea is to design and implement an online service solving the problem of visual occlusion of spatial objects by others to enhance location based services (LBS) to be more realistic to the user.
Online service implies a client-server structure where the occlusion service provider is situated on the server side (backend) whereas the service client application can be located directly in the mobile device at the user side or also another service for instance a LBS can be the client of the new Online Visual Occlusion Service (OVOS). Results:
Regarding to research question #2 the author was able to find appropriate algorithms and data structures to store and retrieve 3D Geo-Data and to calculate intersections of very complex geometrical objects namely triangulated irregular networks (TIN) in an efficient way. Using these algorithms in the field of Geoinformation is not common nowadays.
The contribution of this thesis to the field of Geoinformation especially in the research area of the department of Geoinformation and Environmental Technologies is the possibility for following students to develop new applications based on this findings and the run able prototype of this project.
The thesis mainly describes the steps and components which are necessary to bring the idea of an Online Visual Occlusion Service (OVOS) to the state of a working software prototype. Location based applications run on mobile devices such as smartphones, tablet computers or embedded computers (in cars, for example) that have wireless access to the Internet. Most of these devices can determine their position through GPS and report their position to server applications that deliver location services. The huge amount of digital data in geospatial models is not manageable by current mobile devices yet. This can be solved by using online client-server architectures with an online visual occlusion service processing the complex algorithms in the backend. Time consuming algorithms can be calculated on high -performance server computers, cloud computing or other network solutions. The project Idea is to design and implement an online service solving the problem of visual occlusion of spatial objects by others to enhance location based services (LBS) to be more realistic to the user.
Online service implies a client-server structure where the occlusion service provider is situated on the server side (backend) whereas the service client application can be located directly in the mobile device at the user side or also another service for instance a LBS can be the client of the new Online Visual Occlusion Service (OVOS). Results:
- Definition of a suitable architecture and Interface for dealing with this kind of service requests (between mobile client and server)
- Finding suitable data structures for storage and efficient algorithms/libraries for calculation of geometric Intersections
- Developing the core application to solve the visual occlusion for a given geometric scene
Regarding to research question #2 the author was able to find appropriate algorithms and data structures to store and retrieve 3D Geo-Data and to calculate intersections of very complex geometrical objects namely triangulated irregular networks (TIN) in an efficient way. Using these algorithms in the field of Geoinformation is not common nowadays.
The contribution of this thesis to the field of Geoinformation especially in the research area of the department of Geoinformation and Environmental Technologies is the possibility for following students to develop new applications based on this findings and the run able prototype of this project.
Lunar gravity field recovery: GRAIL simulations and real data analysis
Institut für Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2013
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
GRAIL (Gravity Recovery and Interior Laboratory) ist eine Satellitenmission der NASA, bestehend aus den beiden Satelliten GRAIL-A und GRAIL-B, welche den Erdmond umkreisen. Ziel der Mission ist die Bestimmung eines hochauflösenden lunaren Schwerefeldmodells aus den relativen Distanzänderungen zwischen den beiden Satelliten (low-low Satellite-to-Satellite Tracking (ll-SST) Prinzip). Das Missions-Konzept wurde von der GRACE-Mission, ein Projekt zur genauen Bestimmung des Erdschwerefeldes, übernommen. Aufgrund der gebundenen Rotation zwischen Erde und Mond können Satelliten, welche sich auf der erdabgewandten Seite befinden, nicht direkt beobachtet werden. Mit Hilfe der ll-SST Beobachtungen kann allerdings eine globale Datenabdeckung des Mondes erreicht werden. Des Weiteren sind Relativmessungen weitaus sensitiver als erdgebundene Orbitbeobachtungen. Daher ermöglicht GRAIL im Vergleich zu bisherigen Mondmissionen die Schätzung eines räumlich und spektral weitaus hochauflösenderen Schwerefeldes. Die genaue Kenntnis des lunaren Schwerefeldes soll Aufschlüsse über den inneren Aufbau des Mondes und dessen thermaler Evolution geben. Basierend auf simulierten Orbit und ll-SST Beobachtungen wurde eine Reihe von Sensitivitätsstudien durchgeführt, um den Einfluss unterschiedlicher Parameter zu untersuchen. Mit Hilfe der simulierten Daten können die Potentialkoeffizienten eines lunares Schwerefeldmodells anhand des Integralgleichungsansatzes bestimmt werden. Dieser Ansatz basiert auf einer als Randwertaufgabe formulierten Lösung der Newton-Euler Bewegungsgleichung. Neben den Simulationsstudien wurden auch Realdaten über einen Zeitraum von drei Monaten verwendet um ein Mondschwerefeldmodell zu schätzen. Da die Orbitbestimmung nicht Teil der Realdatenanalyse dieser Arbeit ist, werden die vom NASA PDS (Planetary Data System) zur Verfügung gestellten GRAIL Orbits verwendet. Im Vergleich zu früheren Schwerefeldlösungen sind deutliche Verbesserungen sowohl auf der erdabgewandten, als auch auf der erdzugewandten Seite erkennbar. Diese Verbesserungen sind auf die globale Abdeckung der ll-SST Beobachtungen zurückzuführen. Ein weiterer wesentlicher Aspekt der globalen Datenverfügbarkeit besteht darin, dass für die Lösung des Ausgleichs keine Regularisierung notwendig ist. Die Simulation und Auswertung der Beobachtungsdaten erfolgt mit Hilfe des Softwarepakets GROOPS (Gravity Recovery Object Oriented Programming System). Die Software wurde im Rahmen dieser Masterarbeit entsprechend erweitert, um die Simulation und die Analyse von GRAIL Daten zu ermöglichen.
GRAIL (Gravity Recovery and Interior Laboratory) ist eine Satellitenmission der NASA, bestehend aus den beiden Satelliten GRAIL-A und GRAIL-B, welche den Erdmond umkreisen. Ziel der Mission ist die Bestimmung eines hochauflösenden lunaren Schwerefeldmodells aus den relativen Distanzänderungen zwischen den beiden Satelliten (low-low Satellite-to-Satellite Tracking (ll-SST) Prinzip). Das Missions-Konzept wurde von der GRACE-Mission, ein Projekt zur genauen Bestimmung des Erdschwerefeldes, übernommen. Aufgrund der gebundenen Rotation zwischen Erde und Mond können Satelliten, welche sich auf der erdabgewandten Seite befinden, nicht direkt beobachtet werden. Mit Hilfe der ll-SST Beobachtungen kann allerdings eine globale Datenabdeckung des Mondes erreicht werden. Des Weiteren sind Relativmessungen weitaus sensitiver als erdgebundene Orbitbeobachtungen. Daher ermöglicht GRAIL im Vergleich zu bisherigen Mondmissionen die Schätzung eines räumlich und spektral weitaus hochauflösenderen Schwerefeldes. Die genaue Kenntnis des lunaren Schwerefeldes soll Aufschlüsse über den inneren Aufbau des Mondes und dessen thermaler Evolution geben. Basierend auf simulierten Orbit und ll-SST Beobachtungen wurde eine Reihe von Sensitivitätsstudien durchgeführt, um den Einfluss unterschiedlicher Parameter zu untersuchen. Mit Hilfe der simulierten Daten können die Potentialkoeffizienten eines lunares Schwerefeldmodells anhand des Integralgleichungsansatzes bestimmt werden. Dieser Ansatz basiert auf einer als Randwertaufgabe formulierten Lösung der Newton-Euler Bewegungsgleichung. Neben den Simulationsstudien wurden auch Realdaten über einen Zeitraum von drei Monaten verwendet um ein Mondschwerefeldmodell zu schätzen. Da die Orbitbestimmung nicht Teil der Realdatenanalyse dieser Arbeit ist, werden die vom NASA PDS (Planetary Data System) zur Verfügung gestellten GRAIL Orbits verwendet. Im Vergleich zu früheren Schwerefeldlösungen sind deutliche Verbesserungen sowohl auf der erdabgewandten, als auch auf der erdzugewandten Seite erkennbar. Diese Verbesserungen sind auf die globale Abdeckung der ll-SST Beobachtungen zurückzuführen. Ein weiterer wesentlicher Aspekt der globalen Datenverfügbarkeit besteht darin, dass für die Lösung des Ausgleichs keine Regularisierung notwendig ist. Die Simulation und Auswertung der Beobachtungsdaten erfolgt mit Hilfe des Softwarepakets GROOPS (Gravity Recovery Object Oriented Programming System). Die Software wurde im Rahmen dieser Masterarbeit entsprechend erweitert, um die Simulation und die Analyse von GRAIL Daten zu ermöglichen.
Prototypentwicklung eines Rovers als Trägerplattform für Sensorsysteme
Institut für Navigation, Technische Universität Graz, 2013
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
In dieser Masterarbeit wurde der Prototyp eines ferngesteuerten Rovers konstruiert, der modular aufgebaut, geländegängig und erweiterbar ist. Auch wurde eine Bodenstation mit dazugehöriger Antennennachführung und einer autonomen Steuersoftware entwickelt. Mit dieser Arbeit wurden neue Konzepte in der Datenübertragung und der Steuerung von Rovern erarbeitet. Diese Steuerung kann mittels 40Mhz RC-Signale über einen Computer erfolgen. Der Großteil der Hardware wurde selbst geplant, gebaut, programmiert und getestet. Durch die Verwendung von industriellen WLAN-Modulen in Verbindung mit einem Autopiloten wurde das Datenübertragungskonzept realisiert. Das Zusammenspiel von Hardware und Software, mit dessen implementiertem Berechnungskonzept der Nachführungsparameter, konnte durch Tests verifiziert werden. Sowohl die Datenübertragung, als auch das RC-Steuerungskonzept haben sich als funktionstüchtig erwiesen. Die Ergebnisse haben gezeigt, dass der Einsatz von Spezialelektronik nicht immer notwendig ist und durch die Verwendung von handelsüblichen Teilen oftmals umgangen werden kann, ohne die Funktionalität zu beeinflussen. Es sollte dennoch qualitativ hochwertiges Material verwendet werden. Dieses System würde sich zur Datenerfassung und als Testträger für verschiedene Sensoren besonders in solchen Gebieten eignen, wo die Gesundheit des Menschen gefährdet wäre.
In dieser Masterarbeit wurde der Prototyp eines ferngesteuerten Rovers konstruiert, der modular aufgebaut, geländegängig und erweiterbar ist. Auch wurde eine Bodenstation mit dazugehöriger Antennennachführung und einer autonomen Steuersoftware entwickelt. Mit dieser Arbeit wurden neue Konzepte in der Datenübertragung und der Steuerung von Rovern erarbeitet. Diese Steuerung kann mittels 40Mhz RC-Signale über einen Computer erfolgen. Der Großteil der Hardware wurde selbst geplant, gebaut, programmiert und getestet. Durch die Verwendung von industriellen WLAN-Modulen in Verbindung mit einem Autopiloten wurde das Datenübertragungskonzept realisiert. Das Zusammenspiel von Hardware und Software, mit dessen implementiertem Berechnungskonzept der Nachführungsparameter, konnte durch Tests verifiziert werden. Sowohl die Datenübertragung, als auch das RC-Steuerungskonzept haben sich als funktionstüchtig erwiesen. Die Ergebnisse haben gezeigt, dass der Einsatz von Spezialelektronik nicht immer notwendig ist und durch die Verwendung von handelsüblichen Teilen oftmals umgangen werden kann, ohne die Funktionalität zu beeinflussen. Es sollte dennoch qualitativ hochwertiges Material verwendet werden. Dieses System würde sich zur Datenerfassung und als Testträger für verschiedene Sensoren besonders in solchen Gebieten eignen, wo die Gesundheit des Menschen gefährdet wäre.
Discovering context-dependent trajectory patterns from social media
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Dank des Fortschritts der Web-Entwicklung ist die Internetbenutzung heutzutage nicht mehr auf statisches Web-Browsing beschränkt. Der zunehmende Einsatz von sozialen Medien eröffnet nunmehr die Möglichkeit, den frei zugänglichen Benutzer-erzeugten Inhalt zur Erforschung des Benutzerverhaltens näher zu analysieren. In den letzen Jahren haben sich viele Forscher tatsächlich auf Daten, die von Benutzer beigetragen werden, konzentriert. Jedoch haben nur sehr wenige von ihnen die Trajektorien in anderen Kontexten als den räumlich-zeitlichen untersucht. Die Studie, die in dieser Diplomarbeit präsentiert wird, erkundet die Möglichkeit der Bestimmung von trajektoriellen Mustern in den Kontexten von Flickr-Benutzergruppen (nach Weltregionen) und Saisonen (Sommer versus Winter). Die Untersuchung von trajektoriellen Mustern in diesem Zusammenhang ist neuartig. Um dieses Ziel zu erreichen, wurden die drei größten Gruppen von Flickr-Benutzern ausgewählt, die Stadt Wien im Zeitraum von ungefähr 5 Jahren (2007-2011) besucht haben. Anschließend wurden die zehn meist besuchten Sehenswürdigkeiten für jede Gruppe in jeder Saison bestimmt. Schließlich wurden die trajektoriellen Muster von jeder Gruppe, die diese meistfrequentierten Sehenswürdigkeiten besucht haben, in jeder Saison analysiert. Durch die Verwendung der beiden Kontexte Benutzergruppen und Saisonen konnten interessante Unterschiede herausgefunden werden, obwohl im Allgemeinen die trajektoriellen Muster jeder Gruppe ähnlich waren.
Dank des Fortschritts der Web-Entwicklung ist die Internetbenutzung heutzutage nicht mehr auf statisches Web-Browsing beschränkt. Der zunehmende Einsatz von sozialen Medien eröffnet nunmehr die Möglichkeit, den frei zugänglichen Benutzer-erzeugten Inhalt zur Erforschung des Benutzerverhaltens näher zu analysieren. In den letzen Jahren haben sich viele Forscher tatsächlich auf Daten, die von Benutzer beigetragen werden, konzentriert. Jedoch haben nur sehr wenige von ihnen die Trajektorien in anderen Kontexten als den räumlich-zeitlichen untersucht. Die Studie, die in dieser Diplomarbeit präsentiert wird, erkundet die Möglichkeit der Bestimmung von trajektoriellen Mustern in den Kontexten von Flickr-Benutzergruppen (nach Weltregionen) und Saisonen (Sommer versus Winter). Die Untersuchung von trajektoriellen Mustern in diesem Zusammenhang ist neuartig. Um dieses Ziel zu erreichen, wurden die drei größten Gruppen von Flickr-Benutzern ausgewählt, die Stadt Wien im Zeitraum von ungefähr 5 Jahren (2007-2011) besucht haben. Anschließend wurden die zehn meist besuchten Sehenswürdigkeiten für jede Gruppe in jeder Saison bestimmt. Schließlich wurden die trajektoriellen Muster von jeder Gruppe, die diese meistfrequentierten Sehenswürdigkeiten besucht haben, in jeder Saison analysiert. Durch die Verwendung der beiden Kontexte Benutzergruppen und Saisonen konnten interessante Unterschiede herausgefunden werden, obwohl im Allgemeinen die trajektoriellen Muster jeder Gruppe ähnlich waren.
The determination of utmost accurate GNSS reference site velocities in the Asia-Pacific region
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Heutige Genauigkeitsansprüche verlangen nach einer Verdichtung und Homogenisierung der bestehenden geodätischen Rahmenbedingungen in einigen Teilen der Welt, um das technologische Potential moderner Positionierungsverfahren größtmöglichst auszuschöpfen. Diese Aufgabe kann durch die Schaffung bzw. Ausweitung permanenter GNSS Referenzstationen erfüllt werden, durch die laufend hoch genaue Stationskoordinaten in einem globalen und internationalen terrestrischen Referenzrahmen bestimmt werden können. Das APREF Projekt unter der Leitung von Dr. John Dawson von Geoscience Australia verfolgt dieses Ziel indem es Rohdaten von mehr als 400 solcher Stationen unterschiedlicher Nationen vereint, daraus ein regionales Netzwerk im Asien-Pazifik-Raum errichtet und durch eine entsprechende Prozessierung finale Produkte in einer regelmäßigen und frei zugänglichen Form zur Verfügung stellt.
Diese Arbeit verwendet den Rohdatensatz eines APREF Teilnetzwerkes von 97 Referenzstationen in der Region um Australien, Neukaledonien und Neuseeland und integriert diesen in eine eigens gewählte Prozessierungs-Strategie, um dadurch präzise Stationskoordinaten und
-geschwindigkeiten zu bestimmen. Durch die gewonnenen Ergebnisse sollen die erreichbaren Genauigkeiten untersucht und mit bestehenden Lösungen verglichen werden. Ein Schwerpunkt liegt in der Betrachtung unterschiedlicher Ansätze für die Realisierung des geodätischen Datums, wobei sich herausstellt, dass eine sogenannte Minimum Constraint Solution mit einer no-net-translation und no-net-rotation Bedingung die besten Resultate erzielt. Hinsichtlich dieser Festlegungen zeigt sich, dass die Vermeidung von Translationen einen größeren Einfluss auf die erfolgreiche Anbindung an einen globalen Referenzrahmen hat als die in geringem Maße auftretenden Rotationen des Netzwerks. Daher stellt die sorgfältige Auswahl von genauen a priori Koordinaten von datumsdefinierenden Stationen einen wichtigen Aspekt dar, da das gesamte Netzwerk an diese Koordinaten angeglichen wird. Ausgehend von einer prozessierten Zeitspanne von drei Jahren, beginnend mit Oktober 2009 bis September 2012, werden in der vorliegenden Arbeit mittlere Standardabweichungen der Stationsgeschwindigkeiten von etwa 1 mm/yr für das gesamte Netzwerk und mittlere Geschwindigkeitsdifferenzen von 2 - 3 mm/yr verglichen mit den bestehenden Daten von 17 Stationen aus dem IGS08/ITRF2008 Referenzrahmen erzielt. Während alle Beobachtungen des australischen Festlandes eine einheitliche Bewegung in Bezug auf Größe und Azimut der Geschwindigkeitsvektoren zeigen, spiegeln die variierenden Ergebnisse in Neuseeland die komplexere geophysikalische Aktivität an der vorherrschenden Grenze zwischen australischer und pazifischer Platte wider.
Im Gegensatz zu den Geschwindigkeitsabschätzungen zeigen die resultierenden Stationskoordinaten eine etwas geringere Genauigkeit, die sich durch Positionsdifferenzen von bis zu 5 mm gegenüber der wöchentlichen IGS Lösungen darstellen. Diese Unsicherheiten können durch die geometrische Begrenzung meines regionalen Netzwerkes erklärt werden, während das zu Vergleichszwecken herangezogene IGS Netzwerk eine global verteilte Anzahl von mehr als 250 IGS Stationen repräsentiert und dadurch zu einer stabileren Lösung führt. Aus diesem Grund würde eine globale Ausweitung des Netzwerkes und eine größere Menge an datumsdefinierenden IGS Stationen mit hoher Wahrscheinlichkeit eine weitere Verbesserung der Bestimmung von Stationskoordinaten und
-geschwindigkeiten mit sich bringen. Natürlich geht die Dauer der untersuchten Zeitspanne stark in die Geschwindigkeitsberechnung mit ein, wobei eine längere Beobachtungsperiode eine zuverlässigere Abschätzung von Geschwindigkeiten zur Folge hat. Auftretende, signifikante Koordinatensprünge, die beispielsweise durch geophysikalische Ereignisse wie Erdbeben entstehen, müssen in der Berechnung entsprechend berücksichtigt werden.
Demnach zeichnet sich ab, dass ein regionales Netzwerk, das für eine ausreichend lange Zeitspanne von mehreren Jahren ausgewertet wurde und möglichst viele datumsdefinierende Referenzstationen mit verlässlichen a priori Koordinaten enthält, mittlere Genauigkeiten von wenigen mm/yr der Stationsgeschwindigkeiten erreichen und somit den geodätische Referenzrahmen teilnehmender Nationen erheblich verbessern kann.
Heutige Genauigkeitsansprüche verlangen nach einer Verdichtung und Homogenisierung der bestehenden geodätischen Rahmenbedingungen in einigen Teilen der Welt, um das technologische Potential moderner Positionierungsverfahren größtmöglichst auszuschöpfen. Diese Aufgabe kann durch die Schaffung bzw. Ausweitung permanenter GNSS Referenzstationen erfüllt werden, durch die laufend hoch genaue Stationskoordinaten in einem globalen und internationalen terrestrischen Referenzrahmen bestimmt werden können. Das APREF Projekt unter der Leitung von Dr. John Dawson von Geoscience Australia verfolgt dieses Ziel indem es Rohdaten von mehr als 400 solcher Stationen unterschiedlicher Nationen vereint, daraus ein regionales Netzwerk im Asien-Pazifik-Raum errichtet und durch eine entsprechende Prozessierung finale Produkte in einer regelmäßigen und frei zugänglichen Form zur Verfügung stellt.
Diese Arbeit verwendet den Rohdatensatz eines APREF Teilnetzwerkes von 97 Referenzstationen in der Region um Australien, Neukaledonien und Neuseeland und integriert diesen in eine eigens gewählte Prozessierungs-Strategie, um dadurch präzise Stationskoordinaten und
-geschwindigkeiten zu bestimmen. Durch die gewonnenen Ergebnisse sollen die erreichbaren Genauigkeiten untersucht und mit bestehenden Lösungen verglichen werden. Ein Schwerpunkt liegt in der Betrachtung unterschiedlicher Ansätze für die Realisierung des geodätischen Datums, wobei sich herausstellt, dass eine sogenannte Minimum Constraint Solution mit einer no-net-translation und no-net-rotation Bedingung die besten Resultate erzielt. Hinsichtlich dieser Festlegungen zeigt sich, dass die Vermeidung von Translationen einen größeren Einfluss auf die erfolgreiche Anbindung an einen globalen Referenzrahmen hat als die in geringem Maße auftretenden Rotationen des Netzwerks. Daher stellt die sorgfältige Auswahl von genauen a priori Koordinaten von datumsdefinierenden Stationen einen wichtigen Aspekt dar, da das gesamte Netzwerk an diese Koordinaten angeglichen wird. Ausgehend von einer prozessierten Zeitspanne von drei Jahren, beginnend mit Oktober 2009 bis September 2012, werden in der vorliegenden Arbeit mittlere Standardabweichungen der Stationsgeschwindigkeiten von etwa 1 mm/yr für das gesamte Netzwerk und mittlere Geschwindigkeitsdifferenzen von 2 - 3 mm/yr verglichen mit den bestehenden Daten von 17 Stationen aus dem IGS08/ITRF2008 Referenzrahmen erzielt. Während alle Beobachtungen des australischen Festlandes eine einheitliche Bewegung in Bezug auf Größe und Azimut der Geschwindigkeitsvektoren zeigen, spiegeln die variierenden Ergebnisse in Neuseeland die komplexere geophysikalische Aktivität an der vorherrschenden Grenze zwischen australischer und pazifischer Platte wider.
Im Gegensatz zu den Geschwindigkeitsabschätzungen zeigen die resultierenden Stationskoordinaten eine etwas geringere Genauigkeit, die sich durch Positionsdifferenzen von bis zu 5 mm gegenüber der wöchentlichen IGS Lösungen darstellen. Diese Unsicherheiten können durch die geometrische Begrenzung meines regionalen Netzwerkes erklärt werden, während das zu Vergleichszwecken herangezogene IGS Netzwerk eine global verteilte Anzahl von mehr als 250 IGS Stationen repräsentiert und dadurch zu einer stabileren Lösung führt. Aus diesem Grund würde eine globale Ausweitung des Netzwerkes und eine größere Menge an datumsdefinierenden IGS Stationen mit hoher Wahrscheinlichkeit eine weitere Verbesserung der Bestimmung von Stationskoordinaten und
-geschwindigkeiten mit sich bringen. Natürlich geht die Dauer der untersuchten Zeitspanne stark in die Geschwindigkeitsberechnung mit ein, wobei eine längere Beobachtungsperiode eine zuverlässigere Abschätzung von Geschwindigkeiten zur Folge hat. Auftretende, signifikante Koordinatensprünge, die beispielsweise durch geophysikalische Ereignisse wie Erdbeben entstehen, müssen in der Berechnung entsprechend berücksichtigt werden.
Demnach zeichnet sich ab, dass ein regionales Netzwerk, das für eine ausreichend lange Zeitspanne von mehreren Jahren ausgewertet wurde und möglichst viele datumsdefinierende Referenzstationen mit verlässlichen a priori Koordinaten enthält, mittlere Genauigkeiten von wenigen mm/yr der Stationsgeschwindigkeiten erreichen und somit den geodätische Referenzrahmen teilnehmender Nationen erheblich verbessern kann.
Hybrid Raster Analysis workflows based on Spatial Database Technology for Forestry Applications
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Numerous environmental research questions deal with the representation of continuous data. The raster data model has proven to be highly suitable for efficient representation of thematic data such as vegetation, temperature, precipitation and elevation. The raster data model also offers functionalities for implementing spatial analysis operations for analysing continuous data. Research has also shown that spatial databases management systems (SDBMS) are increasingly supporting spatial data, thus providing functionalities for storage, access, update and analysis of spatial data. Availability of spatial functionalities in DBMS' raises questions like: can hybrid spatial analysis workflows be completely implemented within a spatial database? Where Hybrid analysis means integrated computing of raster and vector data. Are spatial databases able to seamlessly handle raster and vector data despite structural differences? Can raster map algebra operations like local, focal, zonal and global operations be implemented using SQL as implemented in GIS applications?
This research focuses on implementing integrated and seamless raster and vector analysis using spatial database technologies. In this study, workflows that describe the processes to follow when performing hybrid analysis in spatial databases are developed. This concept is implemented through a prototype for a forestry analysis workflow. This methodology can be applied to a vast number of environmental analyses to answer research questions.
Using PostGIS raster and geometry data type and PostGIS spatial analysis functions, it was possible to implement hybrid analysis functions. The results indicate that Map algebra and raster analysis functions can be implemented as SQL. The results from raster analysis in PostGIS and ArcMap are not significantly different. The hybrid workflow was successfully developed as prototype, which was able to validate the forestry data. Presenting raster based result from PostGIS was a challenge because PostGIS does not have a visualization component, however tabular and vector results were easier to visualize using the open source tool OpenJump.
Numerous environmental research questions deal with the representation of continuous data. The raster data model has proven to be highly suitable for efficient representation of thematic data such as vegetation, temperature, precipitation and elevation. The raster data model also offers functionalities for implementing spatial analysis operations for analysing continuous data. Research has also shown that spatial databases management systems (SDBMS) are increasingly supporting spatial data, thus providing functionalities for storage, access, update and analysis of spatial data. Availability of spatial functionalities in DBMS' raises questions like: can hybrid spatial analysis workflows be completely implemented within a spatial database? Where Hybrid analysis means integrated computing of raster and vector data. Are spatial databases able to seamlessly handle raster and vector data despite structural differences? Can raster map algebra operations like local, focal, zonal and global operations be implemented using SQL as implemented in GIS applications?
This research focuses on implementing integrated and seamless raster and vector analysis using spatial database technologies. In this study, workflows that describe the processes to follow when performing hybrid analysis in spatial databases are developed. This concept is implemented through a prototype for a forestry analysis workflow. This methodology can be applied to a vast number of environmental analyses to answer research questions.
Using PostGIS raster and geometry data type and PostGIS spatial analysis functions, it was possible to implement hybrid analysis functions. The results indicate that Map algebra and raster analysis functions can be implemented as SQL. The results from raster analysis in PostGIS and ArcMap are not significantly different. The hybrid workflow was successfully developed as prototype, which was able to validate the forestry data. Presenting raster based result from PostGIS was a challenge because PostGIS does not have a visualization component, however tabular and vector results were easier to visualize using the open source tool OpenJump.
The Influence of the School and Home Environment on Children's Body Weight: a Spatial Analysis
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Erich Hartlieb, Dr. Melanie Tomintz
Betreuer: FH-Prof. Dr. Erich Hartlieb, Dr. Melanie Tomintz
Kurzfassung/Abstract
The main focus in this research is to explore the spatial influence of a school child's environment at home and school and if this possibly affects the body weight.
It was found out that the higher amounts of overweight children are in schools with the focus on computer science (Völkendorf). Less overweight children are in schools with focus on sports (Lind). Around schools there are within 500m approximately 2 -3 fast food outlets and within 1000m the number triples. The higher the density of fast food outlets, the higher is the density of the BMI in the upper level focusing on homes. This means school children living within a 400m buffer around fast food outlets are more likely to become overweight compared to school children living outside the area within this 400m buffer around fast food outlets. Around the way to school/home 231 fast food outlets within 50m around streets in the inner city of Villach are located focusing on the way to/from school within a distance of 1000m the amount of fast food outlets is between 1 and 15. The answers from the questionnaire resulted that 28% of the children buy fast food after school and that 10% eat fast food for lunch.
The results showed statistically significant associations between living in the surrounding of fast food outlets and a BMI in the upper level. Living further away counts no more significant association between fast food outlets and a BMI in the upper level. But this should be seen critically, because nowadays children with 15 make the driving license for the moped. This means they are allowed to drive around, although to any fast food outlets at any time. Children who are younger than 15 go by bus or go by bike to reach the next fast food outlet for eating something and for meeting friends. So it cannot be said that children living in the area 400m around fast food outlets join them more often than children living outside this 400m. Another critical point is the name fast food outlet. The reason for this is that fast food outlets like McDonalds also sell healthy foods like salads or vegetables. The decision if you eat fast food or not is not the decision of McDonalds, it's your decision. So not McDonalds is the problem, our eating habits are the problem.
The main focus in this research is to explore the spatial influence of a school child's environment at home and school and if this possibly affects the body weight.
It was found out that the higher amounts of overweight children are in schools with the focus on computer science (Völkendorf). Less overweight children are in schools with focus on sports (Lind). Around schools there are within 500m approximately 2 -3 fast food outlets and within 1000m the number triples. The higher the density of fast food outlets, the higher is the density of the BMI in the upper level focusing on homes. This means school children living within a 400m buffer around fast food outlets are more likely to become overweight compared to school children living outside the area within this 400m buffer around fast food outlets. Around the way to school/home 231 fast food outlets within 50m around streets in the inner city of Villach are located focusing on the way to/from school within a distance of 1000m the amount of fast food outlets is between 1 and 15. The answers from the questionnaire resulted that 28% of the children buy fast food after school and that 10% eat fast food for lunch.
The results showed statistically significant associations between living in the surrounding of fast food outlets and a BMI in the upper level. Living further away counts no more significant association between fast food outlets and a BMI in the upper level. But this should be seen critically, because nowadays children with 15 make the driving license for the moped. This means they are allowed to drive around, although to any fast food outlets at any time. Children who are younger than 15 go by bus or go by bike to reach the next fast food outlet for eating something and for meeting friends. So it cannot be said that children living in the area 400m around fast food outlets join them more often than children living outside this 400m. Another critical point is the name fast food outlet. The reason for this is that fast food outlets like McDonalds also sell healthy foods like salads or vegetables. The decision if you eat fast food or not is not the decision of McDonalds, it's your decision. So not McDonalds is the problem, our eating habits are the problem.
Development of a Framework for the International Implementation of Hazus-MH Earthquake Model
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Erich Hartlieb, FH-Prof. Dr. Gernot Paulus
Betreuer: FH-Prof. Dr. Erich Hartlieb, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
The main motivation of the study is identifying the extents of the US based Hazus-MH Earthquake Model and proving the functionality of the model tools, in the local level, in European context. After that providing a conceptual framework model for further development of this concept to a regional level with the identification of the model requirements and limitation is also a leading interest of this thesis. Another motivation is to continue the collaboration between Geoinformation School of CUAS and The Polis Center of Indiana University Purdue University, USA, sharing the collaborative knowledge for coordinated loss estimation and mitigation activities extending the studies of disaster management and mitigation in both institutes.
Hazus-MH represents an extensive framework for analyzing hazard related risks and potential losses. Hazus-MH is developed by Federal Emergency Management Agency (FEMA) of the U.S. Government and has a standardized methodology that contains models for estimating potential losses from earthquakes, floods, and hurricanes. Hazus-MH uses GIS technology based on the ArcGIS software of ESRI to estimate physical, economic, and social impacts of disasters. It is predominantly and extensively used in the U.S. for Hazard/Risk Management and Disaster Planning/Mitigation.
The primary audience of this thesis project will be international disaster risk assessment experts who are searching for efficient and cost-effective solutions for disaster risk mitigation and management. For the emergency managers this research should increase the awareness and motivation to study the Hazus-MH methodology and use it in an international basis with the developed framework.
This Master`s Thesis study provides a state of the art overview about international best practice application of the Hazus-MH Earthquake Model. A conceptual analysis model and a prototype for the Hazus-MH Earthquake Model are implemented. This implementation is tested and evaluated in a seismically active hazard region in Austria. The results derived from the local proof of concept discussed for the goal of extending to a regional conceptual framework and further development requirements and suggestions are provided for the future works.
The main motivation of the study is identifying the extents of the US based Hazus-MH Earthquake Model and proving the functionality of the model tools, in the local level, in European context. After that providing a conceptual framework model for further development of this concept to a regional level with the identification of the model requirements and limitation is also a leading interest of this thesis. Another motivation is to continue the collaboration between Geoinformation School of CUAS and The Polis Center of Indiana University Purdue University, USA, sharing the collaborative knowledge for coordinated loss estimation and mitigation activities extending the studies of disaster management and mitigation in both institutes.
Hazus-MH represents an extensive framework for analyzing hazard related risks and potential losses. Hazus-MH is developed by Federal Emergency Management Agency (FEMA) of the U.S. Government and has a standardized methodology that contains models for estimating potential losses from earthquakes, floods, and hurricanes. Hazus-MH uses GIS technology based on the ArcGIS software of ESRI to estimate physical, economic, and social impacts of disasters. It is predominantly and extensively used in the U.S. for Hazard/Risk Management and Disaster Planning/Mitigation.
The primary audience of this thesis project will be international disaster risk assessment experts who are searching for efficient and cost-effective solutions for disaster risk mitigation and management. For the emergency managers this research should increase the awareness and motivation to study the Hazus-MH methodology and use it in an international basis with the developed framework.
This Master`s Thesis study provides a state of the art overview about international best practice application of the Hazus-MH Earthquake Model. A conceptual analysis model and a prototype for the Hazus-MH Earthquake Model are implemented. This implementation is tested and evaluated in a seismically active hazard region in Austria. The results derived from the local proof of concept discussed for the goal of extending to a regional conceptual framework and further development requirements and suggestions are provided for the future works.
Evaluating the suitability of Web 2.0 technologies for online atlas access interfaces
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Seit der Entstehung von online Atlanten haben sich die Web-Technologien stark weiterentwickelt. Einer der größten Fortschritte war der Übergang zu Web 2.0, das Benutzer zu interaktiven Teilnehmern macht. Die Mehrheit der heutigen online Atlanten machen sich die Möglichkeiten, die durch Web 2.0-Technologien entstehen und Benutzern eine aktive Teilnahme ermöglichen könnten, noch nicht zunutze. Einige dieser Funktionen, die auch für online Atlanten adaptiert werden könnten, sind Empfehlungen, Kommentare von Benutzern, Tag Clouds, Blogs sowie RSS feeds. Bevor diese Funktionen jedoch implementiert werden können, ist es von großer Wichtigkeit, deren mögliche Wirkung auf potentielle Benutzer sowie deren generelle Adaptabilität für online Atlanten zu eruieren.
In dieser Masterarbeit wird die Eignung dieser Funktionen für online Atlanten, mit besonderer Berücksichtigung von Empfehlungen und Kommentaren, untersucht. Zu diesem Zwecke wird ein Usability-Test durchgeführt, bei dem 30 Testpersonen teilnehmen. Ein Prototyp einer Website wird entwickelt, der einen online Atlas von Österreich simuliert. Einige der Interfaces beinhalten Web 2.0-Funktionen, die unterschiedlich positioniert werden, um so die Reaktion der Testpersonen auf diese Positionsveränderungen eruieren zu können. Zudem werden die Testpersonen gebeten, einen Fragebogen auszufüllen, um deren Einschätzung bezüglich der neuen Möglichkeiten, die sich durch Web 2.0 bieten, für online Atlanten festhalten zu können.
Seit der Entstehung von online Atlanten haben sich die Web-Technologien stark weiterentwickelt. Einer der größten Fortschritte war der Übergang zu Web 2.0, das Benutzer zu interaktiven Teilnehmern macht. Die Mehrheit der heutigen online Atlanten machen sich die Möglichkeiten, die durch Web 2.0-Technologien entstehen und Benutzern eine aktive Teilnahme ermöglichen könnten, noch nicht zunutze. Einige dieser Funktionen, die auch für online Atlanten adaptiert werden könnten, sind Empfehlungen, Kommentare von Benutzern, Tag Clouds, Blogs sowie RSS feeds. Bevor diese Funktionen jedoch implementiert werden können, ist es von großer Wichtigkeit, deren mögliche Wirkung auf potentielle Benutzer sowie deren generelle Adaptabilität für online Atlanten zu eruieren.
In dieser Masterarbeit wird die Eignung dieser Funktionen für online Atlanten, mit besonderer Berücksichtigung von Empfehlungen und Kommentaren, untersucht. Zu diesem Zwecke wird ein Usability-Test durchgeführt, bei dem 30 Testpersonen teilnehmen. Ein Prototyp einer Website wird entwickelt, der einen online Atlas von Österreich simuliert. Einige der Interfaces beinhalten Web 2.0-Funktionen, die unterschiedlich positioniert werden, um so die Reaktion der Testpersonen auf diese Positionsveränderungen eruieren zu können. Zudem werden die Testpersonen gebeten, einen Fragebogen auszufüllen, um deren Einschätzung bezüglich der neuen Möglichkeiten, die sich durch Web 2.0 bieten, für online Atlanten festhalten zu können.
Selektion von Schienen und Lärmschutzwänden mittels eines sequenziellen, halbautomatischen Ansatzes, aus einer hochauflösenden Laserscan-Punktwolke
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2013
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Die Masterarbeit beschäftigt sich mit der Detektion von Schienen und Lärmschutzwänden in einer Laserscann-Punktwolke. Zu Beginn dieser Arbeit wird ein kurzer Überblick über bisher entwickelte Verfahren zur Extraktion von Objekten in LiDAR-Daten gegeben. Darauf aufbauend wird ein sequenzieller halbautomatischer Ansatz für die Lösung der Problemstellung entwickelt und vorgestellt. Dabei werden drei unterschiedliche Grundideen verfolgt und Prototypen generiert, die auf bekannten Bildverarbeitungsverfahren basieren. Es kommen dabei Methoden der Segmentierung auf der Basis des Region Growing - Ansatzes, der Kantendetektion und der Klassifizierung zum Einsatz. Zur Unterstützung der Algorithmenentwicklung werden in der ersten Phase der Arbeit Testdaten generiert, wobei ihr Aussehen die häufigsten Formen der Objekte abdecken sollen. Im Anschluss an die Entwicklungsphase werden die vom Vermessungsbüro DI Wolfgang Höppl erhaltenen Daten für die Anwendung der Algorithmen aufbereitet und mit Hilfe der entwickelten Methoden ausgewertet. Der Vergleich der drei Ansätze erfolgt anhand der Test- und Originaldaten. Die Ergebnisse der Originaldaten werden mit terrestrischen Vermessungen verglichen. In beiden Fällen ist es möglich, Qualitätskriterien abzuleiten, um verlässliche Aussagen über die Genauigkeit der entwickelten Methoden treffen zu können.
Die Masterarbeit beschäftigt sich mit der Detektion von Schienen und Lärmschutzwänden in einer Laserscann-Punktwolke. Zu Beginn dieser Arbeit wird ein kurzer Überblick über bisher entwickelte Verfahren zur Extraktion von Objekten in LiDAR-Daten gegeben. Darauf aufbauend wird ein sequenzieller halbautomatischer Ansatz für die Lösung der Problemstellung entwickelt und vorgestellt. Dabei werden drei unterschiedliche Grundideen verfolgt und Prototypen generiert, die auf bekannten Bildverarbeitungsverfahren basieren. Es kommen dabei Methoden der Segmentierung auf der Basis des Region Growing - Ansatzes, der Kantendetektion und der Klassifizierung zum Einsatz. Zur Unterstützung der Algorithmenentwicklung werden in der ersten Phase der Arbeit Testdaten generiert, wobei ihr Aussehen die häufigsten Formen der Objekte abdecken sollen. Im Anschluss an die Entwicklungsphase werden die vom Vermessungsbüro DI Wolfgang Höppl erhaltenen Daten für die Anwendung der Algorithmen aufbereitet und mit Hilfe der entwickelten Methoden ausgewertet. Der Vergleich der drei Ansätze erfolgt anhand der Test- und Originaldaten. Die Ergebnisse der Originaldaten werden mit terrestrischen Vermessungen verglichen. In beiden Fällen ist es möglich, Qualitätskriterien abzuleiten, um verlässliche Aussagen über die Genauigkeit der entwickelten Methoden treffen zu können.
Abbildung der digitalen Katastralmappe in einem GI
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2013
Betreuer: Ass.-Prof. Dipl.-Ing. Dr. Konrad Rautz
Betreuer: Ass.-Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
Das Bundesamt für Eich- und Vermessungswesen (BEV) ist für die Führung des Grenzkatasters verantwortlich, welcher zur räumlichen Zuordnung von Eigentumsrechten an Grundstücken dient. Durch die digitale Katastralmappe (DKM) wird die Lage der Grundstücke in Österreich veranschaulicht. Die DKM ist somit der graphische Datenbestand des Katasters. Um nun diesen Datenbestand, im Zuge der beim BEV anfallenden Aufgaben, bearbeiten zu können, werden zwei verschiedene Softwaresysteme verwendet. Zum einen wird ein Computer-Aided Design System (CAD) eingesetzt und zum anderen wird ein Geoinformationssystem (GIS) eingesetzt. Das Bundesamt für Eich- und Vermessungswesen besitzt jeweils Lizenzen der Softwareprodukte AutoCAD von Autodesk und ArcInfo der Firma ESRI. Im Zuge von geodätischen Messarbeiten der Vermessungsbehörden und der Vermessungsbefugten kommt es möglicherweise zu Veränderungen im Kataster und damit zu Datenänderungen in der digitalen Katastralmappe. Hierbei seien die Grundstücksteilung, die Grundstücksvereinigung und die Mappenberichtigung als Beispiele genannt. Anhand mehrerer Fallbeispiele dieser Katasterverfahren, erfolgt in dieser Arbeit eine Untersuchung der Editierbarkeit der Daten aus der DKM mittels beider Softwareprodukte. In erster Linie erfolgt eine Abwicklung der Durchführungsschritte mit den Standardfunktionen von ArcInfo und AutoCAD. In einer weiteren Untersuchung, wird nach einer Möglichkeit zu einem automatisierten Ablauf der Durchführungsschritte gesucht. Schließlich erfolgt ein Vergleich zwischen dem GIS und dem CAD-System und es wird eine Aussage darüber getroffen ob die beiden Softwareprodukte mit Ihren Standardfunktionen ein anwendergerechtes Editieren der DKM-Daten gewährleisten.
Das Bundesamt für Eich- und Vermessungswesen (BEV) ist für die Führung des Grenzkatasters verantwortlich, welcher zur räumlichen Zuordnung von Eigentumsrechten an Grundstücken dient. Durch die digitale Katastralmappe (DKM) wird die Lage der Grundstücke in Österreich veranschaulicht. Die DKM ist somit der graphische Datenbestand des Katasters. Um nun diesen Datenbestand, im Zuge der beim BEV anfallenden Aufgaben, bearbeiten zu können, werden zwei verschiedene Softwaresysteme verwendet. Zum einen wird ein Computer-Aided Design System (CAD) eingesetzt und zum anderen wird ein Geoinformationssystem (GIS) eingesetzt. Das Bundesamt für Eich- und Vermessungswesen besitzt jeweils Lizenzen der Softwareprodukte AutoCAD von Autodesk und ArcInfo der Firma ESRI. Im Zuge von geodätischen Messarbeiten der Vermessungsbehörden und der Vermessungsbefugten kommt es möglicherweise zu Veränderungen im Kataster und damit zu Datenänderungen in der digitalen Katastralmappe. Hierbei seien die Grundstücksteilung, die Grundstücksvereinigung und die Mappenberichtigung als Beispiele genannt. Anhand mehrerer Fallbeispiele dieser Katasterverfahren, erfolgt in dieser Arbeit eine Untersuchung der Editierbarkeit der Daten aus der DKM mittels beider Softwareprodukte. In erster Linie erfolgt eine Abwicklung der Durchführungsschritte mit den Standardfunktionen von ArcInfo und AutoCAD. In einer weiteren Untersuchung, wird nach einer Möglichkeit zu einem automatisierten Ablauf der Durchführungsschritte gesucht. Schließlich erfolgt ein Vergleich zwischen dem GIS und dem CAD-System und es wird eine Aussage darüber getroffen ob die beiden Softwareprodukte mit Ihren Standardfunktionen ein anwendergerechtes Editieren der DKM-Daten gewährleisten.
Web-based Implementation of the thematic map "21st Century Conflicts in Europe"
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2013
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
Web-based Implementation of the thematic map "21st Century Conflicts in Europe" is an extension of the previous project which was executed in Vilnius University, Cartography center in 2010 summer semester by the second semester cartography master students. In this project the map has been designed as a printed wall map.
The modern web mapping tools offer superior visualization and analysis possibilities to static maps. A tool which can lead to a better understanding of the conflicts may be valuable. Possibility to query conflicts from different perspectives leads to wider analysis opportunities.
The final output of the project is the web map application "The Map of 21st Century Conflicts in Europe". The map delivers the interactivity that the modern web cartography can offer, such as navigation, filtering, and providing information in popups.
Web-based Implementation of the thematic map "21st Century Conflicts in Europe" is an extension of the previous project which was executed in Vilnius University, Cartography center in 2010 summer semester by the second semester cartography master students. In this project the map has been designed as a printed wall map.
The modern web mapping tools offer superior visualization and analysis possibilities to static maps. A tool which can lead to a better understanding of the conflicts may be valuable. Possibility to query conflicts from different perspectives leads to wider analysis opportunities.
The final output of the project is the web map application "The Map of 21st Century Conflicts in Europe". The map delivers the interactivity that the modern web cartography can offer, such as navigation, filtering, and providing information in popups.
Deformationsmessung am Rutschhang Blaubachgraben bei Krimml mit dem Laserscanner Riegl LMS-Z620
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2013
Betreuer: Ao.Univ.-Prof. Dr. Viktor Kaufmann
Betreuer: Ao.Univ.-Prof. Dr. Viktor Kaufmann
Kurzfassung/Abstract
In dieser Masterarbeit wird die Erstellung von Höhenänderungskarten auf Basis der Ergebnisse multitemporaler Laserscanning-Messungen an der Massenbewegung im Talschluss des Blaubachgrabens im Bereich der Schönmoos-Hochalm beschrieben. Nach Erläuterung der verwendeten Techniken und Prozesse wird auf Basis von Orthofotokarten mit farblich dargestellter Höhenänderung die Bewegung des Hanges analysiert.
In dieser Masterarbeit wird die Erstellung von Höhenänderungskarten auf Basis der Ergebnisse multitemporaler Laserscanning-Messungen an der Massenbewegung im Talschluss des Blaubachgrabens im Bereich der Schönmoos-Hochalm beschrieben. Nach Erläuterung der verwendeten Techniken und Prozesse wird auf Basis von Orthofotokarten mit farblich dargestellter Höhenänderung die Bewegung des Hanges analysiert.
Kurzzeitstatische GNSS-Positionierung mit sub-cm-Genauigkeit
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
In vielen Anwendungsgebieten ist in Nahe-Echtzeit eine GNSS-Positionierung mit subcm-Genauigkeit erforderlich. Mit dem RTK-Verfahren kann heutzutage jedoch nur eine Lagegenauigkeit von 2 cm und eine Höhengenauigkeit von 3 bis 4 cm erreicht werden. Ziel dieser Arbeit ist die Bestimmung des Genauigkeitspotenzials kurzzeitstatischer GNSS-Beobachtungen mit Hilfe virtueller Referenzstationen. Dabei werden Beobachtungszeitspannen von wenigen Minuten untersucht.
Ein mögliches Anwendungsgebiet ist die Bestimmung der Gleislage bei der ÖBB, welche für nachfolgende Gleisreparaturvorgänge wichtig ist. Die absolute Position in Bezug zu einem globalen (zum Beispiel ITRF) oder nationalen (zum Beispiel MGI) Koordinatenrahmen muss dabei auf besser als 1 cm genau eingemessen werden. Um diese Genauigkeit erreichen zu können, stehen während dem Gleismessvorgang für die statische GNSS-Positionierung jedoch nur Beobachtungszeitspannen von 3 bis maximal 5 Minuten zur Verfügung.
Die vorliegende Arbeit wurde von der ÖBB-Infrastruktur AG (Stab Forschung & Entwicklung) angeregt und in Zusammenarbeit mit dieser durchgeführt. Die Untersuchungen basieren auf der Analyse von am Messdach der TU-Wien und auf einem Gleismesswagen der ÖBB aufgenommenen GNSS-Beobachtungen. Über virtuelle Referenzstationen konnten Basislinien mit einer maximalen Länge von 2 km berechnet und daraus die Rover-Position in Beobachtungszeitspannen von 30 Sekunden bis 15 Minuten bestimmt werden. Bei den durchgeführten Messungen konnte ab Beobachtungszeitspannen von 3 bis 5 Minuten unter optimalen Bedingungen eine Lagegenauigkeit von 3 bis 5 mm und eine Höhengenauigkeit von 6 bis 8 mm erreicht werden. Bei stärkerer Abschattung und Multipath-Einflüssen ist eine Genauigkeit in der Lage von knapp besser als 1 cm und in der Höhe von ca. 1,5 cm erzielbar.
In vielen Anwendungsgebieten ist in Nahe-Echtzeit eine GNSS-Positionierung mit subcm-Genauigkeit erforderlich. Mit dem RTK-Verfahren kann heutzutage jedoch nur eine Lagegenauigkeit von 2 cm und eine Höhengenauigkeit von 3 bis 4 cm erreicht werden. Ziel dieser Arbeit ist die Bestimmung des Genauigkeitspotenzials kurzzeitstatischer GNSS-Beobachtungen mit Hilfe virtueller Referenzstationen. Dabei werden Beobachtungszeitspannen von wenigen Minuten untersucht.
Ein mögliches Anwendungsgebiet ist die Bestimmung der Gleislage bei der ÖBB, welche für nachfolgende Gleisreparaturvorgänge wichtig ist. Die absolute Position in Bezug zu einem globalen (zum Beispiel ITRF) oder nationalen (zum Beispiel MGI) Koordinatenrahmen muss dabei auf besser als 1 cm genau eingemessen werden. Um diese Genauigkeit erreichen zu können, stehen während dem Gleismessvorgang für die statische GNSS-Positionierung jedoch nur Beobachtungszeitspannen von 3 bis maximal 5 Minuten zur Verfügung.
Die vorliegende Arbeit wurde von der ÖBB-Infrastruktur AG (Stab Forschung & Entwicklung) angeregt und in Zusammenarbeit mit dieser durchgeführt. Die Untersuchungen basieren auf der Analyse von am Messdach der TU-Wien und auf einem Gleismesswagen der ÖBB aufgenommenen GNSS-Beobachtungen. Über virtuelle Referenzstationen konnten Basislinien mit einer maximalen Länge von 2 km berechnet und daraus die Rover-Position in Beobachtungszeitspannen von 30 Sekunden bis 15 Minuten bestimmt werden. Bei den durchgeführten Messungen konnte ab Beobachtungszeitspannen von 3 bis 5 Minuten unter optimalen Bedingungen eine Lagegenauigkeit von 3 bis 5 mm und eine Höhengenauigkeit von 6 bis 8 mm erreicht werden. Bei stärkerer Abschattung und Multipath-Einflüssen ist eine Genauigkeit in der Lage von knapp besser als 1 cm und in der Höhe von ca. 1,5 cm erzielbar.
Geomarketing Fallbeispiel Südsteirische Weinstraße - Darstellung einer Buschenschank Neugründung mittels Werkzeuge des Geomarketings und Stärkung der Webpräsenz mithilfe einer WebGIS - Applikation
Institut für Geoinformation, Technische Universität Graz, 2013
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Diese Masterarbeit beschäftigt sich mit dem Thema Geomarketing. Durch das vermehrte Aufkommen von unternehmenseigenen, raumbezogenen Daten kann Geomarketing hinsichtlich der Unternehmensstrategie für zukünftige Marktentscheidungen immer wichtiger werden. Zu Beginn dieser Masterarbeit werden allgemeine Informationen zu Geomarketing und Geoinformationssystemen, sowie die gängigsten GIS - Technologien aufgezeigt. Weiter werden die Daten dargestellt, die für das Geomarketing unter Einbezug eines Geoinformationssystems notwendig sind. Die Möglichkeiten der Verwendung von Geomarketing werden empirisch anhand einer fiktiven Buschenschank Neugründung an der südsteirischen Weinstraße aufgezeigt. Zusätzlich wird eine WebGIS - Applikation entwickelt, um den Bekanntheitsgrad der südsteirischen Weinstraße sowie deren einzelnen Buschenschänke zu steigern.
Diese Masterarbeit beschäftigt sich mit dem Thema Geomarketing. Durch das vermehrte Aufkommen von unternehmenseigenen, raumbezogenen Daten kann Geomarketing hinsichtlich der Unternehmensstrategie für zukünftige Marktentscheidungen immer wichtiger werden. Zu Beginn dieser Masterarbeit werden allgemeine Informationen zu Geomarketing und Geoinformationssystemen, sowie die gängigsten GIS - Technologien aufgezeigt. Weiter werden die Daten dargestellt, die für das Geomarketing unter Einbezug eines Geoinformationssystems notwendig sind. Die Möglichkeiten der Verwendung von Geomarketing werden empirisch anhand einer fiktiven Buschenschank Neugründung an der südsteirischen Weinstraße aufgezeigt. Zusätzlich wird eine WebGIS - Applikation entwickelt, um den Bekanntheitsgrad der südsteirischen Weinstraße sowie deren einzelnen Buschenschänke zu steigern.
Einfache Netzberechnung in Verbindung mit GIS
Institut für Goeinformation, Technische Universität Graz, 2013
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die vorliegende Arbeit befasst sich mit der Berechnung von Parametern des Stromnetzes der Energie Steiermark AG, wobei als Basisdaten die bereits vorhandenen Geodaten verwendet werden. Zu diesem Zweck wurde eine Schnitt-stelle zwischen dem Geoinformationssystem und dem Netzberechnungsprogramm entwickelt, welche einen automatisierten Berechnungsablauf ermöglicht. Neben der Schaffung von einheitlichen und fehlerbereinigten Basisdaten durch weitgehend automatisierte Methoden, bildeten der Export und die Darstellung im Netzberechnungsprogramm die Hauptteile der Arbeit. Es zeigte sich, dass durch die entwickelte Schnittstelle ein enormer Zeit- und Komfortgewinn geschaffen werden kann, unter der Voraussetzung dass die Basisdaten in ausreichender Qualität vorhanden sind.
Die vorliegende Arbeit befasst sich mit der Berechnung von Parametern des Stromnetzes der Energie Steiermark AG, wobei als Basisdaten die bereits vorhandenen Geodaten verwendet werden. Zu diesem Zweck wurde eine Schnitt-stelle zwischen dem Geoinformationssystem und dem Netzberechnungsprogramm entwickelt, welche einen automatisierten Berechnungsablauf ermöglicht. Neben der Schaffung von einheitlichen und fehlerbereinigten Basisdaten durch weitgehend automatisierte Methoden, bildeten der Export und die Darstellung im Netzberechnungsprogramm die Hauptteile der Arbeit. Es zeigte sich, dass durch die entwickelte Schnittstelle ein enormer Zeit- und Komfortgewinn geschaffen werden kann, unter der Voraussetzung dass die Basisdaten in ausreichender Qualität vorhanden sind.
Analyse raum-zeitlicher Dynamiken von Feuchtgebieten unterschiedlicher Klimazonen mit ENVISAT ASAR
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie und Fernerkundung, Technische Universität Wien, 2013
Betreuer: Priv.-Doz. Dipl.-Geogr. PhD Annett Bartsch
Betreuer: Priv.-Doz. Dipl.-Geogr. PhD Annett Bartsch
Kurzfassung/Abstract
Feuchtgebiete sind aufgrund ihrer zahlreichen regulierenden Eigenschaften wichtige Bestandteile unserer Umwelt. Sie sind dynamische Ökosysteme die hochsensibel auf jegliche Umweltänderungen reagieren. Die Fernerkundung stellt eine effiziente Methode dar um dynamische Prozesse der Feuchtgebiete zu beobachten und zu analysieren. Radarstrahlung hat sich aufgrund ihrer Abhängigkeit von hydrologischen Eigenschaften und der Vegetationsstruktur des Beobachtungsfeldes als geeignet für das Monitoring von Feuchtgebieten erwiesen. In dieser Masterarbeit werden daher mit Radardaten im C-Band Bereich von Envisat ASAR GM die raum-zeitlichen Dynamiken von Feuchtgebieten verschiedener Klimazonen untersucht. Hierfür werden verschiedene Feuchtgebietsarten weltweit gewählt und mithilfe von zwei verschiedenen Untersuchungsansätzen auf ihr dynamisches Verhalten analysiert.
Im ersten Ansatz wird dabei der von Wissenschaftlern der TU Wien eingeführte Scaling Layer der Untersuchungsgebiete analysiert, der die Korrelation zwischen Rückstreuzeitreihen im lokalen und regionalen Maß wiedergibt. Hierbei wird zwischen Feuchtgebieten und deren Umgebung differenziert, wobei ebenfalls der Einfluss der Korrelationsfenstergröße untersucht wird. Der zweite Untersuchungsansatz befasst sich mit der Korrelation der Feuchtgebiete mit deren Einzugsgebieten. Hierfür werden die aus einem Geländemodell abgeleiteten Einzugsgebiete in Zonen gleicher Fließlänge unterteilt und deren Rückstreuzeitserien mit den zugehörigen Feuchtgebieten korreliert. In diesem Zusammenhang wird weiters untersucht, ob es, aufgrund von zur Regenzeit versetzt eintreffenden Fluten, zu höheren Korrelationen durch einen zeitlichen Versatz kommen kann. Im Zuge der Untersuchungen dieser Arbeit werden in beiden Ansätzen Unterschiede zwischen salinen und nicht salinen Feuchtgebieten deutlich.
So zeigt sich eine starke Abhängigkeit des Scaling Layers saliner Feuchtgebiete von der Korrelationsfenstergröße, sowie negative Korrelationswerte der salinen Feuchtgebiete mit deren Einzugsgebieten, im Gegensatz zu den nicht salinen Feuchtgebieten.
Feuchtgebiete sind aufgrund ihrer zahlreichen regulierenden Eigenschaften wichtige Bestandteile unserer Umwelt. Sie sind dynamische Ökosysteme die hochsensibel auf jegliche Umweltänderungen reagieren. Die Fernerkundung stellt eine effiziente Methode dar um dynamische Prozesse der Feuchtgebiete zu beobachten und zu analysieren. Radarstrahlung hat sich aufgrund ihrer Abhängigkeit von hydrologischen Eigenschaften und der Vegetationsstruktur des Beobachtungsfeldes als geeignet für das Monitoring von Feuchtgebieten erwiesen. In dieser Masterarbeit werden daher mit Radardaten im C-Band Bereich von Envisat ASAR GM die raum-zeitlichen Dynamiken von Feuchtgebieten verschiedener Klimazonen untersucht. Hierfür werden verschiedene Feuchtgebietsarten weltweit gewählt und mithilfe von zwei verschiedenen Untersuchungsansätzen auf ihr dynamisches Verhalten analysiert.
Im ersten Ansatz wird dabei der von Wissenschaftlern der TU Wien eingeführte Scaling Layer der Untersuchungsgebiete analysiert, der die Korrelation zwischen Rückstreuzeitreihen im lokalen und regionalen Maß wiedergibt. Hierbei wird zwischen Feuchtgebieten und deren Umgebung differenziert, wobei ebenfalls der Einfluss der Korrelationsfenstergröße untersucht wird. Der zweite Untersuchungsansatz befasst sich mit der Korrelation der Feuchtgebiete mit deren Einzugsgebieten. Hierfür werden die aus einem Geländemodell abgeleiteten Einzugsgebiete in Zonen gleicher Fließlänge unterteilt und deren Rückstreuzeitserien mit den zugehörigen Feuchtgebieten korreliert. In diesem Zusammenhang wird weiters untersucht, ob es, aufgrund von zur Regenzeit versetzt eintreffenden Fluten, zu höheren Korrelationen durch einen zeitlichen Versatz kommen kann. Im Zuge der Untersuchungen dieser Arbeit werden in beiden Ansätzen Unterschiede zwischen salinen und nicht salinen Feuchtgebieten deutlich.
So zeigt sich eine starke Abhängigkeit des Scaling Layers saliner Feuchtgebiete von der Korrelationsfenstergröße, sowie negative Korrelationswerte der salinen Feuchtgebiete mit deren Einzugsgebieten, im Gegensatz zu den nicht salinen Feuchtgebieten.
Spezifikation von Indoor Landmarks
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Landmarks sind entscheidende Objekte für die Strukturierung des Raumes, da sie als Referenzpunkte in Orientierungs- und Navigationsaufgaben genutzt werden. Beispielsweise können im Outdoor-Bereich Kirchen, Türme, Burgen, Berge und große Bäume, welche markant und freistehend sind, als Landmarks gesehen werden. Diese Arbeit behandelt Landmarks speziell im Indoor-Bereich. Die Hauptaufgabe besteht darin herauszufinden, welche Landmarks in einem Gebäude als Orientierungshilfe verwendet werden. Hierfür und für die Beantwortung dreier aufgestellten Thesen wird ein empirischer Test erstellt und durchgeführt.
Landmarks sind entscheidende Objekte für die Strukturierung des Raumes, da sie als Referenzpunkte in Orientierungs- und Navigationsaufgaben genutzt werden. Beispielsweise können im Outdoor-Bereich Kirchen, Türme, Burgen, Berge und große Bäume, welche markant und freistehend sind, als Landmarks gesehen werden. Diese Arbeit behandelt Landmarks speziell im Indoor-Bereich. Die Hauptaufgabe besteht darin herauszufinden, welche Landmarks in einem Gebäude als Orientierungshilfe verwendet werden. Hierfür und für die Beantwortung dreier aufgestellten Thesen wird ein empirischer Test erstellt und durchgeführt.